Archive pour la Catégorie 'nouvelles technologies'

Page 56 sur 63

Protection des données : nouvelle contrainte ou opportunité avec le règlement européen RGPD ?

Protection des données : nouvelle contrainte avec le  règlement européen RGPD ?

 

 

 

C’est la question à laquelle répond dans une  interview à la Tribune, la présidente de la Commission nationale de l’informatique et des libertés Isabelle Falque-Pierrotin. On sait que l’enjeu est considérable.  Pour faire simple, il s’agit de réguler pour empêcher la mise en sous-traitance de l’économie européenne par les GAFA, le trafic de données notamment à des fins politiques  et pour protéger les consommateurs et les citoyens.

- Pourquoi considérez-vous que le RGPD est indispensable ?

ISABELLE FALQUE-PIERROTIN - Le RGPD est une grande avancée pour plusieurs raisons. Tout d’abord, il crée un marché européen de la donnée en unifiant les législations par un règlement unique. Jusqu’à présent, il fallait composer avec des textes nationaux pas forcément raccords les uns avec les autres. Deuxièmement, le RGPD remet enfin les acteurs européens et internationaux à égalité de concurrence. La disposition relative au ciblage, qui permet d’appliquer le règlement aux groupes étrangers qui traitent les données de citoyens européens, force les géants du Net américains et chinois à ne plus s’affranchir des règles de l’UE. Le troisième avantage du RGPD est qu’il renforce la capacité de dialogue de l’Europe face à ces acteurs. Google, par exemple, ne dialoguera plus séparément avec la Cnil française puis son équivalente allemande, mais avec l’autorité chef de file qui représente toutes les Cnil européennes. Enfin, le RGPD répond à la volonté de plus en plus marquée des citoyens européens de mieux maîtriser leur vie numérique. Les droits des personnes sont considérablement renforcés. Certes, la mise en conformité s’accompagne d’un investissement et d’une réorganisation interne pour les entreprises et les collectivités, mais le RGPD est une chance pour l’Europe.

Les acteurs soumis au RGPD ont eu deux ans pour s’y préparer, mais à moins de soixante-dix jours de son entrée en vigueur, le 25 mai prochain, très peu sont prêts. Comment expliquez-vous ce retard ?

Beaucoup d’entreprises n’étaient pas conformes à la directive sur la protection des données de 1995 révisée en 2004, qui a modifié la loi de 1978. Elles partent donc de très loin, il y a un effet de rattrapage. En dépit de nos efforts de communication, la culture de la protection de la donnée peine à s’installer en France. Historiquement, la gestion des données a été cantonnée aux directions juridiques des entreprises. Elle n’a jamais été investie par les directions générales ou au niveau du comex [comité exécutif, ndlr]. Une prise de conscience est nécessaire pour que l’enjeu monte dans la hiérarchie des structures et devienne stratégique. Le RGPD pousse justement à cette prise de conscience parce que les sanctions qui résultent du non-respect du règlement sont très dissuasives. Aujourd’hui, les entreprises sont vraiment au pied du mur.

L’arme des sanctions, qui peuvent atteindre 4% du chiffre d’affaires mondial, force les entreprises à enfin se préoccuper de leur gestion des données. La menace est-elle le seul moyen efficace ?

L’ampleur inédite des sanctions est une bonne arme de dissuasion. Cette crainte nous permet de faire entrer le sujet de la protection des données dans les entreprises. Mais maintenant que nous avons leur attention, notre but est surtout de pousser un autre message, celui que la conformité au RGPD n’est pas seulement une contrainte réglementaire mais peut aussi apporter un bénéfice opérationnel. Respecter la vie privée de ses clients et collaborateurs est un facteur de différenciation concurrentielle et répond à une demande sociétale forte depuis l’affaire Snowden. Dans les secteurs qui utilisent énormément les données, comme les startups du numérique, les mentalités changent. Des fonds d’investissement commencent à se dire qu’ils ne veulent pas investir dans une startup qui ne pratique pas le « privacy by design ». La conformité est aussi un outil marketing : elle rassure les consommateurs. On l’a bien vu au CES de Las Vegas, où de plus en plus de startups françaises ont mis en avant leur éthique des données. Le RGPD est une opportunité de business.

Beaucoup d’entreprises restent complètement dans le flou, notamment les PME-TPE. Comment les aider à se mettre en conformité ?

Il est vrai que les grands groupes ont les moyens de s’adapter et sont en train d’investir. Les PME en revanche sont plus démunies face à la complexité du texte. En tant que régulateur, il est de notre responsabilité de les aider. Nous avons mis en place beaucoup d’outils. D’abord, les « six étapes » du RGPD, une information de base très pédagogique sur ce qu’est le RGPD et comment s’en emparer. Nous proposons aussi des outils plus opérationnels, par exemple un tutoriel pour aider à réaliser une étude d’impact. Pour les PME et les ETI tous secteurs confondus, nous travaillons avec Bpifrance à la réalisation d’un kit pratique qui sera disponible d’ici à la fin du mois de mars. Nous menons aussi une réflexion plus macro qui consiste à réutiliser les packs de conformité que nous avons développés ces dernières années. Le but est de créer un référentiel sectoriel qui permettrait d’éviter quelques démarches aux entreprises qui y adhèrent. Ainsi, les entreprises sauront exactement ce que le régulateur attend en termes de conformité dans leur secteur, en fonction des usages.

Les « guidelines », les guides de bonnes pratiques publiés par le G29 [l'organisme qui fédère les Cnil européennes, présidé par Isabelle Falque-Pierrotin jusqu'en février 2018] pour aider les entreprises à interpréter le texte, ne sont pas toutes sorties. De fait, beaucoup de sociétés se plaignent de ne pas pouvoir se mettre en conformité car elles n’ont pas les outils nécessaires…

Je rappelle que le G29 n’avait aucune obligation de sortir des guidelines. Normalement, un règlement est applicable dès qu’il est voté. Or, l’UE a laissé un délai de deux ans. Nous avons pris l’initiative de rédiger des guidelines sur les sujets clés car nous craignions que la complexité du texte amène à des interprétations différentes de la part des autorités nationales. Ces guidelines ont été élaborées en coconstruction avec les fédérations professionnelles. Leur but est d’être souples, utiles, et de coller aux usages du terrain. Elles arrivent tard car elles ont demandé un travail monstrueux de dialogue avec les acteurs. Les entreprises peuvent déjà se féliciter de les avoir.

Allez-vous commencer votre travail de contrôle et de sanction dès le 25 mai, tout en sachant que la plupart des entreprises ne sont pas en situation de conformité ?

Le RGPD ne part pas d’une feuille blanche. Un certain nombre de principes liés à la gouvernance des données existaient déjà, comme la finalité du traitement des données par exemple. Nous les contrôlerons donc comme avant, car les entreprises sont déjà censées les avoir intégrés. La méthode sera la même : soit nous réagirons à des plaintes – nous en recevons 8.000 par an -, soit nous diligenterons nous-mêmes des contrôles, qui peuvent déboucher sur des sanctions.
En revanche, nous souhaitons faire preuve de pragmatisme et de bienveillance pour les principes nouveaux du règlement, comme le droit à la portabilité ou l’obligation de mettre en place un registre, car il faut laisser aux entreprises le temps de se les approprier. Le but d’un régulateur n’est pas d’afficher un tableau de chasse de sanctions. Dans un premier temps, nous privilégierons l’accompagnement et l’explication.

Aurez-vous une tolérance plus forte envers les PME qu’envers les grands groupes et les géants du Net, par exemple ?

Nous raisonnons au cas par cas. Une PME suscite bien sûr une certaine réserve, mais cela ne veut pas dire qu’on laissera passer n’importe quoi. Imaginez une PME dans l’économie des données de santé qui laisse passer une faille de sécurité considérable. Dans un tel cas, nous serions forcés de réagir vite. Il ne faut pas tomber dans des automatismes.

Le RGPD oblige les structures qui utilisent des données à grande échelle à recruter un Data Protection Officer (DPO). Mais il n’y a pas assez de DPO… Comment faire ?

J’entends cette difficulté, mais je crois aussi que les DPO vont « se faire » sur le terrain. Ce nouveau métier, central, nécessite des compétences transversales. Des formations se mettent en place dans tous les pays européens. Mais les entreprises peuvent aussi faire évoluer un profil existant. Le DPO peut être un juriste, un technicien, un CIL (correspondant informatique et libertés)… Son positionnement doit à la fois être proche des métiers et branché sur la chaîne de décision pour qu’il ne soit pas un personnage de paille et que ses recommandations soient suivies.

Avec le RGPD, le marché de la conformité explose. Vous avez d’ailleurs mis en garde contre la multiplication des arnaques…

Ce marché n’est pas nouveau mais il prend de l’ampleur. De nouveaux outils et programmes de conformité émergent à partir des règlements européens. À certains égards, je m’en réjouis car il n’y avait pas suffisamment d’acteurs investis dans l’opérationnalisation des principes européens. Cette activité peut être complémentaire de celle des régulateurs. Depuis quatre ans, nous émettons des labels qui prennent la forme de référentiels en fonction des secteurs. À présent, nous voulons progressivement passer des labels à une véritable certification, en s’appuyant sur des certificateurs privés. Cela permettra de mieux encadrer ce marché et de réduire les arnaques. Il est vrai que certains pratiquent un grossier marketing de la peur en accentuant les difficultés du RGPD pour vendre des prestations parfois inutiles à un prix exorbitant. Face à cela, nous rappelons que tout n’est pas nouveau : si vous êtes en conformité avec les réglementations précédentes, le RGPD ne nécessite qu’un travail de toilettage. Les entreprises doivent rester vigilantes, vérifier la crédibilité de leur interlocuteur et utiliser nos outils sur notre site pour identifier leurs besoins de conformité.

Vous insistez sur les nouveaux droits que le RGPD offre aux citoyens pour mieux contrôler leur vie numérique. Mais les usages révèlent une attitude paradoxale : d’un côté les citoyens se méfient des acteurs qui « aspirent » leurs données de manière non transparente, de l’autre ils continuent d’utiliser en masse ces services…

Le « privacy paradox » est une réalité mais je crois que le RGPD arrive à point nommé pour appuyer un changement de culture vis-à-vis des données personnelles. Il y a de plus en plus de bloqueurs de publicité. De plus en plus de profils Facebook ferment, ce qui n’était pas le cas il y a quelques années. On sent bien que les services qui se présentent comme plus respectueux des données recueillent de plus en plus d’intérêt. Il est vrai que beaucoup de droits existants, comme le droit d’accès ou le droit de rectification, sont peu utilisés, en grande partie car ils restent peu connus. Mais le droit à l’oubli sur les moteurs de recherche est un vrai succès en France et en Europe. Je suis également persuadée que le nouveau droit à la portabilité des données, ainsi que la possibilité de recours collectifs face aux acteurs qui ne respectent pas leurs obligations, vont être plébiscités. Le RGPD va accélérer cette prise de conscience, qui est pour l’heure marginale. C’est un vrai choix politique de la part de l’Union européenne.

Dans quel sens ?

Avec le RGPD, nous affirmons une certaine vision de l’innovation. Contrairement à ce qui peut être dit, le règlement ne freinera pas l’innovation, bien au contraire. Commercialement et stratégiquement, l’idée de l’Europe est de bâtir une innovation robuste parce qu’elle est construite sur le respect des droits, qui sont pris en compte en amont. Bien sûr, il y aura toujours des paradis de la donnée. Mais est-ce le modèle que l’Europe veut construire ? Non. Le RGPD incarne un modèle d’innovation durable.

Intelligence artificielle : enjeux et perspectives (Charles-Édouard Bouée)

 

Charles-Édouard Bouée, le président du cabinet de conseil Roland Berger, explique les défis qui nous attendent avec l’arrivée de l’intelligence artificielle dans une interview à la Tribune

 

Sommes-nous en train de vivre un tournant avec l’arrivée de l’intelligence artificielle dans nos vies ?

 

CHARLES-ÉDOUARD BOUÉE - À l’évidence, oui ! Tous les indices que nous observons depuis deux ans le montrent. Nous entrons dans l’âge des machines intelligentes. En 2016, il y a eu des prises de position très claires de personnages emblématiques des nouvelles technologies – Elon Musk, Bill Gates, etc. – et des victoires hautement symboliques de l’IA contre les champions du monde du jeu de go, de poker ou du jeu Civilisation, qui est un jeu de stratégie encore plus complexe. On a aussi vu émerger de nouveaux acteurs de l’IA, comme Nvidia qui a doublé de valeur boursière en un an. Le vrai point d’inflexion a eu lieu il y a dix ans, en 2005-2006. C’est là que les premières puces Nvidia et les premières applications de machine learning sont apparues. Mais le mot intelligence artificielle n’est entré dans le vocabulaire des entreprises que depuis 2016. La France s’en est rendu compte avec retard mais a lancé en janvier dernier France IA, une initiative intéressante dotée d’une enveloppe de 1,5 milliard d’euros sur dix ans, et qu’il faut désormais développer. Tous les grands pays en ont fait une priorité : dès 2016 aux États-Unis, un rapport très complet sur les enjeux de l’IA a été remis à Barack Obama. Les Chinois aussi en ont fait leur nouvel objectif national prioritaire. Les entreprises en parlent, les États s’en préoccupent et le sujet commence aussi à intéresser le grand public, à voir les nombreuses unes de la presse qui y sont consacrées.

Il y a donc une accélération ces deux dernières années…

L’intelligence artificielle coïncide avec la prise de conscience de l’impact des technologies nouvelles sur le travail, et sans être au coeur des enjeux des élections dans les différents pays, elle percute le débat politique parce qu’elle aura des conséquences pour l’économie et l’emploi. En mai 2014, Roland Berger avait fait une étude remarquée selon laquelle la robotisation pourrait menacer 42 % des emplois. C’était très prospectif. Les débats restaient très académiques. C’est aujourd’hui devenu un sujet de l’actualité. Tout le monde en parle. Il y a une accélération du temps. Pas seulement celui des technologies mais de tout. Hartmut Rosa, le philosophe allemand, a raison : le temps s’accélère.

Quels scénarios envisager pour l’arrivée de l’IA dans nos vies ?

Elle est déjà présente mais cela reste peu visible. Dans mon livre, j’essaie de décrire ce qui va se passer à un double horizon de dix ans et de vingt ans. 2026-2036, c’est à la fois loin et très proche. Cela va être selon moi un tsunami, en deux vagues. La première, sur la période 2016-2026, va être marquée par le basculement dans l’intelligence artificielle portative, intégrée dans les téléphones mobiles et également dans tous les autres équipements que nous utilisons. L’intelligence artificielle portative pour tous, cela veut dire que notre vie va changer encore davantage dans les dix prochaines années que dans les dix précédentes. L’IA portative va nous faire gagner du temps, en réalisant à notre place tout une série de tâches simultanément et rapidement. L’homme augmenté avec son smartphone intelligent sera capable de gérer plusieurs dimensions en parallèle : notre intelligence artificielle portative pourra en même temps faire nos courses sur plusieurs sites Internet et nous faire livrer à domicile au meilleur prix les meilleurs produits, réserver nos vacances, comparer les prix des abonnements de téléphone tout en vérifiant que nos données personnelles ne sont pas utilisées par des tiers sans notre accord – car notre IA portative effectuera elle-même les recherches et les achats, disruptant ainsi des secteurs entiers comme la grande distribution ou la publicité. Elle se connectera aussi avec l’IA portative de nos voisins, par exemple pour acheter de l’électricité au distributeur local. Notre vie quotidienne et toutes les industries vont être radicalement transformées.

Il y a un gros débat sur la productivité à l’heure du numérique, car on ne la voit pas dans les statistiques. Cette IA portative va tout changer ?

Oui, et elle va faire disparaître la fracture numérique, le fameux digital divide, à part pour ceux qui ne sauront pas se servir d’un smartphone… C’est comme l’énergie. On est tous égaux devant l’électricité. L’IA portative entraînera aussi un rééquilibrage du rapport de force entre les entreprises et les particuliers. Aujourd’hui, l’entreprise, même traditionnelle, a le pouvoir sur nos données et sur la technologie. Demain, avec l’IA portative, l’écart va se combler car tout le monde aura accès à cette puissance informatique. Avec la montée des cadres nomades et des freelancers, les rapports de force sociaux et le monde du travail pourraient évoluer sensiblement : nous tous, salariés comme consommateurs, serons « augmentés » et pourrons postuler aux nouveaux emplois, nous procurer les nouveaux produits et services avec l’appui de notre IA personnelle.

Qui seront les acteurs de cette intelligence artificielle portative ?

Selon moi, les leaders de cette nouvelle révolution ne seront pas les Gafa. Ni Google ni Apple ni Facebook ni Amazon, ni même les Chinois des Bat (Baidu, Alibaba et Tencent). Il y aura un rééquilibrage entre les grands acteurs de l’Internet, les entreprises et les individus. La question de la sécurité des données, des data, sera cruciale. On crée tous les deux ans autant de données que celles qui ont été produites avant par l’humanité. C’est vertigineux. Celui qui pourra avoir accès à des données « fraîches » sera très rapidement au même niveau que celui qui l’a précédé. Avec une IA portative, personne ne voudra avoir affaire à un commerçant qui dispose de son historique de données. Tout nouvel acteur capable de garantir cette protection des données aura donc une prime sur les autres. Ce pourra être un spin off des Gafa, ou bien un nouvel acteur encore inconnu. Les données n’auront plus la même valeur économique. Les futurs nouveaux algorithmes seront probablement moins consommateurs de données car l’IA sera de plus en plus élaborée. Aujourd’hui le machine learning [apprentissage automatique ou apprentissage statistique, Ndlr] a besoin d’une masse considérable de data et de capacité de calcul. Demain, nous passerons au machine reasoning avec une IA interprétative ayant une plus forte capacité de raisonnement. La dernière preuve empirique que les Gafa ne seront pas forcément les gagnants de la bataille de l’IA, c’est l’observation du passé. Il y a eu trois vagues technologiques depuis les années 1990 : la vague de l’ordinateur portable avec Microsoft et IBM ; la vague d’Internet avec les grands opérateurs fournisseurs d’accès à Internet, comme AOL (America Online). Et enfin, on a eu la vague des Gafa avec Apple, Google, Facebook et Amazon.

En dix ans, les Gafa ont atteint en Bourse l’équivalent du PIB de la France… Comment imaginer leur disparition ?

Ces entreprises ne vont pas disparaître mais elles peuvent connaître le même sort que celui des opérateurs télécoms. Dans dix ans, il y aura des sociétés qui auront une capitalisation boursière de plus de 1 000 milliards de dollars mais selon moi, ce ne seront pas les Gafa. Les nouveaux acteurs dominants seront ceux qui fourniront l’IA portative en protégeant les données personnelles. L’histoire a montré qu’à chaque transition, les consommateurs ont cherché un nouveau produit et une nouvelle marque. Google au début était un service neutre qui n’essayait pas de nous vendre quelque chose. Le moteur de recherche s’est imposé et est ensuite devenu un service marchand. Il y a donc beaucoup de présomptions que les dernières années ne sont pas une garantie pour le futur. On peut imaginer que la prochaine disruption technologique, qui est la plus grosse, se fera avec de nouveaux acteurs.

Cela veut dire que tout le monde repart du même point. Mais les Gafa sont tellement riches qu’ils pourraient aspirer tous les cerveaux. N’a-t-on pas atteint un point de non-retour ?

Ce n’est pas qu’une question de puissance et d’argent mais d’algorithmes et de créativité pour engendrer de nouveaux business. Ceux qui ont fait fortune, ce ne sont pas les créateurs d’Internet, mais ceux qui ont suivi, qui ont su créer les services, fait un comparateur, un site de vente en ligne ou de voyage ou de rencontres… Au début des années 1990, les étudiants d’Harvard allaient chez Microsoft qui attirait tous les talents et pourtant ce sont d’autres qui ont gagné la bataille de l’Internet. Donc rien ne garantit que les Gafa seront les gagnants pour l’éternité. En dix ans, un nouvel entrant avec peu de capitaux mais les bons cerveaux peut prendre leur place.

Donc, c’est la révolution des cerveaux… humains ?

Oui, heureusement… mais cela sera différent dans les dix années qui suivent. Dans la séquence 2026-2036, les progrès de l’IA seront encore plus spectaculaires : machine learning, machine reasoning, la machine qui apprend, celle qui raisonne ; puis viendront les algorithmes génétiques qui se corrigent et se transforment, c’est-à-dire une machine capable d’évoluer génétiquement, comme un cerveau humain.

On va donc vers l’IA forte ?

Progressivement, de plus en plus d’applications utiliseront l’IA portative. Ma thèse est qu’à un moment donné, de manière aléatoire, une machine va s’éveiller. Dans le livre, je date cet événement, qui correspond au fameux point de singularité, au 15 août 2038. Cela peut arriver n’importe où, n’importe quand. Ce sera un « accident ». Ce n’est pas nécessairement celui qui cherche qui trouvera. Dans la thèse du livre, c’est une mise à jour de routine de l’IA qui déclenche son éveil.

Oui, et cela pose dès lors toute une série de questions philosophiques. Comment se comporte l’IA devenue consciente ?

Il y a deux écoles. Ceux qui pensent que la machine aura tous les caractéristiques humaines. Les bonnes et les mauvaises… Elle sera cupide, voudra du pouvoir et asservir les autres. Et il y a ceux, les plus nombreux, qui pensent que la machine raisonnera par rapport à son propre empire. Elle voudra sécuriser son accès à l’énergie, la stocker et survivre. Elle va donc s’assurer que l’environnement climatique et énergétique est sécurisé. C’est tout ce dont elle a besoin. Elle cherchera à éviter les guerres et tout ce qui pourrait perturber ses infrastructures.

Elle va gouverner la planète Terre… Ce sera « la chute de l’empire humain » ?

Elle va s’assurer de sa survie sur Terre. La machine ne raisonnera pas selon les critères humains, mais en fonction de ses besoins propres. La chute de l’empire humain à l’ère de l’intelligence artificielle forte, ce sera du Gengis Khan ludique et indolore. Comme le décrit Elon Musk, l’homme vivra dans un énorme jeu vidéo, une sorte de Matrix – car pour la machine ce sera le meilleur endroit où mettre les humains.

Les gens en auront-ils conscience ?

Non. Pour l’instant les gens sont sur la plage : ils contemplent les vaguelettes et ne voient pas l’énorme tsunami qui arrive.

Pourtant on voit poindre un début de révolte contre les technologies…

Empiriquement, on sait qu’on ne peut pas arrêter les technologies. Même le nucléaire ne l’a pas été. La question est de savoir dans quel monde nous voulons vivre et comment nous souhaitons contrôler la technologie, ou pas. Mais le vrai problème est que nous n’avons pas conscience de la situation. Si l’être humain savait avec certitude qu’une machine prend le contrôle, alors il se battrait pour sa souveraineté. Mais la probabilité que nous ne soyons pas dans une immense simulation est d’une sur un milliard, a dit Elon Musk. Sa thèse est que la chute de l’empire humain, nous ne la verrons pas. Il se pourrait que nous y soyons déjà.

Sans aller aussi loin dans la prospective, l’intelligence artificielle est aussi une énorme opportunité de business ?

Je ne suis pas d’accord avec ceux qui pensent qu’on est coincé dans un monde de raréfaction du travail et où le revenu universel va s’imposer. Il nous reste dix ans devant nous pendant lesquels nous pouvons encore gagner la bataille. On est à l’aube d’un âge d’or si on sait s’adapter.

Pourtant le patron de Microsoft dit, comme certains hommes et femmes politiques, qu’il faudra taxer les robots pour financer un revenu universel…

Nous avons encore dix ans devant nous pendant lesquels nous pouvons gagner. Le revenu universel, c’est beaucoup trop tôt pour l’envisager. C’est reconnaître qu’on va perdre la bataille de l’IA. C’est exactement l’inverse de ce qu’il faut faire. Nos hommes et femmes politiques sont loin d’être les seuls à tenir ce discours, il y a aussi des représentants de la Silicon Valley qui en parlent. Mais la différence est que ceux-ci sont persuadés qu’ils vont gagner la bataille de l’IA. Le revenu universel, c’est pour expliquer aux gens qu’il faut qu’ils se préparent à être d’éternels perdants, qu’ils ne pourront qu’être pauvres, et subventionnés pour ne pas travailler. Au contraire, les syndicalistes devraient s’emparer de l’IA pour réclamer un effort massif d’éducation et de formation, et permettre aux étudiants et aux travailleurs français d’être les meilleurs. Aujourd’hui, il faut regrouper nos forces : travailler avec les Allemands ainsi qu’avec les autres pays européens, et faire effet de levier face aux Américains qui sont actuellement un peu affaiblis en raison de leurs clivages internes.

Et les entreprises, que font-elles pour se préparer ?

La prise de conscience a commencé. Depuis deux ans, les entreprises se sont lancées à marche forcée dans la transformation digitale. Elles sont en train de comprendre que ce n’est qu’une promenade de santé au regard de la montagne à gravir. Mais je leur dis que c’est une opportunité incroyable pour une entreprise de la vieille économie, car cela rebat toutes les cartes. En ayant une stratégie IA, elles peuvent rattraper leur retard. Aujourd’hui, tous nos clients se sentent menacés par les Gafa. Leur dire que même les Gafa peuvent disparaître avec l’arrivée en dix ans de nouveaux acteurs, c’est de nature à leur redonner l’espoir.

L’Europe a sa chance dans cette nouvelle bataille ?

Oui, parce qu’on a les mathématiciens, les ingénieurs, les cerveaux. Et on n’a pas les Gafa. Pourquoi les Gafa ont-ils gagné contre les opérateurs télécoms ? Parce que les opérateurs étaient persuadés qu’ils avaient la maîtrise du débit et du client. Les fournisseurs d’accès Internet ont cru qu’ils allaient gagner parce qu’ils avaient les abonnés. Mais lorsque les Gafa ont débarqué avec des applications qui ont été d’emblée adoptées par les clients, c’était fini pour eux. Ils sont passés de très riches à très pauvres. C’est une des raisons pour lesquelles l’Europe a raté le virage. Les opérateurs télécoms européens étaient les maîtres du monde et ils ont été vaincus : Vodafone, Deutsche Telekom, France Telecom avaient une stratégie d’expansion mondiale. C’étaient des cash machines qui émettaient de la monnaie papier car ils contrôlaient les consommateurs en les équipant de portables. Et les Gafa les ont remplacés en dix ans. C’est la preuve empirique que tout reste possible. On n’est pas assez stratèges en Europe. Les Chinois ont gagné la bataille suivante parce qu’ils sont partis de zéro. Il faut sortir de notre complexe d’infériorité vis-à-vis de la Silicon Valley. La bonne nouvelle, c’est que les grands groupes européens, dans l’automobile, l’industrie, les cosmétiques, n’ont pas peur des Gafa. L’IA est une opportunité pour eux. Ensuite, c’est aux gouvernements nationaux et à l’Europe de fournir les moyens de cette transformation. L’Europe doit lancer une plateforme IA en open source. Si l’Europe, qui a créé le GSM, sait définir les normes de l’intelligence artificielle portative, elle deviendra la référence, au moins pour l’Europe continentale.

Ceux qui auront donné le tempo sur les normes auront un avantage compétitif fort.

Aujourd’hui le problème de l’IA, c’est qu’elle n’est pas portable. C’est la forêt, ça foisonne, on est avant que Microsoft n’impose son système d’exploitation pour tous les ordinateurs. Celui qui saura développer l’OS de l’IA va emporter la mise.

Une stratégie IA pour une entreprise, c’est quoi ?

C’est très différent d’une stratégie classique où l’on regarde la concurrence, le marché, les produits, les clients, etc. La première étape est de visualiser le futur, un futur assez lointain, au moins 2030. Dans ce futur, il faut analyser tout ce qui dans son activité peut être impacté par l’IA. Ensuite, il faut développer une stratégie de conquête. Il faut apprendre à se projeter dans le futur : qu’est que ce qu’on va fournir au consommateur de 2036, qui aura accès à l’IA comme celui de 2017 a accès à l’Internet haut débit ? La seconde étape est d’analyser ses actifs, et déterminer ceux qui sont utiles et ceux qui ne le sont pas.

C’est simple à dire, pas à réaliser…

C’est beaucoup plus simple quand on a pris conscience des conséquences de l’arrivée de l’IA. C’est écrire avec le comex les futurs possibles et voir comment on peut les préempter et prendre de l’avance. C’est pour cela que les groupes traditionnels ont encore leur chance. Ils ont un avantage beaucoup plus grand qu’ils ne le pensent…

 

La France leader de l’intelligence artificielle ?

La France  leader de l’intelligence artificielle ?

 

C’est le souhait de Macron qui voudrait que la France joue dans la cour des grands. La course à l’IA est evidemmenet lancée. Elle s’appuiera notamment sur le caractère exponentiel de l’évolution des données qui tous les deux ans dépasse le volume de tout ce qui a été produit depuis l’origine de l’humanité. Un véritable or noir qui pourrait permettre à certains de dominer tant sur le plan économique que sociétal et politique. De ce point de vue la régulation du trafic de données qui rendent compte de la vie des individus en tout temps et en tout lieu revêt une importance capitale pour échapper à la domination des quelques oligopoles. Il faudra cependant aussi créer notamment des services de qualité garantissant ainsi la protection des idivudus.et f favoriser l’émergence de leaders internationaux d’origine française ou européenne. Au lieu de se résoudre à seulement fournir des ingénieurs de haut niveau aux GAFA ou de mettre en mettre nos Startups  en sous-traitance de ces leaders comme actuellement. Le chef de l’Etat va recevoir à dîner mercredi soir des chercheurs internationaux en la matière avant de se voir remettre jeudi le rapport du mathématicien et député La République en marche Cédric Villani et de prononcer un discours au Collège de France pour dévoiler sa stratégie. « J’annoncerai jeudi des mesures permettant à la France de conforter sa place comme l’un des leaders de l’intelligence artificielle dans le monde », a dit le chef de l’Etat lundi soir lors d’un discours aux industriels français. Selon l’Elysée, la mobilisation de fonds publics, notamment issus du fonds pour l’innovation dans l’industrie (F2i), du programme d’investissements d’avenir (PIA) et de crédits budgétaires, devrait être annoncée. « La France a raté toutes les dernières révolutions technologiques, la robotisation, internet, on n’a pas de géants en la matière », dit-on dans l’entourage du chef de l’Etat. « Là il y a vraiment la volonté de faire partie du jeu mondial » avec l’intelligence artificielle et la France « a la capacité de jouer dans la cour mondiale dans certains secteurs ». Pour Macron cette percée de la France dans l’IA est incontournable à moins de prendre le risque d’une  perte de souveraineté.

Cambridge Analytica – Facebook : un avant goût du trafic de données

 

 

L’or noir n’est plus le pétrole depuis longtemps il est progressivement remplacé par la numérisation et le trafic de données. Aujourd’hui déjà, l’utilisation intensive d’internet et de se services permet déjà de déterminer le profil économique, social et sociétal de chaque internaute  Demain avec la multitude des applications de l’IA, on pourra en tout temps et en tout lieu identifier les comportements, les goûts et les opinions de chacun. Une immense base de données pourra être constituée, celle qui permettra de dominer l’économie mais aussi d’orienter la société. De ce point de vue, la riposte de l’Europe avec le règlement de protections des données apparaît bien insuffisante et surtout essentiellement défensive. Le scandale Cambridge Analytica : de  Facebook constitue un avant goût des dérives du trafic de données.   Des millions de données personnelles sont en effet  remises à Cambridge Analytica cabinet qui travaillait pour Trump. La preuve supplémentaire que ce réseau est à la fois le plus idiots des réseaux dits sociaux (même s’il existe de très rares cas d’utilisation intelligente de Facebook), aussi le plus pourri puisqu’il est aussi un champ d’analyse pour l’espionnage américain  Selon le journal le  Guardian et le  Washington Post , le renseignement américain récolte les relevés téléphoniques aux États-Unis et aurait accès aux serveurs de groupes informatiques comme  Google et Facebook, des pratiques héritées de l’ère Bush et approuvées par l’administration de Barack Obama. Le quotidien britannique The Guardian a publié une ordonnance de justice secrète forçant l’opérateur américain Verizon à livrer à l’Agence nationale de sécurité (NSA), à la demande du FBI, la totalité des données téléphoniques de ses abonnés, d’avril à juillet, en vertu d’une loi votée dans la foulée des attentats du 11 septembre 2001, le « Patriot Act ». Le Washington Post et le Guardian ont affirmé sur la base de fuites d’un ancien employé du renseignement que la NSA avait un accès direct aux serveurs de neuf sociétés internet, dont Facebook, Microsoft, Apple et Google. Grâce à un partenariat conclu avec ces compagnies, l’agence d’espionnage pourrait directement et sans ordonnance de justice lire les courriers électroniques et écouter les conversations des utilisateurs, tant qu’il existe une probabilité « raisonnable » que l’un des interlocuteurs se situe à l’étranger, la loi américaine exigeant une ordonnance dans le cas d’Américains. . Facebook, le plus grand réseau social au monde, a admis que les données personnelles de ses utilisateurs s’étaient retrouvées entre les mains du cabinet d’analyse, Cambridge Analytica. Ce dernier, travaillant pour la campagne électorale de Donald Trump en 2016, aurait ainsi collecté des informations sur 50 millions d’utilisateurs Facebook, sans leur consentement direct. La polémique a été révélée ce week-end par le New York Times et The Observer. L’affaire est gênante à plusieurs niveaux. Premièrement, elle touche le cœur même de l’activité de Facebook : la collecte de données – et l’usage potentiellement détourné qui peut en être fait. « On est en train d’ouvrir le couvercle de la boîte noire des pratiques de Facebook en matière de données, et le tableau n’est pas joli à voir », souligne auprès de ReutersFrank Pasquale, professeur de droit à l’Université du Maryland et spécialiste de l’utilisation des données par les géants d’Internet.  Aux États-Unis, plusieurs sénateurs souhaitent entendre les justifications devant le Congrès de Mark Zuckerberg, président et co-fondateur de Facebook. « C’est une brèche énorme sur laquelle il convient d’enquêter. Il est clair que ces plates-formes ne savent pas s’autodiscipliner », a twitté la sénatrice démocrate Amy Klobuchar. Même son de cloche en Europe. Le président du Parlement européen, Antonio Tajani, dénonçait lundi une « une violation inacceptable du droit à la vie privée de nos citoyens ». La commissaire européenne à la Justice, Vera Jourova, prévoit quant à elle d’aborder le sujet avec le réseau social et des responsables du gouvernement américain lors de sa vite aux États-Unis, cette semaine. Sur Internet, une campagne #DeleteFacebook (en français, supprime Facebook) a été lancée.

Voiture autonome : l’utopie

Voiture autonome : l’utopie

 

Après l’accident mortel aux Etats unis( piéton percuté sur un passage clouté) , on peut se demander si le concept n’est as une utopie car il pose d’énormes problèmes de sécurité et de responsabilité. Fortement bousculé par l’affaire des émissions polluantes,  le secteur automobile tente de réagir en soulignant le caractère de modernité de l’automobile future. L’objectif est évidemment de peser pour que l’automobile ne soit pas exclue un jour de la ville. On affirme ainsi que l’automobile sera autonome, électrique et connectée. Le patron de Valeo dans une interview au JDD affirmait que cette voiture autonome et même déjà la. Il est évident que la voiture électrique va se substituer au moteur à combustion et que d’ici une dizaine d’années 80 % des véhicules neufs seront électriques. La connexion, qui existe déjà, va continuer de s’amplifier. Reste la question de l’autonomie et du partage. Contrairement à ce qu’affirme le patron de Valeo l’autonomie totale n’est pas pour demain. Pour des raisons de sécurité elle nécessite notamment des les infrastructures spécifiques finalement un peu comme le métro ou le train. Pour l’instant les navettes mobiles qui existent fonctionnent sur le mode ferroviaire. Les autres qui circulent sur les voies normales présentent un énorme risque.  Reste aussi la question fondamentale de l’automobile partagée qui constitue aussi un enjeu central pour l’industrie automobile. Sachant qu’un véhicule classique passe plus de 95 % de son temps à l’arrêt, il est évident que des formules de mutualisation sous différentes formes seront mises en place. Mais cette mutualisation aura un impact considérable sur le nombre de véhicules fabriqués. Ceci étant  l’interview de Jacques Aschenbroich, président de Valeo  au JDD  mérite d’être lue.

 

À quand la première voiture autonome commercialisée?
La première voiture autonome est déjà là. Nous avons pris une participation de 5% dans une start-up qui s’appelle Navya, dont les véhicules électriques et autonomes, des navettes, circulent à Sion en Suisse, à Confluence à Lyon, à La Défense, dans le Michigan ou à Singapour. En revanche, il faudra attendre encore un peu de temps pour que vous et moi puissions acheter une voiture totalement autonome.

 

Ce sera dans cinq, dix ou vingt ans?
Des voitures partiellement autonomes, ce sera dans quelques années. Vous pourrez déléguer leur conduite à certains moments et dans certaines conditions. Une voiture dans laquelle vous n’aurez ni volant ni pédales, cela va prendre plus de temps. Entre cinq et dix ans sans doute.

 

Laisser un véhicule se garer tout seul dans un parking, est-ce déjà possible?
Il y a déjà un modèle de la classe E de Daimler que vous pouvez envoyer se garer tout seul avec votre smartphone. Nous avons développé ce système avec le constructeur allemand. Valeo et Cisco ont développé une technologie qui permet aux voitures de se garer seules dans un parking. Beaucoup de parkings dans le monde sont intéressés par cette nouvelle technologie, mais cela prendra encore quelque temps avant que l’on passe à la phase commerciale.

 

L’automobile autonome sera-t-elle aussi partagée?
Le sujet de la propriété de la voiture versus la voiture considérée comme un service est un changement sociologique profond. Quand vous ou moi possédons un véhicule, il est utilisé 4 à 5% de son temps. Sinon, il dort dans un garage. Partager l’usage de la voiture, c’est ce que l’on fait avec un taxi ou avec les nouveaux services qui sont apparus comme Uber ou Blablacar. La plus grande innovation d’Uber est que le prix dépend du nombre de personnes ou de la demande. Une innovation absolument fabuleuse qui est rendue possible par des systèmes digitaux.

 

 Est-ce qu’un jour, dans les grandes villes, vous cesserez d’avoir votre automobile comme vous avez cessé d’avoir votre vélo pour utiliser un Vélib’?

Personne ne connaît la réponse à cette question. Le frein est que l’on part tous au travail ou en vacances en même temps.

 

La technologie de l’automobile autonome doit-elle encore progresser?
Les bases sont là mais les logiciels qu’il faut embarquer dans la voiture sont d’une très grande complexité. Il faut encore beaucoup travailler. Nous sommes numéro un mondial pour les caméras, les capteurs ultrason, les radars ou les lidars avec tous les logiciels qui permettent d’interpréter les données. Mais il faut encore redoubler d’efforts pour qu’une voiture soit autonome en toutes circonstances. Un exemple de problème à régler : ces capteurs doivent être utilisables tout le temps. Pour que l’automobile ne soit jamais aveugle, il faut les nettoyer, et cela coûte cher.

 

La voiture autonome a fait entrer les Gafa sur le marché de l’automobile. Vont-ils le changer comme Amazon bouscule la distribution?
L’histoire n’est pas écrite. Pour l’instant, les constructeurs et les géants du digital travaillent souvent ensemble. Mais l’important sera de savoir où se trouvera la valeur. Concevoir et construire une voiture, ce n’est pas si facile que ça. Ces deux mondes se développent en essayant d’entrer dans la mobilité digitale avec leurs armes respectives : le combat est ouvert.

Si les véhicules deviennent propres, tout ira bien?
Oui, la voiture électrique sera un des éléments essentiels de la mobilité urbaine en complément des transports en commun.

 

Comment jugez-vous les politiques lorsqu’ils rendent la circulation plus difficile à Paris?
Joker! Ce n’est pas en fossilisant l’espace urbain que vous assurez son développement économique.

Câble: Non au très haut débit en ville et au petit débit pour les champs (Sénat)

Câble: Non au très haut débit en ville et au petit débit pour les champs (Sénat)

Les sénateurs ont mis  du temps à comprendre les enjeux du câble qui visent surtout à équiper les zones urbaines et les centres villes. En cause,  le coût pharamineux et les dérives financière.  Autour de 150 millions par département mais déjà le double prévu et sans doute 500  millions pour raccorder y compris les zones éloignées. Du coup come l’avait déjà laissé entendre <Macron, le très haut débit pourrait être réservé à la ville et aux centres et le petit débit aux zones rurales isolées qui devront se contenter de la technologie 4G ou 4G ou de l’ADSL actuel. Les sénateurs ont donc adopté très largement mardi en première lecture une proposition de loi LR destinée à sécuriser les investissements dans les réseaux de communication à très haut débit afin d’accélérer le déploiement de la fibre optique. Ce texte pour être définitif devra être adopté dans les mêmes termes à l’Assemblée nationale. « L’objectif est d’accélérer le déploiement de la fibre optique sur tout le territoire », a plaidé son auteur Patrick Chaize  (LR), soulignant que « l’accès de tous au très haut débit est une condition de la cohésion nationale et de la mobilité sociale »« On ne peut accepter la fibre pour les villes et des technologies dégradées pour les champs », a-t-il lancé. La première partie du texte formalise la répartition et le calendrier du déploiement et renforce les pouvoirs de contrôle de l’Autorité de régulation des communications électroniques et des postes (Arcep). La seconde partie incite aux investissements dans la fibre en prévoyant l’extinction progressive du cuivre et son remplacement par la fibre. Par la voix de Julien Denormandie, secrétaire d’Etat à la cohésion des territoires, le gouvernement a émis des « réserves «sur « l’opportunité d’adopter cette proposition de loi, même s’il soutient sans équivoque ses objectifs »« Son calendrier est inadapté: attendons l’achèvement de la discussion sur le code des télécommunications », a-t-il dit.

Technologie 5G : une révolution à partir de 2020 en Europe (Mariya Gabriel)

Technologie 5G : une révolution à partir de 2020 en Europe (Mariya Gabriel)

Mariya Gabriel, Commissaire européenne chargée de l’Economie et de la Société numériques explique que la technologie 5G va constituer une révolution en Europe pour économie et la vie quotidienne. (Article de la Tribune)

 

« L’Europe vient de franchir une étape cruciale pour façonner une société et une économie digitales qui soient au service des citoyens. Elle vient en effet de trouver un accord politique sur des règles communes pour qu’une technologie essentielle pour l’innovation, la 5G, puisse se développer à partir de 2020. En matière de connectivité aussi, « Europe is back ». La négociation, lancée par le Président Juncker dans le cadre du marché unique du numérique, avait déjà connu un nouvel élan avec la proposition que nous avions faite en octobre dernier d’une « roadmap  du spectre», une feuille de route concrète pour que les entreprises disposent de radiofréquences en quantité suffisante et puissent se préparer au déploiement de la 5G dès 2020. Cette négociation a été longue, difficile, souvent technique et controversée, mais le résultat acquis en vaut la peine. Ce sera un pan important de l’héritage de la Commission Juncker pour assurer que le marché unique du numérique se traduise par des bénéfices concrets pour les citoyens. Revenons sur les enjeux concrets de cette négociation. Partager ses données de santé avec son médecin en étant en voyage, effectuer une opération chirurgicale à distance et bénéficier de médicaments personnalisés, mieux gérer le trafic routier d’une ville en temps réel, se déplacer dans une voiture à conduite automatique ; faire l’expérience de réalité virtuelle, gérer ses applications domotiques depuis son lieu de travail et même localiser son chien ou son chat en temps réel. Le point commun de toutes ces activités s’écrit en deux lettres : 5G. Cette technologie qui permet de communiquer à des vitesses de plus de 10 gigabits par seconde et en temps réel, va révolutionner nos vies, nos sociétés et nos économies. Pour ne prendre qu’un seul exemple, alors qu’il fallait 33 jours pour effectuer le téléchargement pour la séquence d’un génome humain en 2016, il faudra 39 heures avec la 5G. Grâce à cette technologie, ce sont des milliers de nouveaux services, des centaines d’innovations qui exploiteront un internet présent partout, en permanence et en toute chose grâce à l’Internet des objets. Bien évidemment, la compétition mondiale pour maîtriser cette technologie et bénéficier des avantages de précurseur fait rage depuis déjà plusieurs années. Après l’échec relatif de la 4G, l’Europe n’a pas le choix et veut affirmer son ambition : elle doit saisir cette opportunité qui représente plus de 113 milliards d’euros de bénéfices annuels et près de 2,4 millions d’emplois.  Mais le développement de la 5G en Europe repose sur deux conditions préalables. D’abord  avoir accès à une quantité suffisante d’une ressource naturelle qui s’appelle le « spectre » et qui concerne l’attribution de fréquences radio. Ce spectre a une valeur très importante : à l’heure actuelle on estime que la valeur économique des services qui utilisent le spectre représente 500 milliards d’euros par an et 1.000 milliards en 2023. Mais pour développer la 5G il faut que la mise à disposition de ce spectre soit coordonnée au niveau européen, un peu comme nous l’avons fait dans les années 1950 avec le charbon et l’acier. Une action au niveau européen aura assurément  une valeur ajoutée indéniable. Ensuite, il faut créer un environnement règlementaire qui favorise les investissements et la prise de risques dans les licences de fréquence à long terme. A cette fin, les investisseurs ont besoin de prévisibilité et de clarté concernant l’accès à la ressource de fréquences radio: de la même manière qu’il est plus facile d’acheter une maison sur 25 ans que sur 15 ans, les opérateurs ont besoin d’une garantie d’accès à la ressource spectrale sur le long terme pour investir. C’est précisément sur ces deux points que l’Europe vient de progresser de manière cruciale dans le cadre des discussions sur le code des télécommunications. L’accord politique trouvé jeudi soir dernier consacre les derniers éléments qui faisaient encore l’objet de divergences depuis octobre, notamment de la mise à disposition du spectre d’ici 2020,  une visibilité sur 20 ans pour les investissements dans des licences, une coordination des procédures d’allocation et une attribution du spectre en temps opportun.  Cet accord montre que la machine européenne à créer du consensus et à harmoniser dans l’intérêt général des Européens fonctionne efficacement, y compris dans un domaine hautement sensible – celui des ressources naturelles – qui constitue une source de revenus importants pour les Etats membres. Bien évidemment, il reste encore beaucoup  à faire pour finaliser les autres dispositions du code des télécommunications proposées par la Commission en septembre 2016, notamment celles qui permettront de favoriser les co-investissements dans les infrastructures terrestres telles que la fibre.

Mais  je suis confiante, dans la foulée de la vision commune exprimée par les chefs d’Etat et de gouvernement au Sommet numérique de Tallinn en septembre 2017, que nous pourrons finir ces négociations sous Présidence Bulgare du Conseil de l’UE. C’est ensemble que l’Europe pourra être forte. Il est crucial de maintenir un niveau d’ambition élevé afin de conforter notre position de leader mondial. C’est par le biais de tels accords que nous pourrons offrir un avenir meilleur à nos citoyens en Europe non pas après-demain, mais dans un futur  très proche. »

Le codage informatique déjà obsolète ? (Emmanuel Straschnov)

Le codage informatique déjà obsolète ? (Emmanuel Straschnov)

On s’apprête à peine à favoriser apprentissage large du codage y compris à l’école primaire que déjà il se trouve mis en question. Simplement parce qu’on peut utiliser la programmation sans nécessairement la connaitre. Un peu ce que sont les progiciels par rapport aux logiciels, adaptables et paramétrables en fonction de besoins.  Dans un article de la Tribune, on apprend qu’in ingénieur français veut rendre le codage obsolète en proposant  un moyen de rendre accessible la programmation à tous. Le concept : créer logiciels et applications à l’aide d’une interface visuelle. « L’analogie que j’utilise, c’est le saut entre MS-DOS et Windows et MacIntosh, qui ont remplacé la ligne de commande par des icônes. N’importe qui pouvait désormais utiliser des ordinateurs sans être des spécialistes. Nous proposons la même chose pour programmer les machines », décrypte le polytechnicien aussi  diplômé d’Harvard. Les équipes de Bubble ont déjà précodés les briques élémentaires. « Ça fait cinq ans qu’on travaille dessus. On a commencé à gagner de l’argent en 2014. Nous n’avons pas levé de fonds car je préfère utiliser mon énergie à créer quelque chose plutôt que d’essayer de séduire des investisseurs », précise Emmanuel Straschnov. Les clients sont principalement des startups, comme la marketplace française Comet, qui, grâce à Bubble, a pu éviter d’embaucher des ingénieurs très coûteux. Le business model est celui du Saas (logiciel en tant que service) : l’accès au logiciel est gratuit mais pour en utiliser toutes les fonctions, il faut payer un abonnement (14 à 445 dollars par mois). Bubble recense sur sa plateforme 120 000 utilisateurs, dont 1 500 entreprises payantes. « De nos jours, n’importe quelle société qui se crée doit être en ligne. Or, la plupart sont devenues de fait des entreprises de logiciels, avec des ingénieurs. Le prochain Airbnb n’aura pas besoin de programmeurs car Bubble n’est pas plus compliqué à utiliser que Microsoft Office. Je veux redéfinir la façon dont les gens programment les ordinateurs », proclame Emmanuel Straschnov. S’il respecte sa promesse, l’univers informatique s’en trouvera radicalement changé.

 

 

Un fonds européen pour l’innovation de rupture

 Un fonds européen pour l’innovation de 2,5 milliards d’euros

Il faut un fonds pour l’innovation de rupture afin de garantir sa souveraineté technologique, a estimé lundi le ministre de l’Economie et des Finances Bruno Le Maire. La France dispose depuis le début de l’année d’un fonds pour l’innovation de rupture, doté de dix milliards d’euros. Ce fonds français « doit être la préfiguration d’un fonds pour l’innovation de rupture au niveau européen » représentant un montant d’ »environ deux à 2,5 milliards d’euros », a déclaré Bruno Le Maire lors d’un point presse organisé à l’issue d’une réunion du Conseil national de l’industrie (CNI). Il s’agit selon lui de constituer un fonds européen disposant de « la même puissance que la Darpa (Defense Advanced Research Projects Agency) américaine », l’agence du département de la Défense dédiée à l’innovation de rupture, qui a par exemple été à l’origine d’internet ou du GPS et qui dispose d’environ trois milliards de dollars chaque année pour financer des projets dans ce domaine.  »En matière de transports, d’autonomie, de stockage des énergies renouvelables, de supercalculateurs, d’intelligence artificielle et d’espace, il est temps que l’Europe se dote des moyens de sa puissance et de sa souveraineté technologiques », a plaidé Bruno Le Maire. Jugeant que « la France doit prendre la tête de ce combat pour la mise en place d’une Darpa européenne », il a précisé que ce projet constituerait l’un des trois axes sur lequel reposera la vision « d’une Europe souveraine et indépendante en matière industrielle » que l’exécutif compte défendre. Face aux différences de positions des Etats membres sur le sujet, « il est important, surtout à quelques mois des élections européennes (…) que nous posions notre stratégie nationale sur la table pour pouvoir en discuter avec nos partenaires » afin que la France puisse défendre ses positions. Au-delà de la nécessaire mise en place d’un fonds européen pour l’innovation de rupture, le projet français pour la stratégie industrielle européenne – qui sera formalisé dans un rapport remis lors de la prochaine réunion du CNI, le 28 mai – comportera aussi un volet sur l’engagement en faveur de la constitution de « champions industriels européens ». Le troisième pilier portera sur la nécessaire évaluation de certaines politiques européennes – notamment celle de la concurrence – pour vérifier leur efficacité en termes de développement industriel. Le ministre de l’Economie avait déjà plaidé à l’automne pour une révision de l’approche européenne sur les questions de concurrence, qui selon lui entravent la capacité à faire naître des géants industriels européens capables de faire face à la concurrence des groupes chinois ou américains.

 

Télécoms- la 5G dès 2018 ….mais pas en France

Télécoms- la 5G  dès 2018 ….mais pas en France

D’après Nokia, la 5G sera opérationnelle à partir de 2018 notamment aux Etats-Unis, en Corée du Sud, au Japon et en Chine, selon Rajeev Suri. Mais pas en Europe et pas en France. En France où le développement des télécoms repose essentiellement sur le très couteux câble qui n’équipera en fait que les zones agglomérées. Or la 5G pourraiat permettre d’éviter des investissements lourds inutiles (cout officiel du plan câble, 20 milliards mais en fait près du double). – Les opérateurs télécoms avancent leur calendrier pour le déploiement des réseaux 5G de prochaine génération, ce qui devrait profiter à Nokia dès cette année, a déclaré dimanche Rajeev Suri, le directeur général de l‘équipementier finlandais. L‘industrie des réseaux télécoms, dominée par le chinois Huawei, Nokia et le suédois Ericsson, traverse une période difficile avec la baisse de la demande pour les équipements de 4G au terme d‘un cycle de 10 ans. Mais les premiers déploiements commerciaux de 5G devraient prendre la relève de la 4G dès cette année, notamment aux Etats-Unis, en Corée du Sud, au Japon et en Chine, selon Rajeev Suri patron de Nokia.  Nokia a annoncé dimanche un accord de partenariat avec le géant chinois China Mobile – numéro un mondial de la téléphonie mobile par le nombre d‘abonnés – pour développer des réseaux 5G en Chine. La demande pour la 5G sera surtout forte en Asie et aux Etats-Unis alors que l‘Europe sera à la traîne jusqu’à 2019 au moins, a dit Rajeev Suri. Nokia, a-t-il ajouté, est bien positionné pour la 5G grâce à son acquisition en 2016 d‘Alcatel-Lucent, qui a élargi son portefeuille de produits.

Intelligence artificielle : risque de manipulations  » ( Thierry Berthier et Nicolas Miailhe)

Intelligence artificielle : risque de manipulations   » ( Thierry Berthier et Nicolas Miailhe)  

 

De manipulations économiques et politique aussi une possible remise en cause de la  liberté, de la sécurité, du développement de  la durabilité, des  intérêts collectifs, et de  la dignité de la personne humaine par exemple.

 

Nicolas Miailhe est cofondateur et président de The Future Society, un incubateur d’idées et de projets lancé à la Harvard Kennedy School of Government en 2014 et dédié aux questions d’impact et de gouvernance de l’accélération et de la convergence des progrès technologiques. Dans ce cadre, Nicolas a lancé « The AI Initiative », qui pilote actuellement, entre autres activités, un débat participatif mondial multilingue sur la gouvernance de l’intelligence artificielle.

Lorsque l’on évoque la diaspora française des experts impliqués dans l’IA mondialisée, on pense immédiatement à Yann Le Cun, Directeur du laboratoire d’intelligence artificielle de Facebook (FAIR) ou à Emmanuel Mogenet, directeur de l’ingénierie de Google Research Europe.

D’autres voix françaises ont su se faire entendre dans un écosystème mondial très concurrentiel, en particulier celle de Nicolas Miailhe sur le segment des implications sociétales et géopolitiques de l’intelligence artificielle.

The AI Initiative, quels objectifs ?

NICOLAS MIAILHE – « The AI Initiative » a été lancée en 2015 dans le cadre de « The Future Society » pour se concentrer sur les questions d’impact et de gouvernance de la montée en puissance de l’Intelligence artificielle. Notre objectif est de favoriser l’émergence de cadres de gouvernance globaux permettant de tirer le meilleur parti de la révolution de l’IA en maximisant les bénéfices et en minimisant les risques.

Nous sommes convaincus que la révolution de l’IA est globale et qu’elle appelle donc une meilleure coordination internationale, mais aussi transnationale, car le monopole des États est remis en cause par la puissance des géants du numérique. Faire émerger un cadre de gouvernance adapté va prendre du temps. Cela implique de nourrir un dialogue transdisciplinaire et ouvert sur la société civile au-delà des experts et des praticiens.

Pourquoi est-ce nécessaire d’ouvrir sur la société au-delà des experts ?

Les changements vont affecter tout le monde et les questions éthiques à trancher aussi. Vu les dilemmes et les tensions entre des valeurs fondatrices de nos modèles sociaux comme la liberté, la sécurité, le développement, la durabilité, les intérêts collectifs, et la dignité de la personne humaine par exemple, un dialogue est indispensable pour harmoniser nos systèmes de valeurs. C’est une tâche difficile et très politique au fond, mais indispensable si nous voulons apprendre à vivre en harmonie à 7 puis 8 et 10 milliards d’êtres humains à l’heure de l’IA. Les travaux de recherche, les outils cognitifs et les évènements que nous organisons avec The AI Initiative sont tournés vers ce but.

Quelles sont les différences entre populations américaine et française ?

Les Américains sont généralement plus technophiles et confiants dans l’avenir que les Français. Ils ont aussi un goût pour le risque plus développé. C’est lié à leur histoire et à l’esprit de conquête (notamment sur la nature) qui l’irrigue.

Cet esprit, on le retrouve dans la métaphore de la « nouvelle frontière » qui continue de jouer un rôle central dans le projet de construction national américain : depuis la conquête de l’Ouest au XIXe siècle, jusqu’à celle de l’espace et de la lune au XXe siècle ; et à présent du corps et du cerveau humain. Le goût pour le risque, on le retrouve jusqu’à aujourd’hui par exemple au travers du droit à porter les armes… qui nous fait bondir en France !

Des craintes également aux États-Unis ?

Le leadership technoscientifique et industriel américain en matière de numérique, de data et donc d’IA est un facteur très rassurant à l’heure actuelle s’agissant de leur capacité à façonner l’agenda mondial de l’IA en équilibrant les bienfaits avec les risques.

Notre approche est ancrée dans la crainte… et la réalité du décrochage industriel et scientifique. Nous percevons la révolution de l’IA comme une vague, un tsunami qui nous arrive dessus et qui menace notre modèle de société contre lequel il faut se protéger. Nous avons perdu notre esprit de conquête qu’il faut absolument retrouver et traduire dans un modèle industriel crédible.

Comme nous percevons la révolution de l’IA comme largement « étrangère », nous Français cherchons malheureusement à la réguler (contraindre) plus qu’à gouverner (accompagner). Notre ambition universaliste est bien là, mais elle est quelque part plus conservatrice qu’elle n’est progressiste à l’heure où beaucoup de choses changent avec des opportunités à saisir dans tous les domaines : médical, transport, finance, sécurité, industrie, etc.

Notre ambition universaliste se traduit par la recherche d’un modèle européen de l’IA qui articule recherche de la puissance avec respect de la personne humaine. La péréquation entre les deux ne va pas être simple, car en régulant à partir d’une position d’extrême faiblesse industrielle par rapport aux Américains ou aux Chinois, nous risquons d’entraver notre propre montée en puissance. C’est un peu le risque que le GDPR (Règlement général sur la protection des données) fait planer sur les ambitions de puissance de la France et de l’Europe si nous ne savons pas en faire un atout.

Le solutionnisme béat de la Silicon Valley est-il inquiétant ?

Au-delà des bonnes intentions, qui sont sincères chez la plupart des transhumanistes, le solutionnisme technologique est un poison dangereux ; par manque de réflexivité. C’est à croire que nous n’avons rien appris des horreurs du XXe siècle.

La simplification à outrance des débats à laquelle on assiste parfois dans la Silicon Valley relève d’une certaine forme de naïveté, voire de fondamentalisme. Or, le recours à la science et à la technologie pour résoudre des problèmes (développement, maladie, sécurité, relations entre les individus) n’est jamais neutre. Il intègre des transferts de pouvoir importants. La montée en puissance des géants du numérique aux États-Unis ou en Chine s’accompagne d’un transfert de richesse et de pouvoir très important et qui n’est pas encore équilibré. Avec le basculement dans une économie de l’attention et du virtuel qui comportent des risques de manipulations importants.

Quelle est la vision du côté de Harvard et de The Future Society ?

Nous avons souhaité lancer The Future Society à Harvard, la plus vieille, mais aussi la plus puissante des universités américaines, aussi pour bénéficier d’un enracinement et d’une réflexion plus profonde qui caractérise la côte Est des États-Unis par rapport à la côte ouest. Il y a un côté plus mesuré ; une prudence ; un respect par rapport aux usages et aux traditions. Et pour autant un dynamisme technoscientifique ainsi qu’un brassage de cultures et d’intelligences qu’on retrouve dans très peu d’écosystèmes à travers le monde.

Il s’agit donc d’un choix réfléchi qui vise quelque part à proposer un modèle alternatif à celui de la Silicon Valley ; empreint de plus d’humilité et peut-être de sagesse, au travers d’une conscience des enjeux du temps long et des forces profondes qui animent la trajectoire d’évolution de la vie intelligente dans l’univers. « Science sans conscience n’est que ruine de l’âme » disait Rabelais il y a plus de cinq siècles déjà. Nous avons fait notre cette belle maxime.

Cultiver une réflexion profonde à l’heure de la révolution NBIC qui remet en cause de façon rapide certains des grands équilibres qui ont régit nos modèles sociaux pendant des millénaires nous semble plus important que jamais. Avec la révolution de l’IA et des neurotechnologies, des choix d’une importance capitale -quasi existentiels- vont se présenter à nous. Il faut se donner les moyens de les instruire correctement.

Comment est perçu le transhumanisme aux États-Unis ? et en Europe ?

Notre position, si je peux parler ainsi, car The Future Society cultive la diversité, est qu’il est indispensable d’inviter les sociétés à créer les conditions d’un débat sur ces questions ; et que ce débat doit être transcivilisationnel. Permettre une politisation saine, sage et courageuse de ces enjeux, et quelque part de l’opposition croissante entre « transhumanistes libertariens », « techno-progressistes » et « bioconservateurs » de droite et de gauche nous semble crucial.

Cela n’est pas facile à faire, car les questions sont complexes, mais elles renvoient en fait à des interrogations philosophiques assez basiques, donc à la portée de l’immense majorité des gens, pourvu que le processus de politisation soit bien orchestré. Les experts dont nous faisons partie doivent de ce point de vue se mettre au service de la société, et faire preuve de pédagogie pour permettre aux citoyens de jouer leur rôle dans le débat. Définir la trajectoire d’évolution de l’Humanité au XXIe siècle à l’heure de l’accélération technologique implique rien de moins que cela ! C’est aussi ça l’éducation civique de notre époque.

Et les Français s’intéressent finalement beaucoup à ces questions par rapport à d’autres cultures, comme en témoigne le nombre important d’ouvrages, d’articles et de documentaires qui paraissent régulièrement sur la question depuis 2010. Vous savez, nous avions reçu Zoltan Itsvan (le candidat transhumaniste-libertarien à la présidence des États-Unis, Ndlr) à la Kennedy School en avril 2016 pendant la campagne des présidentielles américaines pour un débat politique inédit avec James Hugues (son opposant techno-progressiste, Ndlr). Discussion assez fascinante qui a entre autres montré que le transhumanisme n’est pas un bloc monolithique, mais plutôt un courant en évolution permanente et recomposition, ce qui est plutôt sain. La discussion a également montré en quoi le leadership techno-industriel vaut de plus en plus leadership politique. L’émergence d’un Marc Zuckerberg comme leader possible du parti démocrate le prouve bien aujourd’hui.

Et ce n’est pas forcément une bonne nouvelle ! C’est aussi pour cela que la France et l’Europe doivent prendre des risques et se réveiller sur le plan industriel si nous voulons être en capacité de faire entendre notre voix dans ce débat stratégique. Il ne s’agit rien de moins que de l’avenir de la condition humaine et des grands équilibres qui la régissent. Mais ce que je voulais vous dire en parlant de la visite de Zoltan Itsvan à Harvard… C’est qu’il était suivi par une équipe de télévision française qui faisait un reportage sur lui ! Cela montre à quel point les Français sont fascinés par ces enjeux ! Et de mon point de vue c’est plutôt rassurant.

Le spectre politique est en train d’évoluer profondément sous nos yeux : d’une seule dimension à plusieurs dimensions. Si bien qu’on doit plutôt penser en termes de « prisme ». Il y a un deuxième et un troisième axe au-delà du spectre « droite-gauche » : démocratie directe vs indirecte ; et local vs global. J’en rajoute même un quatrième, de plus en plus pertinent : bioconservateur vs transhumaniste. Et un cinquième, très ancien, mais qui resurgit : matérialistes vs transcendantalistes.

Existe-t-il une doctrine américaine de l’IA au plan économique, géopolitique, militaire ?

Dans la compétition stratégique croissante entre les États-Unis et la Chine, il y a indéniablement une course à l’IA. Commerciale, mais aussi militaire. Il faut arrêter de se voiler la face. Les enjeux sont trop importants et le paradigme du « winner-takes-all » de l’économie des plateformes est en train de donner un tour explosif à la course. La Russie semble en retrait, car très affaiblie sur le plan économique. En effet, la géopolitique de l’IA est avant tout une géo économie !

Et les deux mastodontes de l’économie numérique globale que sont la Chine et les États-Unis s’efforcent de s’appuyer sur la taille critique de leurs énormes marchés domestiques, et sur leurs alliances, pour devenir les leaders mondiaux de l’IA. Du côté des GAFAMI, comme des BATX, les capitaines d’industrie ont tous fait de l’IA le cœur de leur stratégie. Idem concernant les gouvernements : l’Administration Obama a mené tout un travail dans sa dernière année d’exercice en 2016 qui a débouché sur la publication d’une stratégie et d’une roadmap technologique, y compris sur le plan militaire avec la publication de sa stratégie du « third offset ».

Sans parler de cyber sécurité bien sûr dans laquelle l’IA est appelée à jouer un rôle croissant. A l’été 2017, les plus hautes autorités chinoises ont alors annoncé un plan stratégique de grande ampleur sur l’IA qui doit lui permettre de ravir le leadership technologique aux Américains en IA d’ici 2025. L’administration Trump ne s’est pas vraiment approprié le sujet, même si elle apporte un soutien indéfectible aux militaires et son grand plan de baisse des impôts devraient favoriser les géants du net. Même si la question d’une course à l’armement n’est pas clairement évoquée, elle est bien posée. Car d’un côté comme de l’autre on a un a une perception assez limpide de la dualité de ces technologies. Et dans les deux cas, le gouvernement a et va continuer à jouer un rôle critique pour soutenir les progrès technologiques. Regardez le rôle qu’a joué la DARPA aux États-Unis par exemple dans la révolution numérique. Aujourd’hui IA et robotique, mais avant cela, Internet, GPS. Le système chinois est un capitalisme d’État qui est encore plus clair et quelque part efficace. En tout cas le rattrapage numérique que les Chinois ont réussi à produire est assez incroyable et inquiète de plus en plus les Américains. C’est quelque chose dont on parle beaucoup à Harvard.

Eric Schmidt, le PDG d’Alphabet a tiré la sonnette d’alarme lors d’une conférence en novembre 2017 en affirmant que « la suprématie technologique sans égard dont les États-Unis ont bénéficié depuis la chute de l’Union Soviétique est terminée ». L’Europe, mais surtout l’Afrique sera demain un terrain d’affrontement entre ces deux modèles aux antipodes l’un de l’autre.

Quelles pistes pour la France ?

La période actuelle est un tournant indéniable. Nous avons la chance d’avoir un Président brillant qui est parfaitement conscient des enjeux de son temps, y compris sur le plan numérique. D’où également l’attachement viscéral du Président Macron à l’Europe. Car dans le monde qui vient, plus que jamais l’union fera la force.

Dans cette période charnière, il ne faut surtout pas que la France rate la mise en place des conditions de son leadership numérique en Europe et dans le monde. De ce point de vue, l’implosion récente du Conseil national du numérique (CNNum) n’est pas une bonne nouvelle, car elle nous prive d’un véhicule d’échange et de dialogue indispensable entre le gouvernement et la société civile. Il faut impérativement que l’on réussisse à sortir par le haut de la crise actuelle. Peut-être en repensant au passage les missions du CNNum et certains des grands principes qui régissent son fonctionnement comme son indépendance par exemple… Et son articulation avec le Conseil Economique Sociale et Environnemental ?

Réussir 2018 pour la France sur les plans du numérique et de l’IA implique de présenter une stratégie française en matière d’IA qui soit ambitieuse en matière industrielle. C’est ce à quoi s’attèle avec talent et détermination Cédric Villani qui rendra son rapport dans quelques semaines. Il reviendra alors à Mounir Mahjoubi, le ministre en charge du numérique, de traduire les axes proposés en une stratégie et l’exécuter.

Notre stratégie en matière d’IA doit aussi chercher à influencer la stratégie européenne que la Commission publiera à la mi-année. Quelques points à regarder avec attention de ce point de vue : l’articulation d’une stratégie industrielle en matière de data avec le cadre régulatoire du Règlement général de protection des données (RGPD) qui s’appliquera à partir de mai 2018 à travers toute l’Europe. Il est impératif de réussir à faire de ce cadre une chance pour la France et l’Europe permettant de faire émerger des leaders industriels de la data et de l’IA. Et cela ne va pas être facile, car les risques et les entraves pour les entrepreneurs sont importants.

Faire de l’Europe le champion de l’éthique sans masse critique des usages est dangereux. Surtout quand on connaît la propension des consommateurs à sacrifier vie privée contre gratuité et confort d’usage. Il faut que cela change, mais le dosage doit être équilibré, car nous vivons dans un marché globalisé. Si nous savons trouver la bonne mesure, le RGPD offre des atouts donc il faut se saisir, comme le droit à la portabilité des données qui peut être un avantage comparatif majeur pour le marché unique et les acteurs européens. Il faut que les gouvernements développent une politique industrielle solide permettant de faire émerger des plateformes européennes nourries à la portabilité. C’est un changement de paradigme qui ne va pas se faire tout seul.

_____

Par Thierry Berthier, Maitre de conférences en mathématiques, cybersécurité et cyberdéfense, chaire de cyberdéfense Saint-Cyr, Université de Limoges et Nicolas Miailhe, Senior Visiting Research Fellow, Harvard University

La version originale de cet article a été publiée sur The Conversation

 

Intelligence artificielle : avancées, limites et gadgets (Charles Edouard Bouée)

Intelligence artificielle : avancées, limites et gadgets (Charles Edouard Bouée)

 

Dans une tribune des Échos, Charles Edouard Bouée,  président de Roland Berger, fait la part de ce qui relève réellement des avancés en matière d’intelligence artificielle et ce qui relève des gadgets car surtout destinés à valoriser artificiellement un produits et/ou  à attirer des capitaux.

 

«  La septicémie, qui représente une des premières causes de mortalité en milieu hospitalier, pourrait bientôt appartenir au passé. Comment ? Grâce à un algorithme d’intelligence artificielle capable de détecter, une demi-heure avant qu’elle ne survienne, une chute brutale de la pression artérielle très souvent indicatrice d’une infection du sang. Trente minutes suffisent à l’équipe soignante pour intervenir, sauver ainsi des milliers de vies et économiser des milliards de dollars. Une telle avancée est le fruit de la collaboration entre l’expert en intelligence artificielle Antoine Blondeau, fondateur de  Sentient Technologies, et les chercheurs du MIT . On est bien loin du buzz que des entreprises peu scrupuleuses font parfois, en estampillant « IA » des solutions technologiques qui pour certaines n’ont rien à voir avec l’intelligence artificielle, pour attirer les investisseurs et les clients. Après le « green washing », consistant à donner un vernis durable à des produits et des services qui ne le sont pas, l’« AI washing » nous promet monts et merveilles avec des solutions qui ne sont que des gadgets. C’est que derrière le succès actuel du terme « intelligence artificielle » – d’ailleurs choisi un peu par hasard en 1956 par John McCarthy, se cachent des technologies complexes : le « deep learning », qui permet la reconnaissance des objets et des mots, associé au « machine reasoning », qui permet d’élaborer des modèles prédictifs, les deux étant complétés par des algorithmes génétiques et des codes écrits par la machine elle-même. Si bien que le grand public a parfois du mal à comprendre les tenants et les aboutissants. D’où la difficulté à savoir ce qui relève vraiment de l’IA : de nombreux produits ou services qui disent reposer sur de l’intelligence artificielle, ne mobilisent en réalité que des logiciels d’automatisation basiques. Un autre mirage consiste à faire croire, en particulier aux chefs d’entreprises, que l’intelligence artificielle est toujours la réponse la plus adaptée pour accroître l’efficacité d’un processus. C’est loin d’être systématiquement le cas. Ainsi, lorsqu’on cherche une réponse à une question précise, les outils analytiques de Business Intelligence sont souvent plus pertinents. Mais label « IA » attire le chaland… et certains en abusent. Si, comme tous les eldorados, l’intelligence artificielle a ses charlatans, elle a aussi ses magiciens. Antoine Blondeau, Chris Boos, fondateur de la société Arago , Tomaso Poggio du MIT , Yann Le Cun de Facebook AI Research, Sean Tang, fondateur de SenseTime , Jürgen Schmidhuber du laboratoire suisse Idsia, Demis Hassabis de Deepmind … venus de tous les continents, ils travaillent ensemble autant dans les laboratoires, les universités que les entreprises. Ils forment une communauté d’experts capables de faire émerger un nouveau monde, sans bruit, loin des médias. On sait que l’intelligence artificielle sera la rupture technologique, sociale et économique des décennies à venir. Et il est certain que les prochaines licornes seront des entreprises d’intelligence artificielle. Mais la bataille ne se joue pas toujours où on le croit. Ni chez ceux qui en parlent beaucoup, ni forcément chez les GAFA ou leurs cousins chinois, les BAT. Les innovations véritables sont le fait de scientifiques et de techniciens qui n’aiment pas la lumière. Quant à ceux qui bluffent, en prétendant développer des solutions d’IA quand ce n’est pas le cas, ils pourraient bien être pris à leur propre piège. Car après DeepBlue aux échecs et Alphago au jeu de Go, le programme Libratus a envoyé au tapis, en janvier 2017, quatre joueurs de poker professionnels . En nous laissant face à ce constat vertigineux : l’intelligence artificielle sait donc bluffer, et intégrer le bluff des autres à sa propre stratégie ! Il ne lui reste plus qu’à apprendre à démasquer les bluffeurs. ».

 

Transformation numérique de l’administration :changer de paradigme et de siècle

Transformation numérique de l’administration :changer de paradigme et de siècle

La critique de la Cour des Comptes vis-à-vis de la diffusion du numérique dans l’administration est sévère. Première observation la vision est encore très insuffisante. Deuxièmement on se borne essentiellement à numériser les procédures existantes alors qu’il conviendrait sans doute de changer l’approche et la nature des procédures. Troisièmement, l’administration pénètre le numérique sur la pointe des pieds avec crainte et confie d’ailleurs l’essentiel des procédures d’information informatisée à la sous-traitance qui évidemment se régale en termes de profit mais aussi de maîtrise. En effet, il manque aussi dans l’administration de sérieuses compétences numériques et au-delà une culture numérique. Enfin chaque administration ou service bricole son propre système dans des délais par ailleurs tellement long qu’ils rendent obsolète la numérisation. Enfin et peut-être surtout les systèmes des différents services et administrations sont incapables de communiquer entre eux. Bref dans leur rapport à la numérisation, l’administration doit changer de paradigme et de siècle. Mais si le rapport valide la stratégie que l’État mène depuis 2011 et a amplifié en 2014, la Cour des comptes estime surtout que cette transformation est trop lente, s’exerce sur un périmètre trop étroit, et doit s’accompagner d’investissements massifs, à la fois humains et financiers. « La démarche doit être amplifiée. Il reste à lever les contraintes fortes qui pèsent sur les administrations et qui ralentissent cette transformation [...] Un important effort de rattrapage doit être réalisé ». Ces contraintes sont bien identifiées : des « choix technologiques anciens » (le logiciel libre n’est pas assez généralisé), « l’externalisation massive » des systèmes d’information de l’État qui a conduit à une « perte de compétences » des agents, et surtout un problème de « culture numérique »: « Il faut faire connaître le potentiel et les méthodes de la transformation digitale au-delà des sphères spécialisées. La révolution numérique ne se réduit pas à la numérisation des procédures existantes ». Ainsi, le rapport note que la stratégie d’État plateforme doit « dépasser la simple dimension technologique » pour « faire évoluer l’action publique vers un modèle reposant sur des « communs numériques » (données, logiciels, services numériques, API) qui s’intègrent pour offrir d’autres services de manière plus agile et réactive« . La Cour déplore l’absence d’état des lieux du recours au logiciel libre, ou encore la difficile mise en place de la plupart des grands projets numériques de l’État. Leur durée (6 ans en moyenne) est estimée « excessive » car elle « s’accommode mal avec le rythme d’évolution des technologies et celui de la rotation des chefs de projet« . Par exemple, le projet le plus ancien, SAIP (le dispositif de protection des populations) est englué depuis… 17 ans (!) alors que l’enjeu est pourtant essentiel pour la sécurité du pays.

Un observatoire européen sur le blockchain

Un observatoire européen sur le  blockchain 

 

A question de l’intérêt du blockchain est complexe du fait de son principe de fonctionnement technique mais aussi du conflit qu’il génère chez certains acteurs notamment les banques commerciales mais aussi les banques centrales voire les Etats. Les avis des un et des autres sont parfois teintés d’un fort corporatisme. Par ailleurs certains condamnent sans réserve les cryptomonnaies comme le bitcoin au motif notamment qu’il favorise une super spéculation dangereuse. Ceci étant,  cet amalgame blockchain- crypto monnaie est peut-être excessif car la technologie blockchain peut servir à d’autres applications pour la gestion de flux d’informations. La blockchain est une technologie de stockage et de transmission de données, transparente et sécurisée. Elle fonctionne sans contrôle central et permet, en fonction de ses applications, de se passer des intermédiaires, par exemple les banques. Ses applications sont multiples, mais la plus connue est celle permettant la création de cryptomonnaies, tel le bitcoin, cette monnaie électronique immatérielle, réputée invulnérable aux attaques informatiques, qui n’appartient à aucun État. « Je considère la technologie du blockchain comme un changement fondamental et je veux que l’Europe soit à la pointe de son développement », a affirmé la commissaire chargée du dossier. « L’Europe ne peut pas se permettre de rater cette occasion« , a-t-elle ajouté lors d’une conférence de presse où elle a lancé un Observatoire-forum que l’UE veut consacrer au sujet. L’idée de cet observatoire, qui associera « les autorités publiques, les régulateurs, l’industrie » est « de suivre le potentiel de ces technologies et de voir quelles seront les répercussions, les risques et les opportunités pour l’UE« , a-t-elle expliqué. « Pour l’instant, nous n’allons pas réguler ce secteur, nous allons observer et voir comment nous pouvons apporter une certitude juridique« , a-t-elle poursuivi. L’UE dit s’attendre à ce que la technologie « transforme les modèles économiques dans divers secteurs comme les soins de santé, l’assurance, la finance, l’énergie, la logistique, la gestion des droits de propriété intellectuelle ou les services publics« . De nombreux banquiers, y compris centraux, ont exprimé leurs réserves sur la sulfureuse cryptomonnaie.

Fin des zones blanches

Fin des   zones blanches

Un nouvel accord a été conclu entre les quatre principaux opérateurs pour mettre fin aux zones blanches en matière de téléphonie. Ce n’est certes pas le premier accord de ce genre mais cette fois la promesse pourrait être tenue tellement la contradiction est grande entre les zones super-privilégiées et les véritables déserts. La couverture totale du territoire au moins pour la téléphonie voire pour Internet haut débit pourrait être assuré dans les trois ans. Objectif : en finir avec les « zones blanches », ces territoires privés d’Internet ou de réseaux mobiles de qualité. Emmanuel Macron l’avait déjà promis cet été, fixant pour la fin de l’année 2020 le « haut et très haut début » en France.   »Grâce à notre accord, il n’y aura plus de ‘zones blanches’, identifiées par les élus locaux, où des Français vivent sans avoir accès à une téléphonie de qualité », entérine ainsi Julien Denormandie, le secrétaire d’État. Concrètement, le secrétaire d’Etat assure que les opérateurs se sont engagés « à investir beaucoup plus et beaucoup plus vite dans les infrastructures, et ce sur une base contraignante ». Au total, « plus de 3 milliards » seront sur la table. « Nous allons faire en trois ans ce que nous avons fait jusqu’ici en quinze ans pour déployer la téléphonie mobile! », fait encore savoir Julien Denormandie, qui détaille dans le JDDce plan. Celui-ci va notamment amener « chaque opérateur à fournir 5.000 installations supplémentaires », qu’il s’agisse de pylônes ou d’antennes.

 

1...5455565758...63



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol