Archive pour le Tag 'artificielle'

Intelligence artificielle : les limites

Intelligence artificielle : les limites

James Buchanan – Directeur Stratégie, Razorfish Londres, évoque les limites de l’IA.( Dans un article de la Tribune)

 

 

 

« Omniprésente cette année au salon South by Southwest, l’intelligence artificielle a tous les attributs d’une grande révolution annoncée. Son potentiel est un peu plus « réel » chaque jour, de l’ordinateur qui bat les meilleurs joueurs de Go à la voiture autonome.  Lors de cette manifestation à laquelle j’ai participé aux côtés de 3 autres experts, j’ai eu l’occasion d’aborder l’impact des services propulsés par l’IA à l’échelle de l’individu. Au cours des cinq dernières années, les objets et services intelligents se sont essayés à tous les aspects de notre vie. Depuis la rencontre amoureuse jusqu’à la livraison, en passant par la finance et le sport, des start-ups anticipent désormais le moindre de nos problèmes et nous proposent des services toujours plus personnalisés à l’aide de l’IA. Sous couvert d’être pratiques, ces services changent notre façon de voir le monde, notre manière de penser et notre propre identité. Quelle valeur accordons-nous à notre libre-arbitre ? Sommes-nous prêts à sacrifier notre autonomie ? Avec l’émergence des machines qui apprennent, notre monde devient de plus en plus inquiétant et étrange, et il est légitime de s’interroger sur son évolution.  C’est maintenant qu’il faut en parler, alors que ces outils sont encore à notre service. Personne ne veut devenir le simple prolongement de chair et d’os d’un algorithme. L’innovation a toujours modifié notre façon de penser : ce que nous créons nous influence en retour. Le cas de l’intelligence artificielle est unique. Elle se matérialise par des outils qui ont leur intelligence propre et ne se laissent pas totalement contrôler. A la poursuite de leur logique interne, ils s’améliorent au contact de millions d’utilisateurs, leur influence croissant avec leur intelligence. Ces services semblent utiles car ils résolvent nos problèmes, révèlent ce qu’il y a de meilleur en nous et minimisent nos insuffisances. Ils nous confèrent quasiment des superpouvoirs. C’est pourtant d’un œil critique que nous devrions considérer cette situation. Dans ce futur algorithmique, qu’est ce qui compte le plus ? Avoir l’opportunité de partager mon point de vue est plutôt un accomplissement pour qui, comme moi, a grandi dans une petite ville. Mais que penser d’un futur où l’IA ne me permettra plus jamais de rencontrer ceux qui ne sont pas d’accord avec moi ? Que penser d’un service financier qui, faisant passer en premier ce qu’il sait être mes intérêts à long-terme, me rendra volontairement difficile la prise de décisions d’impulsion? In fine, peut-on sincèrement croire que « le marché » prendra soin de nous ? L’option de facilité consiste à se concentrer sur les résultats : clients enrichis, volume d’engagement, indice de satisfaction… Des données simples car elles correspondent déjà aux objectifs des entreprises. Elles offrent aussi de la lisibilité sur les variables grâce auxquelles les algorithmes s’améliorent, le reflet d’une culture scientifique dans laquelle ont grandi de nombreux tech-entrepreneurs. Mais laisser de côté toute préoccupation de sécurité devrait pourtant nous inquiéter un peu plus. Même des scientifiques de renom comme Stephen Hawkins admettent que l’intelligence artificielle pourrait bientôt nous échapper… Un autre mot pour « résultat » est « fin », et l’on sait qu’elle ne justifie pas les moyens. Enrichir un client n’est pas un argument valable si, en chemin, vous détériorez un autre aspect de sa vie, ou celle de quelqu’un d’autre, de façon imprévisible. Il y a ensuite le risque de devenir dépendant. Que se passerait-il si tous ces services devenaient soudainement inaccessibles ? Serions-nous livrés à nous-mêmes ? C’est bien une question d’éthique que pose en creux l’IA… Il existe heureusement une alternative. Et si au lieu de se focaliser sur les résultats nous aidions plutôt les gens à devenir un peu plus eux-mêmes ? En encourageant la réflexion et la connaissance de soi, nous donnerions la priorité à l’enseignement plutôt qu’à l’automation. Nous donnerions aux gens les outils pour développer leurs compétences naturelles plutôt que de chercher à les remplacer. Nous passerions probablement plus de temps à réfléchir au rôle que ces services jouent au sein de la société plutôt qu’à ce qu’ils apportent à l’individu isolé. En somme, en faisant moins nous pouvons encourager les autres à en faire plus et à agir de façon éthique et responsable. Mais cela n’arrivera pas par hasard, nous devons passer par un chemin choisi délibérément. Tant dans les instances dirigeantes, où le sujet doit être mis à l’ordre du jour des agendas politiques, qu’auprès des citoyens, nous devons nous assurer que les consciences s’éveillent à ces questions. Asseyons-nous autour d’une table et engageons dès aujourd’hui la discussion sur ce que l’IA peut proposer, non seulement aux personnes que nous sommes, mais aussi à celles que nous voulons devenir. »

 

Intelligence artificielle : l’esquisse d’une stratégie

Intelligence artificielle : l’esquisse d’une stratégie

 

 

Comme on le sait, la mode n’est pas aux réflexions stratégiques dans ce gouvernement qui lui préfère une sorte de l’idéologie du court terme. Pourtant pour certains grands sujets industriels ou autres, la complexité de la problématique et l’ampleur des moyens à mettre en œuvre exigent  nécessairement une vision à long terme et la mise en place de synergies entre les acteurs concernés. Faute de ce type de démarche, la France et l’Europe ont perdu la maîtrise de la technologie 5G  au profit seulement des Chinois et des Américains. Concernant l’intelligence artificielle là aussi chinois et américains ont engagé des moyens considérables pour maîtriser cette révolution technologique. On peut donc se réjouir que Huit  grands groupes industriels français de secteurs aussi variés que l’aérospatiale, l’énergie et l’automobile aient  annoncé mercredi avoir signé un manifeste pour préparer l’utilisation de l’intelligence artificielle (IA) dans leurs activités respectives. Air Liquide, Dassault Aviation, EDF, Renault, Safran, Thales, Total et Valeo précisent dans un communiqué commun vouloir définir d’ici la fin d’année un “plan d’action coordonné avec l’écosystème français de l’IA». Les groupes industriels ont signé ce manifeste avec le ministère de l’Economie et des Finances dans le cadre de la stratégie “AI for Humanity” du gouvernement. “L’objectif est d’atteindre plus rapidement une masse critique sur les sujets de recherche prioritaires”, soulignent-ils pour expliquer leur volonté de coopérer, tout en invitant d’autres acteurs publics ou privés à les rejoindre. Le groupe de télécoms Orange, le fabricant de semi-conducteurs STMicroelectronics, le groupe de services pétroliers Schlumberger et l’éditeur de jeux vidéo Ubisoft ont déjà franchi le pas ces derniers jours en participant eux aussi au manifeste, a précisé Marko Erman, directeur technique de Thales. “La rupture technologique fondatrice pour les économies du 21e siècle, ce sera l’intelligence artificielle”, a souligné lors d’un discours le ministre de l’Economie et des Finances Bruno Le Maire. “C’est pour ça qu’il est absolument impératif (…) que ce soit une technologie que nous maîtrisions et non pas une technologie que nous subissions”, a-t-il ajouté. On peut cependant regretter que le rapprochement des compétences et les moyens de recherche sur le sujet n’ait  pas une dimension européenne

Intelligence artificielle : enjeux (rapport Villani)

Intelligence artificielle : enjeux (rapport Villani)

 

Un rapport parlementaire sorti il y a un an mais qui demeure d actualité (www.aiforhumanity.fr/pdfs/9782111457089_Rapport_Villani_accessible.pd).  Introduction.

« Définir l’intelligence artificielle n’est pas chose facile. Depuis ses origines comme domaine de recherche spécifique, au milieu du XXe siècle, elle a toujours constitué une frontière, incessamment repoussée. L’intelligence artificielle désigne en effet moins un champ de recherches bien défini qu’un programme, fondé autour d’un objectif ambitieux : comprendre comment fonctionne la cognition humaine et la reproduire ; créer des processus cognitifs comparables à ceux de l’être humain. Le champ est donc naturellement extrêmement vaste, tant en ce qui concerne les procédures techniques utilisées que les disciplines convoquées : mathématiques, informatiques, sciences cognitives… Les méthodes d’IA sont très nombreuses et diverses (ontologique, apprentissage par renforcement, apprentissage adversarial, réseaux de neurones…) et ne sont pas nouvelles : beaucoup d’algorithmes utilisés aujourd’hui ont été développés il y a plusieurs dizaines d’années. Depuis la conférence de Dartmouth de 1956, l’intelligence artificielle s’est développée, au gré des périodes d’enthousiasme et de désillusion qui se sont succédées, repoussant toujours un peu plus les limites de ce qu’on croyait pouvoir n’être fait que par des humains. En poursuivant son projet initial, la recherche en IA a donné lieu à des vrais succès (victoire au jeu d’échecs, au jeu de go, compréhension du langage naturel…) et a nourri largement l’histoire des mathématiques et de l’informatique : combien de dispositifs que nous considérons aujourd’hui comme banals étaient à l’origine une avancée majeure en IA – une application de jeux d’échecs, un programme de traduction en ligne… ? Du fait de ses ambitions, qui en font un des programmes scientifiques les plus fascinants de notre époque, la discipline de l’IA s’est toujours développée de concert avec les imaginaires les plus délirants, les plus angoissants et les plus fantastiques, qui ont façonné les rapports qu’entretient le grand public avec l’IA mais également ceux des chercheurs eux-mêmes avec leur propre discipline. La (science) fiction, les fantasmes et les projections collectives ont accompagné l’essor de l’intelligence artificielle et guident parfois ses objectifs de long terme : en témoignent les productions fictionnelles abondantes sur le sujet, de 2001 l’Odyssée de l’espace, à Her en passant Blade Runner et une grande partie de la littérature de science-fiction. Finalement, c’est probablement cette alliance entre des projections fictionnelles et la recherche scientifique qui constitue l’essence de ce qu’on appelle l’IA. Les imaginaires, souvent ethno-centrés et organisés autour d’idéologies politiques sous-jacentes, jouent donc un rôle majeur, bien que souvent négligé, dans la direction que prend le développement de cette discipline. L’intelligence artificielle est entrée, depuis quelques années, dans une nouvelle ère, qui donne lieu à de nombreux espoirs. C’est en particulier dû à l’essor de l’apprentissage automatique. Rendues possibles par des algorithmes nouveaux, par la multiplication des jeux de données et le décuplement des puissances L’intelligence artificielle est entrée, depuis quelques années, dans une nouvelle ère, qui donne lieu à de nombreux espoirs 10 Introduction de calcul, les applications se multiplient : traduction, voiture autonome, détection de cancer,… Le développement de l’IA se fait dans un contexte technologique marqué par la « mise en données » du monde (datafication), qui touche l’ensemble des domaines et des secteurs, la robotique, la blockchain1, le supercalcul et le stockage massif. Au contact de ces différentes réalités technologiques se jouera sûrement le devenir de l’intelligence artificielle. Ces applications nouvelles nourrissent de nouveaux récits et de nouvelles peurs, autour, entre autres, de la toute-puissance de l’intelligence artificielle, du mythe de la Singularité et du transhumanisme. Depuis quelques années, ces représentations sont largement investies par ceux qui la développent et participent à en forger les contours. Le cœur politique et économique de l’intelligence artificielle bat toujours dans la Silicon Valley, qui fait encore office de modèle pour tout ce que l’Europe compte d’innovateurs. Plus qu’un lieu, davantage qu’un écosystème particulier, elle est, pour beaucoup d’acteurs publics et privés, un état d’esprit qu’il conviendrait de répliquer. La domination californienne, qui subsiste dans les discours et dans les têtes, nourrit l’idée d’une voie unique, d’un déterminisme technologique. Si le développement de l’intelligence artificielle est pensé par des acteurs privés hors de nos frontières, la France et l’Europe n’auraient d’autre choix que de prendre le train en marche. Les illustrations sont nombreuses : rien qu’en France, l’accord signé entre Microsoft et l’éducation nationale sous le précédent quinquennat ou l’utilisation par la DGSI de logiciels fournis par Palantir, une startup liée à la CIA, ne disent finalement pas autre chose. On observe la même tentation chez les entreprises européennes qui, persuadées d’avoir déjà perdu la course, cèdent bien souvent aux sirènes des géants de la discipline, parfois au détriment de nos pépites numériques. Contrairement aux dernières grandes périodes d’emballement de la recherche en intelligence artificielle, le sujet a très largement dépassé la seule sphère scientifique et est sur toutes les lèvres. Les investissements dans la recherche et dans l’industrie atteignent des sommes extraordinaires, notamment en Chine. Les responsables politiques du monde entier l’évoquent dans les discours de politique générale comme un levier de pouvoir majeur : l’emblématique interview à Wired de Barack Obama en octobre 2016 montrait que ce dernier avait bien compris l’intérêt de faire de l’avance américaine en intelligence artificielle un outil redoutable de soft power. Le Président russe Vladimir Poutine a quant à lui affirmé que « celui qui deviendra le leader dans ce domaine sera le maître du monde », comparant l’intelligence artificielle aux technologies nucléaires. S’il s’agissait vraisemblablement pour lui de compenser le retard de la Russie en matière d’intelligence artificielle par un discours musclé sur le sujet, cette affirmation est révélatrice de l’importance géostratégique prise par ces technologies. Dans la mesure où les chaînes de valeur, surtout dans le secteur numérique, sont désormais mondiales, les pays qui seront les leaders dans le domaine de l’intelligence artificielle seront amenés à capter une grande partie de la valeur des systèmes qu’ils transforment, mais également à contrôler ces mêmes systèmes, mettant en cause l’indépendance des autres pays. C’est que l’intelligence artificielle va désormais jouer un rôle bien plus important que celui qu’elle jouait jusqu’alors. Elle n’est plus seulement un programme 1. La blockchain correspond à un registre distribué qui permet d’éviter de recourir à un tiers de confiance lors de transactions et qui est notamment au fondement du bitcoin. 11 Introduction Donner un sens, c’est-à-dire donner un cap, une signification et des explications. Voilà l’objectif de ce rapport de recherche confiné aux laboratoires ou à une application précise. Elle va devenir une des clés du monde à venir. En effet nous sommes dans un monde numérique, de plus en plus, de part en part. Un monde de données. Ces données qui sont au cœur du fonctionnement des intelligences artificielles actuelles. Dans ce monde-là, qui est désormais le nôtre, ces technologies représentent beaucoup plus qu’un programme de recherche : elles déterminent notre capacité à organiser les connaissances, à leur donner un sens, à augmenter nos facultés de prise de décision et de contrôle des systèmes. Et notamment à tirer de la valeur des données. L’intelligence artificielle est donc une des clés du pouvoir de demain dans un monde numérique. Voilà pourquoi il est d’intérêt général que nous nous saisissions collectivement de cette question. Et que la France et l’Europe puissent faire entendre leur voix. Il est nécessaire de tout faire pour rester indépendants. Or la concurrence est rude : les États-Unis et la Chine sont à la pointe de ces technologies et leurs investissements dépassent largement ceux consentis en Europe. Le Canada, le Royaume-Uni et, tout particulièrement, Israël, tiennent également une place essentielle dans cet écosystème naissant. Parce qu’à bien des égards, la France et l’Europe peuvent déjà faire figure de « colonies numériques »2, il est nécessaire de ne céder à aucune forme de déterminisme, en proposant une réponse coordonnée au niveau européen. C’est pourquoi le rôle de l’État doit être réaffirmé : le jeu du marché seul montre ses limites pour assurer une véritable politique d’indépendance. De plus les règles qui régissent les échanges internationaux et l’ouverture des marchés intérieurs ne servent pas toujours les intérêts économiques des États européens – qui l’appliquent trop souvent à sens unique. Plus que jamais, l’État doit donner un sens au développement de l’intelligence artificielle. Donner un sens, c’est-à-dire donner un cap, une signification et des explications. Voilà l’objectif de ce rapport »

Les perspectives de l’intelligence artificielle dans les transports (Patrice Caine, PDG de Thales)

Les perspectives de l’intelligence artificielle dans les transports (Patrice Caine, PDG de Thales)

 

Une interview de Patrice Caine, PDG de Thales dans la Tribune sur les perspectives de l’intelligence artificielle dans les transports et qui ne cache pas cependant la vulnérabilité de certains systèmes

 

Quelles pourraient être les nouvelles frontières dans l’aérospatiale et le transport terrestre grâce à l’arrivée de l’intelligence artificielle (IA) ?
PATRICE CAINE -
 Des cas d’usage faisant appel à ces technologies peut être déployés dès à présent par les compagnies aériennes. Celles-ci sont de grandes entreprises, qui disposent d’une supply chain, de nombreux salariés, des ERP [progiciel de gestion intégrée, ndlr] et qui intensifient la numérisation de leur exploitation. Un des éléments clés de cette digitalisation est l’utilisation de l’IA. Par exemple, Thales propose d’ores et déjà de tels cas d’usage aux compagnies aériennes et aux opérateurs de transport, comme dans le cas du métro de Londres ou de Singapour, ou encore pour la SNCF ou la Deutsche Bahn. La prochaine étape sera l’utilisation de l’IA dans les avions, les trains, les métros, ou encore les voitures. La question de savoir jusqu’où on utilise l’IA est en discussion. En d’autres termes, quel degré d’autonomie vise-t-on ? Le monde du transport terrestre est un peu moins complexe que l’aérien. Pour le transport terrestre, il s’agit d’un monde à deux dimensions, voire une seule dans le cas des trains ou des métros. Donner de l’autonomie à ces objets évoluant dans un monde à une ou deux dimensions est moins complexe que dans un monde à trois dimensions comme pour un avion.

Est-ce possible aujourd’hui dans les transports terrestres ?
La technologie a bien progressé. Thales est passé du stade de laboratoire il y a deux à trois ans, à la preuve de concept, par exemple avec le métro de New York. L’automne dernier, pour la première fois, Thales a équipé une rame de métro de multiples capteurs pour lui permettre de se repérer dans l’espace sans avoir besoin de balises sur la voie ferrée. Et nous avons mis des ordinateurs dans le poste de pilotage, avec des algorithmes utilisant de l’IA, pour permettre à la rame de métro de se repérer et de prendre des décisions par elle-même face à des cas de figure imprévus. Cela a permis de voir comment la machine réagissait à un événement qui n’était pas programmé. Et cela a bien fonctionné. Il y a un vrai bénéfice économique lié à l’utilisation de ces technologies, l’économie n’est pas vraiment liée à la présence humaine ou non dans les rames de métro. D’ailleurs, dans les métros automatiques, les opérateurs de transport qui ont gardé la présence humaine, l’ont fait principalement à des fins psychologiques, car en réalité l’homme ne pilote plus ces métros. Le vrai bénéfice des trains ou des métros autonomes sera d’être encore plus efficaces, mais aussi plus économes en pouvant, par exemple, se passer de tous les équipements de positionnement à la voie, les fameuses balises ou même de la signalisation à la voie.

N’aurons-nous pas besoin de redondance pour des systèmes autonomes ?
Pour passer à l’échelle industrielle, il faut faire la démonstration que cette technologie est « safety critical ». Pour cela, on a besoin notamment de redondance, comme dans le secteur aéronautique, en utilisant par exemple deux chaînes de calcul en parallèle comme avec les radioaltimètres qui peuvent être jusqu’à trois exemplaires dans un même appareil afin d’assurer la concordance des informations. Néanmoins, dans l’aérien, c’est encore plus compliqué. Je n’irais pas jusqu’à dire que les normes « safety » [de sécurité] sont plus drastiques, mais l’environnement est différent. Les avionneurs, qui ont une vue d’ensemble du sujet, travaillent notamment sur la notion de SPO (Single Pilot Operation). La question qui se pose n’est pas d’avoir un avion sans pilote et totalement autonome, mais plutôt de passer un jour de deux pilotes humains à un seul pilote humain assisté d’un pilote à base d’intelligence artificielle.

À quel horizon les compagnies aériennes pourront-elles proposer des avions avec un seul pilote assisté par la machine et l’IA ?
C’est une question pour les constructeurs et les compagnies aériennes. Thales ne maîtrise qu’une partie de ce grand défi technologique qui concerne toute la chaîne de pilotage. De plus, ce sont des questions réglementées. C’est bien le constructeur qui dira « je sais faire ou pas », la compagnie aérienne « j’en ai besoin ou pas », et le régulateur « je certifie ou pas ».

Aujourd’hui, est-il possible de faire voler des drones autonomes ?
Est-on capable de rendre les drones autonomes ? Pas encore. Mais cela est imaginable à l’avenir. Là encore, il faudra que tout cela soit conforme aux règles de sécurité. Aujourd’hui, un drone non piloté est automatique et non pas autonome : il fait juste ce qu’on lui a demandé de faire avant qu’il décolle, typiquement en lui indiquant les coordonnées GPS pour définir un parcours à suivre. Ceci rend son pilotage automatique, mais pas autonome.

Du point de vue de Thales, l’IA est-elle déjà mature pour des applications dans le monde réel ?
La technologie est mature pour tout un tas d’application et de cas d’usage. La question est de savoir à quel rythme les clients seront prêts à l’utiliser dans les systèmes, et à quelle vitesse les clients et les utilisateurs seront prêts à l’accepter. Par exemple, pour les compagnies aériennes, le passager peut se poser légitimement la question de la sécurité. Autre exemple, en matière de défense se posent des questions de responsabilité, d’éthique voire de morale. Pour autant, il y a des sujets qui ne posent pas vraiment de problème éthique : c’est le cas de l’auto-apprentissage, une forme d’autonomie-amont, qui permet aux objets d’apprendre par eux-mêmes. C’est le cas des capteurs en général, par exemple les radars, les sonars, ou tout autre capteur électronique, qui peuvent acquérir une autonomie en matière d’apprentissage. La technologie est mature, et Thales est capable d’en faire bénéficier les systèmes qu’il développe dès lors que les questions de responsabilité et d’acceptabilité sociétale, éthique ou morale sont réunies.

Quel est le marché de l’IA dans l’aérospatial ?
L’IA n’est pas un produit ou un marché, c’est une technologie qui permet de créer de la différentiation. Cela permet de faire de l’avionique, des systèmes de contrôle aérien, avec des services supplémentaires plus efficaces et plus intelligents. On ne vend pas de l’IA à proprement parler, on l’embarque dans nos produits ou solutions pour en décupler les capacités. En matière de services de cybersécurité, quand on injecte des algorithmes IA dans les sondes de supervision des réseaux informatiques, on vend toujours des sondes, mais elles sont encore plus performantes grâce à l’IA.

Peut-on ou pourra-t-on certifier l’IA ? Et donc contrôler l’IA ?
C’est une question très sérieuse sur laquelle nous travaillons. Nous sommes pour le moment à une étape intermédiaire, à savoir la mise au point de l’IA explicable. Aujourd’hui, la branche de l’IA qui repose sur l’apprentissage par les données [data based AI] fait appel essentiellement au machine learning ; c’est une IA dite « boîte noire ». On ne saura jamais expliquer pourquoi elle arrive au résultat, mais on constate que ce résultat est exact dans 99,99 % des cas. C’est le cas de la reconnaissance faciale. Mais lorsqu’il lui arrive de se tromper, on ne sait pas l’expliquer. La première étape pour arriver à une IA explicable fera très vraisemblablement appel à de l’IA à base d’apprentissage par les données et à de l’IA à base d’apprentissage par les modèles. Cette hybridation de ces deux types d’IA devrait permettre de produire des algorithmes permettant d’expliquer les résultats de l’IA. On y travaille et on a bon espoir d’y arriver. La deuxième étape, c’est l’IA certifiable. Les grands experts disent que cela prendra sans doute des années et qu’on n’est pas sûr d’y arriver, mais on cherche. Si on y arrive, on pourra l’utiliser de manière plus extensive. Et la plupart des réticences seront levées. On sera dans un autre univers. Enfin, contrôler l’IA, c’est encore autre chose. L’IA produit un résultat. Ce qu’on en fait derrière peut se faire de manière automatique ou en gardant le contrôle.

Est-il possible de développer un cloud souverain à l’échelle de la France ou de l’Europe ?
Dans le champ des technologies numériques, Thales est utilisateur du cloud et pas un fournisseur de cloud en tant que tel. On constate qu’il y a des solutions particulièrement efficaces comme Azure de Microsoft ou AWS d’Amazon. Ces produits mettent à disposition des micro-services, des composants logiciels, qui permettent aux développeurs qui les utilisent d’aller plus vite pour créer leurs propres applications. Le cloud est devenu un élément important de compétitivité et d’efficacité pour les équipes d’ingénierie afin de gagner en temps dans leurs développements. Il sera sans doute très difficile pour des acteurs différents de ceux cités de fournir autant de micro-services. Toutes les semaines Azure et AWS mettent à jour leurs micro-services en en proposant de meilleurs et en y ajoutant de nouveaux.

Mais comment peut-on se protéger de lois extraterritoriales américaines comme le Cloud Act ?
Pour nos activités, on utilise soit du cloud public, soit du cloud privé ou encore nos propres data centers selon la sensibilité des applications et des données. Mais Thales est surtout fournisseur de solutions pour tous ceux qui veulent utiliser le cloud tout en protégeant leurs données. Par exemple, on va systématiquement chiffrer les données avant qu’elles soient stockées dans le Cloud et offrir un service de type « Bring your own key », permettant de créer des clés d’accès personnalisées. La plupart des industriels, qui offrent des services de cloud, proposent des « packages » pour s’occuper de tout : hébergement des données et chiffrage de celles-ci. Cela marche bien pour les industriels qui n’ont pas de sujets de confidentialité. Mais pour les acteurs qui veulent dissocier fournisseur d’hébergement et fournisseur de chiffrement pour des raisons de sécurité et de confidentialité ou d’autres raisons, il est possible de le faire. Thales propose des offres de protection des données en complément des services des hébergeurs de données dans le cloud. Est-ce possible d’avoir un cloud souverain ? Oui, c’est possible pour l’hébergement, mais il sera difficile de rattraper le niveau des acteurs américains quant aux micro-services associés, leur avance dans ce domaine est considérable.

L’affaire Huawei est-elle le début d’une guerre froide technologique ?
D’une façon générale, il s’est ouvert dans le monde de nouveaux champs de confrontation : après les champs de confrontation classiques, militaires ou diplomatiques, on observe de plus en plus une confrontation technologique. Les puissances cherchent à asseoir une domination, qui n’est plus aujourd’hui que militaire et diplomatique. Il y a aussi une course à l’armement sur le terrain technologique qui répond à une logique de puissance. Mais cela n’a-t-il pas toujours été le cas dans l’histoire ? L’invention de la roue n’a-t-elle pas permis de récolter davantage et donc de nourrir plus de personnes et d’avoir des nations plus nombreuses ? Aujourd’hui, le champ des confrontations englobe sans complexe les aspects industriels et technologiques.

De façon plus générale, faut-il craindre un cyber-Pearl Harbor ?
Personne ne le sait avec certitude mais autant s’y préparer. À notre niveau, nous faisons tout pour protéger nos clients et notre entreprise, mais il faut rester modeste. Tous les grands groupes sont attaqués quotidiennement. Il y a derrière les attaques informatiques des intérêts, qui ne sont pas uniquement économiques. On se prépare à toutes les éventualités. Mais la créativité étant sans limite, c’est un combat de tous les instants. Ceci dit, ce type de menace représente également une opportunité et un marché pour Thales. Nous aidons nos clients, les États ou les OIV [Opérateurs d'importance vitale] sur ces questions de cyberprotection. Thales se spécialise plutôt sur les solutions et les produits sachant que les clients font appel aujourd’hui à deux types d’acteurs : ceux axés sur le pur conseil et ceux axés sur les solutions.

Est-on arrivé à une vraie prise de conscience de la menace cyber ?
Le monde économique en parle de plus en plus, mais tous les acteurs n’ont pas encore mené des actions concrètes. Il y a encore un écart entre intention et action, car cela requiert des moyens, mais le sujet n’est plus ignoré. Un cap sera franchi lorsque tous les acteurs investiront suffisamment pour se protéger.

La généralisation de l’Internet des objets (IoT) augmente-t-elle les risques ?
L’IoT est un démultiplicateur du champ des possibles, mais aussi une source additionnelle de vulnérabilité. Pour Thales, c’est un champ de questionnements en interne, et d’opportunités de marché en externe. Dans notre analyse des marchés, le fait de connecter des objets à haute valeur ajoutée, comme des trains, des avions, des voitures, implique une exigence de sécurisation élevée. C’est dans ce domaine que Gemalto va nous apporter des technologies que nous n’avions pas. Cela aurait été un non-sens de vouloir les développer par nous-mêmes. Gemalto sait identifier les objets de manière très sécurisée et sait les gérer, c’est-à-dire les activer et les configurer de manière hautement sécurisée. Il propose des plateformes capables de gérer des millions d’objets de manière hautement sécurisée quant à leur identité numérique. Thales fait le reste, notamment l’exploitation et la gestion des données de mission.

L’acquisition de Gemalto par Thales amène certains observateurs à se demander si Thales va rester dans la défense. Que leur répondez-vous ?
Thales réalise 8 milliards d’euros dans la défense, sur un chiffre d’affaires total de 19 milliards en incluant l’acquisition de Gemalto – 16 milliards avant. Déduire de l’acquisition de Gemalto qu’on se désintéresse du militaire est un non-sens total. Si demain nous avions des opportunités de croissance externe dans la défense, nous les regarderions. Il y a des cycles, et en ce moment on avance plus vite en matière d’acquisition dans nos métiers civils. Mais je tiens à cette dualité défense-­civil. Il faut reconnaître que les acquisitions en matière de défense se font dans un domaine contraint, où on a besoin d’accords qui vont au-delà de celui du conseil d’administration de Thales. De mon point de vue, l’Europe de la défense ne pourra se faire que s’il y a, à un moment donné, une consolidation industrielle. Imaginer qu’on puisse le faire uniquement par de la coopération n’est pas suffisant sur le long terme. Cela renvoie à l’envie des États de pousser ou d’accompagner ce type de consolidation industrielle. Force est de constater que depuis la création d’EADS, il n’y a pas eu de très grande consolidation dans la défense.

Thales est concurrent de Naval Group, dont il est actionnaire, de MBDA dans les missiles et de Safran dans l’optronique. N’y a-t-il pas des rectifications de frontière qui s’imposent ?
Il y a tellement à faire dans le naval, un secteur où on est à la fois concepteur de senseurs/capteurs, de radars, de sonars ainsi que de CMS [Combat Management Systems] avec nos activités aux Pays-Bas. Mais nous ne sommes pas maître d’œuvre, ni plateformiste. Sur les 8 milliards d’euros d’activité que nous réalisons dans le secteur de la défense, il y a déjà énormément de projets à lancer pour améliorer ce que nous faisons déjà avant d’entamer autre chose. Thales a des activités historiques qui sont le fruit de l’héritage du groupe, comme son activité missilière à Belfast. Elle découle d’une volonté politique du Royaume-Uni. Le fait de produire des véhicules blindés en Australie est également le résultat de la volonté du gouvernement australien d’avoir ses activités hébergées par un acteur de confiance comme Thales. Notre groupe est un jardin mixte, à la française et à l’anglaise.

Thales va-t-il rester actionnaire de Naval Group ?
Oui, absolument. Nous avons apporté, à l’époque, notre activité
de CMS à Naval Group afin de consolider et renforcer l’équipe de France du naval. Devenir actionnaire de Naval Group a été, pour nous, à la fois une opération industrielle et un mouvement stratégique longuement réfléchis. Nous avons donc une stratégie de long terme avec Naval Group dans le cadre d’un partenariat industriel, technologique et capitalistique.

Quelle sera la feuille de route du nouveau président de Naval Group ?
Elle sera bien évidemment à définir avec l’État. Il faut trouver un PDG qui écrive la suite de l’histoire de Naval Group pour les dix prochaines années et qui puisse donc s’inscrire dans la durée.

Concernant les exportations, trop de compliances [règles de conformité anti-corruption] ne tuent-elles pas le business ?
Il y a des règles, il faut les appliquer, un point c’est tout. Si on les respecte, on fait du business dans certains pays ou pas. Quand on ne parvient pas à faire du business dans certains pays en respectant les règles, tant pis pour nous…

Pour Thales, le spatial reste-t-il une activité cœur de métier ?
Le spatial est au cœur de nos métiers et représente une activité importante chez Thales : Thales Alenia Space réalise environ 2,5 milliards de chiffre d’affaires. Avec Telespazio, le groupe affiche un chiffre d’affaires d’environ 3 milliards d’euros dans le spatial. Ce n’est donc pas une activité accessoire et dans ce domaine d’activité, nous avons de nombreux projets passionnants à réaliser, des projets créateurs de valeur, bien sûr. Le fait que cette activité soit au cœur de Thales n’empêche pas de travailler ou de coopérer avec d’autres acteurs. La meilleure façon de répondre à un marché exigeant comme celui du spatial, a fortiori lorsqu’un tel marché est difficile et où certains acteurs renoncent, c’est de chercher à travailler de manière pragmatique avec son écosystème. D’une façon générale, nous avons une analyse lucide quelle que soit l’activité concernée. Si nous avons la conviction que nous sommes les mieux placés pour développer telle ou telle activité, nous la développons et nous y investissons de façon significative.

Quelle serait votre position si l’État proposait une consolidation dans le spatial entre Thales et Airbus ?
Comme vous le savez, je ne commente jamais de tels sujets. Ce n’est pas parce que le marché est difficile pour tout le monde en ce moment qu’il faut immédiatement se poser une telle question.

Les géants américains ont des projets pour aller sur Mars, contrairement aux groupes européens. Ne manque-t-il pas des projets emblématiques en Europe pour entraîner le grand public ?
On est déjà allé sur Mars avec ExoMars en 2015. L’ESA l’a fait. L’Europe, qui a été capable de créer l’Agence spatiale européenne (ESA), consacre des sommes importantes à l’espace. La question que l’Europe doit se poser est : comment maintenir une industrie aérospatiale au plus haut niveau capable de rivaliser avec la Chine et les États-Unis ? Aujourd’hui, c’est encore le cas. Par exemple, les Chinois sont encore demandeurs de coopérer avec les Européens : c’est le signe qu’ils ne maîtrisent pas encore tout par eux-mêmes. Quant à la question de l’incarnation en Europe du rêve de la conquête spatiale, peut-être manque-t-on effectivement de fortes personnalités emblématiques, comme Elon Musk ou Jeff Bezos aux États-Unis ?

Pourquoi l’Europe ne veut pas dire qu’elle veut aller coloniser Mars ?
Le spatial est un secteur qui concerne aussi bien la science que le commercial. Aller sur Mars relève difficilement d’une logique de business plan, et les clients, ou candidats au voyage, ne semblent pas très nombreux. C’est peut-être important d’aller explorer ou coloniser Mars, mais ceci relève de la mission scientifique ; ce n’est pas un business pour un acteur industriel comme Thales. Peut-être a-t-on un discours trop réaliste ? Les entrepreneurs qui annoncent vouloir le faire, le font avec leur argent et ils assument leurs rêves. Force est de constater qu’en Europe, nous n’avons pas bénéficié de l’émergence d’entrepreneurs milliardaires emblématiques du numérique.

La France est sur le point de changer de doctrine dans l’espace. Quelle est votre analyse sur ce champ de confrontations ?
Nous avons soumis des idées au ministère des Armées, par exemple dans le domaine de la surveillance de l’espace depuis l’espace [SSA, Space Situational Awarness]. Nous pouvons aider notre pays et l’Europe, à se doter de capacités nouvelles au service de notre défense autonome des capacités tierces. Maintenant, c’est une décision qui appartient au pouvoir politique. Ce qui est relativement nouveau, c’est que l’espace est en train de devenir, voire est devenu, un champ de confrontations assumé, là où il ne l’était pas, ou l’était mais de manière non assumée. Un peu à l’instar de ce qui s’est passé dans le cyberespace où, avant la loi de programmation militaire du précédant quinquennat, la France ne reconnaissait pas l’attaque dans ce domaine. Depuis celle-ci, la France s’est donné la possibilité de se défendre, mais aussi d’attaquer dans le cyber­espace. Les responsables politiques assument qu’il y ait une menace et une stratégie aussi bien défensive qu’offensive.

Comment voyez-vous Thales dans dix ans ?
D’ici à trois ans, j’ai envie de poursuivre tout ce qui a été lancé : consolider Gemalto, intégrer de plus en plus de technologies pour créer de nouveaux différenciateurs et de nouvelles innovations pour nos clients. Au-delà de cette période, il s’agira de continuer de trouver des technologies de rupture pour offrir à nos clients, à nos équipes et à nos actionnaires des perspectives passionnantes au-delà de la décennie pour faire de Thales un laboratoire du monde de demain, axé sur la recherche du progrès pour tous.

Avez-vous des projets qui vous font rêver ?
Oui, et ils sont nombreux. Par exemple, le laser de haute puissance ouvre des champs fantastiques. La question, au-delà de la technologie mise au point pour ce projet ELI-NP [Extreme Light Infrastructure for Nuclear Physics] qui nous a permis de battre un record mondial avec l’émission d’une puissance incroyable de 10 pétawatt [10 millions de milliards de watts], est de savoir s’il va créer du business ou si cet outil restera un outil scientifique. Potentiellement, les applications font rêver : l’une d’elles permettrait de réduire la période de vie des éléments radioactifs. Mais ce champ d’application et de business s’adresse aux acteurs comme EDF, pas à Thales.

Autre projet à dix ans : comment va-t-on utiliser les propriétés quantiques de la matière pour ouvrir de nouveaux champs d’application ?
Le champ d’application de ces propriétés est quasiment sans limite. Nous avons communiqué sur l’utilisation de la « spintronique » [technique qui exploite la propriété quantique du spin des électrons] pour mettre au point des nano­synapses, des nano-neurones avec pour objectif final de faire baisser d’un facteur 10 ou 100 la consommation électrique des supercalculateurs. Si nous y arrivons, nous pourrons transformer l’industrie informatique et des supercalculateurs ainsi que l’utilisation de l’IA, qui est fortement consommatrice en puissance de calcul et donc très énergivore. Mais on se doit encore de rester modeste. Autre champ à l’étude sur lequel Thales a commencé à travailler : les senseurs quantiques, secteur où on peut être capable d’améliorer d’un facteur 10 à 100 - ce qui est colossal pour l’industrie - les précisions de mesure du champ magnétique, de la gravité, du champ électrique, etc. Cela ouvre des champs d’application qui sont totalement disruptifs.

Quelles peuvent être les applications de cette technologie ?
Imaginez un avion qui décollerait de Paris pour atterrir à l’aéroport de New York- JFK et perdrait ses repères extérieurs. Avec les technologies actuelles, il arriverait à destination avec une précision de 2 kilomètres. Grâce à ces technologies utilisant les propriétés quantiques de la matière, il y parviendrait avec une précision de 20 mètres, ce qui lui permettrait de se poser sur la piste. On raisonne beaucoup défense, aéronautique, mais pour autant, l’utilisation de ces capteurs quantiques ouvre des possibilités fantastiques, notamment dans la connaissance et l’exploitation du sol et du sous-sol. On va pouvoir mesurer et détecter ce qui ne peut pas l’être par la sismique classique ou l’observation depuis le ciel ou l’espace. Par exemple, dans la défense, cela permettrait de détecter des mines sous l’eau et, in fine, de mettre l’homme en sécurité.

Ces capteurs quantiques pourraient augmenter la résilience des avions, qui auraient fait l’objet d’un brouillage du GPS ou de Galileo ?
Bien sûr, c’est un gain en précision mais aussi en résilience. Un avion pourrait devenir autonome, sans s’appuyer sur des moyens extérieurs de navigation, potentiellement vulnérables. Brouiller un signal GPS, c’est presque à la portée de tout le monde. On peut imaginer des avions dotés des capteurs quantiques pour disposer de capacités autonomes, leur permettant de se guider indépendamment du GPS. Nous travaillons aussi sur le champ des communications quantiques. C’est de la recherche-amont mais qui nous projette dans le futur au-delà de la décennie.

À quel horizon ce champ de recherches peut-il devenir un champ applicatif ?
Année après année, nous franchissons des étapes qui nous confortent dans nos choix. On a déjà fait des mesures dans nos laboratoires. Cela fonctionne dans le cadre de manipulations de labo, car on est sur des TRL [Technology Readiness Level] très bas en termes de maturité. C’est au moins à cinq ans, voire dix ans, mais aujourd’hui nous avons des pans entiers de la science qui permettent d’entrevoir des applications dans le champ industriel et économique.

L’intelligence artificielle : chance ou menace ?

L’intelligence artificielle : chance ou menace ?

  • ·        

 

Lintelligence artificielle constitue-t-elle une chance pour notre économie et où une menace pour les libertés démocratiques. C’était le thème dun débat du Forum Europe 1 organisé au Bataclan. (Source Europe 1) 

« L’intelligence artificielle (IA) souffre-t-elle d’une mauvaise image dans l’Hexagone ? « On vit en France une vraie schizophrénie sur ce sujet », estime Eric Hazan, directeur associé chez McKinsey, cabinet de conseil en intelligence artificielle, interrogé lors du Forum Europe 1 Liberté, Egalité, Fraternité, organisé mardi au Bataclan.

Quatre fois plus de chômage sans l’IA ?  »On veut plus de vie privée et en même temps on est sur trois ou quatre réseaux sociaux. On vit avec le stress d’être écouté et on est bien content d’avoir des logiciels de traduction », énumère ce spécialiste pour qui l’intelligence artificielle est l’un des enjeux économiques majeurs des décennies à venir. « Si on déploie l’Intelligence artificielle, on va croître de 0,1 à 0,2% par an la croissance des pays développés. On créerait quatre fois plus de chômage en n’utilisant pas l’IA. On estime en effet à 5 à 10% des emplois qui seront supprimés à cause de l’IA. Mais il y aura aussi beaucoup de créations d’emploi ». Selon Eric Hazan, les bénéfices pourront toucher tous les secteurs. Détection ultraprécise du diabète, lutte contre le braconnage en Afrique, identification des prémices d’un ouragan, réduction des déchets de production dans l’industrie, analyse des capacités de remboursement de dette des ménages… « L’intelligence artificielle est un facteur de segmentation, de détails dans la compréhension des choses. On peut optimiser énormément de choses », conclut-il.

« La société de consommation existait bien avant l’intelligence artificielle »

Une incitation à la consommation ? L’intelligence artificielle est-elle pour autant une panacée ? Ne menace-t-elle pas notre vie privée et notre liberté ? « Ne risque-t-elle pas de nous pousser à consommer non-stop ? Aujourd’hui, je peux recevoir des publicités (ciblées) dans mes toilettes avec mon téléphone. Cela ne pousse-t-il pas à son maximum notre asservissement à la société de consommation ? », interroge pour sa part David Abiker, journaliste à Europe 1 et animateur du forum Europe 1. « La société de consommation existait bien avant l’intelligence artificielle », balaye pour sa part Eric Hazan, qui reconnaît que les enjeux éthiques sont importants et que l’IA devra être encadrée.

Pour Marie-Laure Denis, présidente de la CNIL, « les consommateurs d’IA doivent avoir conscience que leurs données sont enregistrées, comprendre comment elles sont enregistrées et utilisées » par l’IA. Si elle assure que la France est bien armée pour lutter contre les dérives en matière de protections des données, elle s’étonne encore de recevoir certains types de publicités : « Des publicités pour de l’alcool par exemple. Cela risque de poser problèmes pour ceux qui luttent contre une addiction… »

« L’économie de la connaissance, on y va ».  »Il y a des enjeux éthiques très importants. Si tous les logiciels d’intelligence artificielle sont faits par des hommes blancs, pour des hommes blancs, cela peut poser des problèmes » de discrimination, ajoute pour sa part Olivier Derrien, directeur général de Salesforce, éditeur de logiciels, participants aussi au débat. Mais pour Eric Hazan, toutes ces questions, légitimes, ne freineront pas le développement de l’IA. Elles devront être résolues mais il est désormais impossible de revenir en arrière. « L’intelligence artificielle, l’économie de la connaissance, on y va », conclut-il.

 

Vers le remplacement de l’homme par l’intelligence artificielle ?

Vers le remplacement de l’homme par l’intelligence artificielle ?

 

L’intelligence artificielle est un thème très à la mode c’est aussi l’occasion de faire un amalgame très approximatif de toutes les évolutions notamment technologiques, biologiques et sociétales. De ce point,  un article du site Atlantico (pourtant souvent intéressant) rend compte d’un ouvrage sur la question dans la lecture mérite le détour. Pas vraiment une analyse et une prospective scientifique mais plutôt une approche scientiste qui brasse des concepts mal maîtrisés et qui constituent plutôt une sorte de science-fiction alimentée par l’observation du marc de café et le courant transhumaniste.

 

«  Engagés depuis des milliards d’années dans une implacable course aux armements, nos gènes ont fini par se montrer plus malins. Ils ont fabriqué une arme si puissante que dans cette lutte il n’y aura ni gagnants ni perdants. Il ne s’agit pas de la bombe à hydrogène, car un conflit nucléaire généralisé ne ferait que retarder ce qui se trame et qui est immensément plus intéressant. Ce qui nous attend, ce n’est pas l’anéantissement. C’est plutôt un futur qui, vu de la position privilégiée qui est la nôtre aujourd’hui, mérite d’être qualifié de « postbiologique », voire de « surnaturel ». C’est un monde dans lequel le genre humain sera balayé par une mutation culturelle et détrôné par sa propre progéniture artificielle. Les conséquences ultimes de ce bouleversement ne sont pas connues, bien que nombre d’étapes intermédiaires puissent être prévues et, pour certaines, aient déjà été franchies. Aujourd’hui, nos machines restent des créations élémentaires : elles exigent les soins maternels et l’attention constante que l’on doit aux nouveau-nés et ne méritent guère d’être qualifiées d’« intelligentes ». Mais, dès le siècle prochain, elles deviendront des entités aussi complexes que nous-mêmes, puis, bientôt, elles transcenderont tout ce que nous connaissons. Nous pourrons alors être fiers qu’elles se disent nos descendants.

 

Délivrés des pesantes contraintes de l’évolution biologique, ces enfants de notre esprit pourront se mesurer aux grands défis de l’univers. Nous autres humains bénéficierons un temps de leurs efforts, mais, tôt ou tard, tels des enfants biologiques, ils iront chercher fortune pour leur propre compte, tandis que nous, leurs vieux parents, nous éteindrons doucement. Perdra-t-on beaucoup à ce passage du flambeau ? Pas nécessairement, car nos rejetons pourront garder en mémoire presque tout ce qui nous concerne, peut-être même jusqu’aux détails du fonctionnement des esprits humains individuels.

Ce processus a commencé il y a environ cent millions d’années, lorsque certaines lignées génétiques ont trouvé le moyen de donner naissance à des animaux capables d’apprendre durant leur vie certains comportements de leurs aînés durant leur vie, au lieu d’en hériter en bloc à la conception. Une première étape a été franchie il y a dix millions d’années, lorsque nos ancêtres primates ont commencé à se servir d’outils faits d’os, de bâtons et de pierres. Le processus s’est à nouveau accéléré avec la maîtrise du feu et le développement de langages complexes, il y a environ un million d’années. Au moment où notre espèce est apparue, il y a environ cent mille ans, l’évolution culturelle, la mécanique implacable que nos gènes avaient involontairement fabriquée, avait acquis une dynamique irrésistible.

Au cours des derniers dix mille ans, les changements intervenus au sein du patrimoine génétique humain ont été dérisoires en regard des progrès foudroyants de la culture humaine. Nous avons d’abord assisté à une révolution agricole, suivie de l’établissement de vastes bureaucraties capables de lever des impôts pour subvenir à leurs besoins, du développement de l’écriture et, enfin, de l’émergence de classes oisives disposant du temps et de l’énergie nécessaires pour se consacrer à des occupations intellectuelles. Au cours du dernier millénaire, les inventions, à commencer par celle de l’imprimerie à l’aide de caractères mobiles, ont grandement accéléré le flot de l’information culturelle, et donc le rythme de son évolution.

Avec l’arrivée de la révolution industrielle, il y a deux cents ans, nous sommes entrés dans la phase finale, celle au cours de laquelle les substituts artificiels aux fonctions du corps humain, telles que soulever ou porter, sont devenus de plus en plus économiquement intéressants – et même indispensables. Puis, il y a une centaine  d’années, avec l’invention des premières machines à calculer réellement utilisables, nous avons, pour la première fois, été capables de reproduire quelques-unes des fonctions élémentaires, mais tout de même délicates, de l’esprit humain. Le pouvoir de calcul des machines a depuis été multiplié par un facteur mille tous les vingt ans.

Aujourd’hui, nous sommes très proches du moment où toutes les fonctions humaines, qu’elles soient physiques ou intellectuelles, connaîtront leur équivalent artificiel. Cette convergence des développements culturels aura pour incarnation le robot intelligent, machine capable de penser et de réagir comme un humain, bien que certaines de ses caractéristiques physiques ou intellectuelles puissent être non humaines. De telles machines seraient capables de mener plus loin notre évolution culturelle, de parfaire leur construction et leur sophistication, sans nous et sans les gènes qui nous constituent. Quand cela se produira, notre ADN se retrouvera au chômage : il aura perdu la course de l’évolution au profit d’une nouvelle forme de compétition. »

Extrait du livre de Hans Moravec,  »L’avenir des robots et l’intelligence humaine », publié aux éditions Odile Jacob.

Les risques de l’intelligence artificielle non maîtrisée

Les risques de l’intelligence artificielle non maîtrisée

 

Cédric Sauviat, polytechnicien, président de l’Association Française contre l’Intelligence Artificielle (AFCIA) critique les conséquences de l’IA dont il pense qu’elle absolument pas maîtrisée (tribune dans sciences critiques)

 

« Il y a  quelques semaines, un groupe de travail constitué de plusieurs institutions anglaises et américaines, dont les universités d’Oxford et de Cambridge, a publié un rapport édifiant intitulé « The Malicious Use of Artificial Intelligence » (« De l’Usage malveillant de l’IA » 1).

Une vingtaine d’experts y décrivent les nouveaux dangers auxquels nous expose la technologie dans les cinq prochaines années.

Essaims de drones tueurs à reconnaissance faciale, rançongiciel profilant leurs cibles de manière automatique et sur une grande échelle, détournement de vidéos ou création de deepfakes (vidéo-montages hyperréalistes) aux fins de manipulation et de propagande, etc. Les scénarios ne manquent pas, limités par notre seul pouvoir d’imagination.

Disponibles un peu partout en libre accès, les algorithmes d’Intelligence Artificielle (IA) changent radicalement la donne en matière de sécurité. Là où une organisation malveillante devait investir du temps et de l’expertise pour préparer et mener à bien un petit nombre d’actions criminelles, il suffit désormais de quelques algorithmes courants et de la puissance de calcul de quelques serveurs pour agir avec efficacité et précision sur une vaste échelle.

POUR LA PREMIÈRE FOIS, LA QUESTION DE LA LIBRE DIFFUSION DES ALGORITHMES EST POSÉE.

Hier, l’investissement personnel des malfrats les exposait au risque d’être repérés et identifiés. Aujourd’hui, la délégation du travail à des « bots » garantit aux commanditaires un redoutable anonymat.

Contre ces nouvelles menaces, le panel d’experts reconnaît qu’il n’existe guère de parade évidente. Seule, disent-ils, la mise au point de systèmes défensifs plus intelligents encore pourrait permettre, sinon de prévenir, du moins d’endiguer les attaques. Incitant à une fuite en avant technologique dont les conséquences seront de fournir toujours davantage de moyens aux criminels potentiels.

Pour la première fois, la question de la libre diffusion des algorithmes est posée. Mais est-il vraiment possible de restreindre la diffusion de codes informatiques ?

 

LES EXPERTS DÉPASSÉS

 

Au même moment, diverses associations lancent une campagne pour obtenir l’interdiction des armes autonomes. L’un de leurs membres, l’informaticien Stuart Russell, a d’ailleurs présenté à l’Organisation des Nations-Unies (ONU), en novembre 2017, une sorte de docu-fiction 2, très impressionnant, dans lequel on voit des essaims de drones tueurs plonger le monde dans un climat de terreur, en l’espace de quelques semaines.

La conclusion de Stuart Russell est sans appel : il faut d’urgence interdire les armes autonomes par convention internationale. Qui oserait le contredire ?

 

 

Le raisonnement, toutefois, souffre d’un petit problème. Pour être efficace, une interdiction légale exigerait que ces fameux drones n’utilisent pas une technologie en vente libre ! GPS, système de pilotage automatique, logiciel de reconnaissance faciale, tous ces gadgets figurent déjà dans votre smartphone. Il ne vous reste plus qu’à récupérer la poudre d’une balle de fusil, ou à accrocher une grenade, un cocktail Molotov ou carrément une paire de ciseaux sur votre drone pour en faire une arme intelligente !

On le voit donc, l’IA semble poser des problèmes insurmontables, même à ceux qui en sont, en principe, les experts – et c’est le cas de Stuart Russell.

 

UNE CONFIANCE EN DÉLIQUESCENCE

 

Si le champ des dérives criminelles s’annonce très vaste, que dire de celui des pratiques nuisibles, mais pas nécessairement illégales, qui deviendront possibles pour les individus, les associations ou les entreprises ? Dans un monde où la responsabilité juridique, ou même simplement morale, se dilue à proportion de la distance qu’intercalent Internet et algorithmes entre un acte et son auteur, ne faut-il pas craindre une déliquescence totale de la confiance en l’autre ? 3

GARANT DE LA CONFIANCE QUI PERMET LE LIEN SOCIAL, L’ÉTAT DE DROIT DEVRA, DE PLUS EN PLUS, S’EFFACER DERRIÈRE LES ENTREPRISES TECHNOLOGIQUES QUI MAÎTRISENT LA « BONNE » INTELLIGENCE ARTIFICIELLE.

On discerne alors le rôle que seront appelées à jouer les grandes entreprises technologiques dans la préservation de la confiance et la défense contre la malveillance. Elles seules détiendront les moyens de contrecarrer les pratiques nuisibles, comme par exemple d’authentifier une vidéo, de bloquer des infiltrations de virus informatiques générés automatiquement ou encore de protéger la multitude des objets connectés dont nous sommes, de plus en plus, entourés et dépendants. Déjà, ces entreprises disposent de leviers considérables, et en grande partie discrétionnaires, sur la visibilité d’une société ou la diffusion d’une information.

Garant de la confiance qui permet le lien social, l’État de droit devra, de plus en plus, s’effacer derrière les entreprises technologiques, celles qui maîtrisent la « bonne » IA et peuvent assurer cette mission. Tendance en tout point comparable aux conditions d’émergence de la féodalité dans l’Europe médiévale.

 

UNE FUITE EN AVANT DÉBRIDÉE

 

Alléguant la sauvegarde de la souveraineté politique ou économique, la plupart des responsables politiques estiment qu’il est crucial de favoriser le développement d’une « industrie nationale » de l’Intelligence Artificielle. C’est qu’ils redoutent la mainmise des géants technologiques étrangers sur les données, et donc sur les personnes.

LE DÉVELOPPEMENT TECHNIQUE EST TOTALEMENT DÉBRIDÉ PARCE QUE, NULLE PART ET À AUCUN MOMENT, LES CONCEPTEURS D’INTELLIGENCE ARTIFICIELLE ET LES LÉGISLATEURS NE FIXENT LA MOINDRE LIMITE.

Ils craignent, en outre, l’effet des destructions d’emplois liées à la robotisation 4, et brandissent désormais comme une vérité indiscutable l’argument-choc selon lequel « les économies les plus équipées en intelligence artificielle et en robotique sont celles qui connaissent le moins de chômage ». 5

Mais le rêve de donner naissance à des champions européens de l’IA n’est pas sans contradiction dans une économie ouverte et globalisée, où lesdits champions peuvent, à tout moment, passer sous contrôle étranger.

Les entreprises technologiques promouvant l’IA, largement transnationales, l’ont bien compris puisqu’elles omettent soigneusement toute référence à une bien illusoire défense de souveraineté. Il n’est guère besoin d’invoquer celle-ci, au demeurant, pour que la compétition économique et la promesse de miracles techniques suffisent à alimenter une fuite en avant totalement débridée. »

 

Il s’agit donc de doubler les capacités installées d’énergies renouvelables d’ici à 2050, en multipliant par 2,5 les capacités installées d’éolien, et par 5 ou 6 celles de photovoltaïque. Le ministère souligne que ces ambitions ne posent pas de problème en termes d’usage des sols ou de pression foncière, puisqu’il s’agit de passer de 8.000 éoliennes installées aujourd’hui à moins de 15.000 (du fait des gains de performances), et pour le solaire, d’occuper 365 kilomètres carrés supplémentaires au sol et 175 kilomètres carrés de toitures pour le photovoltaïque.

Concernant la biomasse, sur laquelle nous pourrions connaître un déficit entre des besoins évalués à 460 TWh et un potentiel de 430 TWh, et qu’il pourrait être difficile d’importer dans la mesure où nos voisins pourraient se trouver dans des situations similaires, la PPE prévoit que le soutien financier soit réservé aux seules installations visant à produire de la chaleur.

Le biométhane (produit par méthanisation à partir de déchets organiques ménagers ou agricoles) voit ses ambitions stoppées nettes. Alors que le coût de production actuel est d’environ 95 euros par mégawattheure (MWh) produit, le gouvernement conditionne l’objectif de 10% de gaz vert dans le réseau en 2030 à une baisse des coûts à hauteur de 67 euros/MWh. Sinon, l’objectif restera limité à 7%, à comparer avec les ambitions d’un GRDF qui proposait 30%. Cette position, justifiée par une attention toute particulière portée aux coûts de la transition écologique sur fond de mouvement des gilets jaunes, semble assez antagoniste avec le constat d’électricité éolienne et photovoltaïque qui ont vu leurs coûts divisés par dix en dix ans pour des puissances équivalentes… précisément grâce aux économies d’échelle. Celles réalisées au niveau de la fabrication de panneaux solaires en Chine, mais aussi dans une certaine mesure, celles autorisées par le volume total des appels d’offres. On peut craindre que ces perspectives modestes ne suscitent pas suffisamment d’investissements pour permettre de telles baisses de coûts. Et plus largement que cette préférence aux technologies matures sur lesquelles la France – et même l’Europe – ont laissé le leadership à d’autres régions du monde n’entrave le développement de filières industrielles domestiques sur des technologies encore émergentes.

Intelligence artificielle : L’analyse prédictive la nouvelle mode

Intelligence artificielle : L’analyse prédictive la nouvelle mode

 

 

  • Dans un papier (sponsorisé par Orange !) l’intelligence artificielle est encore mise à toutes les sauces ; cette fois au service de l’analyse prédictive, la nouvelle mode. Une mode pourtant ancienne puisqu’il s’agit ni plus ni moins que d’exploiter des statistiques. L’analyse prédictive utilise en effet différentes méthodologies statistiquse à partir de données et de la théorie des jeux qui analysent des faits présents et passés pour faire des hypothèses prédictives. En faite une analyse de données passées en tenant compte des comportements pour faire de la prospective au service par exemple d’études de marché, de suivi d’installation ou encore de suivi de la santé. Un mélange de technologies nouvelles de l’information articulée avec une analyse des statistiques et des comportements. Pas vraiment un exploit de l’intelligence artificielle car ces techniques statistiques sont connues depuis au moins 30 ans.
  • (Extrait de l’article de l’article)

 

« Les avancées de l’intelligence artificielle (IA) conjuguées au big data ouvrent sans cesse de nouvelles perspectives. Parmi elles : l’analyse prédictive. De plus en plus performante grâce au machine learning, cette dernière est capable, en croisant des données de différentes sources, de prédire l’impact de phénomènes ou d’inventer de nouveaux services. Portrait d’une technologie de prédiction qui ne laisse rien au hasard.

Des progrès époustouflants… fondés sur la confiance des clients

Les progrès des modèles prédictifs s’accélèrent et génèrent sans cesse de nouvelles applications dans de nombreux secteurs économiques. En matière d’agriculture, il est ainsi possible d’anticiper les dépenses énergétiques des machines et d’être alerté en cas de besoin d’une maintenance préventive. Citons aussi le compteur intelligent Linky qui permet de fournir des recommandations pour optimiser la consommation grâce aux données collectées. Sans oublier l’industrie automobile et les véhicules connectés, qui marient intelligence artificielle et data science pour toujours plus d’autonomie. L’analyse prédictive repose sur l’exploitation de la data en échange d’un service facilitateur à valeur ajoutée pour les clients. La question de la confiance est donc primordiale. Un environnement où les utilisateurs peuvent partager leurs données en toute sécurité et confidentialité est crucial pour la réussite des modèles prédictifs. Le RGPD* va dans ce sens.

E-santé : quand l’IA aide à la prévention

L’IA et ses capacités prédictives améliorent la qualité des soins, la prévention ou l’aide au diagnostic du médecin. Un exemple ? La prévention de crises de certaines maladies et la télémédecine. Les poussées de rhumatismes inflammatoires peuvent ainsi être détectées grâce à un capteur d’activité sur le patient, couplé au machine learning. Les data scientists des Orange Labs, en partenariat avec l’hôpital de la Pitié-Salpêtrière et Sanoïa, ont développé un modèle repérant ces poussées avec une fiabilité de 96 %.

Maintenance prédictive : vers une industrie et une énergie intelligentes

Dans le secteur industriel, l’IA permet également, grâce aux modèles prédictifs, de prévoir les pannes avant qu’elles ne se produisent. L’ascensoriste ThyssenKrupp peut ainsi remplacer les pièces avant leur usure.

Autre exemple : le fabricant de chaudières et chauffe-eau à gaz, e.l.m. leblanc, propose grâce à l’IoT et l’IA un service de contrôle à distance et de maintenance curative et prédictive de ses chaudières. La solution déployée collecte les données de la chaudière et alerte les techniciens en cas de problème. Leurs interventions sont plus efficaces, car l’IA permet de cibler les causes probables du dysfonctionnement en analysant les données en temps réel. La plateforme génère aussi elle-même des alertes par anticipation, via des algorithmes de maintenance prédictive.

Smart city : l’IA au service des citoyens

L’IA permet aussi aux collectivités d’optimiser la performance énergétique des bâtiments publics et de simplifier l’usage des services de la collectivité, comme les transports. Un exemple : la commune de Cenon, près de Bordeaux, a installé des capteurs connectés dans les chaudières des bâtiments municipaux les plus énergivores pour améliorer leur performance énergétique.

Ressources humaines : quand le recrutement passe au 4.0

En matière de gestion des ressources humaines, l’analyse prédictive peut aider à prévoir les évolutions du marché de l’emploi, comme chez Adecco. Mais aussi à recruter les candidats possédant les comportements et soft skills adéquats pour un poste, grâce notamment à l’analyse de données et des tests de personnalité.

Autre application RH : anticiper des risques d’absentéisme en croisant des données épidémiologiques, de santé et de transports pour faire de la prévention.

Retail : prédire pour toujours plus personnaliser

Connaître le parcours client est la clé du succès dans le domaine du retail. Les modèles prédictifs par l’analyse et le croisement des données permet aux acteurs du secteur de pousser automatiquement des produits potentiellement pertinents aux consommateurs. Une société de l’agroalimentaire pourrait ainsi suggérer des listes de courses en fonction des données remontées par un réfrigérateur connecté par exemple. Avec l’accord et la confiance du client, il est aussi possible de croiser des données de l’entreprise avec des informations disponibles en open data. Résultats : des recommandations personnalisées, de loisirs, de sports, de vêtements, de voyages… ». Finalement surtout des études de marché ! »

Intelligence artificielle ou technolâtrie ?

Intelligence artificielle ou  technolâtrie ?

Un article forcément très marqué diffusé par l’ACIA (association française contre intelligence artificielle),  sans doute excessif, mais qui mérite d’être lu.

« Que les individus soient en perte de repères dans un monde déboussolé, c’est à fois un cliché et un constat certainement globalement juste. Mais il est un vieux repère de la modernité qui a résisté contre vents et marées et constituera peut-être l’ultime d’entre eux : l’enthousiasme, la foi, voire la vénération pour l’évolution technique, qui prend aujourd’hui la forme des technologies numériques. Propagé par les politiques, les économistes et les médias, cet optimisme technologique (ou technoptimisme) nous aveugle et nous empêche de prendre la mesure des conséquences humaines et écologiques du déferlement numérique et robotique qui saisit l’humanité depuis une vingtaine d’années. Bertrand Méheust, nous sommes face à un « nouvel âge de l’esprit » que plus rien ne pourra arrêter sur sa lancée… sauf un effondrement de la mégamachine (ce qui ne saurait tarder). Savoir que tout cela se terminera un jour ne nous prémunit pas hic et nunc contre la dangereuse mutation anthropologique que cela implique, même si l’on fait partie – ce qui est mon cas – des derniers réfractaires du smartphone, condamnés à vivre avec amertume l’évanouissement à marche forcée d’un monde qui nous était jusqu’il y a peu familier. L’économie numérique représente bien une rupture majeure, et il serait vain de vouloir nous comparer aux époques antérieures. Rien de cyclique ici, sous le soleil de l’innovation, rien que du nouveau, comme l’on bien vu les camarades de Pièces et main d’œuvre. Entre fantasme et réalité, le transhumanisme, l’extropianisme et la singularité technologique représentent les bonheurs et accomplissements que nous promettent les techno-prophètes dans le courant de ce siècle. Pour ce, ils peuvent compter sur l’appui des « progressistes » de gauche comme de droite, qui voient dans toute extension des droits individuels des bienfaits que seuls des réactionnaires pourraient critiquer, même si ces droits passent de plus en plus par le truchement de la technoscience, comme, par exemple, les nouvelles techniques de procréation. Que faire ? D’abord décréter un moratoire sur l’innovation incontrôlée, puis organiser une désescalade technique, voilà une condition nécessaire pour reconstruire la cohésion sociale dans une société qui se voudrait démocratique, écologique et décente.

L’actualité des livres vient à la rescousse.

Dans Seuls ensembleDe plus en plus de technologies, de moins en moins de relations humaines (éd. L’Echappée, 2015), la psychologue et anthropologue du MIT Sherry Turkle (née en 1948) a étudié l’impact des nouvelles technologies en Intelligence Artificielle sur la « façon dont nous nous pensons, dont nous pensons nos relations avec autrui et le sens de notre humanité » (p.20). Pour ce, elle s’est appuyée sur deux cent cinquante observations cliniques, principalement d’enfants, d’adolescents et de personnes âgées.

La première partie traite de leur rapport avec les robots – aux doux noms de Tamagochis, Furby, AIBO, My Real Baby, etc… – pour constater la facilité avec laquelle nous projetons sur eux nos sentiments et avons des attentes démesurées sur ce qu’ils pourraient nous apporter en terme d’aide, mais aussi de réconfort, d’amitié et même de sexualité !

D’une part, la notion d’authenticité perd de sa substance au profit d’une nouvelle définition de la vie « à mi-chemin entre le programme inanimé et la créature vivante » (p.61). D’autre part, les êtres humains sont remis en cause dans leur capacité à prendre soin les uns des autres. Les robots, « nous sommes aujourd’hui prêts, émotionnellement et je dirais même philosophiquement, à les accueillir » (p.31). Ces « créatures » robotiques sont traitées comme des égaux et non plus comme des machines, elles sont placées sur le terrain du sens, « alors qu’elles n’en dégagent aucun. » Elles sont de plus en plus présentes dans les maisons de retraite où elles remplacent le personnel manquant ou défaillant. En majorité, les pensionnaires s’y attachent, rentrent en intimité avec elles. A l’argument selon lequel les machines ne peuvent éprouver d’affects, les roboticiens répondent sans rire qu’ils en fabriqueront un jour de manière synthétique.

« Il est tellement aisé d’être obnubilé par la technologie et de ne plus chercher à développer notre compréhension de la vie », conclut l’auteure (p.170).

La seconde partie concerne l’internet avec ses réseaux sociaux, ses jeux en ligne, sa Second Life et ses sites de confession. Les effets de leur omniprésence dans notre quotidien sont loin d’être négligeables. D’abord celui d’une attention fragmentée permanente aboutissant au multitasking (multitâches) chez les jeunes, cette faculté qui impressionne tant les aînés, alors que les études en psychologie montrent que lorsque l’on fait plusieurs choses à la fois, on fractionne son attention et on les fait toutes moins bien. Ensuite, un effacement de la frontière entre la vie professionnelle et la vie privée, quand le smartphone reste allumé jour et nuit. Même en vacances, le cadre américain reçoit environ 500 courriels, plusieurs centaines de textos et 40 appels par jour !

Résultat : faute de temps, tous nos interlocuteurs sont réifiés, nous les traitons comme des objets. Turkle a aussi étudié le cas des natifs numériques (digital natives), les générations nées après 1990 pour lesquelles le web représente un liquide amniotique non questionné. « Je suis connecté, donc je suis ! » Et alors ?, répondront les technoptimistes.

« Ce n’est pas parce qu’un comportement devient normal qu’il perd la dimension problématique qui l’avait auparavant fait considérer comme pathologique », précise l’auteure (p.283).

Les jeux en ligne et Second Life nous entraînent dans un monde virtuel fait de simulacres, qu’on finit par préférer à notre vie réelle, les plus accros y passant la moitié de leur temps de veille ! Nous en demandons moins aux êtres humains et plus à la technologie, à laquelle nous appliquons une pensée magique : tant que je suis connecté, je suis en sécurité, et les gens que j’aime ne disparaîtront pas. Facebook est un fauve insatiable qu’il faut alimenter en permanence de nouvelles « positives » sous forme de textes, de photos, de vidéos, qui envahissent la vie privée, dans une simplification et un appauvrissement de nos relations.

A la fin du livre, nous apprenons qu’aujourd’hui de plus en plus de jeunes Américains ont la nostalgie du monde d’avant la connexion généralisée, quand les parents étaient attentifs, investis et engagés envers leurs enfants. Un début d’espoir de révolte ? Ce copieux essai de 523 pages fait le point sur un phénomène toujours sous-estimé dans ses retombées sociétales. Et encore, Turkle n’aborde pas ici l’aspect anti-écologique de ces technologies. Que resterait-il bien pour les défendre ? Chers lecteurs de France, voilà un excellent sujet pour le bac ! »

Bernard Legros

Article paru à l’origine dans Kairos, revue technocritique belge, n°19 avril/mai 2015

Bernard Legros est enseignant, essayiste, membre de l’Appel pour une Ecole Démocratique et membre fondateur du Mouvement politique des Objecteurs de Croissance (Belgique)

Intelligence artificielle : le risque des technoprophètes » (Alexandre Templier)

 Intelligence artificielle : le risque des technoprophètes » (Alexandre Templier)

Débarrasser l’intelligence artificielle de tous ses oripeaux mystico-religieux pour une approche  au service de l’humain, recommande  l’expert en IA, Alexandre Templier, dans une tribune au « Monde ». Extrait :

« . Qui eût cru, qu’un jour, la technologie se parerait des atours de la religion ? Une parure sémantique et symbolique qui suscite l’étonnement et mérite l’examen. Par exemple, lorsqu’il cofonda la Singularity University en 2008, Ray Kurzweil, le pape de l’intelligence artificielle (IA), a établi une charte d’engagement dont certains termes semblent sortis tout droit d’un livre religieux. On y parle de « communauté », de « chapitre », un rassemblement de religieux, ou encore de « credo », une formule contenant les articles fondamentaux d’une foi religieuse. Il y a quelques mois, Anthony Lewandoski, ex-ingénieur chez Google et Uber, fondait « The way of the future ». Une organisation religieuse dont le but est, selon son fondateur, « de développer et promouvoir la prise de conscience d’une divinité basée sur l’intelligence artificielle pour améliorer la société ». S’il est pour le moment difficile d’identifier les intentions réelles – ironie ou buzz – de l’ex-ingénieur en chef de Google, cette initiative ajoute du concret aux appropriations évoquées précédemment. Toutefois, pour devenir une « religion », l’intelligence artificielle présente deux lacunes de taille : l’absence de transcendance et le manque d’une perspective claire. S’il fallait trouver un équivalent au mot transcendance dans notre société matérialiste, le terme d’autorité régulatrice conviendrait parfaitement. Dans le monde religieux, la divinité dit le Ciel et la Terre, dans celui de l’intelligence artificielle il en va autrement. Aucune autorité n’est parvenue à en définir le périmètre. Conscients de son potentiel, les Etats commencent à forger des plans pour en favoriser le développement, à défaut de la réguler. …. cette notion d’encadrement semble loin dans l’agenda. »

Intelligence artificielle : réalités et gadgets (Charles Edouard Bouée)

 

 Dans une tribune des Échos, Charles Edouard Bouée,  président de Roland Berger, fait la part de ce qui relève réellement des avancés en matière d’intelligence artificielle et ce qui relève des gadgets.

«  La septicémie, qui représente une des premières causes de mortalité en milieu hospitalier, pourrait bientôt appartenir au passé. Comment ? Grâce à un algorithme d’intelligence artificielle capable de détecter, une demi-heure avant qu’elle ne survienne, une chute brutale de la pression artérielle très souvent indicatrice d’une infection du sang. Trente minutes suffisent à l’équipe soignante pour intervenir, sauver ainsi des milliers de vies et économiser des milliards de dollars. Une telle avancée est le fruit de la collaboration entre l’expert en intelligence artificielle Antoine Blondeau, fondateur de  Sentient Technologies, et les chercheurs du MIT . On est bien loin du buzz que des entreprises peu scrupuleuses font parfois, en estampillant « IA » des solutions technologiques qui pour certaines n’ont rien à voir avec l’intelligence artificielle, pour attirer les investisseurs et les clients. Après le « green washing », consistant à donner un vernis durable à des produits et des services qui ne le sont pas, l’« AI washing » nous promet monts et merveilles avec des solutions qui ne sont que des gadgets. C’est que derrière le succès actuel du terme « intelligence artificielle » – d’ailleurs choisi un peu par hasard en 1956 par John McCarthy, se cachent des technologies complexes : le « deep learning », qui permet la reconnaissance des objets et des mots, associé au « machine reasoning », qui permet d’élaborer des modèles prédictifs, les deux étant complétés par des algorithmes génétiques et des codes écrits par la machine elle-même. Si bien que le grand public a parfois du mal à comprendre les tenants et les aboutissants. D’où la difficulté à savoir ce qui relève vraiment de l’IA : de nombreux produits ou services qui disent reposer sur de l’intelligence artificielle, ne mobilisent en réalité que des logiciels d’automatisation basiques. Un autre mirage consiste à faire croire, en particulier aux chefs d’entreprises, que l’intelligence artificielle est toujours la réponse la plus adaptée pour accroître l’efficacité d’un processus. C’est loin d’être systématiquement le cas. Ainsi, lorsqu’on cherche une réponse à une question précise, les outils analytiques de Business Intelligence sont souvent plus pertinents. Mais label « IA » attire le chaland… et certains en abusent. Si, comme tous les eldorados, l’intelligence artificielle a ses charlatans, elle a aussi ses magiciens. Antoine Blondeau, Chris Boos, fondateur de la société Arago , Tomaso Poggio du MIT , Yann Le Cun de Facebook AI Research, Sean Tang, fondateur de SenseTime , Jürgen Schmidhuber du laboratoire suisse Idsia, Demis Hassabis de Deepmind … venus de tous les continents, ils travaillent ensemble autant dans les laboratoires, les universités que les entreprises. Ils forment une communauté d’experts capables de faire émerger un nouveau monde, sans bruit, loin des médias. On sait que l’intelligence artificielle sera la rupture technologique, sociale et économique des décennies à venir. Et il est certain que les prochaines licornes seront des entreprises d’intelligence artificielle. Mais la bataille ne se joue pas toujours où on le croit. Ni chez ceux qui en parlent beaucoup, ni forcément chez les GAFA ou leurs cousins chinois, les BAT. Les innovations véritables sont le fait de scientifiques et de techniciens qui n’aiment pas la lumière. Quant à ceux qui bluffent, en prétendant développer des solutions d’IA quand ce n’est pas le cas, ils pourraient bien être pris à leur propre piège. Car après DeepBlue aux échecs et Alphago au jeu de Go, le programme Libratus a envoyé au tapis, en janvier 2017, quatre joueurs de poker professionnels . En nous laissant face à ce constat vertigineux : l’intelligence artificielle sait donc bluffer, et intégrer le bluff des autres à sa propre stratégie ! Il ne lui reste plus qu’à apprendre à démasquer les bluffeurs. ».

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA, pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune)

)

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historique comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

La programmation des véhicules autonomes en cas d’accident inévitable est un exemple de cas concret qui traduit inévitablement un choix moral. La recherche scientifique sur les préférences morales des individus peut aider à identifier les critères éthiques pour fonder ce choix moral. L’automatisation des décisions grâce à l’IA peut donner lieu à de réels progrès, tels que des décisions plus transparentes et moins partiales. Aussi, se posent des questions fondamentales sur les conséquences économiques, les enjeux éthiques, et l’encadrement juridique de cette évolution. »

Intelligence artificielle : grosses offres d’emplois

Intelligence artificielle : grosses offres d’emplois

La demande a plus que doublé en 2017 par rapport à l’année précédente, a annoncé l’APEC jeudi.

Au total, l’APEC a diffusé 2.398 offres de postes de cadres en intelligence artificielle l’an dernier, contre 1.127 offres en 2016, précises l’association dans une étude sur la « tendance des métiers dans l’industrie ».

« Les opportunités d’emploi sont réelles auprès des entreprises de services du numérique (ESN), des cabinets de conseil et gestion des entreprises ou d’ingénierie-recherche et développement », selon les résultats de cette étude. Au cours des années 2016 et 2017, quatre offres d’emploi de cadres en intelligence artificielle sur dix (42%) provenaient de « sociétés d’activités informatiques (ESN notamment) », principale source de ces offres, « loin devant les activités de conseil et gestion des entreprises (19%) et les sociétés d’ingénierie-recherche et développement (11%) », souligne l’APEC. Au cours des années 2016 et 2017, « près des deux tiers » (63%) des offres ont été émises par des entreprises installées en Île-de-France, loin devant les autres régions, selon l’étude. Viennent ensuite Auvergne-Rhône-Alpes et Occitanie, qui rassemblent à elles deux « 16% des offres ».

Prospective-Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Prospective-Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune)

)

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historique comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

La programmation des véhicules autonomes en cas d’accident inévitable est un exemple de cas concret qui traduit inévitablement un choix moral. La recherche scientifique sur les préférences morales des individus peut aider à identifier les critères éthiques pour fonder ce choix moral. L’automatisation des décisions grâce à l’IA peut donner lieu à de réels progrès, tels que des décisions plus transparentes et moins partiales. Aussi, se posent des questions fondamentales sur les conséquences économiques, les enjeux éthiques, et l’encadrement juridique de cette évolution. »

 

Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune )

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historiques comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

 

 

 

Intelligence artificielle : critiques et limites du rapport Villani

Intelligence artificielle : critiques et limites du rapport Villani

 

Olivier Ezratty, consultant et auteur, notamment de l’ebook « Les usages de l’intelligence artificielle »
évoque dans la Tribune les limites du rapport Villani notamment concernant l’aspect industriel et le vison trop franco-français. 

« L’introduction est admirablement bien écrite. Elle témoigne d’une passion non feinte de son auteur pour le sujet. Baptisé Donner un sens à l’intelligence artificielle – pour une stratégie nationale et européenne, le Rapport Villani recense 135 propositions. Il abonde de marronniers traditionnels sur l’organisation de la recherche, sur la valorisation industrielle de ses travaux et sur le rôle de la puissance publique comme acheteuse de technologies. Pourtant, cette dimension industrielle faisait partie des objectifs de la Mission Villani. Le point intermédiaire de décembre 2017 y faisait même abondamment référence. La première piste de réflexion était même de « mener une politique industrielle et économique innovante et ambitieuse ». Mais y confond toujours recherche et innovation. La principale ligne de force de ce rapport est de mettre en avant une vision d’une IA éthique et responsable, soucieuse des utilisateurs. C’est de bon aloi et le plan est très bien documenté de ce point de vue là. Mounir Mahjoubi défend cette approche en mettant en avant la dimension sociale de l’IA : elle doit être mise au service du bien de la société et ne pas être qu’un enjeu économique.

Cette volonté affichée de faire de la France un leader mondial d’une vision éthique de l’IA, de son impact sociétal et aussi de sa régulation se retrouve dans la marque du site présentant le Rapport Villani : AIFor Humanity ! On la retrouve dans les liens entre l’IA et la responsabilité environnementale ou encore dans le besoin d’améliorer la diversité des profils dans les métiers du numérique et de l’IA en particulier, et notamment celui d’attirer plus de jeunes filles dans ces filières.

Il serait évidemment préférable d’avoir à la fois une IA éthique et un leadership économique mondial dans l’IA. Nous risquons au bout du compte de n’avoir ni l’un ni l’autre. Sans leadership industriel, nos vies numériques continueront d’être envahies par les solutions d’acteurs internationaux qui valorisent plus leurs modèles économiques et marchés bifaces.

L’absence de vision industrielle se traduit par un Rapport qui est bien trop franco-français dans ses recettes. 113 de ses 135 propositions relèvent des usages et du marché de l’IA en France, et pas dans le monde. Nous sommes engoncés dans une vision locale du marché de l’IA, entretenant l’illusion que le marché français est un piédestal suffisant pour obtenir un leadership moral et un leadership industriel qui nous seraient dus dans l’IA. On veut jouer dans la cour des grands en se contentant de notre bien petit pré-carré.

Cela se manifeste aussi dans la propension à privilégier les sujets « à systèmes complexes » plus qu’à « produits génériques » comme les systèmes de transports intelligents ou de santé. Les solutions et approches de déploiement de ces systèmes dépendent étroitement des systèmes et acteurs locaux. C’est une vision d’intégration plus qu’une vision industrielle de solutions en volume.

La commission Villani et le gouvernement sont très hardis sur la question des données, prévoyant d’imposer « au cas par cas » l’ouverture des données provenant d’acteurs privés, y compris étrangers. Ces données seront malgré tout liées à des usages en France et renforceront donc le tropisme franco-français de l’entrepreneuriat local.

Pour faire bonne figure, le rapport affiche quelques ambitions européennes, notamment franco-allemandes. L’équivalent Villanesque de feu le projet de moteur de recherche franco-allemand Quaero est un projet franco-allemand d’industrie de la robotique. Il fait juste référence à un projet collaboratif de recherche européen qui, côté France, n’associe que le laboratoire de recherche LAAS du CNRS à Toulouse. Un peu léger pour créer un Airbus des robots !

Le rapport Villani abonde de propositions relatives aux chercheurs. Nombre d’entre elles ne sont pas spécifiques à l’IA, notamment pour rendre les carrières de chercheurs plus attractives. L’intention louable est de mieux rémunérer les chercheurs et limiter la fuite des cerveaux actuelle, qui est d’ailleurs mal chiffrée.

Il propose surtout la création de quatre à six Instituts 3IA (Interdisciplinaires d’Intelligence Artificielle) organisés dans un réseau national RN3IA. Ils seront voisins, dans leur principe, des IRT (Institut de Recherche Technologiques) qui avaient été lancés dans le cadre des Programmes d’Investissement d’Avenir à partir de 2009. Ils visent à améliorer le lien entre la recherche fondamentale publique et les entreprises. Ils serviront aussi à faire perfuser l’IA dans l’ensemble des disciplines scientifiques qui y feront appel.

Les 3IA s’ajouteront à des dispositifs existants tels que les contrats CIFRE qui permettent aux entreprises d’employer des doctorants, aux Pôles de Compétitivitéqui associent déjà entreprises et laboratoires de recherche, au réseau des Instituts Carnot, un label attribué aux laboratoires publics encourageant la recherche partenariale et au réseau RETIS qui regroupe notamment les incubateurs publics. Bref, la proposition des 3IA ne va pas simplifier la cartographie de la recherche française qui ressemble déjà à ça…

Une proposition originale est faite et qui provient visiblement de chercheurs en mal de reconnaissance : en nommer dans les conseils d’administration d’entreprises dont l’État est actionnaire. Pourquoi pas. Mais ils risquent de bien s’y ennuyer ! Ce n’est pas là que la stratégie des entreprises est établie. Ce sont le plus souvent des chambres d’enregistrement.

Comment quantifier ou qualifier le leadership mondial ? On sait qu’il est quasiment impossible de créer un leader mondial du numérique sans avoir une assise de marché large et homogène comme en bénéficient les acteurs des USA et de Chine. La France est trop petite et l’Europe trop fragmentée pour ce faire. Comment donc conquérir les marchés mondiaux ? Tout juste avons-nous des velléités d’influencer les politiques d’ouverture de données à l’échelle internationale.

Le rapport propose surtout des mesurettes, encore liées au marché intérieur français comme la création de labels IA associés à celui de la French Tech pour augmenter la visibilité de l’offre domestique en IA. Le guichet unique de l’IA prendrait la forme d’un annuaire des solutions logicielles prêtes à l’emploi pour créer des solutions à base d’IA, notamment pour conseiller les entreprises utilisatrices, dont les TPE/PME. C’est le rôle du privé !

S’en suit une litanie de propositions pour développer le rôle d’acheteur d’IA de l’État.  ll doit certainement tirer parti des technologies pour se moderniser. Mais c’est piège le plus dangereux qui soit pour les startups françaises ! Il n’est déjà pas simple de travailler avec un grand compte français, alors, avec l’État !

La proposition de création d’une DARPA française ou européenne présente du sens. Elle est issue de l’initiative Joint European Disruptive Initiative (JEDI) lancée par le Français André Loesekrug Pietri, en collaboration avec des Allemands et des Italiens. Le diable de ce genre d’objet est dans les détails de sa mise en œuvre.

Enfin, nous avons quatre secteurs d’activité cibles considérés comme relevant d’opportunités de leadership : santé, agriculture, transports, défense et sécurité avec quelques concepts génériques intéressants autour de l’expérimentation, l’accès à des données d’expérimentation – toujours locales – ainsi que les bacs à sable d’innovation.

Côté transports, ça parle de code de la route et d’expérimentations, mais pas d’industries. Qui sont les acteurs ? Où sont les économies d’échelle ? Où sont nos opportunités de création de valeurs ? Quid d’expérimentations dans des villes avec 100% de véhicules autonomes (level 4 ou 5) ? Voilà qui marquerait les esprits et ferait avancer l’état de l’art !

Dans la santé, le Rapport évoque surtout la manière d’exploiter les données de parcours de santé de la CNAM au lieu de se poser la question du marché mondial de la santé. En attendant, les startups françaises d’imagerie médicale alimentent leur IA avec des bases d’origine américaine.

Pour l’agriculture, les propositions relèvent beaucoup plus des usages en France que du développement de technologies agricoles à base d’IA que la France pourrait exporter. C’est presque plus un vœu d’autosuffisance alors que l’on importe presque tous nos engins agricoles !

Enfin, l’IA dans la défense et la sécurité est plus régalienne qu’industrielle. Le point de vue affiché est celui d’un État acheteur de technologies, même si nous sommes aussi un grand exportateur d’armes devant l’éternel.

Dans leur forme actuelle, ces cinq plans thématiques ressemblent plus à des plans de rattrapage ou de déploiements qu’à des plans industriels dignes de ce nom.

Le Rapport Villani propose d’ »innover dans l’industrie du composant adapté à l’IA« . Après un exposé clair des enjeux dans les processeurs neuromorphiques, la proposition faite consiste à créer un supercalculateur, une propension habituelle à s’éloigner dangereusement des marchés de volume ! Peut-être une influence d’ATOS-Bull qui est le fournisseur national de ce genre d’engins ou celle des chercheurs qui voudraient disposer de leur propre puissance de calcul pour entrainer leurs modèles de réseaux de neurones sans passer par le cloud des GAFAMI. Ca frise le hors sujet, car cela passe d’un enjeu industriel mondial à celui de l’équipement local de nos chercheurs.

Rien n’est dit de la filière française et européenne des composants ou des architectures d’IA distribuées et réparties dans les objets connectés, qui présentent un bénéfice directement lié à des préoccupations écologiques et de protection de la vie privée évoquées par ailleurs dans le Rapport ?

Ne parlons pas de se poser la question cruciale de l’informatique quantique, dont certaines applications auront un lien avec l’IA, mais qui attendra probablement un « plan calcul quantique » gouvernemental entre 2025 et 2030, quand il sera bien trop tard. Le mot quantique n’apparait pas dans le Rapport Villani. Comment arrive-t-on à un tel résultat ? Les raisons sont toujours les mêmes et liées à la méthode et au casting. Les chercheurs défendent la recherche. Les trublions de l’État veulent le moderniser. Les chercheurs en éthique défendent l’éthique. Les investisseurs veulent investir. Les avocats veulent faire évoluer le droit. Certains entrepreneurs recherchent du financement ou un assouplissement règlementaire. D’autres se plaignent du manque de compétences et de personnes formées. L’open source promeut l’open source. Mais peu affichent une vision globale. Les  demandes des chercheurs ont été visiblement mieux prises en compte. Pas étonnant ! La mission Villani comprenait deux chercheurs (Cédric Villani et Marc Schoenauer), un ingénieur de l’armement de la DGA et pas moins de cinq permanents du CNNum. Il n’est pas étonnant dans ces conditions que le Rapport Villani se soit intéressé plus à l’amont de l’innovation, à savoir la recherche, qu’à sa valorisation industrielle qui est un sujet complexe où l’Etat doit jouer un rôle de facilitateur plus que de stratège. Bref, on attend un peu la suite ! »

L’intégrale de l’analyse du rapport Villani sur www.oezratty.net

 

Intelligence artificielle en France : un micro plan

Intelligence artificielle en France : un micro plan

Force est de constater que la France forme chaque année de nombreux talents mais dont la plupart sont récupérées et par les GAFA et autres géants du net. Macron reconnait que  nombre d’entre eux travaillent d’ailleurs, depuis des années, pour le compte des Gafa (Google, Amazon, Facebook et Amazon) américains. Pas étonnant si ces Gafa veulent installer des centres de recherche en France relativement pointue sur le sujet mais dépendant des applications de plateformes. La France va dépenser 1.5 milliards en quelques ânées, la chine 13 milliards et les Gafa des dizaines et des dizaines de milliards. Pas sûr que ma France soit la bonne échelle intervention.  On peut regretter que sur ce terrain stratégique n’émerge aucun grand projet européen.  Autre problème non négligeable,  les faibles rémunérations des chercheures en France. Emmanuel Macron compte aussi « augmenter la porosité entre la recherche publique et le monde industriel ». Ainsi, les chercheurs français pourront à terme consacrer 50% de leur temps à un groupe privé, contre les 20% auxquels ils ont droit aujourd’hui. Une mesure qui pourrait notamment permettre d’augmenter un peu les rémunérations des chercheurs dans le public. Autre faiblesse, l’insuffisance de maîtrise des données indispensables aux algorithmes. Des données maitrisées parles grands du numérique notamment américains et chinois.  Du coup,  la France va tenter de se recentrer sur  certains secteurs, comme l’automobile, l’énergie, la cyber sécurité ou l’aéronautique ou la santé.  Ainsi, « la base de données de l’assurance-maladie ou encore celle des hôpitaux comptent parmi les plus larges du monde », souligne l’Elysée, qui a annoncé la création d’un « Health Data Hub ». En ouvrant ces données aux acteurs de l’IA dans un cadre sécurisé et garantissant la confidentialité, Emmanuel Macron espère développer des « innovations majeures », comme l’amélioration du traitement des tumeurs cancéreuses, ou la détection des arythmies cardiaques. Dans ce domaine, l’IA pourrait notamment permettre à l’Etat de faire d’importantes économies. Emmanuel Macron a enfin insisté sur les enjeux sociaux, éthiques et démocratiques liés à l’essor de l’IA. Pour lui, les états doivent se demander quelles valeurs l’IA doit servir, afin de tracer des lignes rouges. Il souhaite notamment lancer une réflexion mondiale sur « le contrôle et la certification » des algorithmes. Sur le modèle du GIEC.

Les enjeux de l’intelligence artificielle (Cédric Villani)

Les enjeux de l’intelligence artificielle  (Cédric Villani)

Enjeu scientifique, économie, démocratique et sociétal, Cédric Villani développe ces aspects dans une interview au JDD

L’intelligence artificielle (IA) semble aujourd’hui très à la mode, mais de quoi s’agit-il?
Il n’y a pas de définition précise. L’intelligence artificielle, c’est l’art de la programmation qui permettra à un algorithme, un ordinateur, de réaliser des tâches subtiles en tenant compte de nombreux paramètres. Il faut comprendre que l’IA repose sur des méthodes variées : la déduction logique, mais aussi l’apprentissage statistique, par l’exemple (vous ne dites pas à la machine ce qu’est une tarte aux fraises, mais vous lui montrez des milliers d’images de tartes pour qu’elle apprenne à les reconnaître) ou l’exploration (c’est ainsi que les derniers algorithmes du jeu de go découvrent les meilleures stratégies).

En quoi l’intelligence artificielle nous concerne tous?
L’IA va bouleverser notre quotidien avec discrétion. Vous en bénéficiez déjà quand vous faites en quelques clics une recherche par mot clé ou une traduction automatique. Vous serez un jour conduits par des voitures automatiques. Et un algorithme, au vu de vos données médicales et de vos radios, pourra vous dire : « Vous avez telle maladie et je recommande à votre médecin tel traitement.  » Vous serez alors soigné par une combinaison d’humain et d’IA.

Quelles seront les grandes pistes de votre rapport?
Elles s’articulent autour de six grands piliers : l’impact sur l’emploi, l’écologie, l’éthique, la recherche, la politique industrielle et l’enjeu des données. En cette matière, le droit européen est de loin le plus protecteur du monde. Nous tenons à le rappeler, car si les citoyens et les administrations n’ont pas confiance, ils ne partageront pas leurs données, et notre recherche prendra du retard. En même temps, il faut décloisonner. Nos administrations n’ont pas l’habitude de partager.

 

Que préconisez-vous en matière de recherche?
La compétition de l’IA est avant tout une course pour l’intelligence humaine, celle des experts. Il faut associer les grands acteurs : les universités, les centres de recherche comme le CNRS, l’Inria, le CEA. Donner aux chercheurs en IA des avantages, un environnement administratif moins pesant, des moyens de mener leur projet. Rapprocher le secteur public et le privé, favoriser les collaborations avec l’industrie. Je n’oublie pas un grand besoin de formation. Dans le domaine de l’IA, nous avons besoin aussi bien de bac +20 que de bac +3.

Seriez-vous prêt à postuler à un ministère de l’IA?
Certainement pas. Le sujet touche tous les ministères et doit irriguer toutes les administrations. S’il existe un ministère de l’IA dans certains pays, nous sommes convaincus qu’il faut une organisation plus subtile.

 

Votre mission a-t-elle repéré des secteurs prioritaires en matière d’IA?
Les expérimentations concernent tous les secteurs. Mais pour une vraie politique industrielle, notre rapport insistera sur les transports, la santé, l’environnement et la défense, des domaines dans lesquels l’Europe et la France ont une vraie expertise et dans lesquels l’Etat peut apporter une forte valeur ajoutée au virage de l’IA. En santé, nous avons de véritables pépites comme Therapixel, start-up spécialisée dans les diagnostics avancés en matière de cancer, Cardiologs en cardiologie ou Rythm et son bandeau facilitateur de sommeil. Arrêtons de nous sous-estimer.

 

Quel financement la France devrait-elle consacrer au développement de l’IA?
Au niveau de l’UE, une trentaine de milliards sur les années qui viennent me paraît la bonne échelle. Et au niveau de la France, une cible de 1 à 2 milliards d’euros par an semble raisonnable, si l’on ajoute les investissements IA en recherche, matériel, industrie, formation…

Aujourd’hui, l’IA se nourrit d’une foule de données personnelles, doit-on faire payer leur utilisation?
Quand un hôpital vend des données personnelles de ses patients sans leur consentement, c’est choquant. Nous n’avons pas plus vocation à en faire commerce. Pourquoi ne pas les communiquer pour des expériences scientifiques, pour que d’autres en fassent usage? Comme lorsqu’on choisit de donner son corps à la science.

Face aux géants américains et chinois, la bataille des données n’est-elle pas déjà perdue?
Il est plus délicat de constituer de grandes bases dans un environnement fragmenté, comme l’Europe, mais la mission est convaincue qu’on peut y parvenir. A Europe unie, rien d’impossible. Cette union de forces est pour moi le plus grand enjeu à long terme, et la première raison pour laquelle je fais de la politique.

 

Face au développement de l’IA, la culture scientifique des Français est-elle suffisante?
En France, on s’est mis en tête que la culture était littéraire… Nous devons convaincre que les sciences font partie de la culture. A ce titre, la proposition du ministre de l’Éducation d’instaurer, en première et en terminale, deux heures hebdomadaires d’humanités scientifiques et numériques me plaît beaucoup.

 

En quoi consistera ce nouveau cours?
Pour les élèves des sections littéraires, qui abandonneront les sciences, les grands principes sont déterminants. On abordera la question : qu’est-ce que les sciences changent dans notre société ? Sujet immense. On pourra y parler de l’IA, qui influence la géostratégie mondiale, expliquer comment la science a modifié le cours de la Seconde Guerre mondiale, raconter l’aventure de l’informatisation, les bonnes pratiques face aux progrès technologiques… Cela donnera des clés pour comprendre.

 

Et à l’école primaire?
Les enfants de 6 ou 7 ans sont très curieux. La mission sur l’enseignement des maths recommande de cultiver le sens des quatre opérations dès le CP. Je vous conseille les vidéos Curious Mind, Serious Play, de Jan de Lange, célèbre pédagogue néerlandais. On y voit des gamins de 3 à 6 ans qui se passionnent pour de petites expériences et ont de bonnes intuitions là où un Prix Nobel pourrait être perdu!

 

À quel âge commencer les cours d’informatique?
Dès le CP… mais sans écran. Il faut distinguer les algorithmes – la science des processus – et le logiciel. Suivre des jeux, des instructions, comprendre la démarche algorithmique, tout cela peut commencer très tôt, sans appareils. La fondation La Main à la pâte, qui cherche à améliorer la qualité de l’enseignement des sciences, a conçu un manuel, « 1,2,3 codez! », qui peut être utilisé dès la maternelle.

 

Les élèves français sont très mal notés dans les classements internationaux évaluant leurs performances en sciences. Le problème n’est-il pas lié à la façon dont elles sont enseignées?
Absolument. À leur décharge, les collègues enseignants ont reçu beaucoup d’instructions contradictoires et très peu de formation. Il est donc important de rappeler le subtil dosage d’ingrédients que l’on retrouve dans les pédagogies qui ont eu du succès, que ce soit Séguin, Montessori, Singapour… D’abord, l’élève commence par manipuler. Puis il va désigner les choses et les représenter. Et enfin passer aux concepts, aux règles abstraites. La formation des enseignants se révèle cruciale. Et le périscolaire a un rôle à jouer. En France, nous avons des clubs de jeux, des concours, des activités remarquables et sous-exploitées.

 

Les avancées de la science ne risquent-elles pas d’aboutir à une fracture entre ceux qui peuvent accéder au savoir et les autres?
C’est un vrai risque et nous voulons l’éviter. L’intelligence artificielle est un bon exemple. Elle suscite des craintes variées. Le spectre d’une IA autonome ne m’effraie pas, nous en sommes tellement loin. Mais l’idée d’une IA qui profite seulement aux experts est un danger sérieux. Pour que le sujet prenne son essor, il faut que les gens se sentent dans le coup. Bien plus que la simple acquisition de connaissances, la culture scientifique est un enjeu pour la cohésion de la société.

 

Intelligence artificielle : lente diffusion ou rupture ?

Intelligence artificielle : lente diffusion ou rupture ?

Dans une étude France Stratégie (ancien plan, service du Premier Ministre) évoque deux scénarii : l’un d’une diffusion progressive, l’autre d’une rupture. Dans le premier cas, l’intelligence artificielle serait intégrée au fonctionnement des entreprises et des organisations dans la continuité de leur transformation numérique.

Le défi de l’automatisation des tâches

De manière générale, le rapport explique que l’émergence de l’IA dans le monde du travail offrirait une opportunité économique liée à des gains de productivité (baisse des coûts d’opérations automatisées, automatisation des processus de coordination entre différents services et acteurs, optimisation des flux de production…) Ces mêmes gains pourraient constituer des risques pour l’emploi, remplaçant l’humain par la machine. . Les travailleurs pourraient également craindre une dévalorisation de leurs compétences, une surcharge cognitive, une perte d’autonomie, un contrôle accru et une perte de sens du travail liée à l’automatisation des tâches. Mais « , ces mêmes technologies pourraient aussi créer de nouveaux métiers grâce, notamment au traitement massif des données (devenir le superviseur d’une flotte de véhicules autonomes ou de chatbots par exemple). En imaginant que l’IA prenne en charge des tâches routinières et répétitives, on pourrait aussi imaginer que cela soulagerait les actuels travailleurs, qui bénéficieraient d’une amélioration des conditions de travail et une valorisation des activités et des tâches. France Stratégie prend trois exemple celui des transports avec notamment l’accélération de automatisation des tâches dans la logistique, les banques aussi concernées par la numérisation et les restructurations qui s’amplifient enfin le secteur de la santé où la les perspectives d’emplois nouveaux paraissent les plus positifs. Pour les patients, et les professionnels. Enfin, les auteurs de l’étude rappellent qu’il est impératif de sécuriser davantage les parcours professionnels dans les secteurs les plus impactés par l’IA afin d’éviter que le bouleversement annoncé se situe plus du côté du scénario dommageable.

Orientations du rapport sur l’intelligence artificielle (rapport Villani)

Orientations du rapport  sur l’intelligence artificielle (rapport Villani)

 

 

Point de départ de toute stratégie en IA, les données bénéficient aujourd’hui majoritairement à une poignée de très grands acteurs (GAFA et autres). Pour rééquilibrer les rapports de force, “il faut un plus grand et une meilleure circulation pour en faire bénéficier les pouvoirs publics, les acteurs économiques plus petits et la recherche publique

Le rapport propose de viser certains secteurs stratégiques  comme la santé par exemple, d’arrêter la fuite des experts vers les oligopoles du net et de préparer les salariés à la transformation du travail  ”, estime la mission confié au à la mission Villani, mathématicien, élu LREM.  “Les pays qui seront les leaders dans le domaine de l’intelligence artificielle seront amenés à capter une grande partie de la valeur des systèmes qu’ils transforment, mais également à contrôler ces mêmes systèmes, mettant en cause l’indépendance des autres pays”, met en garde le rapport. “Il est donc d’intérêt général que nous nous saisissions collectivement de cette question et que la France et l’Europe puissent faire entendre leur voix” pour “rester indépendants”, peut-on lire. Face à la “concurrence rude” des Etats-Unis et de la Chine et leurs investissements colossaux, il “est nécessaire de proposer une réponse coordonnée”.

Les 4 orientations :

Le rapport recommande d’éviter les logiques de saupoudrage” et de se concentrer sur quatre secteurs : la santé, l’écologie, les transports-mobilités et la défense-sécurité. “Tous représentent un défi majeur du point de vue de l’intérêt général, tous requièrent une impulsion importante de l’État et tous sont susceptibles de cristalliser l’intérêt et l’implication continue des acteurs publics et privés”, notent les auteurs du rapport. “L’État doit être un puissant moteur de ces transformations” et doit se donner les moyens matériels et humains d’intégrer l’IA à la conduite de ses politiques publiques”, estime la mission, qui juge nécessaire de nommer un coordinateur interministériel dédié à la mise en œuvre de cette stratégie. Ce dernier pourra s’appuyer sur un “pôle mutualisé de compétences, constitué d’une trentaine d’agents et chargé de conduire des missions de conseil auprès des administrations”. La commande publique, évaluée à près de 70 milliards d’euros annuels, reste quant à elle insuffisamment orientée vers l’innovation et doit être “repensée”. La recherche française pâtit d’une “fuite des cerveaux” vers les géants américains. Pour séduire chercheurs français et étrangers, la mission recommande de renforcer la recherche en France en fédérant ses acteurs autour d’Instituts Interdisciplinaires d’Intelligence Artificielle. Ces derniers “devront procurer un environnement de travail suffisamment attractif pour résister à la pression compétitive des géants du numérique”, ce qui sous-entend un allègement des formalités administratives, des compléments de salaire et des aides à l’amélioration de la qualité de vie. Afin de rivaliser avec les moyens quasi-illimités des grands acteurs privés, la mission propose la mise en place d’un supercalculateur dédié aux chercheurs et à leurs partenaires économiques, complété d’un forfait d’accès à un cloud privé développé au niveau européen. Enfin, “même s’il est illusoire de penser rivaliser financièrement avec les offres des GAFA”, le rapport préconise un doublement des salaires en début de carrière “indispensable, sous peine de voir se tarir définitivement le flux de jeunes prêts à s’investir” dans la recherche, et des incitations financières pour les talents expatriés ou étrangers.

Relevant que les précédentes transitions ont parfois été “violentes” pour les populations les plus fragiles, le rapport appelle à anticiper les impacts sur l’emploi via la création d’un “laboratoire public” jouant le rôle de “tête chercheuse”. La mission préconise le lancement d’un chantier législatif relatif aux conditions de travail à l’heure de l’automatisation afin de prendre en compte les nouveaux risques et suggère de transformer la formation initiale et continue afin de favoriser les pédagogies expérimentales. Objectif : multiplier par trois en trois ans le nombre de personnes formées en IA, en

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol