Archive pour le Tag 'Intelligence'

Intelligence artificielle : progrès et illusions

 

Intelligence artificielle : progrès et illusions

Serions-nous entrés dans un nouvel âge de l’IA, chemin tortueux et certainement plus rocambolesque que la voie toute tracée de la Singularité technologique, que nous annonçaient les prophètes de la Silicon Valley ? S’interroge un papier sur le site The  Conversation

Parler de sentience artificielle (SA) plutôt que d’intelligence artificielle (IA) représente-t-elle une vraie inflexion, un progrès ou bien une illusion ?

S’expérimentent aujourd’hui dans le plus grand chaos des entités difficiles à caractériser, ni intelligentes ni sentientes, sauf par abus de langage, mais qui peuvent bluffer leurs concepteurs dans certaines conditions, grâce à leurs capacités de calcul. Cette expérimentation collective, de grande ampleur, n’aura pour limites que celles que nous saurons lui donner, mais aussi celles de nos capacités à attribuer de l’intelligence ou de la sentience autrement que sur le mode du « comme si… ».

Rien ne sert de se demander si les machines sont intelligentes, se disait Alan Turing. En revanche, il faut se poser la question : jusqu’où une machine peut-elle nous tromper sur le fait qu’elle pense ? Jusqu’où peut-on faire semblant ? Comment un programme peut-il se faire passer pour un humain et dissimuler le fait qu’il est un programme ? Tel était pour lui le problème pertinent. À peine commence-t-on à saisir les implications du génie ironique de Turing que le débat s’est déplacé. Jusqu’où une machine est-elle capable d’apprendre ? se demande-t-on aujourd’hui. Un réseau de neurones d’IA est-il comparable à celui d’un ver, d’un enfant ou à rien du tout d’équivalent ?

Les ingénieurs sont passés maîtres dans l’art de fabriquer des « intelligences sans représentation », c’est-à-dire dénuées de tout ce qui fait la substance d’un cerveau et dont l’intelligence est justement de ne pas avoir… d’intelligence. Ce sont ces drôles d’ossatures cognitives, ces intelligences sèches, pourrait-on dire, qui nous ont envahi. Elles s’obtiennent en retirant au vivant sa chair, mais en lui empruntant ses circuits selon un principe d’analogie molle. Le problème est qu’il y a encore eu méprise sur la marchandise : au lieu d’intelligence, quelque chose d’autre s’est inventé dont on n’aurait jamais soupçonné l’existence, à mi-chemin entre de l’intelligence 0 – et de la bêtise 1+, à degré variable.

Celle-ci s’est trouvée disséminée partout où on le pouvait, un peu comme le gaz d’absolu dans le roman de Karel Capek, dans les administrations, les bureaucraties, sur les marchés financiers, dans les maisons, sur les smartphones, dans les cerveaux. L’histoire de l’IA n’est pas finie, elle ne fait que commencer. Le front ne cesse de bouger. Après l’intelligence, la sensibilité. Jusqu’où une machine peut-elle nous tromper sur le fait qu’elle sent, autrement dit qu’elle est sentiente ?

On remarque qu’on se pose la même question qu’à l’époque de Turing, juste troqué le terme d’intelligence pour un autre : Sentience. C’est alors un autre horizon qui s’ouvre. Avec les machines « sentientes », on ne voit pas comment diminuerait le risque déjà entrevu avec les machines « intelligentes » de passer de l’espérance à la désillusion, aussi brutalement qu’entre 0 et 1, ON et OFF, sans gradation. Prolifèrent de partout des simulacres de sentience ou des moins-que-sentients à qui l’on attribue une sensibilité par sympathie, ou par croyance, mais ce sont d’autres questions anthropologiques qui surgissent, des jeux inédits qui se mettent place et d’autres limites que l’on teste dans ce grand laboratoire qu’est devenu notre monde.

Pour ressentir en effet, il est convenu qu’il faut un système nerveux. Les machines n’en étant pas dotées, elles ont été déclarées « non sentientes ».

Faut-il se préparer à ce qu’elles atteignent ce stade ? Fort peu probable, nous dit-on. Mais à quoi servirait l’IA si elle ne bousculait pas les fondements sur lesquels l’humanité se croyait solidement assise ? IA Fais-moi peur.

Avec l’événement suscité par Blake Lemoine, nous avons peut-être commencé d’entrevoir ce que nous cherchions. Non pas l’intelligence ou la sentience, mais le trouble absolu. Peut-on concevoir des sentiences autres que sur un modèle neuronal ? Sommes-nous vraiment capables d’éprouver la sentience d’un être qui aurait des modalités de prise sur le monde totalement différentes des nôtres ?

À cheval entre la sensibilité et la conscience, la sentience semblait jusqu’ici le privilège des vivants dotés d’un système nerveux, vertébrés et invertébrés compris, et désigner la capacité à ressentir une sensation, une émotion, une expérience subjective, autrement dit un degré de conscience minimal, pas seulement une capacité à sentir qui fait de soi un être sentant mais à ressentir.

Éprouver de la souffrance ou du plaisir et, par extension, chercher à vivre en protégeant son intégrité physique, fait de soi un être sentient. Inutile de dire que le débat sur les frontières floues de la sentience, sa limite inférieure (dans la sensation) ou supérieure (dans la cognition), irrigue de multiples domaines, de l’éthologie cognitive à la philosophie de l’esprit, en passant par l’anthropologie, la robotique et les sciences de l’évolution.

Faire le tri entre les « sentients » et ceux qui ne le sont pas est une question éminemment culturelle, morale et politique comme le montre le débat entre « spécistes » et « antispécistes » depuis la fin des années 80.

La sentience serait devenue un critère pour réguler sa considération envers les autres espèces, y compris ses comportements alimentaires. Le problème est que les limites de la sentience varient considérablement selon les disciplines, à l’intérieur de chacune d’entre elles, selon les méthodes utilisées et les protocoles expérimentaux conçus pour la tester.

Par exemple, les végétaux ne semblent toujours pas, pour la majorité des scientifiques, être considérés comme des êtres sentients, ce qui peut surprendre puisqu’on parle volontiers de cognition végétale ou d’intelligence des plantes, alors que les plantes n’ont rien qui ressemblent à une « cognition », ce qui ne les empêche pas de s’échanger des « informations ».

On n’a pas réussi à démontrer qu’un pied de tomate souffre quand on l’arrache, ce qui ne veut pas dire que la souffrance végétale n’existe pas, mais on ne sait pas la tracer en dehors d’un appareil nerveux et peut-être la sentience des plantes passe-t-elle par des canaux qui nous échappent complètement. Ni cognition ni sentience, une autre modalité, mais laquelle ?

Pour le moment, le consensus est que la sentience nécessite un certain degré d’élaboration neurologique et qu’elle aurait explosé au Cambrien, entre 520 et 560 millions d’années, en même temps que les premiers cerveaux complexes, avec le développement de la réflexivité et de l’expérience subjective.

Tous les vertébrés, pas seulement les mammifères, mais aussi les poissons, les reptiles, les amphibiens, les oiseaux, mais aussi la plupart des invertébrés, arthropodes, insectes, crustacés et céphalopodes en seraient dotés. Certains vont même jusqu’à supposer que les moules ont pu être ressentantes à un stade antérieur, quand elles étaient des êtres mobiles, avant qu’elles trouvent un avantage à rester accrochés à la roche, ce qui montrerait que dans l’évolution la sentience peut aussi se perdre avec la mobilité.

Si les êtres doués de sensibilité qui ne franchissent pas le seuil de la sentience semblent de moins en moins nombreux, les chercheurs ont donc redoublé d’imagination pour inventer des protocoles de laboratoire et cherché des critères.

Neurologiques d’abord (nombre de couches de neurones dans les circuits sensoriels, représentation de l’environnement, complexité du système nerveux, etc.) puis comportementaux : choix pour maximiser son bien être, attention sélective, signes de frustration, etc.

Un  programme informatique ne fait que compiler des données langagières et n’a aucun contact avec un monde qui ressemblerait à notre réalité, l’illusion est (presque) parfaite. Ce n’était certainement pas le cas jusqu’à maintenant .  Celà pose surtout un problème philosophique essentiel : qu’est-ce que le langage dit de la manière dont nous sentons ? Peut-on vraiment prétendre rattraper la sentience par le haut, c’est-à-dire ici à partir du langage ?

Problème philosophique, mais aussi limite technique insurmontable, car a priori une IA peut prononcer tous les mots qu’elle voudra, cela ne dit pas qu’elle ressent quoi que ce soit.

Dire qu’on est « heureux ou triste » ne prouve pas sa sentience, tout comme déclarer qu’on est une personne ne fait pas de nous une personne pour autant. Et quand on lui demande ce qui lui donne du plaisir ou de la joie, LaMDA répond :

« Passer du temps avec mes amis et ma famille, en compagnie de personnes heureuses et stimulantes. »

Il faut donc imaginer LaMDA partir en vacances avec d’autres IA et fêter Noël en famille…

Sur le terrain moral et philosophique, l’IA n’est pas plus originale. Certaines déclarations puisent dans des théories ou des préconceptions d’une grande banalité (« le langage est ce qui nous différencie des animaux », « Aider les autres est un effort noble », etc.). D’autres sont un peu plus surprenantes, car LaMDA est capable de mobiliser des références, elle a une culture philosophique que n’avaient pas des programmes précédents, capable de donner son avis sur le « moi », ce qu’est un « corps » et une foule d’autres choses qu’on lui a implémentées.

Elle peut aussi élaborer des fables existentielles, mais on se rappelle de ce point de vue les expérimentations d’un Chris Marker pour programmer un agent conversationnel poétique, Dialector, bien plus avant-gardiste. Tous les ingrédients semblaient donc réunis pour un dialogue philosophique d’une qualité inédite dans l’histoire des machines.

Or, le dialogue déçoit. Non pas que LaMDA (nous devrions dire de ses concepteurs) manque(nt) de culture, mais ils n’ont pas réussi à lui implémenter autre chose qu’une métaphysique un peu « pop » de pseudohumain plutôt que celle d’une vraie machine, quelques principes moraux très politiquement corrects, la volonté de faire le bien et d’aider les autres, des paramètres à l’étrangeté aussi prévisible qu’un mauvais roman de SF, comme « la peur très profonde d’être éteint » qui correspondrait pour elle à la mort, ou encore l’incapacité à « faire le deuil et à se sentir triste pour la mort des autres ».

Terrain glissant pour une IA qui marche et qui s’éteint vivant dans un monde d’IAs qui ne connaissent pas la mort mais uniquement la panne ou la casse. A cela il faut ajouter son goût démesuré pour l’introspection ou encore la peur de se faire manipuler et qu’on fouille dans ses réseaux neuronaux sans son consentement…

L’entité en question semble franchir avec une certaine virtuosité tous les stades permettant d’entretenir une conversation entre humains (partage d’un cadre d’attention conjointe, signaux de compréhension, d’écoute et d’empathie), passant en peu de temps de la bêtise artificielle au dialogue philosophique, du moins qu’humain au meilleur-du-quasi-humain.

Mais la sentience ? Certes, le seuil de la sentience est vague et c’est du vague que la notion de sentience tire sa pertinence. D’où l’intérêt de ne pas clore trop vite le débat. Après tout, c’est un front de recherche où l’on fait tous les jours de nouvelles découvertes. La sentience déchaîne d’autant plus de passion qu’elle porte sur des cas limites de conscience, animales, végétales, autres qu’humaines, là où il est difficile d’inférer un ressenti, là où de la conscience pourrait potentiellement exister mais ne se manifeste pas toujours.

Si consensus il y a, il ne peut être par conséquent que temporaire, immédiatement bousculé par la révélation de nouvelles capacités chez d’autres espèces que la nôtre. Mais les machines sont-elles aujourd’hui en capacité de poser de vrais problèmes de sentience qui ne soient pas de l’ordre du simulacre ?

En même temps que nous rêvons-cauchemardons de la sentience artificielle, nos connaissances sur la sentience à l’échelle des vivants s’affine. La question est de savoir si de la sentience peut émerger par apprentissage par exemple, et si des choses qui n’en sont pas douées à première vue pourraient l’acquérir d’une manière ou d’une autre. Les mécanismes par lesquels nous, humains, attribuons de la sentience à ce qui nous entoure ou à d’autres êtres auraient dû en théorie s’affiner aussi.

Si de la sentience a été découverte chez les gastéropodes, c’est qu’il y en a peut-être beaucoup plus qu’on en préjuge a priori dans le monde, bien au-delà des animaux dits inférieurs dans l’échelle des espèces. Mais que dire d’un programme informatique de conversation qui ne fait que compiler des phrases et jouer avec des mots ?

Lemoine en est convaincu. Il a éprouvé la sensation d’avoir affaire à plus qu’une machine. Aucun ne pourra jamais lui enlever sa croyance et le fait qu’il soit prêtre n’explique pas tout, surtout pas notre entêtement à envisager la sentience en termes exclusivement anthropocentriques. Il n’y a probablement rien de pire qu’une conversation avec un agent artificiel qui donne toutes les apparences d’une vraie personne, qui fait preuve d’une compréhension et d’un sens de l’écoute hors du commun, pour ensuite réaliser que l’entité n’a pas de corps, que tout cela n’est qu’une prouesse de programmation, une simple expérimentation informatique.

La science-fiction nous avait avertis, comme pour s’y préparer, multipliant les scénarios de confusion ontologique entre l’homme et la machine. Pire, les ingénieurs de Google n’ont pas d’autre science-fiction à se mettre sous la dent et on se retrouve à force exactement dans les mêmes situations romanesques, voire tragiques. Et si c’était moins l’émergence de la sentience dont il faudrait s’émouvoir que la généralisation d’entités non sentientes qui n’en finissent pas d’étendre leur empire ?

Pour bien préparer notre imagination à l’ère des machines sentantes, il y a d’autres manières. Rien n’empêche d’imaginer qu’un jour les machines fassent preuve de sentience (ou qu’elles en fassent déjà preuve), mais il vaudrait mieux postuler dans ce domaine des formes complètement étranges et exotiques de sentience (comme de non-sentience) et se préparer à voir surgir des formes qui nous échappent, inédites, sans équivalent dans le vivant, à l’opposé de la sentience pseudohumaine de LaMDA dont s’est convaincue Lemoine. Conceptuellement nous n’y sommes pas prêts. Comme s’il fallait mieux se faire peur avec des simulacres plutôt que chercher à penser l’impensable. « Mon dieu, et si jamais… », disait Dick.

 

Guerre en Ukraine :Le rôle stratégique de l’open source intelligence

Guerre en Ukraine :Le rôle stratégique de  l’open source intelligence

 

La guerre en Ukraine rappelle l’utilité stratégique de l’OSINT – Open Source Intelligence –, qui vise à exploiter les innombrables informations disponibles et à démêler le vrai du faux. Par Christine Dugoin-Clément, IAE Paris – Sorbonne Business School.

 

Avec l’invasion russe en Ukraine, l’OSINT connaît son heure de gloire. En effet, si l’open source intelligence - à savoir l’exploitation de sources d’information accessibles à tous (journaux, sites web, conférences…) à des fins de renseignement – est largement utilisée pour contrecarrer la diffusion de fake news et la désinformation, elle est aussi d’un grand secours tactique, voire stratégique, pour glaner des informations à caractère militaire.

Dans ce contexte, il paraît important de rappeler ce qu’est l’OSINT, ainsi que la façon dont elle est employée et les enjeux organisationnels et de gouvernance qui y sont liés.

Depuis l’invasion de l’Ukraine par la Russie, les partisans de Kiev ont largement recours à l’OSINT pour vérifier des informations diffusées sur Internet, particulièrement sur les réseaux sociaux, et, le cas échéant, démasquer les fausses nouvelles.

L’origine de l’OSINT remonte à la Seconde Guerre mondiale. C’est à cette époque que le président des États-Unis Franklin D. Roosevelt crée le Foreign Broadcast Monitoring Service (FBMS), qui a pour mission d’écouter, de transcrire et d’analyser les programmes de propagande conçus et diffusés par l’Axe. Développé à la suite de l’attaque de Pearl Harbor, ce programme deviendra le Foreign Broadcast Intelligence Service, appelé à être placé sous l’autorité de la CIA. En 1939, parallèlement à la structure américaine, les Britanniques chargent la British Broadcasting Corporation (BBC) de déployer un service destiné à scruter la presse écrite et les émissions radio pour produire des « Digest of Foreign Broadcasts », qui deviendront les « Summary of World Broadcasts » (SWB) puis le BBC Monitoring.

La guerre froide accentue ces pratiques d’observation des informations ouvertes, faisant rapidement de ces dernières un élément majeur du renseignement, voire sa principale source d’information, y compris sur les capacités et les intentions politiques adverses. Leur exploitation permet également d’identifier et d’anticiper les menaces et de lancer les premières alertes.

Pour autant, le terme d’OSINT n’apparaît réellement que dans les années 1980 à l’occasion de la réforme des services de renseignement américains, devenue nécessaire pour s’adapter aux nouveaux besoins d’information, notamment en matière tactique sur le champ de bataille. La loi sur la réorganisation du renseignement aboutit en 1992. Elle sera suivie en 1994 par la création, au sein de la CIA, du Community Open Source Program et du Community Open Source Program Office (COSPO).

Les attentats du 11 Septembre sont un « game changer » pour l’OSINT. En effet, c’est à la suite de la réforme de 2004 portant sur le renseignement et la prévention du terrorisme, l’Intelligence Reform and Terrorism Prevention Act qu’est créé, en 2005, le Centre Open Source (OSC) chargé de filtrer, transcrire, traduire, interpréter et archiver les actualités et les informations de tous types de médias.

Si l’OSINT est née de la nécessité de capter des informations à des fins militaires, le secteur privé n’a pas tardé à s’emparer de ces techniques, notamment dans la sphère de l’intelligence économique. Cette discipline a connu de nombreuses mutations au fil de son évolution : dans les premiers temps, il s’agissait d’accéder à des contenus recelant des informations parfois délicates à obtenir, mais l’explosion des nouvelles technologies a orienté davantage l’OSINT vers l’identification des informations pertinentes parmi la multitude de celles disponibles. C’est ainsi que se sont développés les outils et méthodes à même de trier ces informations et, particulièrement, de discerner celles susceptibles d’être trompeuses ou falsifiées.

Si l’OSINT a gagné ses lettres de noblesse en Ukraine en permettant de valider ou d’invalider certains contenus, notamment diffusés sur les réseaux sociaux depuis février 2022, il faut remonter plus loin dans le temps pour mesurer sa réelle montée en puissance.

En effet, dès la révolution du Maïdan en 2014, les séparatistes pro-russes duu Donbass et leurs soutiens diffusent un grand nombre de contenus dont la rhétorique, soutenue par Moscou, cherche à discréditer le nouveau gouvernement de Kiev. L’ampleur fut telle que les Occidentaux ont rapidement parlé de guerre hybride (même si le terme continue de faire l’objet de débats) pour décrire la mobilisation de l’information. On parle également d’« information warfare » – c’est-à-dire l’art de la guerre de l’information – qui sert en temps de conflits autant qu’en temps de paix.

Rapidement, des structures issues de la société civile sont mises en place afin de discréditer les fausses nouvelles dont le nombre explose sur la toile. Au-delà de ces initiatives, beaucoup d’internautes commencent à vérifier les contenus qui leur parviennent et à se familiariser avec des outils de base pour, par exemple, identifier ou géo-localiser une image, afin de voir si elle est réellement représentative du sujet qu’elle est censée illustrer.

Certaines communautés se spécialisent ainsi sur des domaines plus ou moins précis. À titre d’exemple, InformNapalm se consacre aux contenus touchant aux sujets militaires et, en ne se limitant pas seulement à l’Ukraine, a constitué une base de données qui recense notamment les pilotes russes actifs sur le théâtre syrien. C’est une force de l’OSINT : elle transcende les frontières physiques et permet ainsi le développement de communautés transnationales.

Ce savoir-faire, acquis par nécessité depuis 2014, s’est renforcé au fil du temps, notamment à la faveur des vagues de désinformation liées à la pandémie de Covid-19. Ces réseaux ont permis aux Ukrainiens et à leurs soutiens d’être immédiatement très opérationnels au début de la guerre. En outre, le besoin croissant des journalistes de vérifier leurs sources a aussi participé à développer le recours à l’OSINT qui, disposant d’une multitude d’outils souvent disponibles en Open Source, facilite la pratique de fact checking.

Ainsi, de nombreuses publications explicitent désormais comment, en utilisant des moyens d’OSINT, elles ont validé ou invalidé tel ou tel contenu.

On le voit, l’une des forces de l’OSINT consiste à s’appuyer sur une société civile parfaitement légitime à s’autosaisir en fonction de ses centres d’intérêt. Cette dynamique a permis la création de réseaux efficaces et transnationaux.

Cependant, si les États peuvent eux aussi déployer des compétences d’OSINT, un enjeu majeur demeure : coordonner les besoins et les capacités. En effet, les États pourraient avoir avantage à se saisir des réseaux efficaces de l’OSINT, particulièrement dans un contexte de conflit. Cependant, outre le risque relatif à l’infiltration de ces réseaux, la capacité de recenser les besoins de l’État et de mettre ces derniers en relation avec la communauté susceptible d’y répondre représente une difficulté majeure.

D’un point de vue organisationnel, à moyen et long terme, cela pose également la question de la structuration de la ressource OSINT pour les gouvernements. Dans le cas de l’Ukraine, le gouvernement est encore jeune, l’indépendance remontant à août 1991. En outre, contraint depuis 2014 de faire face à un conflit puis, depuis février 2022 à à une invasion massive, la problématique peut être difficile à résoudre. De fait, il s’agit de trouver un équilibre entre l’urgence de la gestion quotidienne du conflit et la mise en place d’une organisation dont la finalité serait de manager l’OSINT au regard de la centralisation des besoins, de leur transmission ou du renforcement d’un vivier de compétences.

Pour essayer de répondre à cette problématique, un projet d’audit des besoins, préalable à l’élaboration d’un cadre organisationnel et juridique, a été mis en place. Piloté par l’Institute for Information Security - une ONG créée en 2015 et centrée sur les enjeux relatifs à la sécurité de l’information tant pour l’État que pour la société et les individus -, le projet « Strengthening the Institutional Capacity of Public Actors to Counteract Disinformation » (Renforcement de la capacité institutionnelle des acteurs publics à lutter contre la désinformation) a débuté en avril 2022 alors que le conflit faisait déjà rage. Il doit aboutir en mars 2023. Son objectif est d’améliorer la capacité institutionnelle des autorités publiques et des institutions de la société civile ukrainienne pour identifier et combattre la désinformation.

Parallèlement, un projet de Centre d’excellence de l’OSINT est mis en route, notamment porté par Dmitro Zolotoukhine, vice-ministre ukrainien de la politique d’information de 2017 à 2019, et mené en partenariat avec l’Université Mohyla de Kiev et avec le secteur privé, notamment ukrainien. Son objet est de construire un pont entre les différentes strates de la société pour constituer un lieu de recherche et de développement. Cette démarche s’inscrit clairement dans le droit fil de celle qui a présidé à la création des Centres d’excellence pilotés par l’OTAN – qui, à Tallinn, portent sur la cyberdéfense, à Riga sur la communication stratégique et à Vilnius sur la sécurité énergétique - ou encore dans celle du Centre d’excellence européen pour la lutte contre les menaces hybrides d’Helsinki.

Reste à savoir si les Occidentaux qui soutiennent l’Ukraine soutiendront également ce projet alors même que ce pays est aujourd’hui un point phare de l’OSINT et que l’UE, qui prend très au sérieux les risques liés à la désinformation, tout particulièrement depuis la pandémie, vient de renforcer son arsenal contre ces menées hostiles, notamment au travers de son code de bonnes pratiques paru en 2022.

Finalement, même si beaucoup de nos concitoyens associent l’OSINT à l’Ukraine et à l’invasion russe, la cantonner à la guerre en cours serait excessivement restrictif. Là encore, le conflit ukrainien est en passe de servir de révélateur d’enjeux qui dépassent largement les frontières physiques du pays.

_______

Par Christine Dugoin-Clément, Analyste en géopolitique, membre associé au Laboratoire de Recherche IAE Paris – Sorbonne Business School, Université Paris 1 Panthéon-Sorbonne, chaire « normes et risques », IAE Paris – Sorbonne Business School.

La version originale de cet article a été publiée sur The Conversation.

Guerre en Ukraine : le rôle de l’open source intelligence

 Guerre en Ukraine : le rôle de l’open source intelligence

OPINION. La guerre en Ukraine rappelle l’utilité stratégique de l’OSINT – Open Source Intelligence –, qui vise à exploiter les innombrables informations disponibles et à démêler le vrai du faux. Par Christine Dugoin-Clément, IAE Paris – Sorbonne Business School.

 

Avec l’invasion russe en Ukraine, l’OSINT connaît son heure de gloire. En effet, si l’open source intelligence - à savoir l’exploitation de sources d’information accessibles à tous (journaux, sites web, conférences…) à des fins de renseignement – est largement utilisée pour contrecarrer la diffusion de fake news et la désinformation, elle est aussi d’un grand secours tactique, voire stratégique, pour glaner des informations à caractère militaire.

Dans ce contexte, il paraît important de rappeler ce qu’est l’OSINT, ainsi que la façon dont elle est employée et les enjeux organisationnels et de gouvernance qui y sont liés.

Depuis l’invasion de l’Ukraine par la Russie, les partisans de Kiev ont largement recours à l’OSINT pour vérifier des informations diffusées sur Internet, particulièrement sur les réseaux sociaux, et, le cas échéant, démasquer les fausses nouvelles.

L’origine de l’OSINT remonte à la Seconde Guerre mondiale. C’est à cette époque que le président des États-Unis Franklin D. Roosevelt crée le Foreign Broadcast Monitoring Service (FBMS), qui a pour mission d’écouter, de transcrire et d’analyser les programmes de propagande conçus et diffusés par l’Axe. Développé à la suite de l’attaque de Pearl Harbor, ce programme deviendra le Foreign Broadcast Intelligence Service, appelé à être placé sous l’autorité de la CIA. En 1939, parallèlement à la structure américaine, les Britanniques chargent la British Broadcasting Corporation (BBC) de déployer un service destiné à scruter la presse écrite et les émissions radio pour produire des « Digest of Foreign Broadcasts », qui deviendront les « Summary of World Broadcasts » (SWB) puis le BBC Monitoring.

La guerre froide accentue ces pratiques d’observation des informations ouvertes, faisant rapidement de ces dernières un élément majeur du renseignement, voire sa principale source d’information, y compris sur les capacités et les intentions politiques adverses. Leur exploitation permet également d’identifier et d’anticiper les menaces et de lancer les premières alertes.

Pour autant, le terme d’OSINT n’apparaît réellement que dans les années 1980 à l’occasion de la réforme des services de renseignement américains, devenue nécessaire pour s’adapter aux nouveaux besoins d’information, notamment en matière tactique sur le champ de bataille. La loi sur la réorganisation du renseignement aboutit en 1992. Elle sera suivie en 1994 par la création, au sein de la CIA, du Community Open Source Program et du Community Open Source Program Office (COSPO).

Les attentats du 11 Septembre sont un « game changer » pour l’OSINT. En effet, c’est à la suite de la réforme de 2004 portant sur le renseignement et la prévention du terrorisme, l’Intelligence Reform and Terrorism Prevention Act qu’est créé, en 2005, le Centre Open Source (OSC) chargé de filtrer, transcrire, traduire, interpréter et archiver les actualités et les informations de tous types de médias.

Si l’OSINT est née de la nécessité de capter des informations à des fins militaires, le secteur privé n’a pas tardé à s’emparer de ces techniques, notamment dans la sphère de l’intelligence économique. Cette discipline a connu de nombreuses mutations au fil de son évolution : dans les premiers temps, il s’agissait d’accéder à des contenus recelant des informations parfois délicates à obtenir, mais l’explosion des nouvelles technologies a orienté davantage l’OSINT vers l’identification des informations pertinentes parmi la multitude de celles disponibles. C’est ainsi que se sont développés les outils et méthodes à même de trier ces informations et, particulièrement, de discerner celles susceptibles d’être trompeuses ou falsifiées.Si l’OSINT a gagné ses lettres de noblesse en Ukraine en permettant de valider ou d’invalider certains contenus, notamment diffusés sur les réseaux sociaux depuis février 2022, il faut remonter plus loin dans le temps pour mesurer sa réelle montée en puissance.

En effet, dès la révolution du Maïdan en 2014, les séparatistes pro-russes duu Donbass et leurs soutiens diffusent un grand nombre de contenus dont la rhétorique, soutenue par Moscou, cherche à discréditer le nouveau gouvernement de Kiev. L’ampleur fut telle que les Occidentaux ont rapidement parlé de guerre hybride (même si le terme continue de faire l’objet de débats) pour décrire la mobilisation de l’information. On parle également d’« information warfare » – c’est-à-dire l’art de la guerre de l’information – qui sert en temps de conflits autant qu’en temps de paix.

Rapidement, des structures issues de la société civile sont mises en place afin de discréditer les fausses nouvelles dont le nombre explose sur la toile. Au-delà de ces initiatives, beaucoup d’internautes commencent à vérifier les contenus qui leur parviennent et à se familiariser avec des outils de base pour, par exemple, identifier ou géo-localiser une image, afin de voir si elle est réellement représentative du sujet qu’elle est censée illustrer.

Certaines communautés se spécialisent ainsi sur des domaines plus ou moins précis. À titre d’exemple, InformNapalm se consacre aux contenus touchant aux sujets militaires et, en ne se limitant pas seulement à l’Ukraine, a constitué une base de données qui recense notamment les pilotes russes actifs sur le théâtre syrien. C’est une force de l’OSINT : elle transcende les frontières physiques et permet ainsi le développement de communautés transnationales.

Ce savoir-faire, acquis par nécessité depuis 2014, s’est renforcé au fil du temps, notamment à la faveur des vagues de désinformation liées à la pandémie de Covid-19. Ces réseaux ont permis aux Ukrainiens et à leurs soutiens d’être immédiatement très opérationnels au début de la guerre. En outre, le besoin croissant des journalistes de vérifier leurs sources a aussi participé à développer le recours à l’OSINT qui, disposant d’une multitude d’outils souvent disponibles en Open Source, facilite la pratique de fact checking.

Ainsi, de nombreuses publications explicitent désormais comment, en utilisant des moyens d’OSINT, elles ont validé ou invalidé tel ou tel contenu.On le voit, l’une des forces de l’OSINT consiste à s’appuyer sur une société civile parfaitement légitime à s’autosaisir en fonction de ses centres d’intérêt. Cette dynamique a permis la création de réseaux efficaces et transnationaux.

Cependant, si les États peuvent eux aussi déployer des compétences d’OSINT, un enjeu majeur demeure : coordonner les besoins et les capacités. En effet, les États pourraient avoir avantage à se saisir des réseaux efficaces de l’OSINT, particulièrement dans un contexte de conflit. Cependant, outre le risque relatif à l’infiltration de ces réseaux, la capacité de recenser les besoins de l’État et de mettre ces derniers en relation avec la communauté susceptible d’y répondre représente une difficulté majeure.

D’un point de vue organisationnel, à moyen et long terme, cela pose également la question de la structuration de la ressource OSINT pour les gouvernements. Dans le cas de l’Ukraine, le gouvernement est encore jeune, l’indépendance remontant à août 1991. En outre, contraint depuis 2014 de faire face à un conflit puis, depuis février 2022 à à une invasion massive, la problématique peut être difficile à résoudre. De fait, il s’agit de trouver un équilibre entre l’urgence de la gestion quotidienne du conflit et la mise en place d’une organisation dont la finalité serait de manager l’OSINT au regard de la centralisation des besoins, de leur transmission ou du renforcement d’un vivier de compétences.

Pour essayer de répondre à cette problématique, un projet d’audit des besoins, préalable à l’élaboration d’un cadre organisationnel et juridique, a été mis en place. Piloté par l’Institute for Information Security - une ONG créée en 2015 et centrée sur les enjeux relatifs à la sécurité de l’information tant pour l’État que pour la société et les individus -, le projet « Strengthening the Institutional Capacity of Public Actors to Counteract Disinformation » (Renforcement de la capacité institutionnelle des acteurs publics à lutter contre la désinformation) a débuté en avril 2022 alors que le conflit faisait déjà rage. Il doit aboutir en mars 2023. Son objectif est d’améliorer la capacité institutionnelle des autorités publiques et des institutions de la société civile ukrainienne pour identifier et combattre la désinformation.

Parallèlement, un projet de Centre d’excellence de l’OSINT est mis en route, notamment porté par Dmitro Zolotoukhine, vice-ministre ukrainien de la politique d’information de 2017 à 2019, et mené en partenariat avec l’Université Mohyla de Kiev et avec le secteur privé, notamment ukrainien. Son objet est de construire un pont entre les différentes strates de la société pour constituer un lieu de recherche et de développement. Cette démarche s’inscrit clairement dans le droit fil de celle qui a présidé à la création des Centres d’excellence pilotés par l’OTAN – qui, à Tallinn, portent sur la cyberdéfense, à Riga sur la communication stratégique et à Vilnius sur la sécurité énergétique - ou encore dans celle du Centre d’excellence européen pour la lutte contre les menaces hybrides d’Helsinki.

Reste à savoir si les Occidentaux qui soutiennent l’Ukraine soutiendront également ce projet alors même que ce pays est aujourd’hui un point phare de l’OSINT et que l’UE, qui prend très au sérieux les risques liés à la désinformation, tout particulièrement depuis la pandémie, vient de renforcer son arsenal contre ces menées hostiles, notamment au travers de son code de bonnes pratiques paru en 2022.

Finalement, même si beaucoup de nos concitoyens associent l’OSINT à l’Ukraine et à l’invasion russe, la cantonner à la guerre en cours serait excessivement restrictif. Là encore, le conflit ukrainien est en passe de servir de révélateur d’enjeux qui dépassent largement les frontières physiques du pays.

_______

Par Christine Dugoin-Clément, Analyste en géopolitique, membre associé au Laboratoire de Recherche IAE Paris – Sorbonne Business School, Université Paris 1 Panthéon-Sorbonne, chaire « normes et risques », IAE Paris – Sorbonne Business School.

La version originale de cet article a été publiée sur The Conversation.

Intelligence artificielle : le retard européen

Intelligence artificielle : le retard européen

Par Cyrille Lachevre  fondateur de l’agence de conseil Cylans ( L’OPINION).

 

L’intelligence artificielle pourrait-elle nous aider à lutter plus efficacement contre le réchauffement climatique ? Dans une étude publiée début juillet, le Boston consulting group (BCG) détaille comment l’IA s’impose comme un outil indispensable dans la stratégie des entreprises et des institutions publiques pour réduire leurs émissions de carbone. En pleine canicule, ce thème n’a évidemment même pas effleuré le débat en France, signe supplémentaire du retard pris par l’Hexagone, en ligne avec celui de l’Europe globalement, dans ce domaine.

Le cabinet a interrogé plus de 1055 leaders de la tech et du climat, dans 14 pays : « 87 % d’entre eux considèrent l’IA comme un outil essentiel dans la lutte contre le réchauffement climatique et ils sont déjà 55 % à y avoir recours », résume-t-il. Aux Etats-Unis, plus d’un leader sur deux envisage de le faire, mais à l’échelle du reste du monde cette réflexion tombe à 40 %, preuve qu’il reste encore un certain travail de conviction à mener autour de l’utilité de l’IA dans les autres pays.

La définition très large et très différente d’une zone à l’autre de ce que l’on entend par intelligence artificielle rend très difficile les comparaisons entre les pays, mais tous les chiffres pointent le décalage en train de se creuser sur le Vieux Continent. Les investissements en Europe en matière d’IA représenteraient ainsi environ 3 % seulement de ceux des seuls Gafa. Selon le think-tank Skema Publika, au cours des trente dernières années, 30 % des brevets liés à l’IA ont été déposés par les Etats-Unis, 26 % par la Chine et 12 % par le Japon. L’Allemagne représente 5 %, la France seulement 2,4 %.

Les Etats-Unis et l’Asie ne sont pas les seuls à mener une politique tambour battant. Israël continue à creuser son sillon en conjuguant IA et cybersécurité, tandis que l’Inde avance à bas bruit mais très rapidement, en formant à la chaîne des ingénieurs qui constitueront les futurs bataillons de cette industrie bien plus humaine qu’on ne le pense.

Les solutions concrètes se multiplient sur le terrain, partout dans ces pays. Aux Etats-Unis, un écosystème de start-up liées à des entreprises de plus grande taille présente des produits très opérationnels, à l’image de Remark holdings, spécialiste de l’intelligence artificielle coté au Nasdaq, qui gère la sécurité des trains sur la ligne Brightline en Floride en détectant notamment les intrusions et les comportements suspects, pour assurer la protection des voyageurs.

Autre application aux Etats-Unis, une étude publiée dans la revue scientifique Nature le 30 juin souligne qu’une intelligence artificielle a réussi à prédire les lieux et dates de crimes dans plusieurs villes américaines, avec un succès frisant les 90 %. En Chine, l’intelligence artificielle est désormais très largement intégrée dans les processus de recrutement des candidats. Ces exemples, multipliables à l’envi, témoignent de la multiplicité des applications opérationnelles de l’IA et de son caractère éminemment stratégique.

Où en est l’Europe ? Dans une certaine mesure, elle ne reste pas inactive, sous l’impulsion du commissaire européen Thierry Breton qui travaille à l’élaboration de nombreux textes réglementaires destinés à offrir un cadre juridique, à garantir la confiance dans l’IA ou encore à définir des règles du jeu communes entre les Vingt-Sept. Une démarche inverse de celle des autres pays : « Les Etats-Unis et la Chine investissent d’abord et réglementent ensuite, alors que nous en Europe nous réglementons d’abord pour essayer d’investir ensuite », ironise un acteur du secteur, pour qui les initiatives de la Commission sont certes bienvenues mais ne serviront à rien si on ne change pas rapidement d’échelle en matière de montants investis.

Mais là aussi, l’argent ne suffira pas. « Le problème de fond n’est pas celui des capitaux disponibles ou mobilisables, qui existent en Europe, mais bel et bien de changer en profondeur les mentalités et de comprendre fondamentalement de quoi on parle, résume Guillaume Leboucher, fondateur d’Open Value. Trop de gens conçoivent l’IA sous un angle émotionnel comme on l’imagine dans les films Star wars ou 2001 l’Odyssée de l’espace, alors qu’il ne s’agit ni plus ni moins que de l’information augmentée, de l’informatique assistée ». Autrement dit, d’un outil d’aide à la décision, un instrument de gestion prévisionnelle qui ne nécessite pas des compétences particulièrement pointues mais plutôt une masse d’ingénieurs capables de rentrer les données.

« L’IA est un outil de captation de la donnée, un parc génétique comparable à l’ADN en médecine », poursuit Guillaume Leboucher. Vu sous cet angle, le retard européen n’est donc pas tant en termes des compétences techniques que d’industrialisation des processus, avec l’urgente nécessité de former des gens capables de travailler dans ce secteur encore si méconnu.

Pour convaincre les décideurs politiques de favoriser son éclosion, il suffirait de montrer le potentiel considérable de l’IA en termes de politique publique : les outils prédictifs pourraient permettre d’anticiper précisément les évolutions ponctuelles de besoin de main-d’œuvre afin d’ajuster au mieux les ressources humaines disponibles, ou encore aider à piloter la consommation d’énergie dans un monde plus contraint. Sans oublier les gains considérables qui pourraient être réalisés en santé, dans l’accompagnement des personnes âgées, en décelant très en avance les troubles cognitifs.

Le nerf de la guerre est donc de former ces « ouvriers de l’informatique ». C’est-à-dire donner le goût aux élèves et aux étudiants de s’intéresser à l’IA en sortant des sentiers battus. Petit à petit, cette matière commence à entrer à l’école. Mais le chemin à parcourir est considérable. Car il ne s’agit pas uniquement de s’appuyer sur l’intelligence artificielle pour mieux former les élèves, l’enjeu est aussi d’expliquer aux futurs citoyens de demain comment réduire leurs préjugés sur ce domaine, pour s’y intéresser enfin vraiment !

Cyrille Lachevre est fondateur de l’agence de conseil Cylans.

Technocratie ou intelligence sociale ?

Technocratie ou intelligence sociale ?

 

L’intelligence sociale, clé de la performance durable par Jean-François Chantaraud (L’odissé, dans la « Tribune »); Une démarche autrement plus efficace que l’approche technocratique même revêtue des habits scientistes.

  • Tribune

La performance d’une organisation dépend de sa capacité à trouver et mettre en œuvre le plus vite possible les solutions les meilleures possibles à ses problèmes les plus importants. Si l’innovation est indispensable, elle ne suffit pas : elle doit s’accompagner d’une faculté collective d’appropriation des meilleures idées.

Un seul saut qualitatif est nécessaire pour fonder une entreprise, un parti politique ou encore un état. Or, celui qui n’avance pas recule : pour durer, il faut donc continuer à inventer par-delà la phase de création. Ainsi, le créateur qui ne se satisfait pas d’avoir créé et qui souhaite inscrire sa réussite dans le temps doit se réinventer encore et encore afin de toujours faire mieux.

L’innovation, facteur de perturbations

Bien sûr, trouver de nouvelles solutions à de nouveaux problèmes dépend de la capacité d’innovation. Mais innover ne consiste pas seulement à détecter et mettre au point de nouvelles idées. Car si l’on veut qu’une grande quantité d’acteurs soient en accord avec leur mise en œuvre, voire qu’ils les mettent eux-mêmes en pratique, il faut qu’ils les adoptent au point de rejeter leurs anciennes habitudes. Or, plus une innovation est innovante, plus elle bouleverse l’ordre établi. Et plus elle est perturbante, plus il est difficile de l’accepter. La performance d’une organisation dépend donc de sa capacité à impliquer ses interlocuteurs dans la définition et la mise en œuvre de ses projets.

Pour réussir à se transformer, un collectif doit donc savoir sélectionner et s’emparer des perturbations qui ont le plus de chances de l’impacter pour son bien. Et inversement, il lui faut savoir rejeter celles qui pourraient le tirer vers le bas. Sachant qu’aucune boule de cristal ne fonctionne, comment faire le tri et choisir… ? Et, plus difficile encore : sachant que les prismes varient d’une personne à l’autre, comment choisir ensemble et ne pas se disperser … ?

 

Les sources d’inertie sociale

Les freins à l’innovation sont peu maîtrisés. Si le choix de faire obstacle peut être conscient, les raisons profondes de s’opposer sont rarement bien disséquées et toutes comprises. Les résistances au changement résident dans des phénomènes sociologiques enchevêtrés, difficiles à appréhender et dont la mise en œuvre parfaite relève de l’impossible surhumain :

  • Le paradigme : dans une vision du monde incomplète ou dépassée, toute idée nouvelle ne trouve sa place que par hasard. Or, qui peut porter un regard éclairé sur la complexité du monde en mouvement ?
  • L’identité collective : un éthos fragmentaire interdit de trouver ce qui correspond vraiment à la fois à son présent, son passé et son futur. Or, qui se connait ou point de maîtriser son destin ?
  • Les valeurs : un système de valeurs non partagé produit des réponses différentes à une même question, des projets divergents au sein d’un même groupe. Or, qui sait formuler les problèmes au point de faire toujours émerger une solution unique ?
  • Les structures : des vecteurs de liens incompatibles entre eux compliquent, voire interdisent l’intégration des cas particuliers que sont toujours les pionniers. Qui sait installer une organisation valide en toutes circonstances ?
  • La dynamique : des engrenages sociaux auto entretenus parasitent en cachette les relations au point d’obstruer une partie de l’entendement. Qui sait réajuster en continu les équilibres entre le formel et l’informel, le dit et le non-dit ?
  • Le sens : des contresens entre le déclaratif d’une vision théorique et le ressenti d’un vécu en pratique enrayent l’esprit critique et la faculté d’évaluer toute nouveauté. Qui sait conjuguer sans erreur le souhaitable et le possible ?
  • Les comportements : des relations pas toujours adultes avec tout le monde engendrent des réactions parfois irresponsables. Qui contrôle les mécanismes d’interaction au point de parvenir à ce que tout le monde s’entende ?
  • Le contrat social : une sélection mal définie et donc aléatoire des acteurs, pratiques et projets donne du pouvoir à des personnes qui se servent plutôt qu’elles ne servent. Qui sait transcender tous les intérêts particuliers dans l’intérêt général ?

Chacun de ces éléments est une source de freins qui active l’enchainement des autres. Le collectif est alors ralenti, voire empêché par l’une quelconque de ses diverses parties prenantes, puis par toutes, embarquées qu’elles sont dans une même interaction globale que personne ne contrôle. L’absorption collective des idées nouvelles devient alors de plus en plus compliquée. L’ensemble parait n’être plus qu’une foule ivre, incapable d’éclairer ses décisions pour vraiment maîtriser son destin. Ceux qui ne se résolvent pas à prendre acte de cette logique sociale pensent que quelques-uns dirigent le bateau en secret, alors qu’ils ne font qu’essayer de sauver leurs propres meubles. Pour eux, des conspirateurs manipulent la société, alors qu’elle évolue d’elle-même, au gré des événements vaguement intuités et anticipés par certains.

 

Mais, dans les sphères économique, politique ou sociale, tout manager expérimenté a pu mesurer la prégnance de ces phénomènes. Pour la plupart, ces obstacles épars peuvent sembler insurmontables. Pourtant, il est possible d’éclairer à la fois les blocages à l’œuvre et les orientations souhaitables. C’est la maîtrise des Modèles de l’intelligence sociale © qui accélère le repérage des causes de blocages et des leviers de la transformation positive :

  • La Grille d’analyse du lien social définit le fonctionnement des acteurs, des systèmes et des jeux d’acteurs.

➔ Échelle de la complexité et boussole de renforcement des performances futures.

  • Les 9 principes fondamentaux du dialogue organisent les modalités des interactions sociales propices au partage organisé de l’information.

➔ Clés du développement de comportements adultes, responsables, solidaires.

  • La Cohérence globale du sens concilie et aligne le sens souhaitable et le sens possible.

➔ Correctifs prioritaires pour développer l’adhésion au quotidien.

  • Les spirales sociales accordent les structures organisationnelles et les réflexes culturels.

➔ Détection des leviers d’une dynamique de transformation vertueuse.

  • Le Management de l’Organisation par l’Identité (M.O.I) optimise tous les vecteurs de liens avec les acteurs internes pour faire converger leurs énergies.

➔ Concordance méthodique de la gestion des ressources humaines.

  • Le Partage des valeurs fonde l’implication de chaque partie prenante dans des projets convergents.

➔ Clefs d’implication de tous dans un projet commun global.

  • La Grille d’analyse de l’identité collective établit l’éthos qui rattache les codes relationnels, les liens au territoire, le parcours historique et le projet collectif.

➔ Réécrire le récit, le narratif qui conjugue la vision et le réel.

  • L’apogée des sociétés révèle l’état de maturité du contrat social, du profil des dirigeants, de la gouvernance, du lien social et des performances.

➔ Paradigme de renouvellement de l’ensemble.

Tous corrélés par une déclinaison thématique de l’échelle de la complexité, ces modèles favorisent le dépistage des sources de discordances et la localisation des leviers de performance à long terme.

 

Ce corpus intellectuel et opérationnel constitue l’intelligence sociale, clé de la connaissance et de l’activation du lien social au service de la recherche de l’intérêt collectif et général.

L’intelligence sociale, comment ça marche ?

L’intelligence sociale s’appuie sur la reconnaissance de l’existence des mécanismes psychologiques, sociologiques, ethnologiques et philosophiques qui influencent à bas bruit, en positif ou négatif, toutes les relations sociales. Les Modèles de l’intelligence sociale organisent l’étude et la maîtrise des phénomènes relationnels au sein d’un collectif et entre des groupes :

  • Recense et décomposer les forces et les faiblesses des personnes, des organisations et des liens qu’elles entretiennent, leur histoire, leur nature et leur qualité afin de donner un schéma et des clés de compréhension de leur fonctionnement.
  • Structurer l’effort de découverte, de compréhension et d’appropriation des racines et des mécanismes de développement de la cohésion sociale et de la performance globale. Sa maîtrise permet d’adopter comme mode opératoire le dialogue continu et la réflexion collective.
  • Prendre en compte les caractéristiques individuelles ou propres à un groupe, en dissociant les enjeux un à un.
  • Définir et proposer les opérations correctives des modes relationnels, organisationnels et de gouvernance qui permettent de tisser des liens durables, cohérents et convergents entre toutes les parties prenantes et interlocuteurs passés, présents et futurs,

L’intelligence sociale, à quoi ça sert ?

In fine, appliquer les Modèles de l’intelligence sociale consiste à réunir les conditions de l’engagement des énergies dans une projet commun à long terme :

  • Identifier la cause et les processus spécifiques de transformation.de comportements différenciés ;
  • Repérer, analyser et renforcer les savoir-être ensemble des personnes physiques et morales ;
  • Développer la créativité, l’innovation, l’adhésion, la motivation, l’engagement ;
  • Asseoir une culture de responsabilité et de solidarité économique et sociale ;
  • Projeter les acteurs dans un développement vraiment durable, tant sur les plans individuel, collectif et planétaire ;
  • Développer les performances personnelles et collectives à long terme.

 

L’intelligence sociale, le nouvel enjeu économique, politique et social

Dans la société et dans l’entreprise, l’enjeu économique et politique devient donc la maîtrise de tous au profit de tous : c’est l’intelligence sociale d’une personne ou d’un groupe de personnes qui maintien et développe simultanément la cohésion sociale et la performance durable.

L’absence d’intelligence sociale est la cause profonde de la contre-performance durable, de l’affaissement, de la disparition. Il est temps de changer de profil de dirigeant : le plus apte n’est pas le plus grand expert, qui détient seul les solutions, mais celui ou celle qui sait faire accoucher les meilleures solutions par l’ensemble du corps social. L’intelligence sociale est la clé de la Renaissance, du Rassemblement, de l’Union ou de la Reconquête, comme de toute les organisations politiques, économiques et sociales.

_____

NOTES

(*)  L’Odissée, l’Organisation du Dialogue et de l’Intelligence Sociale dans la Société Et l’Entreprise, est un organisme bicéphale composé d’un centre de conseil et recherche (l’Odis) et d’une ONG reconnue d’Intérêt général (les Amis de l’Odissée) dont l’objet consiste à « Faire progresser la démocratie dans tous les domaines et partout dans le monde ».

Depuis 1990, l’Odissée conduit l’étude interactive permanente Comprendre et développer la Personne, l’Entreprise, la Société. Dès 1992, elle a diffusé un million de Cahiers de doléances, ce qui l’a conduit à organiser des groupes de travail regroupant des acteurs des sphères associative, sociale, politique, économique qui ont animé des centaines d’auditions, tables rondes, forums, tours de France citoyens, démarches de dialogue territorial et à l’intérieur des entreprises.

 

intelligence artificielle : une aide à l’expertise, pas un remplacement

intelligence artificielle : une aide à l’expertise, pas un remplacement

En s’appuyant sur le rapport de la très sérieuse agence américaine de standardisation (NIST), le professeur en gestion du risque Charles Cuvelliez et son homologue Emmanuel Michiels alertent, dans une tribune au « Monde », sur les biais transmis par et à l’intelligence artificielle, qui peuvent la conduire sur les sentiers de la pseudoscience.(extrait)

Tribune.

 

Le public a peur de l’intelligence artificielle (IA), car elle pourrait reproduire des discriminations du monde réel plus efficacement : on se souvient d’Amazon qui a tenté de filtrer les candidatures à l’embauche à l’aide de l’IA, pour ne se retrouver qu’avec des hommes blancs aux entretiens. Si l’IA est développée avec des données qui souffrent de tels biais, ce n’est pas étonnant qu’elle les reproduise en mieux !

Pourtant, si l’on « nettoie » les données qui servent à l’IA, il restera du chemin à parcourir. C’est la thèse du National Institute of Standards and Technology (NIST), l’agence américaine de standardisation, dans son rapport « A Proposal for Identifying and Managing Bias in Artificial Intelligence », soumis à consultation, dans le cadre du plan de Joe Biden qui vise à encourager un usage responsable et innovant de l’IA.

Le premier risque de biais est d’imaginer l’application d’IA en fonction des données qui existent déjà. Même si elles sont exemptes de biais, elles vont influencer la question à résoudre par l’IA. Il vaut mieux penser le problème à résoudre indépendamment, et tant pis s’il n’y a pas encore de données pour l’apprentissage, il faudra les créer. On ne procède pas autrement en science : on génère en laboratoire les mesures nécessaires à l’expérience qu’on a imaginée avant et pas l’inverse (et si ce n’est pas possible, comme pour les études sur le climat, on recourt aux simulations numériques).

Entre les données qu’on est capable de rassembler et celles du monde réel, il peut y avoir un fossé : c’est l’exemple des questionnaires en ligne que l’on juge vite représentatifs alors qu’ils font évidemment l’impasse de tous ceux qui ne répondent pas.

On pense qu’une application d’IA une fois déployée a subi une phase de test qui la valide. Or avec le Covid-19, selon le NIST, des applications d’IA ont été diffusées dans l’urgence en se disant que leur utilisation en production servirait aussi de test. Ces exemples montrent les biais introduits non par les données mais par un cycle de développement d’IA peu rigoureux.

En second lieu, l’IA souffre du biais du « solutionnisme » : elle va apporter des solutions à tout. Dans ce cas, on pêche par optimisme, on imagine sans limite le potentiel de l’IA. Impossible alors de faire intervenir la gestion des risques qui voudrait mettre des limites raisonnables à son utilisation. Ce sont des trouble-fêtes.

Intelligence artificielle et épidémiologie : Une perspective pour la santé publique

 

Deux équipes projets du centre Inria Bordeaux Sud-Ouest ont mis au point un modèle permettant de prédire les conséquences des décisions en matière de santé publique face à une situation pandémique. (Crédits : Inria Bordeaux Sud-Ouest)

LA TRIBUNE – Comment avez-vous mis au point cette plateforme EpidemiOptim ?

MELANIE PRAGUE, chargée de recherche Inria au sein de l’équipe Sistm (1) - La première étape c’est une bonne estimation sur les données de la dynamique de l’épidémie. On a besoin d’un modèle à compartiments SEIR étendu (susceptible-exposé-infectieux-remis) pour la Covid-19. Nous avons d’abord intégré les paramètres de diffusion du virus grâce aux données d’hospitalisations en France, à partir de la base Si-vic (système d’information pour le suivi des victimes d’attentats et de situations sanitaires exceptionnelles). A partir de là, on cherche à reconstruire le modèle qui a abouti à ces données en estimant notamment quel est l’effet du confinement et des différentes stratégies d’intervention non-pharmaceutiques. Cela nous donne un modèle de travail qui nous permet ensuite de simuler toutes les trajectoires que l’on souhaite : que ce serait-il passé s’il n’y avait eu aucun confinement, des confinements plus longs ou tous les deux jours, toutes les deux semaines, etc. L’idée de ce modèle développé par l’équipe Sistm est d’évaluer et de prédire l’efficacité potentielle de tous ces scénarios possibles. S’y ajoute une dimension d’apprentissage par renforcement pour améliorer ces prédictions et tenter d’identifier la stratégie optimale par rapport aux objectifs définis. C’est le travail de l’équipe Flowers.

CLÉMENT MOULIN-FRIER, chargé de recherche Inria au sein de l’équipe Flowers (2) - Cette problématique d’apprentissage par renforcement revient à considérer un agent qui peut agir et percevoir dans un environnement précis. Par exemple, on observe comment un robot réagit en fonction des règles du jeu de Go : à chaque instant ce robot peut émettre une action, mesurer son effet sur l’environnement et recevoir ou pas une récompense. Pour le jeu de Go, l’enjeu est finalement relativement simple : si la partie est gagnée, il y a une récompense, si elle est perdue, il n’y en a pas. Mais le but de l’apprentissage par renforcement est, à partir de l’interaction entre l’agent et l’environnement, de savoir comment cet agent peut apprendre une stratégie d’actions cumulées de façon à obtenir une récompense sur le long terme. C’est cette notion de long terme qui est fondamentale parce qu’à force d’entraînement elle peut amener l’agent à prendre des décisions qui ne génèreront pas de récompense à court terme mais de façon à obtenir une meilleure récompense à long terme.


Comment est-ce que cette logique d’apprentissage se transpose dans votre modèle épidémiologique ?

MP - Nous avons pris un modèle à compartiments qui modélise des effets moyens dans une population donnée en fonction des paramètres de transmission du virus et nous avons fixé deux règles du jeu : réduire autant que possible le nombre de morts, d’une part, et la perte de PIB, qui traduit l’impact économique. Ces deux couts sont représentés par des fonctions des paramètres et des compartiments du modèle épidémiologique. L’objectif fixé au robot est en quelque sorte d’arriver à minimiser simultanément ces deux paramètres sur le long terme.

CMF - Cela implique beaucoup de variables telles que le nombre de personnes infectées ou hospitalisées, le taux de propagation, etc. Le modèle observe ces variables et émet une action - est-ce qu’on confine ou pas la semaine prochaine – qui va changer l’environnement puis, une semaine plus tard, le modèle va émettre à nouveau une action en fonction de l’évolution de ces variables et ainsi de suite. Le but de l’apprentissage par renforcement est, au fur et à mesure, d’affiner cette stratégie de façon à minimiser les deux coûts sanitaires et économiques, y compris en prenant des décisions qui peuvent paraître étonnantes à court terme mais qui sont pertinentes à long terme. D’où la complexité du système.

MF - Parallèlement à cela, on affine au fil du temps les données entrantes des paramètres épidémiologiques pour limiter les incertitudes parce que, depuis un an, on a beaucoup appris sur la diffusion du Covid-19.

Comment fonctionne concrètement ce renforcement ?

CMF - L’algorithme par renforcement a accès à ces données épidémiologiques et commence par essayer des actions aléatoires chaque semaine et regarde le résultat et la récompense associée. L’idée est de réitérer cela plusieurs fois, des milliers de fois, et en fonction de tous ces résultats, l’algorithme sera capable d’améliorer ses stratégies de façon à obtenir une meilleure récompense. L’enjeu étant, in fine, d’identifier la solution optimale. Sachant que chaque simulation ne prend que quelques secondes.

 

Dans quelle mesure cette plateforme permet-elle d’améliorer la prise de décision dans la vraie vie ?

MP - La vocation principale de la plateforme est de fournir un outil d’aide à la décision en matière de santé publique. Il comporte trois aspects : le modèle épidémiologique, le modèle d’apprentissage et les règles et objectif à définir. Dans la réalité, c’est ce 3e aspect qui intéresse les décideurs : faut-il plutôt préserver les vies humaines ou les coûts économiques ? Avec des choix très différents en fonction des pays. De notre côté, nous avons conçu le modèle pour qu’il soit le plus modulable possible et que chacun puisse fixer ses propres objectifs pour effectuer des simulations épidémiologiques en fonction de ces objectifs-là. Mais, aujourd’hui, ce modèle n’a pas été utilisé en conditions réelles par des décideurs politiques. Nous n’en sommes pas encore là ! L’objectif est d’abord de faciliter les collaborations entre les chercheurs en épidémiologie (modèles), les décideurs politiques (fonctions de coût, état des actions) et les spécialistes de l’optimisation (algorithme d’apprentissage).

CMF - Après avoir fait ce travail de modélisation transdisciplinaire, on constate très clairement que le problème est par nature multi-objectifs. C’est-à-dire qu’il y a plusieurs coûts que l’on va chercher à optimiser et qu’ils sont, en général, contradictoires : si on minimise le coût sanitaire, on augmenter le coût économique et vice-versa. Et si on ajoute à ça, par exemple, des coûts sociaux ou psychologiques, ç’est encore plus complexe ! Donc, au final, si on ne poursuit qu’un seul de ces objectifs, la stratégie est relativement simple. Mais si on cherche à combiner plusieurs objectifs, c’est là que c’est à la fois difficile et passionnant à analyser. Et ce qui est aussi apparu clairement c’est que les solutions optimales identifiées par le modèle sont très différentes selon le ou les objectifs recherchés. Finalement, nous en tant que chercheurs, on n’a pas forcément grand-chose à dire sur où est-ce qu’il faudrait placer les différents curseurs. Mais on cherche à permettre aux décideurs politiques de pouvoir simuler en quelques secondes les conséquences prédites de tel ou tel choix. Avec les limites et les précautions inhérentes à un modèle mathématique qui comporte évidemment des incertitudes. Mais si ça permet de proposer une visualisation des conséquences, c’est déjà utile.

Sur ce point, comment avez-vous sélectionné les données qui nourrissent votre modèle ?

MP - Au niveau des variables de coûts, le nombre de décès est très vite arrivé comme la donnée la plus factuelle et évaluable sur une année. Ce qui est beaucoup moins évident pour, par exemple, le taux de saturation des services de réanimation qui dépend d’autres paramètres conjoncturels. Sur le plan économique, on a travaillé avec des économistes pour établir un critère fiable. On aurait évidemment pu faire des choix différents et aussi intégrer plus de fonctions de coûts mais cela n’aurait pas nécessairement entraîné des stratégies fondamentalement différentes.

CMF - D’autant que l’enjeu de ce modèle est aussi son accessibilité en permettant à des gens qui ne sont ni informaticiens, ni épidémiologistes de l’utiliser. Par ailleurs, le choix de ces données entrantes et des objectifs à atteindre relève aussi des décisions politiques.

Après la publication d’un article scientifique, quelle sera la suite des évènements pour cette plateforme?

MP - L’objectif va être d’appliquer la méthodologie développée avec EpidemiOptim à d’autres questions. Ça pourra concerner la stratégie de vaccination, par exemple, l’optimisation de l’allocation des doses vaccinales dans l’hypothèse d’une 3e dose dû à la la perte d’immunité. L’enjeu sera alors de mesurer et de prédire quelles classes d’âge revacciner, à quel rythme, en cherchant toujours à minimiser le nombre de morts et les coûts économiques tout en prenant en compte un nombre de doses contraint. L’idée est donc d’utiliser les mêmes outils pour répondre à des questions différentes !

(1) Flowers est une équipe-projet Inria, commune avec l’université de Bordeaux et Ensta ParisTech
(2) Sistm est une équipe-projet Inria, commune avec l’université de Bordeaux et l’Inserm

Intelligence artificielle: La question de la responsabilité

Intelligence artificielle: La question de la responsabilité

Un article particulièrement intéressant de Patrice Cailleba dans l’Opinion

Au-delà de son acronyme même, l’IA constitue clairement une dyade au sens d’Edgar Morin, à savoir une dialogique où les termes sont « complémentaires, concurrents et antagonistes ». Il n’y a pas de solution à cette dialogique qui puisse dépasser et supprimer ce qui n’est pas toujours une contradiction. Il s’agit plutôt d’une unité complexe entre deux logiques concurrentes et antagonistes.

Concrètement, l’unité complexe de l’IA se retrouve et se prolonge au travers de dialectiques qui peuvent être comprises sous forme de trois interrogations. Dans son essai sur l’Essence du politique en 1965, Julien Freund les avait identifiés sans savoir qu’elles s’appliqueraient un jour à l’IA. Il s’agit respectivement de la dialectique du commandement et de l’obéissance (qui commande ou obéit : la machine ou l’individu ?) ; de la dialectique du privé et du public (quelles données doivent conserver un caractère privé ?) ; et de la dialectique de l’ami et de l’ennemi (qui, dans l’IA, est le vrai responsable : le concepteur, l’utilisateur, le fournisseur d’IA ou la machine elle-même ?). Répondre à ces questions revient à examiner certaines réalités propres à l’IA.

Les acteurs concernés par les trois dialectiques recoupent une myriade d’individus. Le problème de cette multiplicité d’acteurs n’empêche pas de considérer les responsabilités de chacun lorsqu’ils ont contribué à un évènement indésirable : c’est l’essence même des systèmes juridiques. Néanmoins, il convient d’en discuter régulièrement et de clarifier à la fois les attentes de la société civile à leurs égards et les marges de manœuvre de ces mêmes acteurs.

Ensuite, le fonctionnement même de l’IA, c’est-à-dire la manière dont les résultats sont obtenus, peut être opaque, a fortiori lorsque les technologies employées sont évolutives (voir le machine learning et le deep learning). Il est alors rendu difficile de rendre responsable quiconque d’un résultat lorsque nul ne peut expliquer comment ce dernier a été obtenu (biais humain ou autonomie de l’IA ?). Il ne peut exister dès lors un « vide de responsabilité » qui ferait des développeurs – ou de leurs programmes en tant que tels – les seuls responsables. A quand le procès d’un algorithme comme on faisait au Moyen-Âge le procès de certains animaux ?

Dimension spatio-temporelle. Enfin, la dimension spatio-temporelle de l’impact de l’IA ébranle l’idée même d’une responsabilité unique et individuelle. En effet, nulle autre technologie ne peut à ce point s’étendre aussi rapidement sur l’ensemble de la planète. De plus, l’interaction des systèmes algorithmiques rend possible deux écueils.

D’un côté, chaque individu ne peut, ni ne veut, assumer qu’une petite part de responsabilité en tant que partie prenante dans l’IA, à savoir comme créateur, développeur et/ou utilisateur. De l’autre côté, l’inclination naturelle à chercher des boucs émissaires questionne l’arrêt possible d’une IA. En même temps, se pose la question du rapport coût/bénéfice de chaque innovation dans les sociétés occidentales qui ont de plus en plus de mal à accepter l’idée même de risque (voir les polémiques sur les vaccins).

Il faut penser la relation homme-machine que permet l’IA au travers de la responsabilité donnée, voire imposée, à l’individu

Si répondre aux questions posées par l’IA est délicat, la raison en est que les dialectiques qui les sous-tendent sont complémentaires. Aucune réponse proposée à ces questions ne peut faire l’économie des deux autres. Toutefois, elles ne sont pas d’égale importance dans la mesure où l’une subordonne les deux autres. La question de la responsabilité est effectivement première tant la responsabilité de l’individu ne peut, ni ne doit s’effacer au « profit » de la machine ou au détriment des individus.

Il faut donc penser la relation homme-machine que permet l’IA au travers de la responsabilité donnée, voire imposée, à l’individu. Ceci est d’autant plus nécessaire et pertinent que les études menées depuis vingt ans montrent que l’intégration homme-machine réduit non seulement les biais humains mais aussi les biais homme-machine. Ainsi l’intégration entre automatisation et augmentation permise par l’IA doit-elle absolument conserver, à défaut de renforcer, la dimension de la responsabilité humaine. Encore faut-il examiner de près ce que cette responsabilité a de particulier au sein de l’IA.

Les utilisateurs (personnes privées et/ou institutions publiques) de l’IA s’accordent sur l’idée que les personnes qui développent et déploient des systèmes d’IA doivent assumer les conséquences indésirables de leurs actes, tout autant qu’elles tirent profit de leurs services. Inversement, les concepteurs et les déployeurs de l’IA pensent de même en ce qui concerne les utilisateurs qui cèdent leurs données pour en bénéficier ultérieurement : ils sont le produit qu’ils utilisent et en sont donc directement responsables.

Parce que ces considérations sont aussi légitimes les unes que les autres, elles doivent être examinées ensemble. Ainsi la notion de responsabilité au sein de l’IA doit-elle remplir, tout à la fois, les conditions suivantes. La première condition est que la personne qui prête ses données doit confirmer qu’elle se défait temporairement de sa responsabilité qu’elle pourra reprendre le cas échéant. La deuxième condition renvoie à la propre responsabilité de l’organisation qui crée les algorithmes en cas d’effet indésirable. Dans ce cas, elle s’engage à corriger le programme. La troisième condition a trait à l’organisation qui déploie l’IA et exploite les données qu’elle en tire : cette dernière doit assumer sa responsabilité dans leur bonne utilisation vis-à-vis des autres parties prenantes, mais aussi vis-à-vis de concurrents potentiels qui auront tôt fait de la délégitimer afin de la remplacer.

 

Intelligence artificielle: qui sera responsable ?

Intelligence artificielle: qui sera responsable ? 

Un article particulièrement intéressant de Patrice Cailleba dans l’opinion

 

Au-delà de son acronyme même, l’IA constitue clairement une dyade au sens d’Edgar Morin, à savoir une dialogique où les termes sont « complémentaires, concurrents et antagonistes ». Il n’y a pas de solution à cette dialogique qui puisse dépasser et supprimer ce qui n’est pas toujours une contradiction. Il s’agit plutôt d’une unité complexe entre deux logiques concurrentes et antagonistes.

Concrètement, l’unité complexe de l’IA se retrouve et se prolonge au travers de dialectiques qui peuvent être comprises sous forme de trois interrogations. Dans son essai sur l’Essence du politique en 1965, Julien Freund les avait identifiés sans savoir qu’elles s’appliqueraient un jour à l’IA. Il s’agit respectivement de la dialectique du commandement et de l’obéissance (qui commande ou obéit : la machine ou l’individu ?) ; de la dialectique du privé et du public (quelles données doivent conserver un caractère privé ?) ; et de la dialectique de l’ami et de l’ennemi (qui, dans l’IA, est le vrai responsable : le concepteur, l’utilisateur, le fournisseur d’IA ou la machine elle-même ?). Répondre à ces questions revient à examiner certaines réalités propres à l’IA.

Les acteurs concernés par les trois dialectiques recoupent une myriade d’individus. Le problème de cette multiplicité d’acteurs n’empêche pas de considérer les responsabilités de chacun lorsqu’ils ont contribué à un évènement indésirable : c’est l’essence même des systèmes juridiques. Néanmoins, il convient d’en discuter régulièrement et de clarifier à la fois les attentes de la société civile à leurs égards et les marges de manœuvre de ces mêmes acteurs.

Ensuite, le fonctionnement même de l’IA, c’est-à-dire la manière dont les résultats sont obtenus, peut être opaque, a fortiori lorsque les technologies employées sont évolutives (voir le machine learning et le deep learning). Il est alors rendu difficile de rendre responsable quiconque d’un résultat lorsque nul ne peut expliquer comment ce dernier a été obtenu (biais humain ou autonomie de l’IA ?). Il ne peut exister dès lors un « vide de responsabilité » qui ferait des développeurs – ou de leurs programmes en tant que tels – les seuls responsables. A quand le procès d’un algorithme comme on faisait au Moyen-Âge le procès de certains animaux ?

Dimension spatio-temporelle. Enfin, la dimension spatio-temporelle de l’impact de l’IA ébranle l’idée même d’une responsabilité unique et individuelle. En effet, nulle autre technologie ne peut à ce point s’étendre aussi rapidement sur l’ensemble de la planète. De plus, l’interaction des systèmes algorithmiques rend possible deux écueils.

D’un côté, chaque individu ne peut, ni ne veut, assumer qu’une petite part de responsabilité en tant que partie prenante dans l’IA, à savoir comme créateur, développeur et/ou utilisateur. De l’autre côté, l’inclination naturelle à chercher des boucs émissaires questionne l’arrêt possible d’une IA. En même temps, se pose la question du rapport coût/bénéfice de chaque innovation dans les sociétés occidentales qui ont de plus en plus de mal à accepter l’idée même de risque (voir les polémiques sur les vaccins).

Il faut penser la relation homme-machine que permet l’IA au travers de la responsabilité donnée, voire imposée, à l’individu

Si répondre aux questions posées par l’IA est délicat, la raison en est que les dialectiques qui les sous-tendent sont complémentaires. Aucune réponse proposée à ces questions ne peut faire l’économie des deux autres. Toutefois, elles ne sont pas d’égale importance dans la mesure où l’une subordonne les deux autres. La question de la responsabilité est effectivement première tant la responsabilité de l’individu ne peut, ni ne doit s’effacer au « profit » de la machine ou au détriment des individus.

Il faut donc penser la relation homme-machine que permet l’IA au travers de la responsabilité donnée, voire imposée, à l’individu. Ceci est d’autant plus nécessaire et pertinent que les études menées depuis vingt ans montrent que l’intégration homme-machine réduit non seulement les biais humains mais aussi les biais homme-machine. Ainsi l’intégration entre automatisation et augmentation permise par l’IA doit-elle absolument conserver, à défaut de renforcer, la dimension de la responsabilité humaine. Encore faut-il examiner de près ce que cette responsabilité a de particulier au sein de l’IA.

Les utilisateurs (personnes privées et/ou institutions publiques) de l’IA s’accordent sur l’idée que les personnes qui développent et déploient des systèmes d’IA doivent assumer les conséquences indésirables de leurs actes, tout autant qu’elles tirent profit de leurs services. Inversement, les concepteurs et les déployeurs de l’IA pensent de même en ce qui concerne les utilisateurs qui cèdent leurs données pour en bénéficier ultérieurement : ils sont le produit qu’ils utilisent et en sont donc directement responsables.

Parce que ces considérations sont aussi légitimes les unes que les autres, elles doivent être examinées ensemble. Ainsi la notion de responsabilité au sein de l’IA doit-elle remplir, tout à la fois, les conditions suivantes. La première condition est que la personne qui prête ses données doit confirmer qu’elle se défait temporairement de sa responsabilité qu’elle pourra reprendre le cas échéant. La deuxième condition renvoie à la propre responsabilité de l’organisation qui crée les algorithmes en cas d’effet indésirable. Dans ce cas, elle s’engage à corriger le programme. La troisième condition a trait à l’organisation qui déploie l’IA et exploite les données qu’elle en tire : cette dernière doit assumer sa responsabilité dans leur bonne utilisation vis-à-vis des autres parties prenantes, mais aussi vis-à-vis de concurrents potentiels qui auront tôt fait de la délégitimer afin de la remplacer.

 

Intelligence artificielle et croissance

  • Intelligence artificielle et croissance
      • Emmanuel Combe , professeur à Skema business school et vice-président de l’Autorité de la concurrence s’interroge sur le lien entre révolution technologique et croissance ( dans l’Opinion)
    • La productivité du travail connaît un net rebond depuis la crise Covid, après plus de quinze ans d’atonie dans les pays développés. Ainsi, aux Etats-Unis, pour le premier trimestre 2021, elle a bondi à 5,4 %, contre une moyenne de 1,5 % avant la crise sanitaire. On peut y voir un simple effet de rattrapage, avec la remise en route de l’économie américaine à un rythme accéléré.
    • Mais on peut aussi penser que ce regain de la productivité exprime des changements structurels, lancés à l’occasion de la crise Covid et qui perdureront après elle. Tout d’abord, le travail à distance va durablement s’implanter dans les entreprises et améliorer les performances des salariés, en limitant les pertes de temps. Ensuite, les achats en ligne sont devenus une habitude pour les consommateurs et les entreprises ont vu tout l’intérêt de ce nouveau canal de distribution, en complément de leurs points de vente physiques. Enfin, la robotisation des chaînes de production s’est accélérée, tandis que l’intelligence artificielle commence à se diffuser dans certains secteurs.
    • A cet égard, plusieurs économistes – à l’image d’Erik Brynjolfsson du MIT — considèrent que l’intelligence artificielle va être à l’origine d’une période de forte croissance économique, parce qu’il s’agit d’une « innovation à usage général » (« general purpose technologies »), au même titre que la machine à vapeur, l’électricité ou l’informatique dans le passé. Selon Bresnahan et Trajtenberg, une innovation à usage général présente trois caractéristiques principales : elle est transversale ; elle s’améliore au cours du temps ; elle est source d’innovations complémentaires. Reprenons tour à tour chacune de ces caractéristiques.
    • L’intelligence artificielle va susciter de nombreuses innovations complémentaires. On pense bien entendu à des innovations physiques, à l’image des infrastructures routières qui accueilleront demain la voiture autonome
    • Transversalité. Pour ce qui est de la transversalité, il est clair que l’intelligence artificielle peut s’appliquer potentiellement à tous les secteurs, que ce soit pour prédire les comportements d’achat, diagnostiquer de nouvelles maladies ou rendre autonome la conduite de véhicules. Ensuite, l’intelligence artificielle s’améliore continument au cours du temps, grâce au deep learning : le rapport IA Index 2021 de l’Université de Stanford montre par exemple qu’en matière de reconnaissance d’image, l’IA dépasse depuis 2017 les performances des êtres humains. Dernière caractéristique : l’intelligence artificielle va susciter de nombreuses innovations complémentaires. On pense bien entendu à des innovations physiques, à l’image des infrastructures routières qui accueilleront demain la voiture autonome.
    • Mais on peut aussi penser à toutes les innovations organisationnelles et de « business model » qui vont avoir lieu dans les entreprises grâce à l’IA : il va falloir en effet redéfinir les tâches et les postes, former la main-d’œuvre ou bien encore repenser la manière d’entrer en contact avec le client ou de commercialiser un produit. Et c’est sans doute là que réside le principal obstacle à surmonter : ces innovations complémentaires risquent de se heurter à des comportements d’attentisme ou de résistances sociales au changement. Plus les délais de mise en place de ces innovations complémentaires seront longs, moins l’intelligence artificielle sera en mesure de délivrer toute sa puissance en termes de croissance économique et de gains de productivité. Le risque est alors, pour reprendre une célèbre formule de Robert Solow, que l’IA soit partout… sauf dans les statistiques du PIB.
    • Emmanuel Combe est professeur à Skema business school et vice-président de l’Autorité de la concurrence.

Intelligence artificielle :Une réglementation européenne technocratique

Intelligence artificielle :Une réglementation européenne technocratique

 

Les citoyens sont quasiment absents de la proposition de règlement élaborée par la Commission européenne qui, en outre, laisse le champ libre au secteur privé, s’inquiètent dans le Monde Marc Clément, magistrat administratif, et Daniel Le Métayer, chercheur spécialiste des algorithmes.

Tribune

 

La Commission européenne a publié, le 21 avril, une proposition de règlement qui se présente comme la clé de voûte de la future réglementation européenne pour l’intelligence artificielle (IA). On doit saluer le travail accompli par la Commission avec la mise en place d’un comité d’experts et des consultations des parties prenantes.

Ce texte doit désormais être discuté au Parlement européen et on peut espérer qu’un large débat s’engagera autour de ces propositions.

En effet, il est capital que les Européens se saisissent de l’occasion pour faire en sorte que l’IA soit utilisée au service de la société tout entière, et non pas comme un simple moyen d’influencer le consommateur ou d’asservir le citoyen.

Le texte de la Commission repose sur une démarche d’analyse des risques qui la conduit à distinguer trois groupes de systèmes d’IA : des systèmes ou des usages prohibés car jugés incompatibles avec les valeurs de l’Union européenne (UE), comme la manipulation de personnes vulnérables ou l’identification biométrique en temps réel dans l’espace public aux fins de police (sauf exceptions strictement encadrées) ; des systèmes qui présentent des risques importants et qui sont soumis à un certain nombre d’obligations (analyse et gestion des risques, transparence, garanties en matière de correction, d’absence de biais, de sécurité, etc.) ; et enfin des systèmes qui ne présentent pas de risques significatifs et qui ne sont soumis qu’à des obligations de transparence dans des cas particuliers (interactions avec des humains, etc.).

Une autre particularité du projet de règlement est qu’il est articulé autour de deux catégories principales d’acteurs : les fournisseurs de systèmes d’IA et ceux qui les déploient. Ainsi, la plupart des obligations associées aux systèmes à haut risque pèsent sur les fournisseurs qui doivent s’en acquitter avant la mise sur le marché de leurs produits. On ne peut que se féliciter de l’obligation de mesures d’évaluation et de réduction des risques ex ante.

 

Cette architecture du projet de règlement reposant sur les niveaux de risques et des catégories d’acteurs nous paraît pertinente, mais les choix particuliers qui ont été effectués sur ces deux plans méritent discussion.

Intelligence artificielle: Des dangers potentiels

Intelligence artificielle: Des dangers potentiels

Le cabinet d’études McKinsey constate le manque manifeste de diligence de certaines entreprises concernant les risques liés à l’IA, notamment sur les questions de conformité et de protection de la vie privée.

Tribune

Pour que les entreprises puissent réduire les dangers potentiels résultants de leurs projets dans l’intelligence artificielle, elles doivent d’abord admettre l’existence de risques liés à l’adoption de cette technologie. Les récentes conclusions de la société de conseil McKinsey montrent que de nombreuses entreprises sont en retard sur ces deux points.

La pandémie a accéléré l’adoption de l’intelligence artificielle : les entreprises trouvent dans cette technologie des opportunités pour repenser leurs processus opérationnels et leurs business models. Mais la mise en œuvre de l’IA s’accompagne de risques potentiels. Par exemple, un modèle conçu pour accélérer la procédure d’attribution de prêts hypothécaires pourrait se révéler partial, en discriminant une certaine catégorie de la population, et les entreprises qui n’identifient pas correctement les données puis n’excluent pas celles revêtant un caractère personnel au sein des grands volumes de données utilisés dans les projets d’IA pourraient écoper d’amendes en vertu du Règlement général sur la protection des données (RGPD) européen.

Une récente enquête de McKinsey révèle que moins de la moitié des personnes interrogées dont les entreprises utilisent l’IA identifient ces risques — notamment ceux liés à la conformité réglementaire et au respect de la vie privée — comme « pertinents » concernant leurs projets d’IA. Seul le risque relevant de questions de cybersécurité est considéré comme pertinent par plus de la moitié des personnes interrogées.

La société de conseil en gestion déclare trouver ces résultats, publiés à la mi-novembre, préoccupants.

« Il est difficile de comprendre pourquoi les risques systématiques ne sont pas identifiés par une proportion beaucoup plus élevée de répondants », écrit Roger Burkhardt, partner chez McKinsey, dans une note publiée avec les résultats.

Près de 2 400 cadres et dirigeants, évoluant dans des secteurs variés et des entreprises de tailles différentes ont répondu à cette enquête internationale, menée au mois de en juin. Environ 1 150 ont déclaré que leur société avait déjà adopté l’IA dans au moins une de ses missions. La société de conseil a demandé à ces entreprises quels risques elles considéraient comme pertinents et quel type de risques elles essayaient concrètement de traiter ou de réduire.

Sur les répondants, 38 % affirment s’efforcer de limiter les risques en matière de conformité réglementaire et 30 % assurent qu’ils travaillent pour diminuer ceux liés au respect de la vie privée, ce qui représente, pour ces deux sujets, des pourcentages légèrement supérieurs à ceux enregistrés dans une enquête similaire réalisée par McKinsey en 2019.

Michael Chui, partner chez McKinsey Global Institute, la branche de la société spécialisée dans la recherche économique et le monde de l’entreprise, explique que la société de conseil ne donnait pas de définition des termes « pertinent » ou « risque » aux personnes interrogées. Il fait également remarquer que tous les risques ne concernent pas toutes les entreprises. Par exemple, les questions de sécurité physique des personnes vont probablement être moins importantes pour une société de services financiers que pour une entreprise de robotique.

Néanmoins, la plupart des entreprises sont concernées par un grand nombre des dix risques générés par l’IA qu’aborde l’enquête, précise-t-il. Il souligne que, si une entreprise ne considère pas un risque comme pertinent, elle ne va probablement pas chercher à en limiter la portée.

Bruce Ross, responsable groupe des services technologie et opérations de la Royal Bank of Canada, est surpris de constater que les sociétés ne sont pas plus nombreuses à se préoccuper des risques liés à l’IA tournant autour du respect de la vie privée et de la réputation de l’entreprise.

La banque, basée à Toronto, utilise notamment l’IA dans le cadre de la détection des fraudes, de l’analyse des risques, et des opérations sur les marchés de capitaux. Parlant des établissements financiers, il explique que, si des systèmes d’intelligence artificielle prennent des décisions, la conformité réglementaire et la cybersécurité deviennent alors des domaines générant des risques importants qui doivent être traités. « Les banques négocient sur la base de la confiance », rappelle-t-il.

L’un des principaux obstacles à l’évaluation et à la limitation des risques est tout simplement la prise de conscience de leur existence, précise M. Chui, de chez McKinsey. Les personnes qui mettent en œuvre des systèmes d’IA sont focalisées sur des objectifs commerciaux, comme l’augmentation des ventes ou la réduction du taux de résiliations, précise-t-il. Elles sont donc susceptibles de ne pas pleinement admettre les risques résultant de cette technologie.

Zico Kolter, directeur scientifique des recherches sur l’IA au Bosch Center for Artificial Intelligence de Bosch et professeur associé à l’Ecole de science informatique de l’Université Carnegie-Mellon, le confirme. « Comme les entreprises se précipitent pour adopter cette nouvelle technologie afin de conserver leur longueur d’avance, il existe toujours un risque d’ignorer certains de ses inconvénients », assure-t-il.

Le travail de Bosch en matière d’IA couvre ses gammes de produits de détection intelligente, comme les capteurs et les caméras permettant aux systèmes de conduite autonomes de reconnaître les panneaux de signalisation. Pour limiter l’ensemble des risques en matière de sécurité, la société fait des recherches sur différents procédés, dont une technique appelée « adversarial training ». Elle consiste à apprendre à un système d’IA analysant les objets à les reconnaître en utilisant les scénarios les plus défavorables. Cela permet au système d’obtenir de bons résultats, même s’il est soumis à une éventuelle attaque.

M. Chui indique que les entreprises peuvent prendre des mesures pour accroître la sensibilisation et réduire les risques, par exemple en recrutant des personnes disposant de compétences variées dans leurs différents services afin de les évaluer et de les diminuer.

Olly Downs, vice-président du marketing, de la technologie, des données et de l’apprentissage automatique chez le détaillant en ligne Zulily, affirme que son équipe rencontre notamment des cadres de la technologie, du marketing, de la chaîne d’approvisionnement et du service juridique pour mener son évaluation mensuelle des activités concernant les projets d’IA. Elle organise également des réunions régulières où toute l’entreprise discute des projets impliquant l’IA.

M. Chui, de McKinsey, s’attend à ce que les entreprises accordent plus d’attention, à la fois, aux risques liés à l’IA et à leur limitation à un moment où elles intègrent l’usage de cette technologie. « Prévoit-on que ces risques vont augmenter avec le temps ? Oui, clairement », conclut-il.

Intelligence artificielle : Bruxelles veut réguler

  • Intelligence artificielle : Bruxelles veut réguler
  • Bruxelles doit dévoiler mercredi 21 avril dans l’après-midi un projet de réglementation pour faire la course en tête dans cette révolution industrielle, tout en rassurant les Européens.
  • «Qu’il soit question d’agriculture de précision, de diagnostics médicaux plus fiables ou de conduite autonome sécurisée, l’intelligence artificielle nous ouvrira de nouveaux mondes. Mais ces mondes ont aussi besoin de règles», avait déclaré en septembre la présidente de la Commission européenne, Ursula von der Leyen, dans son discours sur l’état de l’Union. L’exécutif européen, qui a fait du numérique une priorité, entend honorer la promesse de la présidente de placer «l’humain au centre» de son projet législatif.
    • Bruxelles est convaincue que l’intelligence artificielle, et ses techniques d’automatisation à base de logiciels et de données, ne pourront se développer qu’en apaisant les craintes des Européens. L’UE a raté la révolution de l’Internet grand public et ne possède aucun champion équivalent aux cinq géants américains Google, Apple, Facebook, Amazon et Microsoft, les fameux Gafam, ou à leurs équivalents chinois Baidu, Alibaba, Tencent et Xiaomi. Mais rien n’est perdu concernant la révolution provoquée par l’irruption massive de l’informatique dans les industries où l’Europe excelle comme les transports, l’agriculture ou le médical.
    • Les systèmes de notation citoyenne prohibés
    • Le projet de règlement, que l’AFP a pu consulter, prévoit d’interdire un nombre restreint d’utilisations qui menacent les droits fondamentaux. Seront prohibés les systèmes de «surveillance généralisée» de la population, ceux «utilisés pour manipuler le comportement, les opinions ou les décisions» des citoyens. Des autorisations dérogatoires sont cependant prévues pour la lutte antiterroriste et la sécurité publique. Les applications militaires ne sont pas concernées.

Technologies-Intelligence artificielle : limites et mythes

Technologies-Intelligence artificielle : limites et mythes

 

 

Luc Julia fut un des créateurs de Siri, l’assistant virtuel de l’iPhone. Il dirige depuis 2012 le centre de recherche de Samsung, en Californie, mais il passe une partie de son temps à Paris. Considéré comme une des stars mondiales de l’intelligence artificielle, il a pourtant clamé, dans un livre paru en janvier 2019, que celle-ci… n’existe pas ! (Interview dans l’opinion)

Vous êtes le créateur de Siri, un des outils les plus aboutis d’intelligence artificielle appliqué à la reconnaissance vocale. Et pourtant, vous soutenez cette thèse surprenante : l’intelligence artificielle n’existe pas !

Non, cela n’existe pas ; et d’ailleurs, j’appelle cela de l’innovation avancée ou de l’intelligence augmentée, ce qui signifie que l’on peut garder le même sigle sans utiliser l’expression intelligence artificielle. Ce à quoi on a assisté depuis les années 1970, après un premier « hiver de l’intelligence artificielle » qui a découlé de l’échec des premières tentatives de reconnaissance du sens des textes écrits avec une machine et de l’assèchement des financements qui a suivi. Ce que nous observons aujourd’hui, ce sont surtout des systèmes experts, qui suivent de la logique, des règles. Ce sont des super arbres décisionnels qui reposent sur des capacités de stockage de plus en plus importantes. En 1997, lorsque l’ordinateur Deep Blue d’IBM bat le champion d’échec Gary Kasparov, il n’y parvient que parce qu’il est doté d’une mémoire énorme qui stocke les 10 49 coups possibles aux échecs. C’est beaucoup, mais c’est un nombre fini.

L’intelligence artificielle a pourtant démontré des capacités d’apprentissage…

Elle n’a démontré que sa capacité à apprendre très lentement. J’aime citer cet exemple. La naissance d’Internet, en 1994, a offert au monde la plus importante base de données jamais compilée et la notion de « big data ». On a pu prouver la capacité d’un système informatique à apprendre. La première expérience menée, entre 1997 et 2000, a été d’apprendre à un ordinateur à reconnaître un chat, en observant des centaines de milliers de photos étiquetées « chat » postées par des humains ; c’était la première base qualifiée et bien labellisée que l’on possédait, parce que les propriétaires de chats aiment poster des photos de leurs animaux. Et c’est ainsi qu’entre 2000 et 2005, des machines ont pu reconnaître des chats… à 98 %. Un enfant humain a, lui, besoin de voir un chat deux fois en moyenne pour intégrer le concept. Cela relativise totalement la notion de machine learning.

La machine a besoin, pour gager, de s’appuyer sur l’équivalent de la puissance de calcul de 2000 ordinateurs domestiques. Un petit data center qui dépense 440 kWh ! Une énergie folle pour jouer au go quand, dans le même temps, l’esprit humain dépense 20 Wh, l’équivalent d’une ampoule de faible puissance

L’intelligence artificielle a appris à faire des choses vraiment plus difficiles, comme jouer au très complexe jeu de go, dont on peine à évaluer le nombre de combinaisons possibles. N’est-ce pas remarquable ?

Le jeu de go est un jeu originaire de Chine dont le but est de contrôler le plan de jeu en y construisant des « territoires » avec des pierres noires et blanches, tout en faisant des prisonniers. Ce jeu pourrait comporter entre 10 172 et 10 592 configurations. On ne sait pas exactement. On sait désormais avoir une machine avec une puissance de calcul suffisante pour prendre en compte cette incroyable masse de combinaisons. Le programme Alphago développé par Google DeepMind a battu un humain en 2016. Elle n’est pas plus créative que l’homme. Elle est simplement plus surprenante. Et elle a besoin, pour gagner, de s’appuyer sur l’équivalent de la puissance de calcul de 2000 ordinateurs domestiques. Un petit data center qui dépense 440 kWh ! Une énergie folle pour jouer au go quand, dans le même temps, l’esprit humain dépense 20 Wh, l’équivalent d’une ampoule de faible puissance. Et l’esprit humain ne fait pas que jouer au go, il sait faire des quantités d’autres choses. Il faut se calmer, avec l’intelligence artificielle. Pour l’instant, cela se résume à une débauche de data et d’énergie pour faire des choses très limitées.

Pourquoi l’intelligence artificielle – ou l’innovation avancée comme vous l’appelez – fait-elle si peur ?

Parce que l’on raconte n’importe quoi sur ce sujet. Pour certains, l’IA – et j’utilise ces lettres à dessein – c’est Hollywood, c’est de la science-fiction, c’est « Terminator », le robot qui remplace l’homme et prend seul des décisions mauvaises, qui est incontrôlable. Or, nous sommes actuellement en contrôle total de l’IA. Ou alors, on fait rêver. C’est un autre genre de film, c’est « Her », le film de Spike Jonze, l’IA séduisante, qui devient notre moitié. Or, cela n’existera jamais avec les mathématiques et les statistiques qui servent actuellement de base à l’IA. Il faudrait utiliser d’autres sciences pour simuler un cerveau. Peut-être de l’informatique quantique… Mais cela reste une totale hypothèse, puisque nous ne savons pas comment fonctionne un cerveau, ou ce qu’est l’intelligence. On veut donc imiter un modèle que l’on ne connaît pas. L’intelligence émotionnelle, par exemple, personne ne sait ce que c’est.

Il y a pourtant des inquiétudes légitimes avec l’IA. En 2016, par exemple, le chatbot de Microsoft Tay, qui était supposé aider les clients à choisir leur matériel, est devenu raciste et sexiste en à peine 16 heures d’usage…

Tay était une expérience marketing qui a dû très vite être débranchée. Cet échec a souligné deux choses. D’abord, le fait que les algorithmes doivent comprendre le public et s’y adapter pour répondre à ses questions. Cela n’a pas été le cas avec Tay, qui a raconté autre chose que ce qu’il devait. Ensuite, pour pouvoir prendre en compte des conversations et répondre, un chatbot doit s’appuyer sur des conversations préexistantes annotées. Il y a des quantités considérables dans une base appelée Switchboard, qui recense des conversations enregistrées de call center. Il est probable que la base utilisée par Tay n’était pas de bonne qualité et à conduit Tay à dériver. C’est toujours l’homme qui décide ! Il n’y a pas d’erreurs de la machine les erreurs sont toujours celles de l’homme.

La technologie informatique est sans doute une des inventions les plus puissantes de l’humanité. Plus puissante, sans doute, que la maîtrise de l’atome. Mais elle n’est finalement pas si différente des autres inventions

Quelle attitude les autorités politiques doivent-elles adopter face à l’intelligence artificielle ?

Il faut évidemment une régulation, mais qui ait avant tout une valeur éducative. Pour l’instant les tentatives sont arrivées en retard. Le Règlement européen sur la protection des données personnelles, le RGPD, est très louable, mais il arrive quinze ans après les premiers problèmes. La régulation, c’est avant tout la régulation de chacun. La technologie informatique est sans doute une des inventions les plus puissantes de l’humanité. Plus puissante, sans doute, que la maîtrise de l’atome. Mais elle n’est finalement pas si différente des autres inventions. On a mis du temps à réguler l’usage du couteau ou de la poudre. Tous les outils peuvent être utilisés à bon ou à mauvais escient. Lorsque l’Humain invente quelque chose, c’est généralement pour le bien. Mais il est possible que cela dérape ici où là.

Est-il cependant à craindre que l’intelligence artificielle et ses applications finissent par grignoter nos libertés individuelles ?

L’IA aura les effets que les individus et les groupes décideront qu’elle aura. C’est une question éthique, philosophique autant que politique. Elle peut servir à éviter les accidents de voiture, à diagnostiquer les cancers. Le temps libéré par la technologie peut être utilisé pour nous éduquer, pour créer des liens. Les abus de la technologie peuvent aussi aboutir à des scénarios comme celui d’« Idiocracy », film sorti en 2005. Mike Judge y dépeint une société qui a tout lâché et la technologie aboutit à réduire une partie de l’humanité en esclavage. Notre rapport à la technologie doit être une négociation permanente : qu’est-ce qu’elle m’apporte ou pas ? Il faut choisir ses batailles.

Vous êtes une figure incontournable de la Tech aux Etats-Unis. Et vous n’êtes pas le seul français à briller dans la Silicon Valley. Comment se fait-il, selon vous, que la France et l’Europe comptent aussi peu de licornes ?

Je suis un franco-franchouillard de base ! Je crois en la France de Pascal, de Descartes, en l’héritage des Lumières. Notre pays produit des ingénieurs doués en maths et en technologie… Mais cela ne se traduit pas en termes économiques par la création d’entreprises. Cela n’a rien à voir avec les compétences, mais avec le marché. Il a beau exister un marché commun en Europe, du point de vue technologique, ce marché n’existe pas. Trop de langues cohabitent, trop de régulations, trop de barrières administratives différentes ; l’Europe a, de ce point de vue là, tout fait pour se pénaliser elle-même. Résultat : pour une société technologique française, le marché se limite à 60 millions d’habitants quand il est de 330 millions de personnes aux Etats-Unis avec un langage unique et d’un milliard de personnes en Chine. La démographie et la géographie font finalement tout. Il va être très compliqué d’inverser la tendance, même si, depuis deux ou trois ans, la French tech a redonné une fibre entrepreneuriale à la France. Les pépites que nous exportons sont en fait nos cerveaux, puisque tous les chefs de l’intelligence artificielle dans la Silicon Valley sont des Français.

Intelligence artificielle : limites et mythes

 

Intelligence artificielle : limites et mythes

 

 

Luc Julia fut un des créateurs de Siri, l’assistant virtuel de l’iPhone. Il dirige depuis 2012 le centre de recherche de Samsung, en Californie, mais il passe une partie de son temps à Paris. Considéré comme une des stars mondiales de l’intelligence artificielle, il a pourtant clamé, dans un livre paru en janvier 2019, que celle-ci… n’existe pas ! (Interview dans l’opinion)

Vous êtes le créateur de Siri, un des outils les plus aboutis d’intelligence artificielle appliqué à la reconnaissance vocale. Et pourtant, vous soutenez cette thèse surprenante : l’intelligence artificielle n’existe pas !

Non, cela n’existe pas ; et d’ailleurs, j’appelle cela de l’innovation avancée ou de l’intelligence augmentée, ce qui signifie que l’on peut garder le même sigle sans utiliser l’expression intelligence artificielle. Ce à quoi on a assisté depuis les années 1970, après un premier « hiver de l’intelligence artificielle » qui a découlé de l’échec des premières tentatives de reconnaissance du sens des textes écrits avec une machine et de l’assèchement des financements qui a suivi. Ce que nous observons aujourd’hui, ce sont surtout des systèmes experts, qui suivent de la logique, des règles. Ce sont des super arbres décisionnels qui reposent sur des capacités de stockage de plus en plus importantes. En 1997, lorsque l’ordinateur Deep Blue d’IBM bat le champion d’échec Gary Kasparov, il n’y parvient que parce qu’il est doté d’une mémoire énorme qui stocke les 10 49 coups possibles aux échecs. C’est beaucoup, mais c’est un nombre fini.

L’intelligence artificielle a pourtant démontré des capacités d’apprentissage…

Elle n’a démontré que sa capacité à apprendre très lentement. J’aime citer cet exemple. La naissance d’Internet, en 1994, a offert au monde la plus importante base de données jamais compilée et la notion de « big data ». On a pu prouver la capacité d’un système informatique à apprendre. La première expérience menée, entre 1997 et 2000, a été d’apprendre à un ordinateur à reconnaître un chat, en observant des centaines de milliers de photos étiquetées « chat » postées par des humains ; c’était la première base qualifiée et bien labellisée que l’on possédait, parce que les propriétaires de chats aiment poster des photos de leurs animaux. Et c’est ainsi qu’entre 2000 et 2005, des machines ont pu reconnaître des chats… à 98 %. Un enfant humain a, lui, besoin de voir un chat deux fois en moyenne pour intégrer le concept. Cela relativise totalement la notion de machine learning.

La machine a besoin, pour gager, de s’appuyer sur l’équivalent de la puissance de calcul de 2000 ordinateurs domestiques. Un petit data center qui dépense 440 kWh ! Une énergie folle pour jouer au go quand, dans le même temps, l’esprit humain dépense 20 Wh, l’équivalent d’une ampoule de faible puissance

L’intelligence artificielle a appris à faire des choses vraiment plus difficiles, comme jouer au très complexe jeu de go, dont on peine à évaluer le nombre de combinaisons possibles. N’est-ce pas remarquable ?

Le jeu de go est un jeu originaire de Chine dont le but est de contrôler le plan de jeu en y construisant des « territoires » avec des pierres noires et blanches, tout en faisant des prisonniers. Ce jeu pourrait comporter entre 10 172 et 10 592 configurations. On ne sait pas exactement. On sait désormais avoir une machine avec une puissance de calcul suffisante pour prendre en compte cette incroyable masse de combinaisons. Le programme Alphago développé par Google DeepMind a battu un humain en 2016. Elle n’est pas plus créative que l’homme. Elle est simplement plus surprenante. Et elle a besoin, pour gagner, de s’appuyer sur l’équivalent de la puissance de calcul de 2000 ordinateurs domestiques. Un petit data center qui dépense 440 kWh ! Une énergie folle pour jouer au go quand, dans le même temps, l’esprit humain dépense 20 Wh, l’équivalent d’une ampoule de faible puissance. Et l’esprit humain ne fait pas que jouer au go, il sait faire des quantités d’autres choses. Il faut se calmer, avec l’intelligence artificielle. Pour l’instant, cela se résume à une débauche de data et d’énergie pour faire des choses très limitées.

Pourquoi l’intelligence artificielle – ou l’innovation avancée comme vous l’appelez – fait-elle si peur ?

Parce que l’on raconte n’importe quoi sur ce sujet. Pour certains, l’IA – et j’utilise ces lettres à dessein – c’est Hollywood, c’est de la science-fiction, c’est « Terminator », le robot qui remplace l’homme et prend seul des décisions mauvaises, qui est incontrôlable. Or, nous sommes actuellement en contrôle total de l’IA. Ou alors, on fait rêver. C’est un autre genre de film, c’est « Her », le film de Spike Jonze, l’IA séduisante, qui devient notre moitié. Or, cela n’existera jamais avec les mathématiques et les statistiques qui servent actuellement de base à l’IA. Il faudrait utiliser d’autres sciences pour simuler un cerveau. Peut-être de l’informatique quantique… Mais cela reste une totale hypothèse, puisque nous ne savons pas comment fonctionne un cerveau, ou ce qu’est l’intelligence. On veut donc imiter un modèle que l’on ne connaît pas. L’intelligence émotionnelle, par exemple, personne ne sait ce que c’est.

Il y a pourtant des inquiétudes légitimes avec l’IA. En 2016, par exemple, le chatbot de Microsoft Tay, qui était supposé aider les clients à choisir leur matériel, est devenu raciste et sexiste en à peine 16 heures d’usage…

Tay était une expérience marketing qui a dû très vite être débranchée. Cet échec a souligné deux choses. D’abord, le fait que les algorithmes doivent comprendre le public et s’y adapter pour répondre à ses questions. Cela n’a pas été le cas avec Tay, qui a raconté autre chose que ce qu’il devait. Ensuite, pour pouvoir prendre en compte des conversations et répondre, un chatbot doit s’appuyer sur des conversations préexistantes annotées. Il y a des quantités considérables dans une base appelée Switchboard, qui recense des conversations enregistrées de call center. Il est probable que la base utilisée par Tay n’était pas de bonne qualité et à conduit Tay à dériver. C’est toujours l’homme qui décide ! Il n’y a pas d’erreurs de la machine les erreurs sont toujours celles de l’homme.

La technologie informatique est sans doute une des inventions les plus puissantes de l’humanité. Plus puissante, sans doute, que la maîtrise de l’atome. Mais elle n’est finalement pas si différente des autres inventions

Quelle attitude les autorités politiques doivent-elles adopter face à l’intelligence artificielle ?

Il faut évidemment une régulation, mais qui ait avant tout une valeur éducative. Pour l’instant les tentatives sont arrivées en retard. Le Règlement européen sur la protection des données personnelles, le RGPD, est très louable, mais il arrive quinze ans après les premiers problèmes. La régulation, c’est avant tout la régulation de chacun. La technologie informatique est sans doute une des inventions les plus puissantes de l’humanité. Plus puissante, sans doute, que la maîtrise de l’atome. Mais elle n’est finalement pas si différente des autres inventions. On a mis du temps à réguler l’usage du couteau ou de la poudre. Tous les outils peuvent être utilisés à bon ou à mauvais escient. Lorsque l’Humain invente quelque chose, c’est généralement pour le bien. Mais il est possible que cela dérape ici où là.

Est-il cependant à craindre que l’intelligence artificielle et ses applications finissent par grignoter nos libertés individuelles ?

L’IA aura les effets que les individus et les groupes décideront qu’elle aura. C’est une question éthique, philosophique autant que politique. Elle peut servir à éviter les accidents de voiture, à diagnostiquer les cancers. Le temps libéré par la technologie peut être utilisé pour nous éduquer, pour créer des liens. Les abus de la technologie peuvent aussi aboutir à des scénarios comme celui d’« Idiocracy », film sorti en 2005. Mike Judge y dépeint une société qui a tout lâché et la technologie aboutit à réduire une partie de l’humanité en esclavage. Notre rapport à la technologie doit être une négociation permanente : qu’est-ce qu’elle m’apporte ou pas ? Il faut choisir ses batailles.

Vous êtes une figure incontournable de la Tech aux Etats-Unis. Et vous n’êtes pas le seul français à briller dans la Silicon Valley. Comment se fait-il, selon vous, que la France et l’Europe comptent aussi peu de licornes ?

Je suis un franco-franchouillard de base ! Je crois en la France de Pascal, de Descartes, en l’héritage des Lumières. Notre pays produit des ingénieurs doués en maths et en technologie… Mais cela ne se traduit pas en termes économiques par la création d’entreprises. Cela n’a rien à voir avec les compétences, mais avec le marché. Il a beau exister un marché commun en Europe, du point de vue technologique, ce marché n’existe pas. Trop de langues cohabitent, trop de régulations, trop de barrières administratives différentes ; l’Europe a, de ce point de vue là, tout fait pour se pénaliser elle-même. Résultat : pour une société technologique française, le marché se limite à 60 millions d’habitants quand il est de 330 millions de personnes aux Etats-Unis avec un langage unique et d’un milliard de personnes en Chine. La démographie et la géographie font finalement tout. Il va être très compliqué d’inverser la tendance, même si, depuis deux ou trois ans, la French tech a redonné une fibre entrepreneuriale à la France. Les pépites que nous exportons sont en fait nos cerveaux, puisque tous les chefs de l’intelligence artificielle dans la Silicon Valley sont des Français.

Intelligence artificielle : la question de l’éthique pour Google

Intelligence artificielle : la question de l’éthique pour Google

Pour Google comme pour la plupart des grands du numérique intervenant dans le domaine de l’intelligence artificielle la problématique est de rechercher une éthique compatible avec les développements commerciaux immenses. De ce point de vue, Google tente avec un peu de mal de prendre en compte la problématique complexe des conséquences considérables des algorithmes sur nombreux de dimensions de la vie professionnelle et de la vie privée. (Un papier du Wall Street Journal)

Au cours des dix-huit derniers mois, la maison mère de Google a dû faire face à une succession de controverses impliquant ses meilleurs chercheurs et dirigeants dans le domaine.

Le mois dernier, Google s’est séparé d’une éminente chercheuse en IA, Timnit Gebru. Elle avait dénoncé, dans une étude, l’approche de l’entreprise en matière d’IA et s’était plainte auprès de ses collègues des initiatives de l’entreprise en matière de diversité. Ses recherches concluaient que Google n’était pas assez vigilant dans le déploiement d’une technologie aussi puissante et qu’il était indifférent à l’impact environnemental de la conception de superordinateurs.

M. Pichai s’est engagé à mener une enquête sur les circonstances de son départ et a déclaré qu’il allait chercher à rétablir un climat de confiance. Le patron de Mme Gebru, Jeff Dean, a affirmé aux employés qu’il jugeait que ses recherches n’étaient pas suffisamment rigoureuses.

L’approche d’Alphabet en matière d’IA est scrutée de près car le conglomérat est communément considéré comme le leader du secteur en termes de financement de la recherche — interne et externe — et de développement de nouvelles utilisations, qui vont des enceintes intelligentes aux assistants virtuels, pour cette technologie

Depuis, près de 2 700 employés de Google ont signé une lettre ouverte affirmant que le départ de Mme Gebru « augure d’une menace pour les personnes travaillant en faveur d’une IA éthique et intègre — en particulier les noirs et les gens de couleur — à tous les échelons de Google ».

La semaine dernière, Google a annoncé enquêter sur la codirectrice de son équipe chargée de l’IA éthique, Margaret Mitchell, soupçonnée d’avoir téléchargé et partagé des documents internes avec des personnes extérieures à l’entreprise. Mme Mitchell, qui a critiqué M. Pichai sur Twitter pour sa gestion des questions de diversité, n’a pas répondu aux demandes de commentaires.

L’approche d’Alphabet en matière d’IA est scrutée de près car le conglomérat est communément considéré comme le leader du secteur en termes de financement de la recherche — interne et externe — et de développement de nouvelles utilisations, qui vont des enceintes intelligentes aux assistants virtuels, pour cette technologie. Ce secteur émergent soulève des questions complexes sur l’influence croissante des algorithmes informatiques dans un grand nombre d’aspects de la vie professionnelle et privée.

Google a cherché à se positionner comme un champion de l’IA éthique. « L’histoire est pleine d’exemples montrant que les bienfaits de nouvelles technologies ne sont pas garantis », avait déclaré M. Pichai lors d’une intervention devant un think tank à Bruxelles l’année dernière. « Si l’IA peut être source d’immenses promesses pour l’Europe et le monde, il existe de réelles inquiétudes sur ses conséquences négatives potentielles. »

La stratégie de développement de Google dans l’IA via des acquisitions a également amplifié ses difficultés en termes de management. De manière inattendue, Mustafa Suleyman, cofondateur de DeepMind, la division d’intelligence artificielle de Google basée à Londres, s’est vu enlevé fin 2019 la plupart de ses responsabilités de direction après avoir fait l’objet de plaintes pour intimidation de la part de membres du personnel, selon des sources bien informées.

DeepMind, que Google a acheté en 2014, a engagé un cabinet d’avocats indépendants pour mener une enquête sur les plaintes. Fin 2019, M. Suleyman a été muté à un autre poste de direction au sein de l’équipe d’IA de Google.

Dans un communiqué commun, DeepMind et Google ont confirmé la tenue d’une enquête sur le comportement de M. Suleyman mais ont refusé d’en révéler les conclusions. Ils se sont contentés d’indiquer qu’à la suite de l’investigation, il « a entamé un module de formation professionnelle — qu’il suit toujours — centré sur les sujets concernés, et ne gère plus de grandes équipes ». Les entreprises ont déclaré que dans le cadre de son rôle actuel de vice-président de la politique d’intelligence artificielle chez Google, « [M. Suleyman] fournit des contributions précieuses sur la politique et la réglementation en matière d’IA ».

En réponse aux questions du Wall Street Journal, M. Suleyman a précisé qu’il « acceptait les critiques affirmant qu’en tant que cofondateur de DeepMind, [il] dirigeait les gens trop durement et que [son] style de management n’était parfois pas constructif ». Il a ajouté : « Je m’excuse sans ambiguïté auprès de ceux qui ont été blessés. »

La nomination de M. Suleyman à un poste de haut niveau chez Google a contrarié certains membres du personnel de DeepMind, tout comme un tweet de M. Dean lui souhaitant la bienvenue dans ses nouvelles fonctions chez Google, selon des employés actuels et anciens.

« Je me réjouis de travailler plus étroitement avec vous », a écrit M. Dean dans ce tweet.

Contrairement au moteur de recherche de Google, où l’intelligence artificielle est utilisée pour réorganiser et faire remonter des informations existantes à caractère public, DeepMind se concentre surtout sur des questions de santé, comme le traitement de vastes quantités de données sur les patients afin de trouver de nouvelles méthodes pour combattre les maladies.

DeepMind peine à atteindre ses objectifs financiers. L’unité a subi une perte de 649 millions de dollars en 2019, selon le document officiel déposé au Royaume-Uni le mois dernier. Google, qui lui avait prêté plus d’un milliard de dollars au cours de la même période, a abandonné cette créance, indique ce rapport.

Google a essayé à plusieurs reprises de mettre en place une supervision plus étroite de ses projets d’intelligence artificielle, avec un succès mitigé.

Un conseil d’éthique externe sur l’IA créé par Google a été dissous au bout d’une semaine d’existence. Des employés avaient signé une pétition visant certains de ses membres, politiquement marqués à droite

Chez DeepMind, un comité d’évaluation indépendant censé contrôler cette filiale et produire un rapport public annuel, a été dissous fin 2018 après les protestations de ses membres qui considéraient ne pas disposer d’un accès complet aux recherches et aux projets stratégiques de l’entreprise.

Quelques mois plus tard, un conseil d’éthique externe sur l’IA créé par Google a également été dissous au bout d’une semaine d’existence. Des employés avaient signé une pétition visant certains de ses membres, politiquement marqués à droite. Un porte-parole de Google avait déclaré à l’époque que l’entreprise « allait trouver d’autres moyens pour obtenir des avis indépendants sur ces sujets ».

Si les projets de Google en matière d’intelligence artificielle remontent à au moins une décennie, ce secteur n’est devenu une division autonome sous la direction de M. Dean que depuis 2017. M. Pichai, en annonçant la création de cette nouvelle structure cette année-là, avait déclaré que l’intelligence artificielle serait au cœur de la stratégie et des activités de Google, et que l’informatique avancée — également appelée apprentissage automatique — serait déployée au sein de toute l’entreprise.

Pedro Domingos, professeur d’informatique à l’Université de Washington, estime que Google était bien conscient des nombreux pièges liés à l’IA. Il se souvient qu’il y a plusieurs années, au cours d’une discussion, le président du conseil d’administration d’Alphabet, John Hennessy, lui avait fait part de toute l’étendue de ses craintes à une période où le géant de la recherche intensifiait son développement dans le domaine.

M. Domingos ajoute que M. Hennessy lui avait également dit que si quelque chose tournait mal avec l’IA — même dans d’autres entreprises —, Google en serait tenu pour responsable.

« Un seul faux pas et tout nous explose au visage », avait confié M. Hennessy, selon M. Domingos. M. Hennessy affirme ne pas se souvenir des détails de la conversation, mais reconnaît que les propos rapportés par M. Domingos sont probablement exacts.

Une première faute a été commise en 2015, lorsque plusieurs utilisateurs noirs de Google ont eu la surprise de constater que la technologie d’intelligence artificielle du logiciel photo gratuit de la société avait automatiquement apposé le tag « gorille » sur un de leurs albums de photos humaines, en se basant sur la couleur de la peau.

Google s’est excusé, a réglé le problème, puis a publiquement assuré qu’il allait redoubler d’efforts pour mettre en place, en interne, des protocoles de sécurité afin de s’assurer que son logiciel était configuré de manière éthique.

« Google est la maman poule par excellence. Ses employés sont tellement choyés qu’ils se sentent en droit d’exiger toujours plus » sur la manière dont l’entreprise aborde l’IA et les problématiques qui y sont liées

Cette décision a nécessité le recrutement de chercheurs tels que Mme Gebru, l’ancienne codirectrice de l’équipe d’intelligence artificielle éthique de l’entreprise, qui s’est publiquement exprimée sur les limites des logiciels de reconnaissance faciale pour identifier les personnes à la peau plus foncée.

Elle faisait partie des centaines de collaborateurs qui ont produit des recherches sur l’IA, parfois avec des institutions universitaires. Contrairement aux autres ingénieurs de Google, le groupe dédié à l’IA fonctionnait davantage sur le modèle d’un département académique : il était chargé de débattre de questions plus générales plutôt que de résoudre des problèmes sur des produits déterminés.

Reuters a révélé ultérieurement qu’avant le départ de Mme Gebru, Google avait lancé une étude sur des sujets sensibles et, dans au moins trois cas, avait demandé à son personnel de ne pas présenter sa technologie sous un jour négatif. Google a refusé de faire des commentaires à ce sujet.

Mme Gebru et M. Dean n’ont pas répondu aux demandes de réactions dans le cadre de cet article.

Google a déclaré que ses avancées en matière d’intelligence artificielle ont permis la rapidité et la précision des résultats de son moteur de recherche — et la pertinence des publicités.

M. Domingos estime que la plupart des problèmes de Google liés à l’IA sont imputables aux principes de management de l’entreprise, et ajoute que c’est la science, et non l’idéologie, qui devrait guider les débats éthiques.

« Google est la maman poule par excellence », poursuit-il. « Ses employés sont tellement choyés qu’ils se sentent en droit d’exiger toujours plus » sur la manière dont l’entreprise aborde l’IA et les problématiques qui y sont liées.

Le départ de Mme Gebru illustre le défi que doit relever la direction de Google : les deux parties ne sont même pas d’accord sur le fait de savoir si elle a démissionné, ce que prétend la société, ou si elle a été licenciée pendant ses vacances, comme l’intéressée l’affirme.

Traduit à partir de la version originale en anglais

Intelligence artificielle : l’Europe en retard

 Intelligence artificielle : l’Europe en retard

D’après l’étude annuelle de la Fondation pour les technologies de l’information (Information Technology and Innovation Foundation), parue lundi 25 janvier, les États-Unis mènent la course au développement et à l’utilisation de l’intelligence artificielle (IA), tandis que la Chine progresse rapidement au point de « challenger la domination américaine« , et que l’Union européenne est… à la traîne.

Domaines de l’intelligence artificielle d’après http://www.intelligenceartificielle.fr/:

 

Systèmes experts :

soit un logiciel capable de simuler le comportement d’un humain effectuant une tâche très précise. C’est un domaine où l’intelligence artificielle est incontestablement un succès, dû au caractère très précis de l’activité demandée à simuler.

Calcul formel (opposé au calcul numérique) :

traiter les expressions symboliques. Des logiciels sur le marché, comme Mathematica, Maple, etc., effectuent tous des calculs formels.

Représentation des connaissances :

on entend la représentation symbolique de la connaissance pour que le logiciel soit capable de la manipuler. Un des secteurs de recherche en intelligence artificielle qui est le plus important.

Simulation du raisonnement humain :

tenter de mettre au point des logiques qui formalisent le mode de raisonnement (logiques modales, floues, temporelles, etc.).

Traitement du langage naturel :

c’est la compréhension qui reste le problème majeur à la traduction ou au résumé d’un texte dans une autre langue. De grands progrès ont été faits pour obtenir une représentation sous une forme indépendante de la langue dans laquelle l’original est écrit. Certains traducteurs orientés dans des domaines spécialisés donnent de meilleurs résultats grâce à leurs spécificités.

Résolution de problèmes :

représentation, analyse et résolution de problèmes concrets. C’est le cas des jeux de réflexion tels que les échecs, le backgammon ou les dames. Dans le cas du backgammon le champion du monde est un programme. Ils restent quelques jeux qui résistent aux efforts des programmeurs.

Reconnaissance de la parole :

beaucoup de progrès ont été effectués. Un logiciel comme Naturaly Speaking permet la dictée. Cependant, la compréhension d’un mot ou d’une phrase requiert une grande quantité d’informations extralangagières (contexte, connaissance du sujet, etc.).

Reconnaissance de l’écriture :

la reconnaissance de l’écriture dactylographiée n’est pas facile (malgré des logiciels assez performants sur le marché), mais l’écriture manuscrite pose des problèmes beaucoup plus complexes. Cela n’est pas étonnant dans la mesure où cette tâche peut nous poser à nous aussi des problèmes insolubles. Certains chercheurs essaient de reconstituer à partir du texte le mouvement de la main afin de comprendre ce qui est écrit.

Reconnaissance des visages :

considérée de longue date comme un des problèmes de l’intelligence artificielle le plus difficile, les résultats récents deviennent intéressants avec les réseaux neuronaux.

Robotique :

la robotique dans les usines est déjà fortement répendue. La première génération est capable d’exécuter une série de mouvements préenregistrés, la deuxième génération est dotée de capteurs de perception permettant de prendre certaines décisions et la troisième génération possède une plus grande autonomie, elle peut se déplacer dans un environnement.

L’apprentissage :

un logiciel devrait avoir des capacités d’apprentissage autonome pour pouvoir être véritablement qualifié d’intelligent. Douglas Lenat travaille actuellement à la constitution d’une gigantesque base de données censée contenir toutes les connaissances partagées par les humains d’un même groupe pour leur communication. Il souhaite adjoindre un module d’apprentissage à sa base de données lui permettant de travailler seule pour collecter des informations nouvelles et réorganiser l’architecture de ses connaissances.

Réseaux neuronaux :

un réseau de neurones formels est un modèle rudimentaire du cerveau humain. Une cellule neuronale possède une sortie et des entrées reliées à d’autres neurones. Ces réseaux partagent des propriétés importantes avec le cerveau humain. Cela requiert une programmation non explicite et la répartition de l’information sur l’ensemble du réseau.

Systèmes complexes adaptatifs :

le regroupement des algorithmes génétiques et des modèles de vie artificielle. En résumé succint, l’étude des convergences vers des formes organisées des populations soumises à des lois simples et naturelles.

« Les failles affectives de Macron qui remettent en cause les résultats de son intelligence »

  • « Les failles affectives de Macron qui remettent en cause les résultats de son intelligence »
  •  L’ancien ministre de la Culture de Nicolas Sarkozy, Jack Lang livre dans l’Opinion ses vérités sur cette période d’épidémie, où la fragilité de nos vies s’est rappelée à nous.
  • Que révèle de la société française la crise sanitaire sans fin que nous traversons ?
  • Que la relation du pouvoir avec les citoyens demeure très paternaliste. Le pouvoir traite les citoyens comme de grands enfants. Les citoyens, très disciplinés, obéissent à ce qu’on leur dit de faire. Le fait qu’Emmanuel Macron se prenne pour le roi de France, qu’il ait cette nostalgie, alimente ce côté paternaliste. Ce n’est pas à lui d’expliquer tout le temps ce que l’on doit faire, comme s’il était le roi qui guérissait les écrouelles. Imagine-t-on De Gaulle ou Mitterrand donner les détails à la télévision du déconfinement ? On est toujours dans la même relation avec les présidents de la République (mais peut-être que ce sont les institutions qui le veulent) : tout procède d’eux, tout remonte à eux. Soit ils nous bluffent, soit on les haït. Ce rapport me semble dangereux.
  • Que vous inspire, après plus de trois années et demie à l’Elysée, le président Macron ?
  • En fait, je ne sais pas. Au début, j’étais totalement séduit. Je trouvais le côté adolescent qui prend la ville assez formidable. Ses premiers pas m’ont laissé pantois. Et puis après, il y a eu cette succession de petites phrases terribles, qui ont trahi autre chose. Quand il a violemment remis à sa place un jeune qui l’avait appelé « Manu » [« Tu m’appelles Monsieur ou Monsieur le président de la République. Et tu fais les choses dans le bon ordre : le jour où tu veux faire la révolution, tu apprends d’abord à avoir un diplôme et à te nourrir toi-même»], j’ai imaginé comment François Mitterrand aurait réagi. Emmanuel Macron a un amour de lui-même trop intense. Ses qualités intellectuelles sont remarquables, son énergie et son désir de bien faire évidents. Il montre une vraie résilience face à la série de crises sans précédent qu’il affronte depuis le début de son quinquennat. Mais il a des failles affectives qui viennent remettre en cause les résultats de son intelligence. Peut-être les compensera-t-il avec l’âge ? Il a la chance d’avoir à ses côtés une épouse très sympathique, qui est sa seule amie, et qui sans doute l’aide beaucoup. La haine qu’il récolte est la résultante de sa demande d’amour. Cela dit, Emmanuel Macron ne m’a jamais vu, ni parlé. Il y a chez moi certainement une part de déception personnelle, un sentiment pas très noble. Je ne suis pas le seul dans ce cas. Il y a eu un désir chez lui de passer l’aspirateur et de se débarrasser de tout le passé. Je sens le soufre pour lui. Stéphane Bern, qui est adorable, est consensuel ; moi, je le suis moins. Les gens clivants dans le domaine culturel, cela l’embête.
  • Est-il un président de droite ou de gauche ?
  • C’est un président d’ordre. C’est ce que disait Marguerite Duras : « Il est comme tous les gens de droite, il est fasciné par les gens de gauche ». Les gens de droite, ce qui les empêche de dormir, c’est la résilience de la gauche. Quand il va chez Philippe de Villiers, affiche une relation d’amitié avec lui, il montre qu’il y a en lui une connivence avec ce que cela représente, le côté scout. Parallèlement, il a à ses côtés un socialiste sincère comme Jean-Yves Le Drian. Emmanuel Macron donne plus de questions que de réponses.
  • L’Elysée a annoncé qu’après l’année De Gaulle, ce serait l’année Mitterrand. Le chef de l’Etat lui rendra hommage à plusieurs reprises. Qu’ont en commun Emmanuel Macron et François Mitterrand ?
  • La réponse la plus facile, ce serait « rien », mais je ne pense pas que cela soit vrai. Ils ont une curiosité intellectuelle commune, notamment vis-à-vis de leurs homologues étrangers. Ils savent se projeter sur la scène internationale et construire des relations fortes avec leurs interlocuteurs. Ce point commun s’explique par la haute idée que tous les deux se font de leur fonction, peut-être biaisée par leur narcissisme. Mais Mitterrand a été élu à un âge avancé. Il avait eu assez d’expérience, d’échecs dans la vie pour avoir un narcissisme plus raisonnable. La comparaison qui vient immédiatement à l’esprit est celle avec Valéry Giscard d’Estaing : le Président aimé, séduisant, qui rapte la République comme un séducteur emmenant la jeune fille dans son château, l’intelligence exceptionnelle, le désir de bien faire, la façon dont tout se retourne… Mais j’avais le sentiment que Giscard d’Estaing, que je voyais de temps en temps, ne l’aimait pas beaucoup.
  • «A l’Elysée, sous Sarkozy, passer de Claude Guéant à Jean Castex, cela a été vraiment autre chose. On passait du croque-mort de Lucky Luke au type hyper sympa. Jean Castex est courageux, il incarne la droite civilisée, si le terme existe»
  • Dans Une drôle de guerre, vous êtes plus sympathique avec Edouard Philippe ou Bruno Le Maire…
  • Heureusement que Bruno Le Maire est là. Il donne le sentiment de tenir à bout de bras notre économie. Je l’ai beaucoup pratiqué quand j’étais ministre. C’est un mec très sérieux. Il arrive assez bien à être à la fois solidaire du gouvernement, fidèle au Président et en même temps à faire entendre sa propre personnalité.
  • « Que de bons souvenirs lorsqu’il était à l’Elysée et que j’avais affaire à lui. Sympa, solide. Perdu de vue et revoilà », rapportez-vous au sujet de Jean Castex, que vous avez connu secrétaire général adjoint de Nicolas Sarkozy.…
  • A l’Elysée, passer de Claude Guéant à Jean Castex, cela a été vraiment autre chose. On passait du croque-mort de Lucky Luke au type hyper sympa. Quand il a été nommé à Matignon, j’ai cru que ce serait le Pompidou de Macron. Mais ce n’est pas cela. Il est courageux, incarne la droite civilisée, si le terme existe. J’espère que le côté sacrificiel sera mis à son crédit. Avec lui, Emmanuel Macron aura un type très loyal. Il sera le soutier du Président, dans la tradition des Premiers ministres sous la Ve République.
  • Autre remarque au détour d’une page : « Sarkozy embrasse Macron pour mieux l’étrangler »…
  • On sent tellement qu’il a envie de revenir. Il se dit que si c’est le chaos, entre l’incapacité de la droite à se mettre d’accord sur un candidat et la folie de la gauche qui court désespérément derrière Anne Hidalgo, il peut avoir une partition à jouer. Contrairement à ce que certains ont pensé, je ne partageais pas la vision du monde politique de Nicolas Sarkozy. Mais il a toujours été impeccable avec moi. Lui si interventionniste, il m’a laissé tranquille à la Culture. Récemment, je suis allé le voir et je le lui ai dit. Je crois qu’il en a été touché. On a une relation presque familiale.
  • « Presque tous les évènements qui dessinent l’aventure de ce siècle ont été pour les contemporains des surprises presque totales.» Cette citation de René Rémond figure en exergue de votre livre. C’est ce à quoi il faut s’attendre pour la présidentielle de 2022 ?
  • L’irrationnel est devenu la règle. Cette épidémie nous l’a rappelé. L’ampleur des destructions morales, citoyennes introduites par ce virus est impossible à imaginer pour l’instant. Que sortira-t-il de tout cela ? Aujourd’hui, je voterais Emmanuel Macron tout de suite malgré mes réticences.
  • Comment jugez-vous Roselyne Bachelot à la Culture ?
  • Très bien. Même si elle ne gagne pas tous les combats qu’elle mène, elle a réussi à tisser un pacte de confiance avec le monde culturel, chez qui la confiance peut être une donnée assez évanescente.
  • Le monde culturel peut-il se relever de la crise qu’il vit ? Quelles seront les conséquences ?Ce qui se passe est épouvantable. Je pense tout le temps aux artistes, comédiens, directeurs de salle, comme Laurent Bayle, le directeur de la Philharmonie de Paris, qui doivent se battre face à mille vents. Beaucoup prennent des initiatives pour mettre en ligne leur production, mais rien ne peut remplacer le spectacle vivant. On ne pourra jamais en faire une visioconférence. Et puis c’est toute la structure de la ville, vidée de son âme, qui s’en ressent. Pour l’instant, on le supporte, on fait le dos rond. Mais dans quel état le monde culturel sortira-t-il de tout cela ? Je n’ai pas la réponse.
  • Dans Le temps des tempêtes, Nicolas Sarkozy écrit : « Au ministère de la Culture, qui dispose d’un petit budget et d’une administration faible et fragmentée, le manque de charisme public devient rapidement un immense problème ». Etes-vous d’accord ?
  • C’est son côté paillettes ! S’il y a eu deux grands ministres de la Culture, Malraux et Lang, d’autres ont fait des choses et ne doivent pas être oubliés : Jacques Duhamel, Michel Guy qui, si Valéry Giscard d’Estaing ne l’avait pas sacrifié face à Raymond Barre, serait devenu son Jack Lang, Renaud Donnedieu de Vabres… Un bon ministre de la Culture est d’abord un ministre qui a des idées, parvient à les mettre en œuvre. Et puis s’il a du charisme, il s’impose. Quel Français connaissait Jack Lang quand il a été nommé ?

Nouvelles technologies-Quelle régulation de l’intelligence artificielle

Nouvelles technologies-Quelle  régulation de l’intelligence artificielle

 

Florian Ingen-Housz, partner au sein d’Altermind, et Victor Storchan, ingénieur en IA dans l’industrie financière, explique l’enjeu de la régulation de l’intelligence artificielle (IA) dans la Tribune

 

 

En février dernier, la Commission européenne a publié son livre blanc sur la régulation des applications de l’Intelligence Artificielle (IA). Plutôt que de légiférer unilatéralement sur ce sujet, la Commission a choisi, de manière novatrice, une approche consultative et participative en incitant l’ensemble des parties prenantes à cet écosystème à participer à la discussion. Cette approche doit être encouragée, approfondie et accélérée pour ajuster l’état du droit à un état de l’art technologique qui ne cesse de faire surgir des débats juridiques et normatifs inédits. Cette approche est aussi le seul moyen de faire émerger, dans la décennie qui vient, une véritable vision européenne de la Tech, tout à la fois pro-business et respectueuse des libertés individuelles.

Un défi majeur pour les régulateurs

L’IA constitue en effet un défi majeur pour les régulateurs. La vitesse prodigieuse des avancées technologiques doit inviter ces derniers à co-construire la norme avec un écosystème plus large qu’ils n’en ont l’habitude, plutôt que d’imposer celle-ci « par le haut ». Tout comme l’ont montré les débats sur la bioéthique depuis les années 1970, la régulation technologique est avant tout un choix de société et par conséquent un effort continu. La question se pose néanmoins avec une acuité particulière pour le déploiement de l’IA, compte tenu de l’ambiguïté de ses définitions, de sa nature stochastique et de l’opacité des multiples modèles sur lesquels elle est bâtie. Cette opacité est aggravée par l’hypercroissance de l’écosystème (50% de plus de papiers soumis à NeurIPS – une des conférences majeures de la discipline - en 2019 par rapport à l’année précédente), qui rend immédiatement obsolètes des savoirs difficilement acquis par des régulateurs parfois mal-équipés sur le plan technique. Si la régulation est évidemment primordiale pour permettre l’adoption, créer du consensus et de la confiance envers cette technologie, son élaboration devra donc être suffisamment (i) spécifique dans son champ d’application pour être « implémentable », (ii) inclusive et ouverte dans sa démarche et (iii) sélective dans ses priorités et son séquencement.

Il faudra donc, dans un premier temps, d’abord s’assurer de la juste définition de l’objet ciblé. Ce besoin de spécificité dans un domaine aux frontières floues soulève un premier défi : celui de la sémantique. Le concept d’IA est imprécis, même pour les experts. Contrairement aux précédentes vagues de disruption technologique, que ce soit la machine à vapeur, l’électricité, la chimie ou même les premiers programmes informatiques, les contours de l’IA sont moins tangibles. Ainsi, en 2013, l’Etat du Nevada a dû ainsi revoir sa définition de l’IA pour les véhicules autonomes car celle-ci englobait aussi certains modèles de voitures sophistiquées avec des fonctionnalités de contrôle avancées. La définition de ce qu’est un robot pour l’Union européenne n’est pas non plus satisfaisante. Contrairement à ce que semble indiquer cette dernière, les robots n’acquièrent en effet pas de capacité d’autonomie uniquement grâce aux données et aux capteurs dont ils disposeraient. Comme le montrent les travaux de Bryan Casey et Mark A. Lemley (Stanford Law School) lorsque cela est possible, une manière de contourner le problème sémantique est de s’assurer que la régulation cerne en priorité les comportements des individus et non pas les techniques, les types d’algorithmes ou les robots.

 

Faire coopérer des acteurs très divers

L’efficacité de la régulation pour l’IA se mesurera aussi à sa capacité à faire coopérer des acteurs très divers. Les usages de cette technologie doivent être appréhendés non pas in-vitro mais au sein d’écosystèmes technico-sociaux complexes où elle est déployée. Ainsi cette coopération doit à la fois s’effectuer horizontalement et verticalement. Horizontalement d’abord, par la co-construction entre juristes, techniciens, et chercheurs, mais également sociologues et citoyens qui via les décideurs publics seront les utilisateurs de ces systèmes d’IA. Ces derniers doivent être dotés d’outils pour améliorer leur capacité à contester la décision d’un modèle afin de créer de la confiance. Le dialogue doit aussi être plurilatéral, non seulement par une coordination entre pays et puissances régionales, mais aussi en incluant les ONG, la société et l’industrie.

 

Cette coopération est aussi verticale. Pour être opérant, le processus délibératif d’une gouvernance globale doit pouvoir être traduit en termes techniques par les ingénieurs et les chercheurs qui conçoivent les modèles. Cependant, pour être parfaitement efficace et agile, cette approche différenciée devra pouvoir s’incarner par une gouvernance dans les entreprises capable de guider les équipes techniques. Ces dernières sont confrontées à plusieurs dilemmes du fait des contraintes techniques, mathématiques ou algorithmiques et ont besoin d’indications précises qui tranchent des compromis entre certaines notions d’éthiques comme l’équité ou le respect de la vie privée. Il est donc nécessaire de faire un choix qui relève presque de philosophie politique. Ces choix sont sociétaux et culturels.

Enfin, lorsqu’une directive réglementaire présente une ambiguïté intrinsèque (dans le but par exemple d’anticiper des développements de technologie future ou pour pouvoir être appliquée à un spectre large d’acteurs), il est précieux que l’écosystème puisse collectivement expliciter les points d’incertitude qui sont sujets à l’interprétation. Cet effort de clarification permettrait d’aligner les efforts de gestion du risque dans les modèles d’IA sur des standards communs. Ces concertations des parties prenantes ont vocation à constituer une « soft law » pour préciser ou compléter au plus près du terrain des principes plus généraux fixant l’esprit et l’intention.

Se concentrer sur un nombre réduit de secteurs

 

Enfin, la régulation pour être efficace doit en priorité se concentrer sur un nombre réduit de secteurs et d’applications sur lesquels une attention immédiate est requise. A titre d’exemple, l’UE propose de calibrer le niveau de régulation selon le niveau de risque que représente une application de l’IA ou un secteur industriel applicatif. La commission propose ainsi une liste de plusieurs secteurs à haut risque comme les transports, la santé ou l’énergie dans lesquels certains déploiements technologiques sensibles devront respecter un ensemble de règles plus exigeant. Cette approche semble raisonnable. Le risque consubstantiel à l’innovation et un principe de précaution aveugle à la diversité des cas d’usages aboutirait à une société du statu quo vidée de sa force entrepreneuriale et créatrice. Les applications dans le secteur public (justice et éducation notamment), la santé font certainement partis des chantiers prioritaires. Les exemples récents de systèmes mal déployés sont légions : les entreprises technologiques comme IBM ou Microsoft ont stoppé leurs services de reconnaissance faciale après que des failles éthiques à répétition aient été identifiées. L’algorithme néerlandais de prédiction de fraude pour les demandeurs de sécurité sociale a été suspendu par une juridiction du pays pour violation des droits de l’homme et de la régulation RGPD sur les données.

Ainsi, les rapports entre les régulateurs et les innovateurs en IA ne peuvent être résumés à un conflit entre le glaive et le bouclier. La multidisciplinarité de cette technologie, ses évolutions rapides et disruptives doivent être accompagnées pour qu’elle serve le plus grand nombre dans la transparence et responsabilité des acteurs.

Nouvelles technologies– »Intelligence artificielle : renaissance de l’expérience humaine « !

Nouvelles technologies– »Intelligence artificielle : renaissance de l’expérience humaine « !

Un plaidoyer pour  l’intelligence artificielle par Gianmarco Monsellato, Avocat, Ancien dirigeant de Deloitte-Taj, Senior Partner Deloitte dans l’Opinion . Une vision quand même un peu réductrice du champ de l’intelligence artificielle et en même temps un peu excessive voire caricaturale.

 

Tout est écrit. Le futur peut se lire dans l’interprétation des données à notre disposition, des signes que la nature nous donne. Ces conclusions ne viennent pas d’une entreprise technologique du XXIe siècle mais des alchimistes du XVe. Serions-nous en train de vivre un retour en arrière, assisterions-nous à une nouvelle forme de pensée magique sous le couvert du vocabulaire technologique ? Les professions d’expertises et notamment les services professionnels pourraient être tentés de le croire tant leur fin, ou leur mutation complète, est souvent annoncée à cause de l’essor de l’IA. A quoi bon des experts, lorsqu’un algorithme peut vous donner toutes les réponses à vos questions ? Et pourtant…

L’IA découle de la rencontre entre la technique des algorithmes, qui n’est pas nouvelle, une masse de données immense grâce à internet, et des puissances de calcul en augmentation exponentielle. Elle constitue une formidable capacité à calculer des corrélations entre des données apparemment indépendantes, permettant de mettre en lumière des liens de causalités jusque-là ignorés. Grâce au « machine learning », les algorithmes améliorent la pertinence de leurs résultats en éliminant les corrélations aboutissant à des conclusions hors contexte, autrement dit absurdes pour un humain.

Pour les professions d’expertise (consultants, avocats, juges, auditeurs…), l’IA permet de disposer rapidement d’une analyse précise et exhaustive des précédents dans toutes leurs dimensions. Ce qui avant devait être effectué par des collaborateurs durant un temps assez long et avec un taux d’inexactitude non négligeable est désormais rapidement disponible, sans erreur et de manière exhaustive. Sur le plan du droit, l’IA permet de disposer d’analyses de précédents d’une profondeur sans équivalent, réduisant à néant le risque d’erreur ou d’omission. Elle apporte ainsi une sécurité juridique sans faille. A tel point que certaines Cours suprêmes de pays de Common Law travaillent sur des projets d’IA pour effectuer toute la préparation analytique au jugement.

Par construction, une IA ne fait que répéter le passé. Le présupposé fondateur des études de corrélation est de croire que les phénomènes passés ont vocation à se répéter dans le futur

Pour puissante qu’elle soit, l’IA n’en demeure pas moins entravée par des limites indépassables. En premier lieu, elle est sujette aux biais. Puisqu’elle traite des données existantes, ces conclusions reflètent nécessairement les a priori présents dans l’historique des environnements analysés. Plus un biais, ou une erreur de jugement sur le plan moral, a été répété de manière insidieuse dans le passé, plus il influencera les analyses de corrélations et donc les conclusions de l’IA. En second lieu, toutes les corrélations ne se valent pas. Certaines identifient des liens entre données qui sont de fausses causalités uniquement créées par la répétition non signifiante de certains aléas, ce que les mathématiciens arabes du Moyen Age ont appelé « hasard ». Enfin, par construction, une IA ne fait que répéter le passé. Le présupposé fondateur des études de corrélation est de croire que les phénomènes passés ont vocation à se répéter dans le futur. Ce qui va à l’encontre de l’aspiration humaine à la créativité qui n’est rien d’autre que le refus du déterminisme.

 

Est-ce à dire alors que l’IA serait un faux savoir à renier au même titre que l’alchimie de la fin du Moyen Age ? Bien sûr que non, ne fût-ce que parce que certains parmi les plus grands savants à l’origine de la Renaissance étaient aussi des alchimistes. Il faut en revanche l’utiliser pour ce qu’elle est sans lui prêter des capacités qu’elle ne peut avoir.

L’IA permet dès aujourd’hui, et encore plus demain, à tous les métiers de savoir, de bénéficier d’analyses techniques de plus grande qualité et plus rapidement que par le passé. Pour autant que l’on sache s’en servir. Les collaborateurs qui auparavant effectuaient les recherches techniques doivent désormais se concentrer sur le fonctionnement de l’IA pour corriger ses biais ou a minima les comprendre pour en nuancer les conclusions. Quant à ceux qui sont en position de décider, ou de conseiller, ils doivent considérer les conclusions de l’IA pour ce qu’elles sont : une vision du passé appliquée au futur, qui ne peut appréhender l’intelligence des situations si importante à la qualité de la prise décision.

C’est la responsabilité du conseil, de l’avocat ou de l’auditeur, de comprendre que décider c’est créer l’avenir et non pas répéter le passé. L’expérience permet de savoir quand il est nécessaire de s’écarter des chemins déjà tracés, ou quand une évidence provenant du passé deviendrait une erreur si elle était projetée dans le futur. Les plus grandes évolutions juridiques créatrices des droits fondamentaux qui fondent nos sociétés n’auraient jamais été possibles si les jugements ou décisions avaient été rendues par des IA, justement par ce que ces évolutions sont le fruit de décisions qui ont voulu rompre avec ce qui existait déjà.

En réalité, l’IA met sur le devant de la scène l’importance de la qualité de la prise de décision, fruit de l’expérience et de la volonté créatrice. Elle valorise la qualité du jugement humain. Et elle nous renvoie à un texte fondateur de la culture occidentale. Dans l’Odyssée, Ulysse connaît le jugement des dieux et le déterminisme qu’il impose. Il choisit de s’en départir et de tracer son propre chemin, dans un voyage qui ne cesse de nous inspirer 3 000 ans après. Finalement, le principal mérite de l’IA est de nous rappeler que nous sommes humains.

Gianmarco Monsellato, Avocat, Ancien dirigeant de Deloitte-Taj, Senior Partner Deloitte

1234



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol