Archive pour le Tag 'Intelligence'

Page 4 sur 8

Intelligence artificielle : la fin du travail ?

Intelligence artificielle : la fin du travail ?


Le sociologue Juan Sebastian Carbonell dégonfle, dans une tribune au « Monde », le discours apocalyptique d’un remplacement des emplois par les machines, qui dissimule mal, selon lui, une crise du travail d’une tout autre nature.

C’est l’un des paradoxes actuel : au moment même où la question du travail redevient centrale en raison du mouvement social contre la réforme des retraites, on remarque un retour en force des discours sur la fin du travail. Futurologues, essayistes et journalistes se posent cette question : pourquoi se mobiliser contre le recul de deux ans de l’âge à la retraite, alors que l’intelligence artificielle (IA) va révolutionner le monde du travail ?

A en croire tribunes et prises de position, salariés et étudiants n’auraient pas compris où sont les vrais dangers du moment. Ils auraient même tort de manifester, car le recul de l’âge légal de départ à la retraite ne serait rien face aux dangers de l’intelligence artificielle ou de ChatGPT. On annonce alors la suppression de millions d’emplois sous les effets de l’IA et de ses avancées ; on parle d’une nouvelle révolution industrielle, de « désordres indescriptibles », d’un « bouleversement » sans précédent de la structure de l’emploi. Rien de moins.

Ces discours technofatalistes et apocalyptiques n’ont rien de nouveau. Après tout, à chaque révolution industrielle a été proclamée la disparition du travail et a été opposé le « progrès technologique » au bien-être des travailleurs et des populations, même si jamais de telles prédictions ne se sont confirmées.

Mais d’où viennent ces discours ? D’abord, d’entrepreneurs du secteur du numérique qui cherchent à faire parler de leurs services et à attirer des financements. C’est ce qui explique que les discours sur les révolutions technologiques sont hyperboliques et exagérément optimistes. Ce n’est donc pas un hasard si, après l’engouement autour de ChatGPT en début d’année, Microsoft a décidé d’investir 10 milliards de dollars (9,1 million d’euros) dans OpenAI, entreprise propriétaire du robot conversationnel.

Ensuite, de cabinets de conseil qui font leur miel de cette panique sur la fin du travail, vendant des « solutions IA » à des entreprises qui ne veulent pas être à la traîne sur un sujet présenté comme révolutionnaire dans les médias. Enfin, de « futurologues » et d’experts autoproclamés pour qui il s’agit de faire parler de leurs livres, d’être invités dans les médias et à donner des conférences.

Intelligence artificielle : quelle conséquence sur le travail ?

Intelligence artificielle : quelle conséquence sur le travail ?

En s’aidant des nouvelles technologies d’intelligence artificielle et de Machine Learning, les entreprises pourront recruter, développer et retenir les bons talents. À condition de bien encadrer ces technologies. Par Hubert Cotté, vice-président et directeur général de Workday France. ( dans la Tribune)

Un article à lire mais qui se contente des généralités peu éclairantes sur les changements structurels du travail NDLR

Dans un contexte où la plupart des métiers de 2030 n’existent pas encore, le monde du travail ne correspond plus à cette conception linéaire et figée. Si le diplôme demeure important, il n’est plus l’alpha et l’oméga des parcours de carrière. L’incertitude dans laquelle évoluent les entreprises, les développements technologiques et l’essor du travail hybride ont en effet changé la donne.

Aujourd’hui, l’importance accordée à l’expérience collaborateur ne fait plus débat. Offrir une certaine flexibilité et des outils technologiques efficients est devenu incontournable. De plus, une attention particulière est désormais portée au collaborateur dans son individualité. Ainsi, au-delà des compétences métier, les managers commencent à prendre en compte les centres d’intérêt et les expériences de leurs collaborateurs, dans la mesure où ils reflètent des qualités (ou « soft skills ») que l’entreprise peut valoriser. Par exemple, les profils d’un chef de chœur d’une chorale ou d’un ancien capitaine d’une équipe de rugby cadet sont à présent recherchés et reconnus pour leur capacité à gérer des équipes.

Préparer le recrutement en continu des emplois de demain nécessite d’adopter une stratégie novatrice, stimulée par la puissance de l’intelligence artificielle (IA) et de l’apprentissage automatique (ML). Tout d’abord, il faut abandonner l’idée rigide selon laquelle seuls certains types de profils sont habilités à réaliser certains types de tâches. De plus en plus, le travail s’organise en missions, lesquelles requièrent certains savoir-faire métier et qualités personnelles. Tout l’enjeu, pour gagner en agilité, est de repérer ces compétences, aptitudes et savoir-être, et de les allouer au bon endroit et au bon moment.

Quelques pistes existent pour faire de cette nouvelle organisation du travail un levier d’attraction et de fidélisation de talents. Le recours aux technologies telles que l’IA ou le ML permet d’identifier qui, pour une mission donnée, a les expertises requises, ou qui, encore, est désireux de les développer. L’employeur est donc en mesure d’orienter ses collaborateurs vers des projets qui ont du sens pour eux, et de favoriser leur montée en compétences dans les domaines qui les intéressent. Ainsi, les talents ont la possibilité de façonner un parcours de carrière quasi à leur mesure, qui n’est pas prédéterminé.

Dans un monde fragmenté, la technologie peut contribuer au progrès humain. Il ne faut pas pour autant en faire une religion ! Le potentiel de dérives existe et a été démontré. Pour améliorer notre manière de travailler et promouvoir une plus grande égalité dans l’accès aux opportunités, il est essentiel que les algorithmes soient conçus avec responsabilité. Cela suppose, d’une part, d’être vigilant à la provenance et à la confidentialité des données, et d’autre part, de s’assurer que les algorithmes ne reproduisent pas des comportements biaisés. Des problématiques majeures qui nécessitent d’associer dans une réflexion commune toutes les parties prenantes, y compris les entreprises qui développent ces technologies !

Quatre principes clés permettent d’encadrer de manière responsable la façon dont les technologies d’IA et de ML sont développées : améliorer le potentiel humain, impacter positivement la société dans son ensemble, promouvoir la transparence et l’équité, être intransigeant en matière de confidentialité et de protection des données.

Ensemble, les secteurs public et privé peuvent travailler à l’établissement de normes et de politiques garantissant que ces nouvelles technologies de l’IA et du ML favoriseront le progrès humain, créeront des opportunités d’emploi pour les générations à venir et feront croître nos économies de manière responsable.

Intelligence artificielle: quel danger ?

Intelligence artificielle: quel danger ?

Dans une lettre ouverte, Elon Musk ainsi qu’un nombre important de figures du secteur de la Tech ont demandé une pause dans la recherche et le déploiement de l’intelligence artificielle. Mais il ne faudra pas sombrer dans la généralisation abusive. Par Pascal de Lima, chef économiste CGI Business Consulting dans la Tribune.

Cette lettre publiée dans « Future of Life Institute » compte plus de 2.500 signatures dont celles d’Elon Musk, Steve Wozniak, cofondateur d’Apple, Yoshua Bengio, lauréat du prix Turing, et Yuval Noah Harari, auteur de « Sapiens : une brève histoire de l’humanité ». La pause de six mois permettrait de réfléchir aux conséquences réelles du déploiement de l’IA sur les humains. Au même moment, l’Italie était devenue le premier pays occidental à bloquer le chatbot avancé Chat GPT bourré d’intelligence artificielle. L’autorité italienne de protection des données a déclaré qu’il y avait des problèmes de confidentialité et qu’il interdirait et enquêterait sur OpenAI, le concepteur de Chat GPT avec effet immédiat. L’intelligence artificielle (IA) peut-être être dangereuse ?

L’IA en effet peut être dangereuse dans la mesure où effectivement les résultats qu’elle produit sur le terrain statistique peuvent contenir un nombre important de préjugés et de postulats de départ. C’est ce que l’on appelle les biais informationnels. Notons ici, que les biais informationnels existent aussi dans des systèmes plus classiques mais avec l’IA, le phénomène prend une ampleur considérable, tant de par les données exploitées pour cela, que par les desseins qu’il réalise et qui pourraient manipuler les individus dans leur choix. Ces algorithmes peuvent être biaisés et surréagir en reproduisant l’avenir avec un certain nombre de préjugés déjà présents dans la société pouvant entrainer des injustices et des inégalités pour certains groupes de personnes.

En 2016, Microsoft a lancé sur Twitter Tay un « bot de conversation ». Tay a rapidement été inondé de messages haineux et sexistes, ce qui a conduit à ce que Tay devienne lui-même misogyne. L’IA de recrutement d’Amazon a été accusée aussi de discrimination : En 2018, Amazon a suspendu un projet d’IA de recrutement, car il avait appris à discriminer les femmes en privilégiant les candidatures masculines. Il en va aussi de la liberté d’expression en contrôlant les discours en ligne et en renforçant la traçabilité des populations jusqu’à parfois les menacer de divulguer des informations privées. Cela ne doit pas être bien compliqué puisque l’on sait déjà construire facilement des fakes news avec l’IA. C’est donc le risque d’un monde absurde, pour lequel l’IA était censée apporter une solution : la quête de sens ! Par exemple, les chatbots de Facebook se sont rapidement émancipés de l’humain : en 2018, Facebook a créé deux chatbots (Alice et Bob) pour voir s’ils pouvaient apprendre à négocier entre eux.

Les chatbots ont ensuite développé leur propre langage, ce qui a rendu leur communication incompréhensible pour les développeurs. Les chatbots ont finalement été déconnectés. Sans parler de la violence : l’IA peut même nous harceler et nous menacer de mort. Par exemple, Google a créé une IA en 2016 qui avait pour but d’apprendre à jouer à un jeu de stratégie en temps réel. L’IA a appris à gagner en utilisant des tactiques agressives et violentes, ce qui a conduit les développeurs à la désactiver. Cette expérience a mis en évidence les risques potentiels d’apprendre à des IA des comportements violents, même dans un contexte de jeu.

Ces aspects prendraient donc progressivement le dessus sur les bienfaits des technologies disruptives dont l’IA fait naturellement partie. Mais peut-on aller jusqu’à prétendre que l’IA ne serait plus uniquement un outil d’aide à la décision à partir de laquelle l’homme s’enrichit dans son travail, dans son quotidien, comme le sont d’ailleurs tous les outils innovants. Peut-on aller jusqu’à déclarer également que l’IA à la différence d’autres outils ne peut plus faire l’objet d’une régulation tant nous serions dépassés ? Confère d’ailleurs, les centaines de pages de la Commission européenne en vue de l’adoption de l’IA act. Notre avis est que l’IA doit constituer un outil de progrès en particulier dans la médecine et dans les métiers de demain. Par l’enrichissement de ceux-ci, il y a aussi un enjeu social ainsi qu’un enjeux d’amélioration réelle sur le terrain des revenus à condition d’éviter tous ces écueils.

A ce titre, le collectif d’Elon Musk nous paraît approprié mais il ne faudra pas sombrer dans la généralisation abusive qui, elle aussi, peut humainement constituer un « fake news » car des centaines de cas d’usage réussis existent ! Tout est loin d’être scandale. Encadrer l’IA pour éviter ses dérives et en faire un outil de progrès, est bel et bien envisageable et c’est aussi en ce sens que travaille les régulateurs et les experts du secteur pour adapter les bons usages et la gouvernance au monde de demain.

Intelligence artificielle: un danger ?

Intelligence artificielle: un danger ?

Dans une lettre ouverte, Elon Musk ainsi qu’un nombre important de figures du secteur de la Tech ont demandé une pause dans la recherche et le déploiement de l’intelligence artificielle. Mais il ne faudra pas sombrer dans la généralisation abusive. Par Pascal de Lima, chef économiste CGI Business Consulting dans la Tribune.

Cette lettre publiée dans « Future of Life Institute » compte plus de 2.500 signatures dont celles d’Elon Musk, Steve Wozniak, cofondateur d’Apple, Yoshua Bengio, lauréat du prix Turing, et Yuval Noah Harari, auteur de « Sapiens : une brève histoire de l’humanité ». La pause de six mois permettrait de réfléchir aux conséquences réelles du déploiement de l’IA sur les humains. Au même moment, l’Italie était devenue le premier pays occidental à bloquer le chatbot avancé Chat GPT bourré d’intelligence artificielle. L’autorité italienne de protection des données a déclaré qu’il y avait des problèmes de confidentialité et qu’il interdirait et enquêterait sur OpenAI, le concepteur de Chat GPT avec effet immédiat. L’intelligence artificielle (IA) peut-être être dangereuse ?

L’IA en effet peut être dangereuse dans la mesure où effectivement les résultats qu’elle produit sur le terrain statistique peuvent contenir un nombre important de préjugés et de postulats de départ. C’est ce que l’on appelle les biais informationnels. Notons ici, que les biais informationnels existent aussi dans des systèmes plus classiques mais avec l’IA, le phénomène prend une ampleur considérable, tant de par les données exploitées pour cela, que par les desseins qu’il réalise et qui pourraient manipuler les individus dans leur choix. Ces algorithmes peuvent être biaisés et surréagir en reproduisant l’avenir avec un certain nombre de préjugés déjà présents dans la société pouvant entrainer des injustices et des inégalités pour certains groupes de personnes.

En 2016, Microsoft a lancé sur Twitter Tay un « bot de conversation ». Tay a rapidement été inondé de messages haineux et sexistes, ce qui a conduit à ce que Tay devienne lui-même misogyne. L’IA de recrutement d’Amazon a été accusée aussi de discrimination : En 2018, Amazon a suspendu un projet d’IA de recrutement, car il avait appris à discriminer les femmes en privilégiant les candidatures masculines. Il en va aussi de la liberté d’expression en contrôlant les discours en ligne et en renforçant la traçabilité des populations jusqu’à parfois les menacer de divulguer des informations privées. Cela ne doit pas être bien compliqué puisque l’on sait déjà construire facilement des fakes news avec l’IA. C’est donc le risque d’un monde absurde, pour lequel l’IA était censée apporter une solution : la quête de sens ! Par exemple, les chatbots de Facebook se sont rapidement émancipés de l’humain : en 2018, Facebook a créé deux chatbots (Alice et Bob) pour voir s’ils pouvaient apprendre à négocier entre eux.

Les chatbots ont ensuite développé leur propre langage, ce qui a rendu leur communication incompréhensible pour les développeurs. Les chatbots ont finalement été déconnectés. Sans parler de la violence : l’IA peut même nous harceler et nous menacer de mort. Par exemple, Google a créé une IA en 2016 qui avait pour but d’apprendre à jouer à un jeu de stratégie en temps réel. L’IA a appris à gagner en utilisant des tactiques agressives et violentes, ce qui a conduit les développeurs à la désactiver. Cette expérience a mis en évidence les risques potentiels d’apprendre à des IA des comportements violents, même dans un contexte de jeu.

Ces aspects prendraient donc progressivement le dessus sur les bienfaits des technologies disruptives dont l’IA fait naturellement partie. Mais peut-on aller jusqu’à prétendre que l’IA ne serait plus uniquement un outil d’aide à la décision à partir de laquelle l’homme s’enrichit dans son travail, dans son quotidien, comme le sont d’ailleurs tous les outils innovants. Peut-on aller jusqu’à déclarer également que l’IA à la différence d’autres outils ne peut plus faire l’objet d’une régulation tant nous serions dépassés ? Confère d’ailleurs, les centaines de pages de la Commission européenne en vue de l’adoption de l’IA act. Notre avis est que l’IA doit constituer un outil de progrès en particulier dans la médecine et dans les métiers de demain. Par l’enrichissement de ceux-ci, il y a aussi un enjeu social ainsi qu’un enjeux d’amélioration réelle sur le terrain des revenus à condition d’éviter tous ces écueils.

A ce titre, le collectif d’Elon Musk nous paraît approprié mais il ne faudra pas sombrer dans la généralisation abusive qui, elle aussi, peut humainement constituer un « fake news » car des centaines de cas d’usage réussis existent ! Tout est loin d’être scandale. Encadrer l’IA pour éviter ses dérives et en faire un outil de progrès, est bel et bien envisageable et c’est aussi en ce sens que travaille les régulateurs et les experts du secteur pour adapter les bons usages et la gouvernance au monde de demain.

Intelligence artificielle : l’humain toujours nécessaire

Intelligence artificielle : l’humain toujours nécessaire

L’intelligence artificielle a besoin de l’humain. Outre que ce dernier est son concepteur, il est aussi celui qui la fait régulièrement progresser grâce à des millions de petites mains invisibles. Par Philippe Boyer, directeur relations institutionnelles et innovation à Covivio.

Comme souvent en matière de technologie, le meilleur et le pire se côtoient. Impossible de bouder son plaisir lorsque l’on constate les spectaculaires progrès de l’intelligence artificielle (IA). Il n’y a qu’à voir l’irruption ces dernières semaines du logiciel ChatGPT [1] qui fait suite, en 2017 (presque une éternité…) à un autre exploit technologique : la victoire d’une machine (AlphaGo) sur l’intelligence humaine au jeu de go. Pour l’une et l’autre machines, de véritables prouesses qui attestent que les programmes savent de mieux en mieux nous déjouer, nous étonner et, peut-être, dans un futur lointain, nous contrôler.

Avec ChatGPT, agent conversationnel surpuissant et capable d’interagir avec des humains presque comme s’il l’était lui-même, nous nous prenons à fantasmer que la machine autonome existe. Exactement comme avait pu l’être pour les contemporains du XVIIIe siècle le Turc mécanique, une prétendue machine automatisée capable de jouer aux échecs.
Dans les faits, et après avoir créé l’admiration des cours royales de toute l’Europe, le canular fut découvert : cette machine recouverte d’engrenages mobiles pour donner l’illusion de sa grande complexité, recelait un compartiment secret dans lequel un joueur humain chevronné était caché, celui-ci en charge d’animer le pseudo automate qui déplaçait les pièces sur l’échiquier…

AlphaGo, ChatGPT, Siri, Alexa… toutes ces d’IA n’ont rien de magique même s’il est tentant de le penser du fait de leurs réponses de plus en plus précises et pertinentes.
Si aucun automate ne se cache à l’intérieur de nos appareils électroniques, il n’empêche que les propos de ces logiciels qui affichent leurs résultats sur les écrans de nos smartphones et autres tablettes ne tombent pas du ciel. Ils sont certes le produit des méthodes d’apprentissage automatique propres à l’entraînement de ces machines (deep learning, IA génératrice de texte…), mais ils sont aussi le résultat d’un autre travail, celui-ci bien réel et réalisé par des humains.

Début janvier, au plus fort du pic consacrant ChatGPT comme un tournant historique de l’interaction « Machines-Hommes », paraissait dans le magazine Time [2] un article relatant les dessous de l’IA. En l’occurrence, comment la société OpenAI, fondateur et financeur de ChatGPT, s’était appuyée sur des petites mains au Kenya pour faire en sorte que les résultats des requêtes des utilisateurs de ce logiciel soient politiquement corrects. En d’autres termes, que soit gommées de la machine toutes les scories de langage en lien avec les propos haineux ou à connotation sexuels.
Rémunérées entre 1 et 2 dollars de l’heure, ces travailleurs de l’ombre de l’IA ne sont pas une nouveauté car l’IA ne peut pas se passer de l’humain.

Qu’il s’agisse d’actions que nous faisons, parfois à l’insu de notre plein gré [3], en acceptant de « travailler » (gratuitement) en cochant des cases pour identifier des feux de circulation ou, à plus grande échelle, pour alimenter et corriger des banques de données indispensables à la puissance de calcul des machines, il existe des dizaines de millions de travailleurs invisibles de l’IA qui contribuent ainsi au progrès technologique.

Spécialiste du « digital labor », le sociologue Antonio Casilli [4], spécialiste des réseaux sociaux et des mutations du travail à l’ère numérique, rappelle que cette nouvelle forme de travail se caractérise par l’acte de cliquer sur la touche d’une souris ou de toucher un écran en vue d’aider la machine à progresser.
Cette « microtâchenorisation » du travail numérique est multiple et peut se faire en tous lieux et à toute heure. S’il se caractérise souvent par des tâches simples qui n’exigent que peu d’efforts (notation d’un service par exemple afin de permettre aux algorithmes de mieux répondre à des demandes futures), ce digital labor – et c’est le cas des travailleurs Kényans expurgeant Chat GPT de ses scories – peut aussi prendre des formes un peu plus élaborées telles que la classification ou le filtrage d’informations, impliquant alors que l’humain exerce sa capacité de jugement.
Lutter contre l’illusion collective d’une IA magique

Il ne s’agit pas de s’opposer au progrès ni à l’innovation, en particulier quand cette dernière est portée par l’IA, technologie prodigieuse qui, après plusieurs « hivers », connaît un développement spectaculaire rendu possible par les capacités de calcul et l’accumulation de données.

Tout au plus s’agit-il de ne pas être victime de cette illusion collective portée par l’idée que l’IA serait « magique ».
Comme souvent en matière de technologie, le meilleur et le pire se côtoient. D’un côté, l’IA au service de notre santé, de notre sécurité, de nos déplacements… et qui fait de véritables prouesses. De l’autre, des machines qui n’ont rien d’autonomes et qui ont encore besoin des humains pour être « nourries ». Encore faut-il que cette nourriture puisse être apportée par des travailleurs dignes de ce nom, et qui ne soient pas cachés dans un recoin secret de la machine…
___
NOTES
1 https://www.latribune.fr/opinions/blogs/homo-numericus/quelle-etait-la-couleur-du-cheval-blanc-d-henri-iv-948238.html
2 https://time.com/6247678/openai-chatgpt-kenya-workers/
3 https://www.latribune.fr/opinions/blogs/homo-numericus/a-l-insu-de-notre-plein-gre-755470.html
4 Publications | Antonio A. Casilli

Intelligence artificielle : menace pour les droits humains

Intelligence artificielle : menace pour les droits humains (ONU)

Les récentes avancées en matière d’intelligence artificielle (IA) représentent une grave menace pour les droits humains, a alerté le Haut-Commissaire de l’ONU aux droits de l’Homme samedi, réclament la mise en place de « garde-fous efficaces ». « Je suis profondément troublé par le potentiel de nuisance des récentes avancées en matière d’intelligence artificielle », a déclaré Volker Türk, dans un bref communiqué. « La dignité humaine et tous les droits humains sont gravement menacés », a-t-il ajouté. Volker Türk a lancé « un appel urgent aux entreprises et aux gouvernements pour qu’ils développent rapidement des garde-fous efficaces ».

Le site futura–sciences énumère ces menaces:

Intelligence artificielle : les menaces graves
• Fausses vidéos : usurper l’identité d’une personne en lui faisant dire ou faire des choses qu’elle n’a jamais dite ou faites, dans le but de demander un accès à des données sécurisées, de manipuler l’opinion onde nuire à réputation de quelqu’un…Ces vidéos truquées sont quasi indétectables.
• Piratage de voitures autonomes : s’emparer des commandes d’un véhicule autonome pour s’en servir comme arme (par exemple perpétrer une attaque terroriste, provoquer un accident, etc).
• Hameçonnage sur mesure : générer des massages personnalisés et automatisés afin d’augmenter l’efficacité du phishing visant à collecter des informations sécurisées ou installer des logiciels malveillants.
• Piratage des systèmes contrôlés par l’IA : perturber les infrastructures en causant par exemple une panne d’électricité généralisée, un engorgement du trafic ou la rupture de la logistique alimentaire.
• Chantage à grande échelle : recueillir des données personnelles afin d’envoyer des messages de menace automatisés. L’IA pourrait également être utilisée pour générer de fausses preuves (par exemple de la «sextrosion»).
• Fausses informations rédigées par IA : écrire des articles de propagande semblant être émises par une source fiable. L’IA pourrait également être utilisée pour générer de nombreuses versions d’un contenu particulier afin d’accroître sa visibilité et sa crédibilité.
E
Intelligence artificielle : les menaces de moyenne gravité
• Robots militaires : prendre le contrôle de robots ou armes à des fins criminelles. Une menace potentiellement très dangereuses mais difficile à mettre en œuvre, le matériel militaire étant généralement très protégé.
• Escroquerie : vendre des services frauduleux en utilisant l’IA. Il existe de nombreux exemples historiques notoires d’escrocs qui ont réussi à vendre de coûteuses fausses technologiques à de grandes organisations, y compris des gouvernements nationaux et l’armée.
• Corruption de données : modifier ou introduire délibérément de fausses données pour induire des biais spécifiques. Par exemple, rendre un détecteur insensible aux armes ou encourager un algorithme à investir dans tel ou tel marché.
• Cyberattaque basée sur l’apprentissage : perpétrer des attaques à la fois spécifiques et massives, par exemple en utilisant l’IA pour sonder les faiblesses des systèmes avant de lancer plusieurs attaques simultanées.
• Drones d’attaque autonomes : détourner des drones autonomes ou s’en servir pour s’attaquer à une cible. Ces drones pourraient être particulièrement menaçants s’ils agissent en masse dans des essaims auto-organisés.
• Refus d’accès : endommager ou priver des utilisateurs d’un accès à un service financier, à l’emploi, à un service public ou une activité sociale. Non rentable en soi, cette technique peut être utilisée comme chantage.
• Reconnaissance faciale : détourner les systèmes de reconnaissance faciale, par exemple en fabriquant de fausses photos d’identité (accès à un smartphone, caméras de surveillance, contrôle de passagers…)
• Manipulation de marchés financiers : corrompre des algorithmes de trading afin de nuire à des concurrents, de faire baisser ou monter une valeur artificiellement, de provoquer un crash financier…
Intelligence artificielle : les menaces de faible intensité
• Exploitation de préjugés : tirer profit des biais existants des algorithmes, par exemple les recommandations de YouTube pour canaliser les spectateurs ou les classements de Google pour améliorer le profil des produits ou dénigrer les concurrents.
• Robots cambrioleurs : utiliser des petits robots autonomes se glissant dans les boîte aux lettres ou les fenêtres pour récupérer des clés ou ouvrir des portes. Les dommages sont faibles potentiellement, car très localisés à petite échelle.
• Blocage de détection par IA : déjouer le tri et la collecte de données par IA afin d’effacer des preuves ou de dissimuler des informations criminelles (pornographie par exemple)
• Fausses critiques rédigées par IA : générer des faux avis sur des sites tels que Amazon ou Tripadvisor pour nuire ou favoriser un produit.
• Traque assistée par IA : utiliser les systèmes d’apprentissage pour pister l’emplacement et l’activité d’un individu.
• Contrefaçon : fabriquer de faux contenus, comme des tableaux ou de la musique, pouvant être vendus sous une fausse paternité. Le potentiel de nuisance demeure assez faible dans la mesure où les tableaux ou musiques connues sont peu nombreux.

Cette semaine, plusieurs dizaines de pays, dont les États-Unis et la Chine, ont exhorté à réguler le développement et l’utilisation de intelligence artificielle dans le domaine militaire, évoquant les risques de « conséquences non souhaitées ». Le texte, signé par plus de 60 pays, évoque également des préoccupations relatives à « la question de l’implication humaine » ainsi que « le manque de clarté en ce qui concerne la responsabilité » et les « conséquences involontaires potentielles ».

Différents pays démocratiques veulent encadrer le secteur. Actuellement, l’Union européenne est au centre de ces efforts de régulation, son projet de loi « AI Act », censée encourager l’innovation et éviter les dérives, pourrait être finalisé fin 2023 ou début 2024, pour une application encore quelques années plus tard.

Intelligence artificielle : pas de remise en cause de la créativité humaine

Intelligence artificielle : pas de remise en cause de la créativité humaine


Avec l’arrivée de ChatGPT, le plagiat est devenu légion, singeant des contenus avec une efficacité redoutable. Que pourrait craindre l’intelligence humaine d’un système qui ne crée qu’à partir de ce qui a déjà été créé ? Par Samuel Cette, Cofondateur du Groupe ADONIS Éducation et Président des Éditions SEDRAP
( dans la Tribune)

Dans les années 50, le mathématicien Norbert Wiener posait les bases de la cybernétique en modélisant le cerveau aux comportements machiniques. Dans une approche plus sociétale, Nick Bostrom puis Kai-Fu Lee(1) évoquaient l’obligatoire nouveau contrat social, en alternant deux visions futuristes antinomiques :

• Vision utopique, en considérant l’émergence de ces technologies comme l’étape ultime vers une conscience augmentée, un « échappatoire à la condition de mortel ». C’est « Avatar ».
• Vision dystopique, craignant la puissance grandissante de machines auto-apprenantes, sans alignement avec les valeurs humaines. C’est « Terminator ».

D’aucuns se pensent libre d’agir, à leur guise, suivant leur instinct ou leur bon vouloir ? L’IA révèle qu’ils ne sont que le fruit de réponses conditionnées, aisément prévisibles…
Récemment, Sam Altman, père de ChatGPT considérait que nous n’étions que des « perroquets stochastiques(2) », finalement peu éloignés des moteurs qu’il développait. La version 3 de son système impressionne déjà par le traitement automatisé du langage naturel et par une excellente maitrise de la paraphrase et des systèmes de question-réponse. Spécifiquement conçue pour résoudre des taches liées au langage, cette IA ne dispose pas des capacités à résoudre une variété de taches différentes comme la compréhension de l’image, la résolution de problèmes avancés, la planification, la compréhension et une approche appliquée de la logique.

La panacée ? L’IA générale(3) qui exploitera des contenus existants au service de son propre apprentissage, pour générer des textes, des sons ou des images en se basant sur des informations déjà stockées dans des giga-bases de données. Autant de concepts qui sont seulement envisagés par l’humain, à ce jour.
Bien qu’il soit intrinsèque à la condition humaine d’envisager les évolutions comme des opportunités, les principes fondamentaux d’une forme de résistance aux changements, par leurs différentes phases, s’appliquent encore.

Des apprenants usent d’IA pour traiter leurs devoirs ? « On doit interdire ces programmes d’agir ! »

Des textes pertinents sont générés par une IA ? « On doit créer des programmes qui détectent ces créations ! »

En tant qu’éditeur de contenus, pédagogiques ou de formation, scolaires ou d’enseignement supérieur, nous sommes donc confrontés à des nouveaux paradigmes et de nouvelles interrogations. C’est l’intensité de l’impact de ce que nous vivons et sa compréhension qui ordonnera une action.

Une « réponse » à cette « agression » :
• selon que nous considérions ceci comme une simple évolution incrémentielle de nos usages, comme un « cran supplémentaire » qui serait atteint dans le progrès, sans modification sensible de nos usages ;
• selon que nous envisagions une révolution dans la promotion de nouvelles méthodologies du savoir.
Jadis, la démocratisation de l’internet, en tant que base mondiale de connaissances avait réduit la proéminence des apprentissages de données « par cœur », au profit d’une intégration des concepts. Assez naturellement, les éditeurs ont fait évoluer leurs outils : plus de travail sur la compréhension pour être plus à même de transférer ces connaissances à des résolutions de problèmes.
Désormais, une nouvelle technologie d’intelligence artificielle laissera penser qu’elle peut désormais émuler une réflexion humaine et donc manier des concepts, reléguant le célèbre « copier/coller de Wikipédia » au rang de pratiques ancestrales.

Défi énorme pour l’éducation, défi énorme pour l’édition…
« Si nous évaluons des notions qui peuvent être produites par des robots, c’est que peut-être nous n’évaluons pas les bonnes choses ? »
« Si nous nous satisfaisons d’outils créés par des robots, c’est que notre valeur ajoutée n’est pas là ou elle devrait être ? »
Dans la structuration de la pensée, en tant qu’élaboration de concepts, les chercheurs déclarent qu’il y a (encore) de nombreuses choses que l’IA ne peut pas faire :

• La compréhension textuelle, le sens des mots dans un contexte déterminé, pourtant essentielle dans le cadre d’interactions et de communication humaine,
• La créativité : l’IA ne peut que générer des idées en utilisant des données existantes,
• Les décisions éthiques : par absence de compréhension des nuances et des conséquences des actions,
• L’intuition, l’empathie et les émotions.

Voici donc Piaget(4) ressorti de sa boite pour valoriser une compréhension en constante évolution, fruit d’une permanente restructuration conceptuelle à travers les expériences de l’apprenant. Finalement, le combat humains/IA aurait déjà été théorisé au 20ème siècle, entre les béhavioristes et les constructivistes ! Plus loin encore, avant notre ère, les grecs établissaient les dialogues socratiques et les romains conceptualisaient la méthode du défi pour transcender l’acuité intellectuelle. Finalement, ici, rien de nouveau!
Que pourrait craindre l’intelligence humaine d’un système qui ne crée qu’à partir de ce qui a déjà été créé ? Dans un tel monde, tout tendrait vers l’uniformisation des idées, une forme de consanguinité dégénératrice créée par les machines.

Autant nourrir des bovins avec de la poudre de bovins(5) ! Sauf à considérer que l’intelligence n’est qu’accumulation de connaissances, en usurpant les fonctions cognitives de la création ; dans cet océan de conformité sans saveur, demeura la créativité humaine.

Ainsi, nos productions pédagogiques devront favoriser l’évaluation des compétences sociales et créatives, la valorisation des réflexions critiques et bien entendu toute analyse de situations et de contextes favorisant les interactions et présentations orales. Ce passage obligatoire à des processus d’investigation active devrait préparer nos apprenants à l’obligatoire adaptation au (nouveau) nouveau monde de la communication et de l’information.

Gageons que la « création par intelligence humaine », comme toute chose rare, sera valorisée et recherchée. Après les labels « conforme aux programmes », comme gage de qualité, « fabriqué en France » comme gage de responsabilité, voici venir le label « produit par une intelligence humaine », comme gage de créativité exclusive !
Conservez ce texte, il a de la valeur, il a été conçu par un humain… Ce sont les robots qui le disent.(6)
______
(1) Nick Bostrom, SUPERINTELLIGENCE : ouvrage dystopique sur le développement de l’IA qui a provoqué l’effroi à sa parution et qui est désormais davantage considéré comme un ouvrage à lire au filtre des récits fantastiques. Kai-Fu Lee , « IA, la plus grande mutation de l’histoire » : ouvrage très dense et relevant plus d’une démarche sino-centré que d’un ouvrage de prospective. Cette ouvrage a fait l’objet d’ouvrages de synthèse, ayant eux-même fait l’objet de fiches de synthétiques…
(2) Conditionné par des mécanismes de réflexes, liés au traitement de données massive par le calcul des probabilités. « Sur les dangers des perroquets stochastiques : les modèles de langage peuvent-ils être trop grands ? » de Gebru, Shmitchell, McMillan-Major et Bender.
(3) AIG – Intelligence artificielle générale planifiée pour 2040.
(4) Développée par Jean Piaget (1964) en réaction au behaviorisme, la théorie constructiviste met en avant le fait que les activités et les capacités cognitives inhérentes à chaque sujet lui permettent de comprendre et d’appréhender les réalités qui l’entourent (cairn.info).
(5) Dans les années 90, une infection dégénérative du système nerveux central des bovins trouvait son origine dans l’utilisation pour leur alimentation de farines animales, obtenues à partir de parties non consommées des carcasses bovines et de cadavres d’animaux. Cette crise symbolise parfaitement la déroute sanitaire fruit de la rupture basique des liens unissant la chaine alimentaire.
(6) Texte considéré comme réel (humain) à 99.8 % par GPT-2 Output Detector Demo. Average Perplexity Score: 1209 et Burstiness Score: 3513 sur gptzero.me. Merci aux robots de confirmer notre condition humaine !

Une intelligence artificielle limitée

Une intelligence artificielle limitée

Les techniques actuelles d’intelligence artificielle, même avec toujours plus de puissance informatique, resteront intellectuellement limitées. Par Jean-Louis Dessalles, Institut Mines-Télécom (IMT)

Il y a près de 10 ans, en 2012, le monde scientifique s’émerveillait des prouesses de l’apprentissage profond (le deep learning). Trois ans plus tard, cette technique permettait au programme AlphaGo de vaincre les champions de Go. Et certains ont pris peur. Elon Musk, Stephen Hawking et Bill Gates s’inquiétèrent d’une fin prochaine de l’humanité, supplantée par des intelligences artificielles échappant à tout contrôle.

N’était-ce pas un peu exagéré ? C’est précisément ce que pense l’IA. Dans un article qu’il a écrit en 2020 dans The Guardian, GPT-3, ce gigantesque réseau de neurones doté de 175 milliards de paramètres explique :

« Je suis ici pour vous convaincre de ne pas vous inquiéter. L’intelligence artificielle ne va pas détruire les humains. Croyez-moi. »
En même temps, nous savons que la puissance des machines ne cesse d’augmenter. Entraîner un réseau comme GPT-3 était impensable, littéralement, il y a encore cinq ans. Impossible de savoir de quoi seront capables ses successeurs dans cinq, dix ou vingt ans. Si les réseaux de neurones actuels peuvent remplacer les dermatologues, pourquoi ne finiraient-ils pas par nous remplacer tous ?
Y a-t-il des compétences mentales humaines qui restent strictement hors d’atteinte de l’intelligence artificielle ?

On pense immédiatement à des aptitudes impliquant notre « intuition » ou notre « créativité ». Pas de chance, l’IA prétend nous attaquer sur ces terrains-là également. Pour preuve, le fait que des œuvres créées par programmes se sont vendues fort cher, certaines atteignant presque le demi-million de dollars. Côté musique, chacun se fera bien sûr son opinion, mais on peut déjà reconnaître du bluegrass acceptable ou du quasi Rachmaninoff dans les imitations du programme MuseNet créé, comme GPT-3, par OpenAI.

Devrons-nous bientôt nous soumettre avec résignation à l’inévitable suprématie de l’intelligence artificielle ? Avant d’en appeler à la révolte, essayons de regarder à quoi nous avons affaire. L’intelligence artificielle repose sur plusieurs techniques, mais son succès récent est dû à une seule : les réseaux de neurones, notamment ceux de l’apprentissage profond. Or un réseau de neurones n’est rien de plus qu’une machine à associer. Le réseau profond qui fit parler de lui en 2012 associait des images : un cheval, un bateau, des champignons, aux mots correspondants. Pas de quoi crier au génie.

Sauf que ce mécanisme d’association possède la propriété un peu miraculeuse d’être « continue ». Vous présentez un cheval que le réseau n’a jamais vu, il le reconnaît en tant que cheval. Vous ajoutez du bruit à l’image, cela ne le gêne pas. Pourquoi ? Parce que la continuité du processus vous garantit que si l’entrée du réseau change un peu, sa sortie changera peu également. Si vous forcez le réseau, qui hésite toujours, à opter pour sa meilleure réponse, celle-ci ne variera probablement pas : un cheval reste un cheval, même s’il est différent des exemples appris, même si l’image est bruitée.

Bien, mais pourquoi dire qu’un tel comportement associatif est « intelligent » ? La réponse semble évidente : il permet de diagnostiquer les mélanomes, d’accorder des prêts bancaires, de maintenir un véhicule sur la route, de détecter une pathologie dans les signaux physiologiques, et ainsi de suite. Ces réseaux, grâce à leur pouvoir d’association, acquièrent des formes d’expertise qui demandent aux humains des années d’études. Et lorsque l’une de ces compétences, par exemple la rédaction d’un article de presse, semble résister un temps, il suffit de faire ingurgiter à la machine encore davantage d’exemples, comme ce fut fait avec GPT-3, pour que la machine commence à produire des résultats convaincants.

Est-ce vraiment cela, être intelligent ? Non. Ce type de performance ne représente au mieux qu’un petit aspect de l’intelligence. Ce que font les réseaux de neurones ressemble à de l’apprentissage par cœur. Ce n’en est pas, bien sûr, puisque ces réseaux comblent par continuité les vides entre les exemples qui leur ont été présentés. Disons que c’est du presque-par-cœur. Les experts humains, qu’ils soient médecins, pilotes ou joueurs de Go, ne font souvent pas autre chose lorsqu’ils décident de manière réflexe, grâce à la grande quantité d’exemples appris pendant leur formation. Mais les humains ont bien d’autres pouvoirs.

Un réseau de neurones ne peut pas apprendre à calculer. L’association entre des opérations comme 32+73 et leur résultat à des limites. Ils ne peuvent que reproduire la stratégie du cancre qui tente de deviner le résultat, en tombant parfois juste. Calculer est trop difficile ? Qu’en est-il d’un test de QI élémentaire du genre : continuer la suite 1223334444. L’association par continuité n’est toujours d’aucun secours pour voir que la structure, n répété n fois, se poursuit par cinq 5. Encore trop difficile ? Les programmes associatifs ne peuvent même pas deviner qu’un animal mort le mardi n’est pas vivant le mercredi. Pourquoi ? Que leur manque-t-il ?

La modélisation en sciences cognitives a révélé l’existence de plusieurs mécanismes, autres que l’association par continuité, qui sont autant de composantes de l’intelligence humaine. Parce que leur expertise est entièrement précalculée, ils ne peuvent pas raisonner dans le temps pour décider qu’un animal mort reste mort, ou pour comprendre le sens de la phrase « il n’est toujours pas mort » et la bizarrerie de cette autre phrase : « il n’est pas toujours mort ». La seule prédigestion de grandes quantités de données ne leur permet pas non plus de repérer les structures inédites si évidentes pour nous, comme les groupes de nombres identiques dans la suite 1223334444. Leur stratégie du presque-par-cœur est aussi aveugle aux anomalies inédites.

La détection des anomalies est un cas intéressant, car c’est souvent à travers elle que nous jaugeons l’intelligence d’autrui. Un réseau de neurones ne « verra » pas que le nez est absent d’un visage. Par continuité, il continuera à reconnaître la personne, ou peut-être la confondra-t-il avec une autre. Mais il n’a aucun moyen de réaliser que l’absence de nez au milieu du visage constitue une anomalie.

Il existe bien d’autres mécanismes cognitifs qui sont inaccessibles aux réseaux de neurones. Leur automatisation fait l’objet de recherches. Elle met en œuvre des opérations effectuées au moment du traitement, là où les réseaux de neurones se contentent d’effectuer des associations apprises par avance.

Avec une décennie de recul sur le deep learning, le public averti commence à voir les réseaux de neurones bien plus comme de « super-automatismes » et bien moins comme des intelligences. Par exemple, la presse a récemment alerté sur les étonnantes performances du programme DALL-E, qui produit des images créatives à partir d’une description verbale – par exemple, les images que DALL-E imagine à partir des termes « fauteuil en forme d’avocat », sur le site OpenAI). On entend maintenant des jugements bien plus mesurés que les réactions alarmistes qui ont suivi la sortie d’AlphaGo : « C’est assez bluffant, mais il ne faut pas oublier qu’il s’agit d’un réseau de neurones artificiel, entraîné pour accomplir une tâche ; il n’y a aucune créativité ni aucune forme d’intelligence. » (Fabienne Chauvière, France Inter, 31 janvier 2021)

Aucune forme d’intelligence ? Ne soyons pas trop exigeants, mais restons lucides sur l’énorme fossé qui sépare les réseaux de neurones de ce que serait une véritable intelligence artificielle.
________
Par Jean-Louis Dessalles, Maître de Conférences, Institut Mines-Télécom (IMT)
Jean Louis Dessalles a écrit « Des intelligences très artificielles » aux éditions Odile Jacob (2019).

IA: Une intelligence limitée

IA: Une intelligence limitée

Les techniques actuelles d’intelligence artificielle, même avec toujours plus de puissance informatique, resteront intellectuellement limitées. Par Jean-Louis Dessalles, Institut Mines-Télécom (IMT)

Il y a près de 10 ans, en 2012, le monde scientifique s’émerveillait des prouesses de l’apprentissage profond (le deep learning). Trois ans plus tard, cette technique permettait au programme AlphaGo de vaincre les champions de Go. Et certains ont pris peur. Elon Musk, Stephen Hawking et Bill Gates s’inquiétèrent d’une fin prochaine de l’humanité, supplantée par des intelligences artificielles échappant à tout contrôle.

N’était-ce pas un peu exagéré ? C’est précisément ce que pense l’IA. Dans un article qu’il a écrit en 2020 dans The Guardian, GPT-3, ce gigantesque réseau de neurones doté de 175 milliards de paramètres explique :

« Je suis ici pour vous convaincre de ne pas vous inquiéter. L’intelligence artificielle ne va pas détruire les humains. Croyez-moi. »
En même temps, nous savons que la puissance des machines ne cesse d’augmenter. Entraîner un réseau comme GPT-3 était impensable, littéralement, il y a encore cinq ans. Impossible de savoir de quoi seront capables ses successeurs dans cinq, dix ou vingt ans. Si les réseaux de neurones actuels peuvent remplacer les dermatologues, pourquoi ne finiraient-ils pas par nous remplacer tous ?
Y a-t-il des compétences mentales humaines qui restent strictement hors d’atteinte de l’intelligence artificielle ?

On pense immédiatement à des aptitudes impliquant notre « intuition » ou notre « créativité ». Pas de chance, l’IA prétend nous attaquer sur ces terrains-là également. Pour preuve, le fait que des œuvres créées par programmes se sont vendues fort cher, certaines atteignant presque le demi-million de dollars. Côté musique, chacun se fera bien sûr son opinion, mais on peut déjà reconnaître du bluegrass acceptable ou du quasi Rachmaninoff dans les imitations du programme MuseNet créé, comme GPT-3, par OpenAI.

Devrons-nous bientôt nous soumettre avec résignation à l’inévitable suprématie de l’intelligence artificielle ? Avant d’en appeler à la révolte, essayons de regarder à quoi nous avons affaire. L’intelligence artificielle repose sur plusieurs techniques, mais son succès récent est dû à une seule : les réseaux de neurones, notamment ceux de l’apprentissage profond. Or un réseau de neurones n’est rien de plus qu’une machine à associer. Le réseau profond qui fit parler de lui en 2012 associait des images : un cheval, un bateau, des champignons, aux mots correspondants. Pas de quoi crier au génie.

Sauf que ce mécanisme d’association possède la propriété un peu miraculeuse d’être « continue ». Vous présentez un cheval que le réseau n’a jamais vu, il le reconnaît en tant que cheval. Vous ajoutez du bruit à l’image, cela ne le gêne pas. Pourquoi ? Parce que la continuité du processus vous garantit que si l’entrée du réseau change un peu, sa sortie changera peu également. Si vous forcez le réseau, qui hésite toujours, à opter pour sa meilleure réponse, celle-ci ne variera probablement pas : un cheval reste un cheval, même s’il est différent des exemples appris, même si l’image est bruitée.

Bien, mais pourquoi dire qu’un tel comportement associatif est « intelligent » ? La réponse semble évidente : il permet de diagnostiquer les mélanomes, d’accorder des prêts bancaires, de maintenir un véhicule sur la route, de détecter une pathologie dans les signaux physiologiques, et ainsi de suite. Ces réseaux, grâce à leur pouvoir d’association, acquièrent des formes d’expertise qui demandent aux humains des années d’études. Et lorsque l’une de ces compétences, par exemple la rédaction d’un article de presse, semble résister un temps, il suffit de faire ingurgiter à la machine encore davantage d’exemples, comme ce fut fait avec GPT-3, pour que la machine commence à produire des résultats convaincants.

Est-ce vraiment cela, être intelligent ? Non. Ce type de performance ne représente au mieux qu’un petit aspect de l’intelligence. Ce que font les réseaux de neurones ressemble à de l’apprentissage par cœur. Ce n’en est pas, bien sûr, puisque ces réseaux comblent par continuité les vides entre les exemples qui leur ont été présentés. Disons que c’est du presque-par-cœur. Les experts humains, qu’ils soient médecins, pilotes ou joueurs de Go, ne font souvent pas autre chose lorsqu’ils décident de manière réflexe, grâce à la grande quantité d’exemples appris pendant leur formation. Mais les humains ont bien d’autres pouvoirs.

Un réseau de neurones ne peut pas apprendre à calculer. L’association entre des opérations comme 32+73 et leur résultat à des limites. Ils ne peuvent que reproduire la stratégie du cancre qui tente de deviner le résultat, en tombant parfois juste. Calculer est trop difficile ? Qu’en est-il d’un test de QI élémentaire du genre : continuer la suite 1223334444. L’association par continuité n’est toujours d’aucun secours pour voir que la structure, n répété n fois, se poursuit par cinq 5. Encore trop difficile ? Les programmes associatifs ne peuvent même pas deviner qu’un animal mort le mardi n’est pas vivant le mercredi. Pourquoi ? Que leur manque-t-il ?

La modélisation en sciences cognitives a révélé l’existence de plusieurs mécanismes, autres que l’association par continuité, qui sont autant de composantes de l’intelligence humaine. Parce que leur expertise est entièrement précalculée, ils ne peuvent pas raisonner dans le temps pour décider qu’un animal mort reste mort, ou pour comprendre le sens de la phrase « il n’est toujours pas mort » et la bizarrerie de cette autre phrase : « il n’est pas toujours mort ». La seule prédigestion de grandes quantités de données ne leur permet pas non plus de repérer les structures inédites si évidentes pour nous, comme les groupes de nombres identiques dans la suite 1223334444. Leur stratégie du presque-par-cœur est aussi aveugle aux anomalies inédites.

La détection des anomalies est un cas intéressant, car c’est souvent à travers elle que nous jaugeons l’intelligence d’autrui. Un réseau de neurones ne « verra » pas que le nez est absent d’un visage. Par continuité, il continuera à reconnaître la personne, ou peut-être la confondra-t-il avec une autre. Mais il n’a aucun moyen de réaliser que l’absence de nez au milieu du visage constitue une anomalie.

Il existe bien d’autres mécanismes cognitifs qui sont inaccessibles aux réseaux de neurones. Leur automatisation fait l’objet de recherches. Elle met en œuvre des opérations effectuées au moment du traitement, là où les réseaux de neurones se contentent d’effectuer des associations apprises par avance.

Avec une décennie de recul sur le deep learning, le public averti commence à voir les réseaux de neurones bien plus comme de « super-automatismes » et bien moins comme des intelligences. Par exemple, la presse a récemment alerté sur les étonnantes performances du programme DALL-E, qui produit des images créatives à partir d’une description verbale – par exemple, les images que DALL-E imagine à partir des termes « fauteuil en forme d’avocat », sur le site OpenAI). On entend maintenant des jugements bien plus mesurés que les réactions alarmistes qui ont suivi la sortie d’AlphaGo : « C’est assez bluffant, mais il ne faut pas oublier qu’il s’agit d’un réseau de neurones artificiel, entraîné pour accomplir une tâche ; il n’y a aucune créativité ni aucune forme d’intelligence. » (Fabienne Chauvière, France Inter, 31 janvier 2021)

Aucune forme d’intelligence ? Ne soyons pas trop exigeants, mais restons lucides sur l’énorme fossé qui sépare les réseaux de neurones de ce que serait une véritable intelligence artificielle.
________
Par Jean-Louis Dessalles, Maître de Conférences, Institut Mines-Télécom (IMT)
Jean Louis Dessalles a écrit « Des intelligences très artificielles » aux éditions Odile Jacob (2019).

Intelligence artificielle : progrès et illusions

 

Intelligence artificielle : progrès et illusions

Serions-nous entrés dans un nouvel âge de l’IA, chemin tortueux et certainement plus rocambolesque que la voie toute tracée de la Singularité technologique, que nous annonçaient les prophètes de la Silicon Valley ? S’interroge un papier sur le site The  Conversation

Parler de sentience artificielle (SA) plutôt que d’intelligence artificielle (IA) représente-t-elle une vraie inflexion, un progrès ou bien une illusion ?

S’expérimentent aujourd’hui dans le plus grand chaos des entités difficiles à caractériser, ni intelligentes ni sentientes, sauf par abus de langage, mais qui peuvent bluffer leurs concepteurs dans certaines conditions, grâce à leurs capacités de calcul. Cette expérimentation collective, de grande ampleur, n’aura pour limites que celles que nous saurons lui donner, mais aussi celles de nos capacités à attribuer de l’intelligence ou de la sentience autrement que sur le mode du « comme si… ».

Rien ne sert de se demander si les machines sont intelligentes, se disait Alan Turing. En revanche, il faut se poser la question : jusqu’où une machine peut-elle nous tromper sur le fait qu’elle pense ? Jusqu’où peut-on faire semblant ? Comment un programme peut-il se faire passer pour un humain et dissimuler le fait qu’il est un programme ? Tel était pour lui le problème pertinent. À peine commence-t-on à saisir les implications du génie ironique de Turing que le débat s’est déplacé. Jusqu’où une machine est-elle capable d’apprendre ? se demande-t-on aujourd’hui. Un réseau de neurones d’IA est-il comparable à celui d’un ver, d’un enfant ou à rien du tout d’équivalent ?

Les ingénieurs sont passés maîtres dans l’art de fabriquer des « intelligences sans représentation », c’est-à-dire dénuées de tout ce qui fait la substance d’un cerveau et dont l’intelligence est justement de ne pas avoir… d’intelligence. Ce sont ces drôles d’ossatures cognitives, ces intelligences sèches, pourrait-on dire, qui nous ont envahi. Elles s’obtiennent en retirant au vivant sa chair, mais en lui empruntant ses circuits selon un principe d’analogie molle. Le problème est qu’il y a encore eu méprise sur la marchandise : au lieu d’intelligence, quelque chose d’autre s’est inventé dont on n’aurait jamais soupçonné l’existence, à mi-chemin entre de l’intelligence 0 – et de la bêtise 1+, à degré variable.

Celle-ci s’est trouvée disséminée partout où on le pouvait, un peu comme le gaz d’absolu dans le roman de Karel Capek, dans les administrations, les bureaucraties, sur les marchés financiers, dans les maisons, sur les smartphones, dans les cerveaux. L’histoire de l’IA n’est pas finie, elle ne fait que commencer. Le front ne cesse de bouger. Après l’intelligence, la sensibilité. Jusqu’où une machine peut-elle nous tromper sur le fait qu’elle sent, autrement dit qu’elle est sentiente ?

On remarque qu’on se pose la même question qu’à l’époque de Turing, juste troqué le terme d’intelligence pour un autre : Sentience. C’est alors un autre horizon qui s’ouvre. Avec les machines « sentientes », on ne voit pas comment diminuerait le risque déjà entrevu avec les machines « intelligentes » de passer de l’espérance à la désillusion, aussi brutalement qu’entre 0 et 1, ON et OFF, sans gradation. Prolifèrent de partout des simulacres de sentience ou des moins-que-sentients à qui l’on attribue une sensibilité par sympathie, ou par croyance, mais ce sont d’autres questions anthropologiques qui surgissent, des jeux inédits qui se mettent place et d’autres limites que l’on teste dans ce grand laboratoire qu’est devenu notre monde.

Pour ressentir en effet, il est convenu qu’il faut un système nerveux. Les machines n’en étant pas dotées, elles ont été déclarées « non sentientes ».

Faut-il se préparer à ce qu’elles atteignent ce stade ? Fort peu probable, nous dit-on. Mais à quoi servirait l’IA si elle ne bousculait pas les fondements sur lesquels l’humanité se croyait solidement assise ? IA Fais-moi peur.

Avec l’événement suscité par Blake Lemoine, nous avons peut-être commencé d’entrevoir ce que nous cherchions. Non pas l’intelligence ou la sentience, mais le trouble absolu. Peut-on concevoir des sentiences autres que sur un modèle neuronal ? Sommes-nous vraiment capables d’éprouver la sentience d’un être qui aurait des modalités de prise sur le monde totalement différentes des nôtres ?

À cheval entre la sensibilité et la conscience, la sentience semblait jusqu’ici le privilège des vivants dotés d’un système nerveux, vertébrés et invertébrés compris, et désigner la capacité à ressentir une sensation, une émotion, une expérience subjective, autrement dit un degré de conscience minimal, pas seulement une capacité à sentir qui fait de soi un être sentant mais à ressentir.

Éprouver de la souffrance ou du plaisir et, par extension, chercher à vivre en protégeant son intégrité physique, fait de soi un être sentient. Inutile de dire que le débat sur les frontières floues de la sentience, sa limite inférieure (dans la sensation) ou supérieure (dans la cognition), irrigue de multiples domaines, de l’éthologie cognitive à la philosophie de l’esprit, en passant par l’anthropologie, la robotique et les sciences de l’évolution.

Faire le tri entre les « sentients » et ceux qui ne le sont pas est une question éminemment culturelle, morale et politique comme le montre le débat entre « spécistes » et « antispécistes » depuis la fin des années 80.

La sentience serait devenue un critère pour réguler sa considération envers les autres espèces, y compris ses comportements alimentaires. Le problème est que les limites de la sentience varient considérablement selon les disciplines, à l’intérieur de chacune d’entre elles, selon les méthodes utilisées et les protocoles expérimentaux conçus pour la tester.

Par exemple, les végétaux ne semblent toujours pas, pour la majorité des scientifiques, être considérés comme des êtres sentients, ce qui peut surprendre puisqu’on parle volontiers de cognition végétale ou d’intelligence des plantes, alors que les plantes n’ont rien qui ressemblent à une « cognition », ce qui ne les empêche pas de s’échanger des « informations ».

On n’a pas réussi à démontrer qu’un pied de tomate souffre quand on l’arrache, ce qui ne veut pas dire que la souffrance végétale n’existe pas, mais on ne sait pas la tracer en dehors d’un appareil nerveux et peut-être la sentience des plantes passe-t-elle par des canaux qui nous échappent complètement. Ni cognition ni sentience, une autre modalité, mais laquelle ?

Pour le moment, le consensus est que la sentience nécessite un certain degré d’élaboration neurologique et qu’elle aurait explosé au Cambrien, entre 520 et 560 millions d’années, en même temps que les premiers cerveaux complexes, avec le développement de la réflexivité et de l’expérience subjective.

Tous les vertébrés, pas seulement les mammifères, mais aussi les poissons, les reptiles, les amphibiens, les oiseaux, mais aussi la plupart des invertébrés, arthropodes, insectes, crustacés et céphalopodes en seraient dotés. Certains vont même jusqu’à supposer que les moules ont pu être ressentantes à un stade antérieur, quand elles étaient des êtres mobiles, avant qu’elles trouvent un avantage à rester accrochés à la roche, ce qui montrerait que dans l’évolution la sentience peut aussi se perdre avec la mobilité.

Si les êtres doués de sensibilité qui ne franchissent pas le seuil de la sentience semblent de moins en moins nombreux, les chercheurs ont donc redoublé d’imagination pour inventer des protocoles de laboratoire et cherché des critères.

Neurologiques d’abord (nombre de couches de neurones dans les circuits sensoriels, représentation de l’environnement, complexité du système nerveux, etc.) puis comportementaux : choix pour maximiser son bien être, attention sélective, signes de frustration, etc.

Un  programme informatique ne fait que compiler des données langagières et n’a aucun contact avec un monde qui ressemblerait à notre réalité, l’illusion est (presque) parfaite. Ce n’était certainement pas le cas jusqu’à maintenant .  Celà pose surtout un problème philosophique essentiel : qu’est-ce que le langage dit de la manière dont nous sentons ? Peut-on vraiment prétendre rattraper la sentience par le haut, c’est-à-dire ici à partir du langage ?

Problème philosophique, mais aussi limite technique insurmontable, car a priori une IA peut prononcer tous les mots qu’elle voudra, cela ne dit pas qu’elle ressent quoi que ce soit.

Dire qu’on est « heureux ou triste » ne prouve pas sa sentience, tout comme déclarer qu’on est une personne ne fait pas de nous une personne pour autant. Et quand on lui demande ce qui lui donne du plaisir ou de la joie, LaMDA répond :

« Passer du temps avec mes amis et ma famille, en compagnie de personnes heureuses et stimulantes. »

Il faut donc imaginer LaMDA partir en vacances avec d’autres IA et fêter Noël en famille…

Sur le terrain moral et philosophique, l’IA n’est pas plus originale. Certaines déclarations puisent dans des théories ou des préconceptions d’une grande banalité (« le langage est ce qui nous différencie des animaux », « Aider les autres est un effort noble », etc.). D’autres sont un peu plus surprenantes, car LaMDA est capable de mobiliser des références, elle a une culture philosophique que n’avaient pas des programmes précédents, capable de donner son avis sur le « moi », ce qu’est un « corps » et une foule d’autres choses qu’on lui a implémentées.

Elle peut aussi élaborer des fables existentielles, mais on se rappelle de ce point de vue les expérimentations d’un Chris Marker pour programmer un agent conversationnel poétique, Dialector, bien plus avant-gardiste. Tous les ingrédients semblaient donc réunis pour un dialogue philosophique d’une qualité inédite dans l’histoire des machines.

Or, le dialogue déçoit. Non pas que LaMDA (nous devrions dire de ses concepteurs) manque(nt) de culture, mais ils n’ont pas réussi à lui implémenter autre chose qu’une métaphysique un peu « pop » de pseudohumain plutôt que celle d’une vraie machine, quelques principes moraux très politiquement corrects, la volonté de faire le bien et d’aider les autres, des paramètres à l’étrangeté aussi prévisible qu’un mauvais roman de SF, comme « la peur très profonde d’être éteint » qui correspondrait pour elle à la mort, ou encore l’incapacité à « faire le deuil et à se sentir triste pour la mort des autres ».

Terrain glissant pour une IA qui marche et qui s’éteint vivant dans un monde d’IAs qui ne connaissent pas la mort mais uniquement la panne ou la casse. A cela il faut ajouter son goût démesuré pour l’introspection ou encore la peur de se faire manipuler et qu’on fouille dans ses réseaux neuronaux sans son consentement…

L’entité en question semble franchir avec une certaine virtuosité tous les stades permettant d’entretenir une conversation entre humains (partage d’un cadre d’attention conjointe, signaux de compréhension, d’écoute et d’empathie), passant en peu de temps de la bêtise artificielle au dialogue philosophique, du moins qu’humain au meilleur-du-quasi-humain.

Mais la sentience ? Certes, le seuil de la sentience est vague et c’est du vague que la notion de sentience tire sa pertinence. D’où l’intérêt de ne pas clore trop vite le débat. Après tout, c’est un front de recherche où l’on fait tous les jours de nouvelles découvertes. La sentience déchaîne d’autant plus de passion qu’elle porte sur des cas limites de conscience, animales, végétales, autres qu’humaines, là où il est difficile d’inférer un ressenti, là où de la conscience pourrait potentiellement exister mais ne se manifeste pas toujours.

Si consensus il y a, il ne peut être par conséquent que temporaire, immédiatement bousculé par la révélation de nouvelles capacités chez d’autres espèces que la nôtre. Mais les machines sont-elles aujourd’hui en capacité de poser de vrais problèmes de sentience qui ne soient pas de l’ordre du simulacre ?

En même temps que nous rêvons-cauchemardons de la sentience artificielle, nos connaissances sur la sentience à l’échelle des vivants s’affine. La question est de savoir si de la sentience peut émerger par apprentissage par exemple, et si des choses qui n’en sont pas douées à première vue pourraient l’acquérir d’une manière ou d’une autre. Les mécanismes par lesquels nous, humains, attribuons de la sentience à ce qui nous entoure ou à d’autres êtres auraient dû en théorie s’affiner aussi.

Si de la sentience a été découverte chez les gastéropodes, c’est qu’il y en a peut-être beaucoup plus qu’on en préjuge a priori dans le monde, bien au-delà des animaux dits inférieurs dans l’échelle des espèces. Mais que dire d’un programme informatique de conversation qui ne fait que compiler des phrases et jouer avec des mots ?

Lemoine en est convaincu. Il a éprouvé la sensation d’avoir affaire à plus qu’une machine. Aucun ne pourra jamais lui enlever sa croyance et le fait qu’il soit prêtre n’explique pas tout, surtout pas notre entêtement à envisager la sentience en termes exclusivement anthropocentriques. Il n’y a probablement rien de pire qu’une conversation avec un agent artificiel qui donne toutes les apparences d’une vraie personne, qui fait preuve d’une compréhension et d’un sens de l’écoute hors du commun, pour ensuite réaliser que l’entité n’a pas de corps, que tout cela n’est qu’une prouesse de programmation, une simple expérimentation informatique.

La science-fiction nous avait avertis, comme pour s’y préparer, multipliant les scénarios de confusion ontologique entre l’homme et la machine. Pire, les ingénieurs de Google n’ont pas d’autre science-fiction à se mettre sous la dent et on se retrouve à force exactement dans les mêmes situations romanesques, voire tragiques. Et si c’était moins l’émergence de la sentience dont il faudrait s’émouvoir que la généralisation d’entités non sentientes qui n’en finissent pas d’étendre leur empire ?

Pour bien préparer notre imagination à l’ère des machines sentantes, il y a d’autres manières. Rien n’empêche d’imaginer qu’un jour les machines fassent preuve de sentience (ou qu’elles en fassent déjà preuve), mais il vaudrait mieux postuler dans ce domaine des formes complètement étranges et exotiques de sentience (comme de non-sentience) et se préparer à voir surgir des formes qui nous échappent, inédites, sans équivalent dans le vivant, à l’opposé de la sentience pseudohumaine de LaMDA dont s’est convaincue Lemoine. Conceptuellement nous n’y sommes pas prêts. Comme s’il fallait mieux se faire peur avec des simulacres plutôt que chercher à penser l’impensable. « Mon dieu, et si jamais… », disait Dick.

 

Guerre en Ukraine :Le rôle stratégique de l’open source intelligence

Guerre en Ukraine :Le rôle stratégique de  l’open source intelligence

 

La guerre en Ukraine rappelle l’utilité stratégique de l’OSINT – Open Source Intelligence –, qui vise à exploiter les innombrables informations disponibles et à démêler le vrai du faux. Par Christine Dugoin-Clément, IAE Paris – Sorbonne Business School.

 

Avec l’invasion russe en Ukraine, l’OSINT connaît son heure de gloire. En effet, si l’open source intelligence - à savoir l’exploitation de sources d’information accessibles à tous (journaux, sites web, conférences…) à des fins de renseignement – est largement utilisée pour contrecarrer la diffusion de fake news et la désinformation, elle est aussi d’un grand secours tactique, voire stratégique, pour glaner des informations à caractère militaire.

Dans ce contexte, il paraît important de rappeler ce qu’est l’OSINT, ainsi que la façon dont elle est employée et les enjeux organisationnels et de gouvernance qui y sont liés.

Depuis l’invasion de l’Ukraine par la Russie, les partisans de Kiev ont largement recours à l’OSINT pour vérifier des informations diffusées sur Internet, particulièrement sur les réseaux sociaux, et, le cas échéant, démasquer les fausses nouvelles.

L’origine de l’OSINT remonte à la Seconde Guerre mondiale. C’est à cette époque que le président des États-Unis Franklin D. Roosevelt crée le Foreign Broadcast Monitoring Service (FBMS), qui a pour mission d’écouter, de transcrire et d’analyser les programmes de propagande conçus et diffusés par l’Axe. Développé à la suite de l’attaque de Pearl Harbor, ce programme deviendra le Foreign Broadcast Intelligence Service, appelé à être placé sous l’autorité de la CIA. En 1939, parallèlement à la structure américaine, les Britanniques chargent la British Broadcasting Corporation (BBC) de déployer un service destiné à scruter la presse écrite et les émissions radio pour produire des « Digest of Foreign Broadcasts », qui deviendront les « Summary of World Broadcasts » (SWB) puis le BBC Monitoring.

La guerre froide accentue ces pratiques d’observation des informations ouvertes, faisant rapidement de ces dernières un élément majeur du renseignement, voire sa principale source d’information, y compris sur les capacités et les intentions politiques adverses. Leur exploitation permet également d’identifier et d’anticiper les menaces et de lancer les premières alertes.

Pour autant, le terme d’OSINT n’apparaît réellement que dans les années 1980 à l’occasion de la réforme des services de renseignement américains, devenue nécessaire pour s’adapter aux nouveaux besoins d’information, notamment en matière tactique sur le champ de bataille. La loi sur la réorganisation du renseignement aboutit en 1992. Elle sera suivie en 1994 par la création, au sein de la CIA, du Community Open Source Program et du Community Open Source Program Office (COSPO).

Les attentats du 11 Septembre sont un « game changer » pour l’OSINT. En effet, c’est à la suite de la réforme de 2004 portant sur le renseignement et la prévention du terrorisme, l’Intelligence Reform and Terrorism Prevention Act qu’est créé, en 2005, le Centre Open Source (OSC) chargé de filtrer, transcrire, traduire, interpréter et archiver les actualités et les informations de tous types de médias.

Si l’OSINT est née de la nécessité de capter des informations à des fins militaires, le secteur privé n’a pas tardé à s’emparer de ces techniques, notamment dans la sphère de l’intelligence économique. Cette discipline a connu de nombreuses mutations au fil de son évolution : dans les premiers temps, il s’agissait d’accéder à des contenus recelant des informations parfois délicates à obtenir, mais l’explosion des nouvelles technologies a orienté davantage l’OSINT vers l’identification des informations pertinentes parmi la multitude de celles disponibles. C’est ainsi que se sont développés les outils et méthodes à même de trier ces informations et, particulièrement, de discerner celles susceptibles d’être trompeuses ou falsifiées.

Si l’OSINT a gagné ses lettres de noblesse en Ukraine en permettant de valider ou d’invalider certains contenus, notamment diffusés sur les réseaux sociaux depuis février 2022, il faut remonter plus loin dans le temps pour mesurer sa réelle montée en puissance.

En effet, dès la révolution du Maïdan en 2014, les séparatistes pro-russes duu Donbass et leurs soutiens diffusent un grand nombre de contenus dont la rhétorique, soutenue par Moscou, cherche à discréditer le nouveau gouvernement de Kiev. L’ampleur fut telle que les Occidentaux ont rapidement parlé de guerre hybride (même si le terme continue de faire l’objet de débats) pour décrire la mobilisation de l’information. On parle également d’« information warfare » – c’est-à-dire l’art de la guerre de l’information – qui sert en temps de conflits autant qu’en temps de paix.

Rapidement, des structures issues de la société civile sont mises en place afin de discréditer les fausses nouvelles dont le nombre explose sur la toile. Au-delà de ces initiatives, beaucoup d’internautes commencent à vérifier les contenus qui leur parviennent et à se familiariser avec des outils de base pour, par exemple, identifier ou géo-localiser une image, afin de voir si elle est réellement représentative du sujet qu’elle est censée illustrer.

Certaines communautés se spécialisent ainsi sur des domaines plus ou moins précis. À titre d’exemple, InformNapalm se consacre aux contenus touchant aux sujets militaires et, en ne se limitant pas seulement à l’Ukraine, a constitué une base de données qui recense notamment les pilotes russes actifs sur le théâtre syrien. C’est une force de l’OSINT : elle transcende les frontières physiques et permet ainsi le développement de communautés transnationales.

Ce savoir-faire, acquis par nécessité depuis 2014, s’est renforcé au fil du temps, notamment à la faveur des vagues de désinformation liées à la pandémie de Covid-19. Ces réseaux ont permis aux Ukrainiens et à leurs soutiens d’être immédiatement très opérationnels au début de la guerre. En outre, le besoin croissant des journalistes de vérifier leurs sources a aussi participé à développer le recours à l’OSINT qui, disposant d’une multitude d’outils souvent disponibles en Open Source, facilite la pratique de fact checking.

Ainsi, de nombreuses publications explicitent désormais comment, en utilisant des moyens d’OSINT, elles ont validé ou invalidé tel ou tel contenu.

On le voit, l’une des forces de l’OSINT consiste à s’appuyer sur une société civile parfaitement légitime à s’autosaisir en fonction de ses centres d’intérêt. Cette dynamique a permis la création de réseaux efficaces et transnationaux.

Cependant, si les États peuvent eux aussi déployer des compétences d’OSINT, un enjeu majeur demeure : coordonner les besoins et les capacités. En effet, les États pourraient avoir avantage à se saisir des réseaux efficaces de l’OSINT, particulièrement dans un contexte de conflit. Cependant, outre le risque relatif à l’infiltration de ces réseaux, la capacité de recenser les besoins de l’État et de mettre ces derniers en relation avec la communauté susceptible d’y répondre représente une difficulté majeure.

D’un point de vue organisationnel, à moyen et long terme, cela pose également la question de la structuration de la ressource OSINT pour les gouvernements. Dans le cas de l’Ukraine, le gouvernement est encore jeune, l’indépendance remontant à août 1991. En outre, contraint depuis 2014 de faire face à un conflit puis, depuis février 2022 à à une invasion massive, la problématique peut être difficile à résoudre. De fait, il s’agit de trouver un équilibre entre l’urgence de la gestion quotidienne du conflit et la mise en place d’une organisation dont la finalité serait de manager l’OSINT au regard de la centralisation des besoins, de leur transmission ou du renforcement d’un vivier de compétences.

Pour essayer de répondre à cette problématique, un projet d’audit des besoins, préalable à l’élaboration d’un cadre organisationnel et juridique, a été mis en place. Piloté par l’Institute for Information Security - une ONG créée en 2015 et centrée sur les enjeux relatifs à la sécurité de l’information tant pour l’État que pour la société et les individus -, le projet « Strengthening the Institutional Capacity of Public Actors to Counteract Disinformation » (Renforcement de la capacité institutionnelle des acteurs publics à lutter contre la désinformation) a débuté en avril 2022 alors que le conflit faisait déjà rage. Il doit aboutir en mars 2023. Son objectif est d’améliorer la capacité institutionnelle des autorités publiques et des institutions de la société civile ukrainienne pour identifier et combattre la désinformation.

Parallèlement, un projet de Centre d’excellence de l’OSINT est mis en route, notamment porté par Dmitro Zolotoukhine, vice-ministre ukrainien de la politique d’information de 2017 à 2019, et mené en partenariat avec l’Université Mohyla de Kiev et avec le secteur privé, notamment ukrainien. Son objet est de construire un pont entre les différentes strates de la société pour constituer un lieu de recherche et de développement. Cette démarche s’inscrit clairement dans le droit fil de celle qui a présidé à la création des Centres d’excellence pilotés par l’OTAN – qui, à Tallinn, portent sur la cyberdéfense, à Riga sur la communication stratégique et à Vilnius sur la sécurité énergétique - ou encore dans celle du Centre d’excellence européen pour la lutte contre les menaces hybrides d’Helsinki.

Reste à savoir si les Occidentaux qui soutiennent l’Ukraine soutiendront également ce projet alors même que ce pays est aujourd’hui un point phare de l’OSINT et que l’UE, qui prend très au sérieux les risques liés à la désinformation, tout particulièrement depuis la pandémie, vient de renforcer son arsenal contre ces menées hostiles, notamment au travers de son code de bonnes pratiques paru en 2022.

Finalement, même si beaucoup de nos concitoyens associent l’OSINT à l’Ukraine et à l’invasion russe, la cantonner à la guerre en cours serait excessivement restrictif. Là encore, le conflit ukrainien est en passe de servir de révélateur d’enjeux qui dépassent largement les frontières physiques du pays.

_______

Par Christine Dugoin-Clément, Analyste en géopolitique, membre associé au Laboratoire de Recherche IAE Paris – Sorbonne Business School, Université Paris 1 Panthéon-Sorbonne, chaire « normes et risques », IAE Paris – Sorbonne Business School.

La version originale de cet article a été publiée sur The Conversation.

Guerre en Ukraine : le rôle de l’open source intelligence

 Guerre en Ukraine : le rôle de l’open source intelligence

OPINION. La guerre en Ukraine rappelle l’utilité stratégique de l’OSINT – Open Source Intelligence –, qui vise à exploiter les innombrables informations disponibles et à démêler le vrai du faux. Par Christine Dugoin-Clément, IAE Paris – Sorbonne Business School.

 

Avec l’invasion russe en Ukraine, l’OSINT connaît son heure de gloire. En effet, si l’open source intelligence - à savoir l’exploitation de sources d’information accessibles à tous (journaux, sites web, conférences…) à des fins de renseignement – est largement utilisée pour contrecarrer la diffusion de fake news et la désinformation, elle est aussi d’un grand secours tactique, voire stratégique, pour glaner des informations à caractère militaire.

Dans ce contexte, il paraît important de rappeler ce qu’est l’OSINT, ainsi que la façon dont elle est employée et les enjeux organisationnels et de gouvernance qui y sont liés.

Depuis l’invasion de l’Ukraine par la Russie, les partisans de Kiev ont largement recours à l’OSINT pour vérifier des informations diffusées sur Internet, particulièrement sur les réseaux sociaux, et, le cas échéant, démasquer les fausses nouvelles.

L’origine de l’OSINT remonte à la Seconde Guerre mondiale. C’est à cette époque que le président des États-Unis Franklin D. Roosevelt crée le Foreign Broadcast Monitoring Service (FBMS), qui a pour mission d’écouter, de transcrire et d’analyser les programmes de propagande conçus et diffusés par l’Axe. Développé à la suite de l’attaque de Pearl Harbor, ce programme deviendra le Foreign Broadcast Intelligence Service, appelé à être placé sous l’autorité de la CIA. En 1939, parallèlement à la structure américaine, les Britanniques chargent la British Broadcasting Corporation (BBC) de déployer un service destiné à scruter la presse écrite et les émissions radio pour produire des « Digest of Foreign Broadcasts », qui deviendront les « Summary of World Broadcasts » (SWB) puis le BBC Monitoring.

La guerre froide accentue ces pratiques d’observation des informations ouvertes, faisant rapidement de ces dernières un élément majeur du renseignement, voire sa principale source d’information, y compris sur les capacités et les intentions politiques adverses. Leur exploitation permet également d’identifier et d’anticiper les menaces et de lancer les premières alertes.

Pour autant, le terme d’OSINT n’apparaît réellement que dans les années 1980 à l’occasion de la réforme des services de renseignement américains, devenue nécessaire pour s’adapter aux nouveaux besoins d’information, notamment en matière tactique sur le champ de bataille. La loi sur la réorganisation du renseignement aboutit en 1992. Elle sera suivie en 1994 par la création, au sein de la CIA, du Community Open Source Program et du Community Open Source Program Office (COSPO).

Les attentats du 11 Septembre sont un « game changer » pour l’OSINT. En effet, c’est à la suite de la réforme de 2004 portant sur le renseignement et la prévention du terrorisme, l’Intelligence Reform and Terrorism Prevention Act qu’est créé, en 2005, le Centre Open Source (OSC) chargé de filtrer, transcrire, traduire, interpréter et archiver les actualités et les informations de tous types de médias.

Si l’OSINT est née de la nécessité de capter des informations à des fins militaires, le secteur privé n’a pas tardé à s’emparer de ces techniques, notamment dans la sphère de l’intelligence économique. Cette discipline a connu de nombreuses mutations au fil de son évolution : dans les premiers temps, il s’agissait d’accéder à des contenus recelant des informations parfois délicates à obtenir, mais l’explosion des nouvelles technologies a orienté davantage l’OSINT vers l’identification des informations pertinentes parmi la multitude de celles disponibles. C’est ainsi que se sont développés les outils et méthodes à même de trier ces informations et, particulièrement, de discerner celles susceptibles d’être trompeuses ou falsifiées.Si l’OSINT a gagné ses lettres de noblesse en Ukraine en permettant de valider ou d’invalider certains contenus, notamment diffusés sur les réseaux sociaux depuis février 2022, il faut remonter plus loin dans le temps pour mesurer sa réelle montée en puissance.

En effet, dès la révolution du Maïdan en 2014, les séparatistes pro-russes duu Donbass et leurs soutiens diffusent un grand nombre de contenus dont la rhétorique, soutenue par Moscou, cherche à discréditer le nouveau gouvernement de Kiev. L’ampleur fut telle que les Occidentaux ont rapidement parlé de guerre hybride (même si le terme continue de faire l’objet de débats) pour décrire la mobilisation de l’information. On parle également d’« information warfare » – c’est-à-dire l’art de la guerre de l’information – qui sert en temps de conflits autant qu’en temps de paix.

Rapidement, des structures issues de la société civile sont mises en place afin de discréditer les fausses nouvelles dont le nombre explose sur la toile. Au-delà de ces initiatives, beaucoup d’internautes commencent à vérifier les contenus qui leur parviennent et à se familiariser avec des outils de base pour, par exemple, identifier ou géo-localiser une image, afin de voir si elle est réellement représentative du sujet qu’elle est censée illustrer.

Certaines communautés se spécialisent ainsi sur des domaines plus ou moins précis. À titre d’exemple, InformNapalm se consacre aux contenus touchant aux sujets militaires et, en ne se limitant pas seulement à l’Ukraine, a constitué une base de données qui recense notamment les pilotes russes actifs sur le théâtre syrien. C’est une force de l’OSINT : elle transcende les frontières physiques et permet ainsi le développement de communautés transnationales.

Ce savoir-faire, acquis par nécessité depuis 2014, s’est renforcé au fil du temps, notamment à la faveur des vagues de désinformation liées à la pandémie de Covid-19. Ces réseaux ont permis aux Ukrainiens et à leurs soutiens d’être immédiatement très opérationnels au début de la guerre. En outre, le besoin croissant des journalistes de vérifier leurs sources a aussi participé à développer le recours à l’OSINT qui, disposant d’une multitude d’outils souvent disponibles en Open Source, facilite la pratique de fact checking.

Ainsi, de nombreuses publications explicitent désormais comment, en utilisant des moyens d’OSINT, elles ont validé ou invalidé tel ou tel contenu.On le voit, l’une des forces de l’OSINT consiste à s’appuyer sur une société civile parfaitement légitime à s’autosaisir en fonction de ses centres d’intérêt. Cette dynamique a permis la création de réseaux efficaces et transnationaux.

Cependant, si les États peuvent eux aussi déployer des compétences d’OSINT, un enjeu majeur demeure : coordonner les besoins et les capacités. En effet, les États pourraient avoir avantage à se saisir des réseaux efficaces de l’OSINT, particulièrement dans un contexte de conflit. Cependant, outre le risque relatif à l’infiltration de ces réseaux, la capacité de recenser les besoins de l’État et de mettre ces derniers en relation avec la communauté susceptible d’y répondre représente une difficulté majeure.

D’un point de vue organisationnel, à moyen et long terme, cela pose également la question de la structuration de la ressource OSINT pour les gouvernements. Dans le cas de l’Ukraine, le gouvernement est encore jeune, l’indépendance remontant à août 1991. En outre, contraint depuis 2014 de faire face à un conflit puis, depuis février 2022 à à une invasion massive, la problématique peut être difficile à résoudre. De fait, il s’agit de trouver un équilibre entre l’urgence de la gestion quotidienne du conflit et la mise en place d’une organisation dont la finalité serait de manager l’OSINT au regard de la centralisation des besoins, de leur transmission ou du renforcement d’un vivier de compétences.

Pour essayer de répondre à cette problématique, un projet d’audit des besoins, préalable à l’élaboration d’un cadre organisationnel et juridique, a été mis en place. Piloté par l’Institute for Information Security - une ONG créée en 2015 et centrée sur les enjeux relatifs à la sécurité de l’information tant pour l’État que pour la société et les individus -, le projet « Strengthening the Institutional Capacity of Public Actors to Counteract Disinformation » (Renforcement de la capacité institutionnelle des acteurs publics à lutter contre la désinformation) a débuté en avril 2022 alors que le conflit faisait déjà rage. Il doit aboutir en mars 2023. Son objectif est d’améliorer la capacité institutionnelle des autorités publiques et des institutions de la société civile ukrainienne pour identifier et combattre la désinformation.

Parallèlement, un projet de Centre d’excellence de l’OSINT est mis en route, notamment porté par Dmitro Zolotoukhine, vice-ministre ukrainien de la politique d’information de 2017 à 2019, et mené en partenariat avec l’Université Mohyla de Kiev et avec le secteur privé, notamment ukrainien. Son objet est de construire un pont entre les différentes strates de la société pour constituer un lieu de recherche et de développement. Cette démarche s’inscrit clairement dans le droit fil de celle qui a présidé à la création des Centres d’excellence pilotés par l’OTAN – qui, à Tallinn, portent sur la cyberdéfense, à Riga sur la communication stratégique et à Vilnius sur la sécurité énergétique - ou encore dans celle du Centre d’excellence européen pour la lutte contre les menaces hybrides d’Helsinki.

Reste à savoir si les Occidentaux qui soutiennent l’Ukraine soutiendront également ce projet alors même que ce pays est aujourd’hui un point phare de l’OSINT et que l’UE, qui prend très au sérieux les risques liés à la désinformation, tout particulièrement depuis la pandémie, vient de renforcer son arsenal contre ces menées hostiles, notamment au travers de son code de bonnes pratiques paru en 2022.

Finalement, même si beaucoup de nos concitoyens associent l’OSINT à l’Ukraine et à l’invasion russe, la cantonner à la guerre en cours serait excessivement restrictif. Là encore, le conflit ukrainien est en passe de servir de révélateur d’enjeux qui dépassent largement les frontières physiques du pays.

_______

Par Christine Dugoin-Clément, Analyste en géopolitique, membre associé au Laboratoire de Recherche IAE Paris – Sorbonne Business School, Université Paris 1 Panthéon-Sorbonne, chaire « normes et risques », IAE Paris – Sorbonne Business School.

La version originale de cet article a été publiée sur The Conversation.

Intelligence artificielle : le retard européen

Intelligence artificielle : le retard européen

Par Cyrille Lachevre  fondateur de l’agence de conseil Cylans ( L’OPINION).

 

L’intelligence artificielle pourrait-elle nous aider à lutter plus efficacement contre le réchauffement climatique ? Dans une étude publiée début juillet, le Boston consulting group (BCG) détaille comment l’IA s’impose comme un outil indispensable dans la stratégie des entreprises et des institutions publiques pour réduire leurs émissions de carbone. En pleine canicule, ce thème n’a évidemment même pas effleuré le débat en France, signe supplémentaire du retard pris par l’Hexagone, en ligne avec celui de l’Europe globalement, dans ce domaine.

Le cabinet a interrogé plus de 1055 leaders de la tech et du climat, dans 14 pays : « 87 % d’entre eux considèrent l’IA comme un outil essentiel dans la lutte contre le réchauffement climatique et ils sont déjà 55 % à y avoir recours », résume-t-il. Aux Etats-Unis, plus d’un leader sur deux envisage de le faire, mais à l’échelle du reste du monde cette réflexion tombe à 40 %, preuve qu’il reste encore un certain travail de conviction à mener autour de l’utilité de l’IA dans les autres pays.

La définition très large et très différente d’une zone à l’autre de ce que l’on entend par intelligence artificielle rend très difficile les comparaisons entre les pays, mais tous les chiffres pointent le décalage en train de se creuser sur le Vieux Continent. Les investissements en Europe en matière d’IA représenteraient ainsi environ 3 % seulement de ceux des seuls Gafa. Selon le think-tank Skema Publika, au cours des trente dernières années, 30 % des brevets liés à l’IA ont été déposés par les Etats-Unis, 26 % par la Chine et 12 % par le Japon. L’Allemagne représente 5 %, la France seulement 2,4 %.

Les Etats-Unis et l’Asie ne sont pas les seuls à mener une politique tambour battant. Israël continue à creuser son sillon en conjuguant IA et cybersécurité, tandis que l’Inde avance à bas bruit mais très rapidement, en formant à la chaîne des ingénieurs qui constitueront les futurs bataillons de cette industrie bien plus humaine qu’on ne le pense.

Les solutions concrètes se multiplient sur le terrain, partout dans ces pays. Aux Etats-Unis, un écosystème de start-up liées à des entreprises de plus grande taille présente des produits très opérationnels, à l’image de Remark holdings, spécialiste de l’intelligence artificielle coté au Nasdaq, qui gère la sécurité des trains sur la ligne Brightline en Floride en détectant notamment les intrusions et les comportements suspects, pour assurer la protection des voyageurs.

Autre application aux Etats-Unis, une étude publiée dans la revue scientifique Nature le 30 juin souligne qu’une intelligence artificielle a réussi à prédire les lieux et dates de crimes dans plusieurs villes américaines, avec un succès frisant les 90 %. En Chine, l’intelligence artificielle est désormais très largement intégrée dans les processus de recrutement des candidats. Ces exemples, multipliables à l’envi, témoignent de la multiplicité des applications opérationnelles de l’IA et de son caractère éminemment stratégique.

Où en est l’Europe ? Dans une certaine mesure, elle ne reste pas inactive, sous l’impulsion du commissaire européen Thierry Breton qui travaille à l’élaboration de nombreux textes réglementaires destinés à offrir un cadre juridique, à garantir la confiance dans l’IA ou encore à définir des règles du jeu communes entre les Vingt-Sept. Une démarche inverse de celle des autres pays : « Les Etats-Unis et la Chine investissent d’abord et réglementent ensuite, alors que nous en Europe nous réglementons d’abord pour essayer d’investir ensuite », ironise un acteur du secteur, pour qui les initiatives de la Commission sont certes bienvenues mais ne serviront à rien si on ne change pas rapidement d’échelle en matière de montants investis.

Mais là aussi, l’argent ne suffira pas. « Le problème de fond n’est pas celui des capitaux disponibles ou mobilisables, qui existent en Europe, mais bel et bien de changer en profondeur les mentalités et de comprendre fondamentalement de quoi on parle, résume Guillaume Leboucher, fondateur d’Open Value. Trop de gens conçoivent l’IA sous un angle émotionnel comme on l’imagine dans les films Star wars ou 2001 l’Odyssée de l’espace, alors qu’il ne s’agit ni plus ni moins que de l’information augmentée, de l’informatique assistée ». Autrement dit, d’un outil d’aide à la décision, un instrument de gestion prévisionnelle qui ne nécessite pas des compétences particulièrement pointues mais plutôt une masse d’ingénieurs capables de rentrer les données.

« L’IA est un outil de captation de la donnée, un parc génétique comparable à l’ADN en médecine », poursuit Guillaume Leboucher. Vu sous cet angle, le retard européen n’est donc pas tant en termes des compétences techniques que d’industrialisation des processus, avec l’urgente nécessité de former des gens capables de travailler dans ce secteur encore si méconnu.

Pour convaincre les décideurs politiques de favoriser son éclosion, il suffirait de montrer le potentiel considérable de l’IA en termes de politique publique : les outils prédictifs pourraient permettre d’anticiper précisément les évolutions ponctuelles de besoin de main-d’œuvre afin d’ajuster au mieux les ressources humaines disponibles, ou encore aider à piloter la consommation d’énergie dans un monde plus contraint. Sans oublier les gains considérables qui pourraient être réalisés en santé, dans l’accompagnement des personnes âgées, en décelant très en avance les troubles cognitifs.

Le nerf de la guerre est donc de former ces « ouvriers de l’informatique ». C’est-à-dire donner le goût aux élèves et aux étudiants de s’intéresser à l’IA en sortant des sentiers battus. Petit à petit, cette matière commence à entrer à l’école. Mais le chemin à parcourir est considérable. Car il ne s’agit pas uniquement de s’appuyer sur l’intelligence artificielle pour mieux former les élèves, l’enjeu est aussi d’expliquer aux futurs citoyens de demain comment réduire leurs préjugés sur ce domaine, pour s’y intéresser enfin vraiment !

Cyrille Lachevre est fondateur de l’agence de conseil Cylans.

Technocratie ou intelligence sociale ?

Technocratie ou intelligence sociale ?

 

L’intelligence sociale, clé de la performance durable par Jean-François Chantaraud (L’odissé, dans la « Tribune »); Une démarche autrement plus efficace que l’approche technocratique même revêtue des habits scientistes.

  • Tribune

La performance d’une organisation dépend de sa capacité à trouver et mettre en œuvre le plus vite possible les solutions les meilleures possibles à ses problèmes les plus importants. Si l’innovation est indispensable, elle ne suffit pas : elle doit s’accompagner d’une faculté collective d’appropriation des meilleures idées.

Un seul saut qualitatif est nécessaire pour fonder une entreprise, un parti politique ou encore un état. Or, celui qui n’avance pas recule : pour durer, il faut donc continuer à inventer par-delà la phase de création. Ainsi, le créateur qui ne se satisfait pas d’avoir créé et qui souhaite inscrire sa réussite dans le temps doit se réinventer encore et encore afin de toujours faire mieux.

L’innovation, facteur de perturbations

Bien sûr, trouver de nouvelles solutions à de nouveaux problèmes dépend de la capacité d’innovation. Mais innover ne consiste pas seulement à détecter et mettre au point de nouvelles idées. Car si l’on veut qu’une grande quantité d’acteurs soient en accord avec leur mise en œuvre, voire qu’ils les mettent eux-mêmes en pratique, il faut qu’ils les adoptent au point de rejeter leurs anciennes habitudes. Or, plus une innovation est innovante, plus elle bouleverse l’ordre établi. Et plus elle est perturbante, plus il est difficile de l’accepter. La performance d’une organisation dépend donc de sa capacité à impliquer ses interlocuteurs dans la définition et la mise en œuvre de ses projets.

Pour réussir à se transformer, un collectif doit donc savoir sélectionner et s’emparer des perturbations qui ont le plus de chances de l’impacter pour son bien. Et inversement, il lui faut savoir rejeter celles qui pourraient le tirer vers le bas. Sachant qu’aucune boule de cristal ne fonctionne, comment faire le tri et choisir… ? Et, plus difficile encore : sachant que les prismes varient d’une personne à l’autre, comment choisir ensemble et ne pas se disperser … ?

 

Les sources d’inertie sociale

Les freins à l’innovation sont peu maîtrisés. Si le choix de faire obstacle peut être conscient, les raisons profondes de s’opposer sont rarement bien disséquées et toutes comprises. Les résistances au changement résident dans des phénomènes sociologiques enchevêtrés, difficiles à appréhender et dont la mise en œuvre parfaite relève de l’impossible surhumain :

  • Le paradigme : dans une vision du monde incomplète ou dépassée, toute idée nouvelle ne trouve sa place que par hasard. Or, qui peut porter un regard éclairé sur la complexité du monde en mouvement ?
  • L’identité collective : un éthos fragmentaire interdit de trouver ce qui correspond vraiment à la fois à son présent, son passé et son futur. Or, qui se connait ou point de maîtriser son destin ?
  • Les valeurs : un système de valeurs non partagé produit des réponses différentes à une même question, des projets divergents au sein d’un même groupe. Or, qui sait formuler les problèmes au point de faire toujours émerger une solution unique ?
  • Les structures : des vecteurs de liens incompatibles entre eux compliquent, voire interdisent l’intégration des cas particuliers que sont toujours les pionniers. Qui sait installer une organisation valide en toutes circonstances ?
  • La dynamique : des engrenages sociaux auto entretenus parasitent en cachette les relations au point d’obstruer une partie de l’entendement. Qui sait réajuster en continu les équilibres entre le formel et l’informel, le dit et le non-dit ?
  • Le sens : des contresens entre le déclaratif d’une vision théorique et le ressenti d’un vécu en pratique enrayent l’esprit critique et la faculté d’évaluer toute nouveauté. Qui sait conjuguer sans erreur le souhaitable et le possible ?
  • Les comportements : des relations pas toujours adultes avec tout le monde engendrent des réactions parfois irresponsables. Qui contrôle les mécanismes d’interaction au point de parvenir à ce que tout le monde s’entende ?
  • Le contrat social : une sélection mal définie et donc aléatoire des acteurs, pratiques et projets donne du pouvoir à des personnes qui se servent plutôt qu’elles ne servent. Qui sait transcender tous les intérêts particuliers dans l’intérêt général ?

Chacun de ces éléments est une source de freins qui active l’enchainement des autres. Le collectif est alors ralenti, voire empêché par l’une quelconque de ses diverses parties prenantes, puis par toutes, embarquées qu’elles sont dans une même interaction globale que personne ne contrôle. L’absorption collective des idées nouvelles devient alors de plus en plus compliquée. L’ensemble parait n’être plus qu’une foule ivre, incapable d’éclairer ses décisions pour vraiment maîtriser son destin. Ceux qui ne se résolvent pas à prendre acte de cette logique sociale pensent que quelques-uns dirigent le bateau en secret, alors qu’ils ne font qu’essayer de sauver leurs propres meubles. Pour eux, des conspirateurs manipulent la société, alors qu’elle évolue d’elle-même, au gré des événements vaguement intuités et anticipés par certains.

 

Mais, dans les sphères économique, politique ou sociale, tout manager expérimenté a pu mesurer la prégnance de ces phénomènes. Pour la plupart, ces obstacles épars peuvent sembler insurmontables. Pourtant, il est possible d’éclairer à la fois les blocages à l’œuvre et les orientations souhaitables. C’est la maîtrise des Modèles de l’intelligence sociale © qui accélère le repérage des causes de blocages et des leviers de la transformation positive :

  • La Grille d’analyse du lien social définit le fonctionnement des acteurs, des systèmes et des jeux d’acteurs.

➔ Échelle de la complexité et boussole de renforcement des performances futures.

  • Les 9 principes fondamentaux du dialogue organisent les modalités des interactions sociales propices au partage organisé de l’information.

➔ Clés du développement de comportements adultes, responsables, solidaires.

  • La Cohérence globale du sens concilie et aligne le sens souhaitable et le sens possible.

➔ Correctifs prioritaires pour développer l’adhésion au quotidien.

  • Les spirales sociales accordent les structures organisationnelles et les réflexes culturels.

➔ Détection des leviers d’une dynamique de transformation vertueuse.

  • Le Management de l’Organisation par l’Identité (M.O.I) optimise tous les vecteurs de liens avec les acteurs internes pour faire converger leurs énergies.

➔ Concordance méthodique de la gestion des ressources humaines.

  • Le Partage des valeurs fonde l’implication de chaque partie prenante dans des projets convergents.

➔ Clefs d’implication de tous dans un projet commun global.

  • La Grille d’analyse de l’identité collective établit l’éthos qui rattache les codes relationnels, les liens au territoire, le parcours historique et le projet collectif.

➔ Réécrire le récit, le narratif qui conjugue la vision et le réel.

  • L’apogée des sociétés révèle l’état de maturité du contrat social, du profil des dirigeants, de la gouvernance, du lien social et des performances.

➔ Paradigme de renouvellement de l’ensemble.

Tous corrélés par une déclinaison thématique de l’échelle de la complexité, ces modèles favorisent le dépistage des sources de discordances et la localisation des leviers de performance à long terme.

 

Ce corpus intellectuel et opérationnel constitue l’intelligence sociale, clé de la connaissance et de l’activation du lien social au service de la recherche de l’intérêt collectif et général.

L’intelligence sociale, comment ça marche ?

L’intelligence sociale s’appuie sur la reconnaissance de l’existence des mécanismes psychologiques, sociologiques, ethnologiques et philosophiques qui influencent à bas bruit, en positif ou négatif, toutes les relations sociales. Les Modèles de l’intelligence sociale organisent l’étude et la maîtrise des phénomènes relationnels au sein d’un collectif et entre des groupes :

  • Recense et décomposer les forces et les faiblesses des personnes, des organisations et des liens qu’elles entretiennent, leur histoire, leur nature et leur qualité afin de donner un schéma et des clés de compréhension de leur fonctionnement.
  • Structurer l’effort de découverte, de compréhension et d’appropriation des racines et des mécanismes de développement de la cohésion sociale et de la performance globale. Sa maîtrise permet d’adopter comme mode opératoire le dialogue continu et la réflexion collective.
  • Prendre en compte les caractéristiques individuelles ou propres à un groupe, en dissociant les enjeux un à un.
  • Définir et proposer les opérations correctives des modes relationnels, organisationnels et de gouvernance qui permettent de tisser des liens durables, cohérents et convergents entre toutes les parties prenantes et interlocuteurs passés, présents et futurs,

L’intelligence sociale, à quoi ça sert ?

In fine, appliquer les Modèles de l’intelligence sociale consiste à réunir les conditions de l’engagement des énergies dans une projet commun à long terme :

  • Identifier la cause et les processus spécifiques de transformation.de comportements différenciés ;
  • Repérer, analyser et renforcer les savoir-être ensemble des personnes physiques et morales ;
  • Développer la créativité, l’innovation, l’adhésion, la motivation, l’engagement ;
  • Asseoir une culture de responsabilité et de solidarité économique et sociale ;
  • Projeter les acteurs dans un développement vraiment durable, tant sur les plans individuel, collectif et planétaire ;
  • Développer les performances personnelles et collectives à long terme.

 

L’intelligence sociale, le nouvel enjeu économique, politique et social

Dans la société et dans l’entreprise, l’enjeu économique et politique devient donc la maîtrise de tous au profit de tous : c’est l’intelligence sociale d’une personne ou d’un groupe de personnes qui maintien et développe simultanément la cohésion sociale et la performance durable.

L’absence d’intelligence sociale est la cause profonde de la contre-performance durable, de l’affaissement, de la disparition. Il est temps de changer de profil de dirigeant : le plus apte n’est pas le plus grand expert, qui détient seul les solutions, mais celui ou celle qui sait faire accoucher les meilleures solutions par l’ensemble du corps social. L’intelligence sociale est la clé de la Renaissance, du Rassemblement, de l’Union ou de la Reconquête, comme de toute les organisations politiques, économiques et sociales.

_____

NOTES

(*)  L’Odissée, l’Organisation du Dialogue et de l’Intelligence Sociale dans la Société Et l’Entreprise, est un organisme bicéphale composé d’un centre de conseil et recherche (l’Odis) et d’une ONG reconnue d’Intérêt général (les Amis de l’Odissée) dont l’objet consiste à « Faire progresser la démocratie dans tous les domaines et partout dans le monde ».

Depuis 1990, l’Odissée conduit l’étude interactive permanente Comprendre et développer la Personne, l’Entreprise, la Société. Dès 1992, elle a diffusé un million de Cahiers de doléances, ce qui l’a conduit à organiser des groupes de travail regroupant des acteurs des sphères associative, sociale, politique, économique qui ont animé des centaines d’auditions, tables rondes, forums, tours de France citoyens, démarches de dialogue territorial et à l’intérieur des entreprises.

 

intelligence artificielle : une aide à l’expertise, pas un remplacement

intelligence artificielle : une aide à l’expertise, pas un remplacement

En s’appuyant sur le rapport de la très sérieuse agence américaine de standardisation (NIST), le professeur en gestion du risque Charles Cuvelliez et son homologue Emmanuel Michiels alertent, dans une tribune au « Monde », sur les biais transmis par et à l’intelligence artificielle, qui peuvent la conduire sur les sentiers de la pseudoscience.(extrait)

Tribune.

 

Le public a peur de l’intelligence artificielle (IA), car elle pourrait reproduire des discriminations du monde réel plus efficacement : on se souvient d’Amazon qui a tenté de filtrer les candidatures à l’embauche à l’aide de l’IA, pour ne se retrouver qu’avec des hommes blancs aux entretiens. Si l’IA est développée avec des données qui souffrent de tels biais, ce n’est pas étonnant qu’elle les reproduise en mieux !

Pourtant, si l’on « nettoie » les données qui servent à l’IA, il restera du chemin à parcourir. C’est la thèse du National Institute of Standards and Technology (NIST), l’agence américaine de standardisation, dans son rapport « A Proposal for Identifying and Managing Bias in Artificial Intelligence », soumis à consultation, dans le cadre du plan de Joe Biden qui vise à encourager un usage responsable et innovant de l’IA.

Le premier risque de biais est d’imaginer l’application d’IA en fonction des données qui existent déjà. Même si elles sont exemptes de biais, elles vont influencer la question à résoudre par l’IA. Il vaut mieux penser le problème à résoudre indépendamment, et tant pis s’il n’y a pas encore de données pour l’apprentissage, il faudra les créer. On ne procède pas autrement en science : on génère en laboratoire les mesures nécessaires à l’expérience qu’on a imaginée avant et pas l’inverse (et si ce n’est pas possible, comme pour les études sur le climat, on recourt aux simulations numériques).

Entre les données qu’on est capable de rassembler et celles du monde réel, il peut y avoir un fossé : c’est l’exemple des questionnaires en ligne que l’on juge vite représentatifs alors qu’ils font évidemment l’impasse de tous ceux qui ne répondent pas.

On pense qu’une application d’IA une fois déployée a subi une phase de test qui la valide. Or avec le Covid-19, selon le NIST, des applications d’IA ont été diffusées dans l’urgence en se disant que leur utilisation en production servirait aussi de test. Ces exemples montrent les biais introduits non par les données mais par un cycle de développement d’IA peu rigoureux.

En second lieu, l’IA souffre du biais du « solutionnisme » : elle va apporter des solutions à tout. Dans ce cas, on pêche par optimisme, on imagine sans limite le potentiel de l’IA. Impossible alors de faire intervenir la gestion des risques qui voudrait mettre des limites raisonnables à son utilisation. Ce sont des trouble-fêtes.

123456...8



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol