Archive pour le Tag 'artificielle'

Page 4 sur 11

L’intelligence artificielle va-t-elle remplacer l’être humain ?

L’intelligence artificielle va-t-elle remplacer l’être humain ?

Par Charles Hadji
Professeur honoraire (Sciences de l’éducation), Université Grenoble Alpes (UGA)

dans The Conversation France

Depuis sa mise en ligne fin novembre, le logiciel ChatGPT, agent conversationnel (chatbot) qui utilise les capacités impressionnantes du plus gros réseau mondial de neurones artificiels actuel (GPT-3), a provoqué un tsunami de questions sur les sujets les plus variés de demandes de rédaction de devoirs, d’articles, de courriers, etc. Destinées à l’éprouver, à en tester les limites, ces utilisations très diverses ont aussi fait naître, ou conforté, de fortes craintes.Au-delà même de ses dangers immédiatement visibles (fabrication possible de fake news, triche aux examens, facilitation d’entreprises illégales ou nocives), et contre lesquels il y aurait lieu de se prémunir par des régulations appropriées, cet outil d’intelligence artificielle (IA), n’est-il pas de nature à remplacer un humain devenu obsolète ? Le moment de la fin de la « singularité », l’IA venant dépasser l’intelligence de l’homme, n’est-il pas arrivé ? La machine ne va-t-elle pas pousser l’homme dans les oubliettes de l’histoire ?

La question de savoir s’il faut craindre que la machine se hisse au niveau de l’humain, voire le dépasse, en soulève en fait deux autres, que nous proposons d’examiner rapidement. La première porte sur l’étendue de ce que l’IA peut en quelque sorte arracher à l’homme. Il s’agit de savoir ce qui est vraiment à portée des « machines intelligentes ». N’existe-t-il pas des capacités spécifiquement humaines, qui rendraient l’homme irremplaçable, le mettant à l’abri des empiétements dévastateurs de l’IA ?
La deuxième porte sur l’intensité, et la nature même, de la peur que l’homme doit éprouver quand sont en question ses pouvoirs dans les domaines de la connaissance et de l’action. Qu’est-ce que l’homme doit craindre le plus : le développement de l’IA, ou la force et la permanence de ses tentations et perversions ? L’homme ne serait-il pas, bien plus que la machine, le principal ennemi de l’Homme ?

La première question nous invite à nous prononcer sur l’existence de capacités humaines qui ne seraient pas « algorithmables », c’est-à-dire découpables en une suite logique d’opérations permettant d’atteindre à coup sûr un résultat désiré. Il devrait être clair que la réponse à cette question relève sans doute plus de l’anthropologie, et de la philosophie, que de la robotique et de l’IA. Car on peut s’attendre à ce que l’IA prenne en charge tout ce que peuvent faire les êtres humains sur le plan cognitif, sauf ce qui relèverait de ce que seuls les humains sont capables de faire : douter, faillir, et souffrir.

Les performances de ChatGPT sont particulièrement impressionnantes dans le champ de ce qui est calculable. Mais calculer n’est pas penser. Il manque au calcul la dimension de la distanciation, autrement dit du doute. Un algorithme n’est pas capable de sortir de lui-même, comme l’expliquait le spécialiste de robotique Raja Chatila dans Le Monde en 2020. Il déroule, sans état d’âme, sa suite d’opérations. Alors que l’homme est capable, non seulement de produire, mais de s’interroger continûment sur ses productions.

Depuis sa mise en ligne fin novembre, le logiciel ChatGPT a provoqué un tsunami de questions sur les sujets les plus variés. Shutterstock
ChatGPT pourrait très bien réécrire le Cogito de Descartes, mais alors en imitant seulement son style, sans prendre lui-même la décision de sortir du rapport habituel à la réalité, et sans mettre en œuvre le travail intellectuel par lequel cette décision devient opératoire. Il n’est pas capable de produire des idées, car l’idée n’est pas « une peinture muette sur un panneau ». « L’idée, mode du penser ne consiste ni dans l’image de quelque chose, ni dans les mots », disait Spinoza dans l’Ethique.

Dire des mots (produire un texte, ce dont est capable ChatGPT) n’est pas davantage penser que simplement calculer. Blaise Pascal, par ailleurs inventeur de ce qui est considéré comme la première machine à calculer (« la pascaline ») avait perçu les limites des algorithmes : « La machine d’arithmétique fait des effets qui approchent plus de la pensée que tout ce que font les animaux ; mais elle ne fait rien qui puisse faire dire qu’elle a de la volonté, comme les animaux ».

Il faut avoir la volonté de bien penser : « Travaillons donc à bien penser : voilà le principe de la morale ». Certes « nous sommes automate [Pascal appelait cela « la « machine »] autant qu’esprit ». Mais l’ordre des automatismes, où peuvent régner les logiciels, est inférieur à l’ordre des esprits, où règne la pensée : « De tous les corps ensemble, on ne saurait en faire réussir une petite pensée. Cela est impossible, et d’un autre ordre ».

Quand il opère dans son champ d’application (ici, le mot a été bien choisi), l’algorithme est (quasiment) infaillible. Il fait disparaître toute incertitude. Mais l’être humain souffre d’une faillibilité intrinsèque. Il erre, il se trompe, commet des fautes. L’âme humaine est fragile. Avec le doute vient l’incertitude. Le comble de cette faillibilité est sans doute la bêtise (pour ne pas dire la connerie, terme qui serait le plus approprié).

La faculté de dire des bêtises, dont abuse tout populiste qui se respecte, est un signe très fiable d’humanité. « L’homme est bien capable des plus extravagantes opinions ». « Voilà mon état, plein de faiblesse et d’incertitude » (Pascal, encore). Il faudra bien sûr se poser la question de savoir en quel sens cette faiblesse pourrait être une force. Mais nous voyons que la réflexion sur la force et les limites de l’outil ChatGPT nous contraint à réfléchir sur la force et les limites de la cognition humaine !

Enfin, l’homme éprouve des sentiments. Spinoza en a retenu deux principaux (en plus du désir) : la joie, toujours positive, en tant que « passion par laquelle l’esprit passe à une perfection plus grande » ; et la tristesse, toujours négative, en tant que « passion par laquelle il passe à une perfection moindre ». Un sentiment est un état dans lequel le corps est affecté. Un algorithme ne connaîtra jamais d’instant d’émotion. On ne le verra jamais pleurer, ni de joie, ni de tristesse.

Quand donc un robot pourra effectivement douter (penser), faillir, et pleurer, on pourra dire bienvenue à ce nouveau frère en humanité ! Mais si la pensée est à l’évidence une force, la faillibilité et la souffrance sont, immédiatement, des faiblesses. Cela nous conduit à la seconde question : qu’est-ce qui est le plus à craindre pour l’homme ? Certainement les dérives auxquelles peuvent le conduire ses faiblesses – mais des faiblesses qui sont aussi la source de son principal point fort, la créativité. Car, sans les sentiments, pas d’énergie pour entreprendre.

Si un robot peut mimer des comportements humaines, il ne ressentira jamais d’émotion. Shutterstock

Dans La psychologie de l’intelligence, Piaget nous a fait comprendre que « toute conduite implique une énergétique ou une “économie”, qui constitue son aspect affectif » ainsi qu’une « structuration » des « rapports entre le milieu et l’organisme », en lequel « consiste son aspect cognitif ». Sans l’énergie provenant des sentiments, il n’y a ni vie intellectuelle ni création.
C’est que, chez l’homme, force et faiblesse sont intimement liées. Ce qui fait sa faiblesse est aussi ce qui fait sa force, et réciproquement. Si donc le robot a la force que donne la maîtrise d’un logiciel, il n’a pas celle que donne la capacité d’être affecté, et de souffrir. Et il n’a pas la créativité que confère la capacité d’essayer, en prenant le risque de se tromper, et d’entrer en errance. Alors que chez l’homme, la « bassesse », que Pascal reconnaît même en Jésus-Christ, ne peut pas empêcher d’accéder à l’ordre, « surnaturel », de la « sagesse » et de la « charité ».

Mais pourquoi alors cette cohabitation, en l’homme, de sa force et de sa faiblesse, est-elle bien plus à craindre qu’une hypothétique prise de pouvoir par les algorithmes, dont ChatGPT serait le champion ? Parce que, étant donné la nature de ce qui fait sa force, si l’homme est capable du meilleur, il est aussi trop souvent coupable du pire ! Mais ni le meilleur ni le pire ne sont certains.
L’homme est le seul animal capable de choisir, et de faire consciemment, le mal : tuer par cruauté ; faire souffrir par plaisir. Ce n’est pas un algorithme qui a créé le darknet. Mais d’un autre côté, on peut voir dans le triptyque penser, faillir, éprouver, les trois piliers fondateurs de la liberté. La liberté qui rend possible le choix du mal, comme du bien.

En définitive, est-ce ChatGPT qu’il faut craindre ? Il n’y a là qu’un outil, dont la valeur dépend de l’usage qui en sera fait. Cet usage dépend lui-même de choix d’ordre éthique. Selon ce choix, et comme pour tout, l’homme pourra se montrer capable du meilleur, en mettant l’outil au service du développement et de la valorisation de la personne humaine, pour faciliter ses apprentissages, et l’accomplissement de ses actions. Ou bien coupable du pire, en faisant de l’outil un instrument d’assujettissement et d’exploitation de l’être humain, en tombant dans l’une ou l’autre des dérives possibles.

C’est à l’homme qu’il appartient de choisir. La machine (comme Dieu, selon Platon) est innocen-te : elle n’a pas le pouvoir de choisir… Le plus grand ennemi de l’homme sera toujours l’homme.

Intelligence artificielle : l’humain toujours nécessaire

Intelligence artificielle : l’humain toujours nécessaire

L’intelligence artificielle a besoin de l’humain. Outre que ce dernier est son concepteur, il est aussi celui qui la fait régulièrement progresser grâce à des millions de petites mains invisibles. Par Philippe Boyer, directeur relations institutionnelles et innovation à Covivio.

Comme souvent en matière de technologie, le meilleur et le pire se côtoient. Impossible de bouder son plaisir lorsque l’on constate les spectaculaires progrès de l’intelligence artificielle (IA). Il n’y a qu’à voir l’irruption ces dernières semaines du logiciel ChatGPT [1] qui fait suite, en 2017 (presque une éternité…) à un autre exploit technologique : la victoire d’une machine (AlphaGo) sur l’intelligence humaine au jeu de go. Pour l’une et l’autre machines, de véritables prouesses qui attestent que les programmes savent de mieux en mieux nous déjouer, nous étonner et, peut-être, dans un futur lointain, nous contrôler.

Avec ChatGPT, agent conversationnel surpuissant et capable d’interagir avec des humains presque comme s’il l’était lui-même, nous nous prenons à fantasmer que la machine autonome existe. Exactement comme avait pu l’être pour les contemporains du XVIIIe siècle le Turc mécanique, une prétendue machine automatisée capable de jouer aux échecs.
Dans les faits, et après avoir créé l’admiration des cours royales de toute l’Europe, le canular fut découvert : cette machine recouverte d’engrenages mobiles pour donner l’illusion de sa grande complexité, recelait un compartiment secret dans lequel un joueur humain chevronné était caché, celui-ci en charge d’animer le pseudo automate qui déplaçait les pièces sur l’échiquier…

AlphaGo, ChatGPT, Siri, Alexa… toutes ces d’IA n’ont rien de magique même s’il est tentant de le penser du fait de leurs réponses de plus en plus précises et pertinentes.
Si aucun automate ne se cache à l’intérieur de nos appareils électroniques, il n’empêche que les propos de ces logiciels qui affichent leurs résultats sur les écrans de nos smartphones et autres tablettes ne tombent pas du ciel. Ils sont certes le produit des méthodes d’apprentissage automatique propres à l’entraînement de ces machines (deep learning, IA génératrice de texte…), mais ils sont aussi le résultat d’un autre travail, celui-ci bien réel et réalisé par des humains.

Début janvier, au plus fort du pic consacrant ChatGPT comme un tournant historique de l’interaction « Machines-Hommes », paraissait dans le magazine Time [2] un article relatant les dessous de l’IA. En l’occurrence, comment la société OpenAI, fondateur et financeur de ChatGPT, s’était appuyée sur des petites mains au Kenya pour faire en sorte que les résultats des requêtes des utilisateurs de ce logiciel soient politiquement corrects. En d’autres termes, que soit gommées de la machine toutes les scories de langage en lien avec les propos haineux ou à connotation sexuels.
Rémunérées entre 1 et 2 dollars de l’heure, ces travailleurs de l’ombre de l’IA ne sont pas une nouveauté car l’IA ne peut pas se passer de l’humain.

Qu’il s’agisse d’actions que nous faisons, parfois à l’insu de notre plein gré [3], en acceptant de « travailler » (gratuitement) en cochant des cases pour identifier des feux de circulation ou, à plus grande échelle, pour alimenter et corriger des banques de données indispensables à la puissance de calcul des machines, il existe des dizaines de millions de travailleurs invisibles de l’IA qui contribuent ainsi au progrès technologique.

Spécialiste du « digital labor », le sociologue Antonio Casilli [4], spécialiste des réseaux sociaux et des mutations du travail à l’ère numérique, rappelle que cette nouvelle forme de travail se caractérise par l’acte de cliquer sur la touche d’une souris ou de toucher un écran en vue d’aider la machine à progresser.
Cette « microtâchenorisation » du travail numérique est multiple et peut se faire en tous lieux et à toute heure. S’il se caractérise souvent par des tâches simples qui n’exigent que peu d’efforts (notation d’un service par exemple afin de permettre aux algorithmes de mieux répondre à des demandes futures), ce digital labor – et c’est le cas des travailleurs Kényans expurgeant Chat GPT de ses scories – peut aussi prendre des formes un peu plus élaborées telles que la classification ou le filtrage d’informations, impliquant alors que l’humain exerce sa capacité de jugement.
Lutter contre l’illusion collective d’une IA magique

Il ne s’agit pas de s’opposer au progrès ni à l’innovation, en particulier quand cette dernière est portée par l’IA, technologie prodigieuse qui, après plusieurs « hivers », connaît un développement spectaculaire rendu possible par les capacités de calcul et l’accumulation de données.

Tout au plus s’agit-il de ne pas être victime de cette illusion collective portée par l’idée que l’IA serait « magique ».
Comme souvent en matière de technologie, le meilleur et le pire se côtoient. D’un côté, l’IA au service de notre santé, de notre sécurité, de nos déplacements… et qui fait de véritables prouesses. De l’autre, des machines qui n’ont rien d’autonomes et qui ont encore besoin des humains pour être « nourries ». Encore faut-il que cette nourriture puisse être apportée par des travailleurs dignes de ce nom, et qui ne soient pas cachés dans un recoin secret de la machine…
___
NOTES
1 https://www.latribune.fr/opinions/blogs/homo-numericus/quelle-etait-la-couleur-du-cheval-blanc-d-henri-iv-948238.html
2 https://time.com/6247678/openai-chatgpt-kenya-workers/
3 https://www.latribune.fr/opinions/blogs/homo-numericus/a-l-insu-de-notre-plein-gre-755470.html
4 Publications | Antonio A. Casilli

Intelligence artificielle : menace pour les droits humains

Intelligence artificielle : menace pour les droits humains (ONU)

Les récentes avancées en matière d’intelligence artificielle (IA) représentent une grave menace pour les droits humains, a alerté le Haut-Commissaire de l’ONU aux droits de l’Homme samedi, réclament la mise en place de « garde-fous efficaces ». « Je suis profondément troublé par le potentiel de nuisance des récentes avancées en matière d’intelligence artificielle », a déclaré Volker Türk, dans un bref communiqué. « La dignité humaine et tous les droits humains sont gravement menacés », a-t-il ajouté. Volker Türk a lancé « un appel urgent aux entreprises et aux gouvernements pour qu’ils développent rapidement des garde-fous efficaces ».

Le site futura–sciences énumère ces menaces:

Intelligence artificielle : les menaces graves
• Fausses vidéos : usurper l’identité d’une personne en lui faisant dire ou faire des choses qu’elle n’a jamais dite ou faites, dans le but de demander un accès à des données sécurisées, de manipuler l’opinion onde nuire à réputation de quelqu’un…Ces vidéos truquées sont quasi indétectables.
• Piratage de voitures autonomes : s’emparer des commandes d’un véhicule autonome pour s’en servir comme arme (par exemple perpétrer une attaque terroriste, provoquer un accident, etc).
• Hameçonnage sur mesure : générer des massages personnalisés et automatisés afin d’augmenter l’efficacité du phishing visant à collecter des informations sécurisées ou installer des logiciels malveillants.
• Piratage des systèmes contrôlés par l’IA : perturber les infrastructures en causant par exemple une panne d’électricité généralisée, un engorgement du trafic ou la rupture de la logistique alimentaire.
• Chantage à grande échelle : recueillir des données personnelles afin d’envoyer des messages de menace automatisés. L’IA pourrait également être utilisée pour générer de fausses preuves (par exemple de la «sextrosion»).
• Fausses informations rédigées par IA : écrire des articles de propagande semblant être émises par une source fiable. L’IA pourrait également être utilisée pour générer de nombreuses versions d’un contenu particulier afin d’accroître sa visibilité et sa crédibilité.
E
Intelligence artificielle : les menaces de moyenne gravité
• Robots militaires : prendre le contrôle de robots ou armes à des fins criminelles. Une menace potentiellement très dangereuses mais difficile à mettre en œuvre, le matériel militaire étant généralement très protégé.
• Escroquerie : vendre des services frauduleux en utilisant l’IA. Il existe de nombreux exemples historiques notoires d’escrocs qui ont réussi à vendre de coûteuses fausses technologiques à de grandes organisations, y compris des gouvernements nationaux et l’armée.
• Corruption de données : modifier ou introduire délibérément de fausses données pour induire des biais spécifiques. Par exemple, rendre un détecteur insensible aux armes ou encourager un algorithme à investir dans tel ou tel marché.
• Cyberattaque basée sur l’apprentissage : perpétrer des attaques à la fois spécifiques et massives, par exemple en utilisant l’IA pour sonder les faiblesses des systèmes avant de lancer plusieurs attaques simultanées.
• Drones d’attaque autonomes : détourner des drones autonomes ou s’en servir pour s’attaquer à une cible. Ces drones pourraient être particulièrement menaçants s’ils agissent en masse dans des essaims auto-organisés.
• Refus d’accès : endommager ou priver des utilisateurs d’un accès à un service financier, à l’emploi, à un service public ou une activité sociale. Non rentable en soi, cette technique peut être utilisée comme chantage.
• Reconnaissance faciale : détourner les systèmes de reconnaissance faciale, par exemple en fabriquant de fausses photos d’identité (accès à un smartphone, caméras de surveillance, contrôle de passagers…)
• Manipulation de marchés financiers : corrompre des algorithmes de trading afin de nuire à des concurrents, de faire baisser ou monter une valeur artificiellement, de provoquer un crash financier…
Intelligence artificielle : les menaces de faible intensité
• Exploitation de préjugés : tirer profit des biais existants des algorithmes, par exemple les recommandations de YouTube pour canaliser les spectateurs ou les classements de Google pour améliorer le profil des produits ou dénigrer les concurrents.
• Robots cambrioleurs : utiliser des petits robots autonomes se glissant dans les boîte aux lettres ou les fenêtres pour récupérer des clés ou ouvrir des portes. Les dommages sont faibles potentiellement, car très localisés à petite échelle.
• Blocage de détection par IA : déjouer le tri et la collecte de données par IA afin d’effacer des preuves ou de dissimuler des informations criminelles (pornographie par exemple)
• Fausses critiques rédigées par IA : générer des faux avis sur des sites tels que Amazon ou Tripadvisor pour nuire ou favoriser un produit.
• Traque assistée par IA : utiliser les systèmes d’apprentissage pour pister l’emplacement et l’activité d’un individu.
• Contrefaçon : fabriquer de faux contenus, comme des tableaux ou de la musique, pouvant être vendus sous une fausse paternité. Le potentiel de nuisance demeure assez faible dans la mesure où les tableaux ou musiques connues sont peu nombreux.

Cette semaine, plusieurs dizaines de pays, dont les États-Unis et la Chine, ont exhorté à réguler le développement et l’utilisation de intelligence artificielle dans le domaine militaire, évoquant les risques de « conséquences non souhaitées ». Le texte, signé par plus de 60 pays, évoque également des préoccupations relatives à « la question de l’implication humaine » ainsi que « le manque de clarté en ce qui concerne la responsabilité » et les « conséquences involontaires potentielles ».

Différents pays démocratiques veulent encadrer le secteur. Actuellement, l’Union européenne est au centre de ces efforts de régulation, son projet de loi « AI Act », censée encourager l’innovation et éviter les dérives, pourrait être finalisé fin 2023 ou début 2024, pour une application encore quelques années plus tard.

Sciences et avenir- L’Intelligence artificielle (IA) présentes les activités économiques

Sciences et avenir- L’Intelligence artificielle (IA) présentes les activités économiques et humaines


L’objectif ultime de l’IA est de développer un système intelligent pour simuler la pensée et l’intelligence humaines, tandis que le Machine Learning (ML) permet à la machine d’apprendre à partir des données pour donner le résultat souhaité. Alors que l’IA vise à rendre les machines plus humaines, le ML aide à faire en sorte que les machines apprennent comme les humains. Par Xavier Dalloz, consultant spécialisé dans les nouvelles technologies.

Les principales applications de l’IA et du ML concernent l’intelligence prévisionnelle et l’aide à la prise de décision. Pour chaque application, le pouvoir ne vient pas des machines, mais des décideurs qui sont derrière les machines, guidant leur réaction aux prédictions.
Un scientifique de l’Institut Max Planck résume très bien le principal enjeu : « l’IA va changer la médecine. Cela va changer la recherche. Cela changera la bio-ingénierie. Cela va tout changer ».
Et pour Jack Solow, le messages est encore plus clair « en 2011, les logiciels dévoraient le monde ; en 2022, l’IA dévore les logiciels. » Toute entreprise sans stratégie d’IA viable sera marginalisée d’ici la fin de cette décennie ».

L’intelligence artificielle prendra la relève de nombreuses activités, telles que la recherche sur le net, obtenir des conseils de voyage, et surtout les assistants personnels et les chatbots. Avec de l’intelligence artificielle dans les objets, nous n’aurons plus besoin d’interagir avec eux puisqu’ils sont capables de devenir autonomes et d’apprendre à anticiper nos intentions. Plus concrètement, l’IA va nous libérer d’un certain nombre d’actes inutiles et chronophages.

Pour la Darpa, l’Intelligence artificielle se mesure en fonction de quatre capacités :
• Percevoir
o C’est-à-dire récupérer des informations de l’environnement externe et la capacité à inférer des choses sur le monde via des sons, des images et d’autres entrées sensorielles.
• Apprentissage
o C’est-à-dire améliorer de façon autonome les fonctions de base
• Abstraction
o C’est-à-dire adaptation autonome à de nouvelles situations et compréhension du contexte
• Raisonnement
o C’est-à-dire prendre des décisions correctes avec de meilleures réponses en fonction des connaissances disponibles

On peut résumer les étapes du déploiement de l’intelligence artificielle de la façon suivante ;
• Première étape – Connaissance artisanale
La première vague de systèmes d’IA repose sur des connaissances artisanales. Ces systèmes, construits par des experts du domaine, contiennent des règles qui décrivent les processus de base et les ensembles de connaissances de domaines spécifiques.
• Deuxième étape – Apprentissage statistique
Les systèmes d’IA de deuxième vague sont ceux construits en utilisant des techniques d’apprentissage automatique telles que les réseaux de neurones. Ces systèmes s’appuient sur des modèles statistiques qui caractérisent un domaine spécifique. Ils alimentent ensuite les algorithmes du Big data en affinant sa capacité à prédire correctement le résultat.
• Troisième étape – Adaptation contextuelle
La troisième vague d’IA est constitué des systèmes capables d’adaptation contextuelle. Ce sont des systèmes qui construisent des modèles explicatifs pour des classes de phénomènes du monde réel. Les systèmes de la troisième vague montrent une capacité à comprendre ce qu’ils font et pourquoi ils le font.
Les types d’intelligence artificielle peuvent être regroupées en cinq catégories:
• Raisonnement
La capacité de résoudre des problèmes par déduction logique .
• Connaissance
La capacité de présenter des connaissances sur le monde. Par exemple : la négociation sur les marchés financiers, la prévision des achats, la prévention de la fraude, la création de médicaments ou le diagnostic médical.
• Planification
La capacité de définir et d’atteindre des objectifs. Par exemple : la gestion des stocks, la prévision de la demande, la maintenance prédictive, l’optimisation des réseaux physique et numérique, etc.
• Communication
La capacité à comprendre le langage parlé et écrit. Par exemple : la traduction en temps réel des langues parlées et écrites, les assistants intelligents ou la commande vocale
• Explicabilité
Sans explications derrière les fonctionnalités internes d’un modèle d’IA et les décisions qu’il prend, il y a un risque que le modèle ne soit pas considéré comme digne de confiance ou légitime. XAI offre la compréhensibilité et la transparence nécessaires pour permettre une plus grande confiance envers les solutions basées sur l’IA.
• Les réseaux de neurones
Les réseaux de neurones fonctionnent sur les principes similaires à ceux des cellules neuronales humaines. Il s’agit d’une série d’algorithmes qui capturent la relation entre diverses variables sous-jacentes et enregistrent les données comme le fait un cerveau humain.
• Traitement du langage naturel (PNL)
Le PNL est une science de lecture, de compréhension, d’interprétation d’un langage par une machine. Une fois qu’une machine comprend ce que l’utilisateur a l’intention de communiquer, elle répond en conséquence.
• Vision par ordinateur
Utiliser la vision par ordinateur signifie que l’utilisateur entre une image dans le système et que ce qu’il reçoit en tant que sortie peut inclure des caractéristiques quantitatives et donc de décisions.

Voici quelques exemples d’applications de l’intelligence qui vont être au cœur de la réinvention de secteurs d’activités :

Exemples dans le domaine des services financiers
L’intelligence artificielle dans le secteur bancaire accélère la numérisation des processus bancaires et financiers de bout en bout. En mettant en œuvre la puissance de l’analyse de données, des algorithmes ML intelligents et des intégrations sécurisées dans les applications, les applications d’IA optimisent la qualité du service et aident les entreprises à identifier et à combattre les fausses transactions.
• Exemple des Chatbots IA
o Les chatbots IA du secteur bancaire peuvent assister les clients 24h/24 et 7j/7 et donner des réponses précises à leurs requêtes. Ces chatbots offrent une expérience personnalisée aux utilisateurs.
• Exemple de l’amélioration de l’expérience client
o Les applications mobiles intelligentes utilisant des algorithmes ML peuvent surveiller le comportement des utilisateurs et en tirer des informations précieuses basées sur les modèles de recherche des utilisateurs. Ces informations vont aider les fournisseurs de services à proposer des recommandations personnalisées aux utilisateurs finaux.

• Exemple de l’automatisation et rend le processus transparent
o Les applications d’IA peuvent réduire la charge de travail des banquiers et optimiser la qualité du travail.
• Exemple de la collecte et de l’analyse de données
o Les banques peuvent également prendre des décisions commerciales efficaces grâce aux informations tirées des données clients et leur proposer des recommandations de services personnalisées.
• Exemple de la gestion de portefeuille
o La gestion de patrimoine et de portefeuille peut être effectuée de manière plus puissante grâce à l’intelligence artificielle.
• Exemple de la gestion des risques
o L’IA va aider les banquiers à identifier les risques liés à l’octroi de prêts.
o En utilisant le processus d’évaluation des risques basé sur l’IA, les banquiers peuvent analyser le comportement de l’emprunteur et ainsi réduire la possibilité d’actes frauduleux.
• Exemple de la détection de la fraude
o Les applications bancaires d’intelligence artificielle détectent les risques et minimisent les actes frauduleux.

Exemples dans le domaine de la gestion des villes
• Exemple du contrôle de la pollution
o Prédire les niveaux de pollution pour les prochaines heures. Ce type de technologie permet aux autorités de prendre des décisions à l’avance pour réduire leur impact sur l’environnement.
• Exemple de la gestion des systèmes de stationnement
o La disponibilité des places peut être présentée aux utilisateurs en attente, certaines technologies plus avancées ont la capacité de recommander des places en fonction de la voiture.
• Exemple da la gestion des transports publics
o Permettre aux usagers des transports en commun de recevoir et d’accéder aux dates et suivis en temps réel, ce qui améliore le timing et la satisfaction des clients.
• Exemple de la gestion des déchets
o Permettre aux villes de suivre le recyclage et d’identifier ce qui peut être recyclé dans la région.
• Exemple de la gestion du trafic
o Prédire et réduire le trafic, en utilisant des algorithmes d’apprentissage en profondeur, ce qui peut également réduire la pollution créée par le trafic.
• Exemple du suivi de la consommation de l’énergie
o Analyser et suivre la consommation d’énergie des entreprises et des citoyens, avec ces données, il peut ensuite être décidé où impliquer des sources d’énergie renouvelables.
• Exemple de la gestion de l’environnement
o Permettre aux autorités et aux villes de prendre des décisions éclairées qui sont les meilleures pour l’environnement. Les villes intelligentes utilisent également l’IA pour détecter le CO2, ce qui peut ensuite conduire à des décisions en matière de transport.

Exemples dans le domaine du commerce de détail
Le potentiel pour stimuler les ventes avec de l’IA dans les magasins est considérable :
• La reconnaissance intelligente des produits et la facturation automatisée permettent des magasins sans caissier
• Les interfaces d’IA telles que les chatbots et les écrans interactifs prennent en charge le service client
• Une tarification intelligente permet de gérer la demande et de stimuler les ventes
• L’analyse prédictive aide à la prévision des prix en fonction de la demande et des tendances saisonnières
• La gestion intelligente de la chaîne d’approvisionnement et la logistique améliorent la disponibilité des produit.
• Les modèles d’apprentissage automatique catégorisent et regroupent automatiquement les produits
• Les cabines d’essayage virtuelles avec miroirs intelligents prennent en charge le libre-service au plus haut niveau
• Prédire le comportement des clients
• Améliorer l’aménagement de la surface de vente en fonction de l’analyse du comportement des clients

Exemples dans le domaine de la santé
Qu’il s’agisse de l’utiliser pour détecter des liens entre des codes génétiques, d’utiliser des robots chirurgicaux ou même de maximiser l’efficacité des hôpitaux.
Par exemple :
• Soutien aux décisions cliniques
• Amélioration aux soins primaires grâce aux chatbots
• Chirurgies robotiques
• Infirmières auxiliaires virtuelles
• Aide au diagnostic précis

Sciences et prospective- L’Intelligence artificielle (IA) au centre de toutes les activités économiques

Sciences et prospective- L’Intelligence artificielle (IA) au centre de toutes les activités économiques


L’objectif ultime de l’IA est de développer un système intelligent pour simuler la pensée et l’intelligence humaines, tandis que le Machine Learning (ML) permet à la machine d’apprendre à partir des données pour donner le résultat souhaité. Alors que l’IA vise à rendre les machines plus humaines, le ML aide à faire en sorte que les machines apprennent comme les humains. Par Xavier Dalloz, consultant spécialisé dans les nouvelles technologies.

Les principales applications de l’IA et du ML concernent l’intelligence prévisionnelle et l’aide à la prise de décision. Pour chaque application, le pouvoir ne vient pas des machines, mais des décideurs qui sont derrière les machines, guidant leur réaction aux prédictions.
Un scientifique de l’Institut Max Planck résume très bien le principal enjeu : « l’IA va changer la médecine. Cela va changer la recherche. Cela changera la bio-ingénierie. Cela va tout changer ».
Et pour Jack Solow, le messages est encore plus clair « en 2011, les logiciels dévoraient le monde ; en 2022, l’IA dévore les logiciels. » Toute entreprise sans stratégie d’IA viable sera marginalisée d’ici la fin de cette décennie ».

L’intelligence artificielle prendra la relève de nombreuses activités, telles que la recherche sur le net, obtenir des conseils de voyage, et surtout les assistants personnels et les chatbots. Avec de l’intelligence artificielle dans les objets, nous n’aurons plus besoin d’interagir avec eux puisqu’ils sont capables de devenir autonomes et d’apprendre à anticiper nos intentions. Plus concrètement, l’IA va nous libérer d’un certain nombre d’actes inutiles et chronophages.

Pour la Darpa, l’Intelligence artificielle se mesure en fonction de quatre capacités :
• Percevoir
o C’est-à-dire récupérer des informations de l’environnement externe et la capacité à inférer des choses sur le monde via des sons, des images et d’autres entrées sensorielles.
• Apprentissage
o C’est-à-dire améliorer de façon autonome les fonctions de base
• Abstraction
o C’est-à-dire adaptation autonome à de nouvelles situations et compréhension du contexte
• Raisonnement
o C’est-à-dire prendre des décisions correctes avec de meilleures réponses en fonction des connaissances disponibles

On peut résumer les étapes du déploiement de l’intelligence artificielle de la façon suivante ;
• Première étape – Connaissance artisanale
La première vague de systèmes d’IA repose sur des connaissances artisanales. Ces systèmes, construits par des experts du domaine, contiennent des règles qui décrivent les processus de base et les ensembles de connaissances de domaines spécifiques.
• Deuxième étape – Apprentissage statistique
Les systèmes d’IA de deuxième vague sont ceux construits en utilisant des techniques d’apprentissage automatique telles que les réseaux de neurones. Ces systèmes s’appuient sur des modèles statistiques qui caractérisent un domaine spécifique. Ils alimentent ensuite les algorithmes du Big data en affinant sa capacité à prédire correctement le résultat.
• Troisième étape – Adaptation contextuelle
La troisième vague d’IA est constitué des systèmes capables d’adaptation contextuelle. Ce sont des systèmes qui construisent des modèles explicatifs pour des classes de phénomènes du monde réel. Les systèmes de la troisième vague montrent une capacité à comprendre ce qu’ils font et pourquoi ils le font.
Les types d’intelligence artificielle peuvent être regroupées en cinq catégories:
• Raisonnement
La capacité de résoudre des problèmes par déduction logique .
• Connaissance
La capacité de présenter des connaissances sur le monde. Par exemple : la négociation sur les marchés financiers, la prévision des achats, la prévention de la fraude, la création de médicaments ou le diagnostic médical.
• Planification
La capacité de définir et d’atteindre des objectifs. Par exemple : la gestion des stocks, la prévision de la demande, la maintenance prédictive, l’optimisation des réseaux physique et numérique, etc.
• Communication
La capacité à comprendre le langage parlé et écrit. Par exemple : la traduction en temps réel des langues parlées et écrites, les assistants intelligents ou la commande vocale
• Explicabilité
Sans explications derrière les fonctionnalités internes d’un modèle d’IA et les décisions qu’il prend, il y a un risque que le modèle ne soit pas considéré comme digne de confiance ou légitime. XAI offre la compréhensibilité et la transparence nécessaires pour permettre une plus grande confiance envers les solutions basées sur l’IA.
• Les réseaux de neurones
Les réseaux de neurones fonctionnent sur les principes similaires à ceux des cellules neuronales humaines. Il s’agit d’une série d’algorithmes qui capturent la relation entre diverses variables sous-jacentes et enregistrent les données comme le fait un cerveau humain.
• Traitement du langage naturel (PNL)
Le PNL est une science de lecture, de compréhension, d’interprétation d’un langage par une machine. Une fois qu’une machine comprend ce que l’utilisateur a l’intention de communiquer, elle répond en conséquence.
• Vision par ordinateur
Utiliser la vision par ordinateur signifie que l’utilisateur entre une image dans le système et que ce qu’il reçoit en tant que sortie peut inclure des caractéristiques quantitatives et donc de décisions.

Voici quelques exemples d’applications de l’intelligence qui vont être au cœur de la réinvention de secteurs d’activités :

Exemples dans le domaine des services financiers
L’intelligence artificielle dans le secteur bancaire accélère la numérisation des processus bancaires et financiers de bout en bout. En mettant en œuvre la puissance de l’analyse de données, des algorithmes ML intelligents et des intégrations sécurisées dans les applications, les applications d’IA optimisent la qualité du service et aident les entreprises à identifier et à combattre les fausses transactions.
• Exemple des Chatbots IA
o Les chatbots IA du secteur bancaire peuvent assister les clients 24h/24 et 7j/7 et donner des réponses précises à leurs requêtes. Ces chatbots offrent une expérience personnalisée aux utilisateurs.
• Exemple de l’amélioration de l’expérience client
o Les applications mobiles intelligentes utilisant des algorithmes ML peuvent surveiller le comportement des utilisateurs et en tirer des informations précieuses basées sur les modèles de recherche des utilisateurs. Ces informations vont aider les fournisseurs de services à proposer des recommandations personnalisées aux utilisateurs finaux.

• Exemple de l’automatisation et rend le processus transparent
o Les applications d’IA peuvent réduire la charge de travail des banquiers et optimiser la qualité du travail.
• Exemple de la collecte et de l’analyse de données
o Les banques peuvent également prendre des décisions commerciales efficaces grâce aux informations tirées des données clients et leur proposer des recommandations de services personnalisées.
• Exemple de la gestion de portefeuille
o La gestion de patrimoine et de portefeuille peut être effectuée de manière plus puissante grâce à l’intelligence artificielle.
• Exemple de la gestion des risques
o L’IA va aider les banquiers à identifier les risques liés à l’octroi de prêts.
o En utilisant le processus d’évaluation des risques basé sur l’IA, les banquiers peuvent analyser le comportement de l’emprunteur et ainsi réduire la possibilité d’actes frauduleux.
• Exemple de la détection de la fraude
o Les applications bancaires d’intelligence artificielle détectent les risques et minimisent les actes frauduleux.

Exemples dans le domaine de la gestion des villes
• Exemple du contrôle de la pollution
o Prédire les niveaux de pollution pour les prochaines heures. Ce type de technologie permet aux autorités de prendre des décisions à l’avance pour réduire leur impact sur l’environnement.
• Exemple de la gestion des systèmes de stationnement
o La disponibilité des places peut être présentée aux utilisateurs en attente, certaines technologies plus avancées ont la capacité de recommander des places en fonction de la voiture.
• Exemple da la gestion des transports publics
o Permettre aux usagers des transports en commun de recevoir et d’accéder aux dates et suivis en temps réel, ce qui améliore le timing et la satisfaction des clients.
• Exemple de la gestion des déchets
o Permettre aux villes de suivre le recyclage et d’identifier ce qui peut être recyclé dans la région.
• Exemple de la gestion du trafic
o Prédire et réduire le trafic, en utilisant des algorithmes d’apprentissage en profondeur, ce qui peut également réduire la pollution créée par le trafic.
• Exemple du suivi de la consommation de l’énergie
o Analyser et suivre la consommation d’énergie des entreprises et des citoyens, avec ces données, il peut ensuite être décidé où impliquer des sources d’énergie renouvelables.
• Exemple de la gestion de l’environnement
o Permettre aux autorités et aux villes de prendre des décisions éclairées qui sont les meilleures pour l’environnement. Les villes intelligentes utilisent également l’IA pour détecter le CO2, ce qui peut ensuite conduire à des décisions en matière de transport.

Exemples dans le domaine du commerce de détail
Le potentiel pour stimuler les ventes avec de l’IA dans les magasins est considérable :
• La reconnaissance intelligente des produits et la facturation automatisée permettent des magasins sans caissier
• Les interfaces d’IA telles que les chatbots et les écrans interactifs prennent en charge le service client
• Une tarification intelligente permet de gérer la demande et de stimuler les ventes
• L’analyse prédictive aide à la prévision des prix en fonction de la demande et des tendances saisonnières
• La gestion intelligente de la chaîne d’approvisionnement et la logistique améliorent la disponibilité des produit.
• Les modèles d’apprentissage automatique catégorisent et regroupent automatiquement les produits
• Les cabines d’essayage virtuelles avec miroirs intelligents prennent en charge le libre-service au plus haut niveau
• Prédire le comportement des clients
• Améliorer l’aménagement de la surface de vente en fonction de l’analyse du comportement des clients

Exemples dans le domaine de la santé
Qu’il s’agisse de l’utiliser pour détecter des liens entre des codes génétiques, d’utiliser des robots chirurgicaux ou même de maximiser l’efficacité des hôpitaux.
Par exemple :
• Soutien aux décisions cliniques
• Amélioration aux soins primaires grâce aux chatbots
• Chirurgies robotiques
• Infirmières auxiliaires virtuelles
• Aide au diagnostic précis

Nouvelles technologies- L’Intelligence artificielle (IA) au centre de toutes les activités économiques

Nouvelles technologies- L’Intelligence artificielle (IA) au centre de toutes les activités économiques


L’objectif ultime de l’IA est de développer un système intelligent pour simuler la pensée et l’intelligence humaines, tandis que le Machine Learning (ML) permet à la machine d’apprendre à partir des données pour donner le résultat souhaité. Alors que l’IA vise à rendre les machines plus humaines, le ML aide à faire en sorte que les machines apprennent comme les humains. Par Xavier Dalloz, consultant spécialisé dans les nouvelles technologies.

Les principales applications de l’IA et du ML concernent l’intelligence prévisionnelle et l’aide à la prise de décision. Pour chaque application, le pouvoir ne vient pas des machines, mais des décideurs qui sont derrière les machines, guidant leur réaction aux prédictions.
Un scientifique de l’Institut Max Planck résume très bien le principal enjeu : « l’IA va changer la médecine. Cela va changer la recherche. Cela changera la bio-ingénierie. Cela va tout changer ».
Et pour Jack Solow, le messages est encore plus clair « en 2011, les logiciels dévoraient le monde ; en 2022, l’IA dévore les logiciels. » Toute entreprise sans stratégie d’IA viable sera marginalisée d’ici la fin de cette décennie ».

L’intelligence artificielle prendra la relève de nombreuses activités, telles que la recherche sur le net, obtenir des conseils de voyage, et surtout les assistants personnels et les chatbots. Avec de l’intelligence artificielle dans les objets, nous n’aurons plus besoin d’interagir avec eux puisqu’ils sont capables de devenir autonomes et d’apprendre à anticiper nos intentions. Plus concrètement, l’IA va nous libérer d’un certain nombre d’actes inutiles et chronophages.

Pour la Darpa, l’Intelligence artificielle se mesure en fonction de quatre capacités :
• Percevoir
o C’est-à-dire récupérer des informations de l’environnement externe et la capacité à inférer des choses sur le monde via des sons, des images et d’autres entrées sensorielles.
• Apprentissage
o C’est-à-dire améliorer de façon autonome les fonctions de base
• Abstraction
o C’est-à-dire adaptation autonome à de nouvelles situations et compréhension du contexte
• Raisonnement
o C’est-à-dire prendre des décisions correctes avec de meilleures réponses en fonction des connaissances disponibles

On peut résumer les étapes du déploiement de l’intelligence artificielle de la façon suivante ;
• Première étape – Connaissance artisanale
La première vague de systèmes d’IA repose sur des connaissances artisanales. Ces systèmes, construits par des experts du domaine, contiennent des règles qui décrivent les processus de base et les ensembles de connaissances de domaines spécifiques.
• Deuxième étape – Apprentissage statistique
Les systèmes d’IA de deuxième vague sont ceux construits en utilisant des techniques d’apprentissage automatique telles que les réseaux de neurones. Ces systèmes s’appuient sur des modèles statistiques qui caractérisent un domaine spécifique. Ils alimentent ensuite les algorithmes du Big data en affinant sa capacité à prédire correctement le résultat.
• Troisième étape – Adaptation contextuelle
La troisième vague d’IA est constitué des systèmes capables d’adaptation contextuelle. Ce sont des systèmes qui construisent des modèles explicatifs pour des classes de phénomènes du monde réel. Les systèmes de la troisième vague montrent une capacité à comprendre ce qu’ils font et pourquoi ils le font.
Les types d’intelligence artificielle peuvent être regroupées en cinq catégories:
• Raisonnement
La capacité de résoudre des problèmes par déduction logique .
• Connaissance
La capacité de présenter des connaissances sur le monde. Par exemple : la négociation sur les marchés financiers, la prévision des achats, la prévention de la fraude, la création de médicaments ou le diagnostic médical.
• Planification
La capacité de définir et d’atteindre des objectifs. Par exemple : la gestion des stocks, la prévision de la demande, la maintenance prédictive, l’optimisation des réseaux physique et numérique, etc.
• Communication
La capacité à comprendre le langage parlé et écrit. Par exemple : la traduction en temps réel des langues parlées et écrites, les assistants intelligents ou la commande vocale
• Explicabilité
Sans explications derrière les fonctionnalités internes d’un modèle d’IA et les décisions qu’il prend, il y a un risque que le modèle ne soit pas considéré comme digne de confiance ou légitime. XAI offre la compréhensibilité et la transparence nécessaires pour permettre une plus grande confiance envers les solutions basées sur l’IA.
• Les réseaux de neurones
Les réseaux de neurones fonctionnent sur les principes similaires à ceux des cellules neuronales humaines. Il s’agit d’une série d’algorithmes qui capturent la relation entre diverses variables sous-jacentes et enregistrent les données comme le fait un cerveau humain.
• Traitement du langage naturel (PNL)
Le PNL est une science de lecture, de compréhension, d’interprétation d’un langage par une machine. Une fois qu’une machine comprend ce que l’utilisateur a l’intention de communiquer, elle répond en conséquence.
• Vision par ordinateur
Utiliser la vision par ordinateur signifie que l’utilisateur entre une image dans le système et que ce qu’il reçoit en tant que sortie peut inclure des caractéristiques quantitatives et donc de décisions.

Voici quelques exemples d’applications de l’intelligence qui vont être au cœur de la réinvention de secteurs d’activités :

Exemples dans le domaine des services financiers
L’intelligence artificielle dans le secteur bancaire accélère la numérisation des processus bancaires et financiers de bout en bout. En mettant en œuvre la puissance de l’analyse de données, des algorithmes ML intelligents et des intégrations sécurisées dans les applications, les applications d’IA optimisent la qualité du service et aident les entreprises à identifier et à combattre les fausses transactions.
• Exemple des Chatbots IA
o Les chatbots IA du secteur bancaire peuvent assister les clients 24h/24 et 7j/7 et donner des réponses précises à leurs requêtes. Ces chatbots offrent une expérience personnalisée aux utilisateurs.
• Exemple de l’amélioration de l’expérience client
o Les applications mobiles intelligentes utilisant des algorithmes ML peuvent surveiller le comportement des utilisateurs et en tirer des informations précieuses basées sur les modèles de recherche des utilisateurs. Ces informations vont aider les fournisseurs de services à proposer des recommandations personnalisées aux utilisateurs finaux.

• Exemple de l’automatisation et rend le processus transparent
o Les applications d’IA peuvent réduire la charge de travail des banquiers et optimiser la qualité du travail.
• Exemple de la collecte et de l’analyse de données
o Les banques peuvent également prendre des décisions commerciales efficaces grâce aux informations tirées des données clients et leur proposer des recommandations de services personnalisées.
• Exemple de la gestion de portefeuille
o La gestion de patrimoine et de portefeuille peut être effectuée de manière plus puissante grâce à l’intelligence artificielle.
• Exemple de la gestion des risques
o L’IA va aider les banquiers à identifier les risques liés à l’octroi de prêts.
o En utilisant le processus d’évaluation des risques basé sur l’IA, les banquiers peuvent analyser le comportement de l’emprunteur et ainsi réduire la possibilité d’actes frauduleux.
• Exemple de la détection de la fraude
o Les applications bancaires d’intelligence artificielle détectent les risques et minimisent les actes frauduleux.

Exemples dans le domaine de la gestion des villes
• Exemple du contrôle de la pollution
o Prédire les niveaux de pollution pour les prochaines heures. Ce type de technologie permet aux autorités de prendre des décisions à l’avance pour réduire leur impact sur l’environnement.
• Exemple de la gestion des systèmes de stationnement
o La disponibilité des places peut être présentée aux utilisateurs en attente, certaines technologies plus avancées ont la capacité de recommander des places en fonction de la voiture.
• Exemple da la gestion des transports publics
o Permettre aux usagers des transports en commun de recevoir et d’accéder aux dates et suivis en temps réel, ce qui améliore le timing et la satisfaction des clients.
• Exemple de la gestion des déchets
o Permettre aux villes de suivre le recyclage et d’identifier ce qui peut être recyclé dans la région.
• Exemple de la gestion du trafic
o Prédire et réduire le trafic, en utilisant des algorithmes d’apprentissage en profondeur, ce qui peut également réduire la pollution créée par le trafic.
• Exemple du suivi de la consommation de l’énergie
o Analyser et suivre la consommation d’énergie des entreprises et des citoyens, avec ces données, il peut ensuite être décidé où impliquer des sources d’énergie renouvelables.
• Exemple de la gestion de l’environnement
o Permettre aux autorités et aux villes de prendre des décisions éclairées qui sont les meilleures pour l’environnement. Les villes intelligentes utilisent également l’IA pour détecter le CO2, ce qui peut ensuite conduire à des décisions en matière de transport.

Exemples dans le domaine du commerce de détail
Le potentiel pour stimuler les ventes avec de l’IA dans les magasins est considérable :
• La reconnaissance intelligente des produits et la facturation automatisée permettent des magasins sans caissier
• Les interfaces d’IA telles que les chatbots et les écrans interactifs prennent en charge le service client
• Une tarification intelligente permet de gérer la demande et de stimuler les ventes
• L’analyse prédictive aide à la prévision des prix en fonction de la demande et des tendances saisonnières
• La gestion intelligente de la chaîne d’approvisionnement et la logistique améliorent la disponibilité des produit.
• Les modèles d’apprentissage automatique catégorisent et regroupent automatiquement les produits
• Les cabines d’essayage virtuelles avec miroirs intelligents prennent en charge le libre-service au plus haut niveau
• Prédire le comportement des clients
• Améliorer l’aménagement de la surface de vente en fonction de l’analyse du comportement des clients

Exemples dans le domaine de la santé
Qu’il s’agisse de l’utiliser pour détecter des liens entre des codes génétiques, d’utiliser des robots chirurgicaux ou même de maximiser l’efficacité des hôpitaux.
Par exemple :
• Soutien aux décisions cliniques
• Amélioration aux soins primaires grâce aux chatbots
• Chirurgies robotiques
• Infirmières auxiliaires virtuelles
• Aide au diagnostic précis

Prospective- L’Intelligence artificielle (IA) au centre de toutes les activités économiques

Prospective- L’Intelligence artificielle (IA) au centre de toutes les activités économiques


L’objectif ultime de l’IA est de développer un système intelligent pour simuler la pensée et l’intelligence humaines, tandis que le Machine Learning (ML) permet à la machine d’apprendre à partir des données pour donner le résultat souhaité. Alors que l’IA vise à rendre les machines plus humaines, le ML aide à faire en sorte que les machines apprennent comme les humains. Par Xavier Dalloz, consultant spécialisé dans les nouvelles technologies.

Les principales applications de l’IA et du ML concernent l’intelligence prévisionnelle et l’aide à la prise de décision. Pour chaque application, le pouvoir ne vient pas des machines, mais des décideurs qui sont derrière les machines, guidant leur réaction aux prédictions.
Un scientifique de l’Institut Max Planck résume très bien le principal enjeu : « l’IA va changer la médecine. Cela va changer la recherche. Cela changera la bio-ingénierie. Cela va tout changer ».
Et pour Jack Solow, le messages est encore plus clair « en 2011, les logiciels dévoraient le monde ; en 2022, l’IA dévore les logiciels. » Toute entreprise sans stratégie d’IA viable sera marginalisée d’ici la fin de cette décennie ».

L’intelligence artificielle prendra la relève de nombreuses activités, telles que la recherche sur le net, obtenir des conseils de voyage, et surtout les assistants personnels et les chatbots. Avec de l’intelligence artificielle dans les objets, nous n’aurons plus besoin d’interagir avec eux puisqu’ils sont capables de devenir autonomes et d’apprendre à anticiper nos intentions. Plus concrètement, l’IA va nous libérer d’un certain nombre d’actes inutiles et chronophages.

Pour la Darpa, l’Intelligence artificielle se mesure en fonction de quatre capacités :
• Percevoir
o C’est-à-dire récupérer des informations de l’environnement externe et la capacité à inférer des choses sur le monde via des sons, des images et d’autres entrées sensorielles.
• Apprentissage
o C’est-à-dire améliorer de façon autonome les fonctions de base
• Abstraction
o C’est-à-dire adaptation autonome à de nouvelles situations et compréhension du contexte
• Raisonnement
o C’est-à-dire prendre des décisions correctes avec de meilleures réponses en fonction des connaissances disponibles

On peut résumer les étapes du déploiement de l’intelligence artificielle de la façon suivante ;
• Première étape – Connaissance artisanale
La première vague de systèmes d’IA repose sur des connaissances artisanales. Ces systèmes, construits par des experts du domaine, contiennent des règles qui décrivent les processus de base et les ensembles de connaissances de domaines spécifiques.
• Deuxième étape – Apprentissage statistique
Les systèmes d’IA de deuxième vague sont ceux construits en utilisant des techniques d’apprentissage automatique telles que les réseaux de neurones. Ces systèmes s’appuient sur des modèles statistiques qui caractérisent un domaine spécifique. Ils alimentent ensuite les algorithmes du Big data en affinant sa capacité à prédire correctement le résultat.
• Troisième étape – Adaptation contextuelle
La troisième vague d’IA est constitué des systèmes capables d’adaptation contextuelle. Ce sont des systèmes qui construisent des modèles explicatifs pour des classes de phénomènes du monde réel. Les systèmes de la troisième vague montrent une capacité à comprendre ce qu’ils font et pourquoi ils le font.
Les types d’intelligence artificielle peuvent être regroupées en cinq catégories:
• Raisonnement
La capacité de résoudre des problèmes par déduction logique .
• Connaissance
La capacité de présenter des connaissances sur le monde. Par exemple : la négociation sur les marchés financiers, la prévision des achats, la prévention de la fraude, la création de médicaments ou le diagnostic médical.
• Planification
La capacité de définir et d’atteindre des objectifs. Par exemple : la gestion des stocks, la prévision de la demande, la maintenance prédictive, l’optimisation des réseaux physique et numérique, etc.
• Communication
La capacité à comprendre le langage parlé et écrit. Par exemple : la traduction en temps réel des langues parlées et écrites, les assistants intelligents ou la commande vocale
• Explicabilité
Sans explications derrière les fonctionnalités internes d’un modèle d’IA et les décisions qu’il prend, il y a un risque que le modèle ne soit pas considéré comme digne de confiance ou légitime. XAI offre la compréhensibilité et la transparence nécessaires pour permettre une plus grande confiance envers les solutions basées sur l’IA.
• Les réseaux de neurones
Les réseaux de neurones fonctionnent sur les principes similaires à ceux des cellules neuronales humaines. Il s’agit d’une série d’algorithmes qui capturent la relation entre diverses variables sous-jacentes et enregistrent les données comme le fait un cerveau humain.
• Traitement du langage naturel (PNL)
Le PNL est une science de lecture, de compréhension, d’interprétation d’un langage par une machine. Une fois qu’une machine comprend ce que l’utilisateur a l’intention de communiquer, elle répond en conséquence.
• Vision par ordinateur
Utiliser la vision par ordinateur signifie que l’utilisateur entre une image dans le système et que ce qu’il reçoit en tant que sortie peut inclure des caractéristiques quantitatives et donc de décisions.

Voici quelques exemples d’applications de l’intelligence qui vont être au cœur de la réinvention de secteurs d’activités :

Exemples dans le domaine des services financiers
L’intelligence artificielle dans le secteur bancaire accélère la numérisation des processus bancaires et financiers de bout en bout. En mettant en œuvre la puissance de l’analyse de données, des algorithmes ML intelligents et des intégrations sécurisées dans les applications, les applications d’IA optimisent la qualité du service et aident les entreprises à identifier et à combattre les fausses transactions.
• Exemple des Chatbots IA
o Les chatbots IA du secteur bancaire peuvent assister les clients 24h/24 et 7j/7 et donner des réponses précises à leurs requêtes. Ces chatbots offrent une expérience personnalisée aux utilisateurs.
• Exemple de l’amélioration de l’expérience client
o Les applications mobiles intelligentes utilisant des algorithmes ML peuvent surveiller le comportement des utilisateurs et en tirer des informations précieuses basées sur les modèles de recherche des utilisateurs. Ces informations vont aider les fournisseurs de services à proposer des recommandations personnalisées aux utilisateurs finaux.

• Exemple de l’automatisation et rend le processus transparent
o Les applications d’IA peuvent réduire la charge de travail des banquiers et optimiser la qualité du travail.
• Exemple de la collecte et de l’analyse de données
o Les banques peuvent également prendre des décisions commerciales efficaces grâce aux informations tirées des données clients et leur proposer des recommandations de services personnalisées.
• Exemple de la gestion de portefeuille
o La gestion de patrimoine et de portefeuille peut être effectuée de manière plus puissante grâce à l’intelligence artificielle.
• Exemple de la gestion des risques
o L’IA va aider les banquiers à identifier les risques liés à l’octroi de prêts.
o En utilisant le processus d’évaluation des risques basé sur l’IA, les banquiers peuvent analyser le comportement de l’emprunteur et ainsi réduire la possibilité d’actes frauduleux.
• Exemple de la détection de la fraude
o Les applications bancaires d’intelligence artificielle détectent les risques et minimisent les actes frauduleux.

Exemples dans le domaine de la gestion des villes
• Exemple du contrôle de la pollution
o Prédire les niveaux de pollution pour les prochaines heures. Ce type de technologie permet aux autorités de prendre des décisions à l’avance pour réduire leur impact sur l’environnement.
• Exemple de la gestion des systèmes de stationnement
o La disponibilité des places peut être présentée aux utilisateurs en attente, certaines technologies plus avancées ont la capacité de recommander des places en fonction de la voiture.
• Exemple da la gestion des transports publics
o Permettre aux usagers des transports en commun de recevoir et d’accéder aux dates et suivis en temps réel, ce qui améliore le timing et la satisfaction des clients.
• Exemple de la gestion des déchets
o Permettre aux villes de suivre le recyclage et d’identifier ce qui peut être recyclé dans la région.
• Exemple de la gestion du trafic
o Prédire et réduire le trafic, en utilisant des algorithmes d’apprentissage en profondeur, ce qui peut également réduire la pollution créée par le trafic.
• Exemple du suivi de la consommation de l’énergie
o Analyser et suivre la consommation d’énergie des entreprises et des citoyens, avec ces données, il peut ensuite être décidé où impliquer des sources d’énergie renouvelables.
• Exemple de la gestion de l’environnement
o Permettre aux autorités et aux villes de prendre des décisions éclairées qui sont les meilleures pour l’environnement. Les villes intelligentes utilisent également l’IA pour détecter le CO2, ce qui peut ensuite conduire à des décisions en matière de transport.

Exemples dans le domaine du commerce de détail
Le potentiel pour stimuler les ventes avec de l’IA dans les magasins est considérable :
• La reconnaissance intelligente des produits et la facturation automatisée permettent des magasins sans caissier
• Les interfaces d’IA telles que les chatbots et les écrans interactifs prennent en charge le service client
• Une tarification intelligente permet de gérer la demande et de stimuler les ventes
• L’analyse prédictive aide à la prévision des prix en fonction de la demande et des tendances saisonnières
• La gestion intelligente de la chaîne d’approvisionnement et la logistique améliorent la disponibilité des produit.
• Les modèles d’apprentissage automatique catégorisent et regroupent automatiquement les produits
• Les cabines d’essayage virtuelles avec miroirs intelligents prennent en charge le libre-service au plus haut niveau
• Prédire le comportement des clients
• Améliorer l’aménagement de la surface de vente en fonction de l’analyse du comportement des clients

Exemples dans le domaine de la santé
Qu’il s’agisse de l’utiliser pour détecter des liens entre des codes génétiques, d’utiliser des robots chirurgicaux ou même de maximiser l’efficacité des hôpitaux.
Par exemple :
• Soutien aux décisions cliniques
• Amélioration aux soins primaires grâce aux chatbots
• Chirurgies robotiques
• Infirmières auxiliaires virtuelles
• Aide au diagnostic précis

Intelligence artificielle : pas de remise en cause de la créativité humaine

Intelligence artificielle : pas de remise en cause de la créativité humaine


Avec l’arrivée de ChatGPT, le plagiat est devenu légion, singeant des contenus avec une efficacité redoutable. Que pourrait craindre l’intelligence humaine d’un système qui ne crée qu’à partir de ce qui a déjà été créé ? Par Samuel Cette, Cofondateur du Groupe ADONIS Éducation et Président des Éditions SEDRAP
( dans la Tribune)

Dans les années 50, le mathématicien Norbert Wiener posait les bases de la cybernétique en modélisant le cerveau aux comportements machiniques. Dans une approche plus sociétale, Nick Bostrom puis Kai-Fu Lee(1) évoquaient l’obligatoire nouveau contrat social, en alternant deux visions futuristes antinomiques :

• Vision utopique, en considérant l’émergence de ces technologies comme l’étape ultime vers une conscience augmentée, un « échappatoire à la condition de mortel ». C’est « Avatar ».
• Vision dystopique, craignant la puissance grandissante de machines auto-apprenantes, sans alignement avec les valeurs humaines. C’est « Terminator ».

D’aucuns se pensent libre d’agir, à leur guise, suivant leur instinct ou leur bon vouloir ? L’IA révèle qu’ils ne sont que le fruit de réponses conditionnées, aisément prévisibles…
Récemment, Sam Altman, père de ChatGPT considérait que nous n’étions que des « perroquets stochastiques(2) », finalement peu éloignés des moteurs qu’il développait. La version 3 de son système impressionne déjà par le traitement automatisé du langage naturel et par une excellente maitrise de la paraphrase et des systèmes de question-réponse. Spécifiquement conçue pour résoudre des taches liées au langage, cette IA ne dispose pas des capacités à résoudre une variété de taches différentes comme la compréhension de l’image, la résolution de problèmes avancés, la planification, la compréhension et une approche appliquée de la logique.

La panacée ? L’IA générale(3) qui exploitera des contenus existants au service de son propre apprentissage, pour générer des textes, des sons ou des images en se basant sur des informations déjà stockées dans des giga-bases de données. Autant de concepts qui sont seulement envisagés par l’humain, à ce jour.
Bien qu’il soit intrinsèque à la condition humaine d’envisager les évolutions comme des opportunités, les principes fondamentaux d’une forme de résistance aux changements, par leurs différentes phases, s’appliquent encore.

Des apprenants usent d’IA pour traiter leurs devoirs ? « On doit interdire ces programmes d’agir ! »

Des textes pertinents sont générés par une IA ? « On doit créer des programmes qui détectent ces créations ! »

En tant qu’éditeur de contenus, pédagogiques ou de formation, scolaires ou d’enseignement supérieur, nous sommes donc confrontés à des nouveaux paradigmes et de nouvelles interrogations. C’est l’intensité de l’impact de ce que nous vivons et sa compréhension qui ordonnera une action.

Une « réponse » à cette « agression » :
• selon que nous considérions ceci comme une simple évolution incrémentielle de nos usages, comme un « cran supplémentaire » qui serait atteint dans le progrès, sans modification sensible de nos usages ;
• selon que nous envisagions une révolution dans la promotion de nouvelles méthodologies du savoir.
Jadis, la démocratisation de l’internet, en tant que base mondiale de connaissances avait réduit la proéminence des apprentissages de données « par cœur », au profit d’une intégration des concepts. Assez naturellement, les éditeurs ont fait évoluer leurs outils : plus de travail sur la compréhension pour être plus à même de transférer ces connaissances à des résolutions de problèmes.
Désormais, une nouvelle technologie d’intelligence artificielle laissera penser qu’elle peut désormais émuler une réflexion humaine et donc manier des concepts, reléguant le célèbre « copier/coller de Wikipédia » au rang de pratiques ancestrales.

Défi énorme pour l’éducation, défi énorme pour l’édition…
« Si nous évaluons des notions qui peuvent être produites par des robots, c’est que peut-être nous n’évaluons pas les bonnes choses ? »
« Si nous nous satisfaisons d’outils créés par des robots, c’est que notre valeur ajoutée n’est pas là ou elle devrait être ? »
Dans la structuration de la pensée, en tant qu’élaboration de concepts, les chercheurs déclarent qu’il y a (encore) de nombreuses choses que l’IA ne peut pas faire :

• La compréhension textuelle, le sens des mots dans un contexte déterminé, pourtant essentielle dans le cadre d’interactions et de communication humaine,
• La créativité : l’IA ne peut que générer des idées en utilisant des données existantes,
• Les décisions éthiques : par absence de compréhension des nuances et des conséquences des actions,
• L’intuition, l’empathie et les émotions.

Voici donc Piaget(4) ressorti de sa boite pour valoriser une compréhension en constante évolution, fruit d’une permanente restructuration conceptuelle à travers les expériences de l’apprenant. Finalement, le combat humains/IA aurait déjà été théorisé au 20ème siècle, entre les béhavioristes et les constructivistes ! Plus loin encore, avant notre ère, les grecs établissaient les dialogues socratiques et les romains conceptualisaient la méthode du défi pour transcender l’acuité intellectuelle. Finalement, ici, rien de nouveau!
Que pourrait craindre l’intelligence humaine d’un système qui ne crée qu’à partir de ce qui a déjà été créé ? Dans un tel monde, tout tendrait vers l’uniformisation des idées, une forme de consanguinité dégénératrice créée par les machines.

Autant nourrir des bovins avec de la poudre de bovins(5) ! Sauf à considérer que l’intelligence n’est qu’accumulation de connaissances, en usurpant les fonctions cognitives de la création ; dans cet océan de conformité sans saveur, demeura la créativité humaine.

Ainsi, nos productions pédagogiques devront favoriser l’évaluation des compétences sociales et créatives, la valorisation des réflexions critiques et bien entendu toute analyse de situations et de contextes favorisant les interactions et présentations orales. Ce passage obligatoire à des processus d’investigation active devrait préparer nos apprenants à l’obligatoire adaptation au (nouveau) nouveau monde de la communication et de l’information.

Gageons que la « création par intelligence humaine », comme toute chose rare, sera valorisée et recherchée. Après les labels « conforme aux programmes », comme gage de qualité, « fabriqué en France » comme gage de responsabilité, voici venir le label « produit par une intelligence humaine », comme gage de créativité exclusive !
Conservez ce texte, il a de la valeur, il a été conçu par un humain… Ce sont les robots qui le disent.(6)
______
(1) Nick Bostrom, SUPERINTELLIGENCE : ouvrage dystopique sur le développement de l’IA qui a provoqué l’effroi à sa parution et qui est désormais davantage considéré comme un ouvrage à lire au filtre des récits fantastiques. Kai-Fu Lee , « IA, la plus grande mutation de l’histoire » : ouvrage très dense et relevant plus d’une démarche sino-centré que d’un ouvrage de prospective. Cette ouvrage a fait l’objet d’ouvrages de synthèse, ayant eux-même fait l’objet de fiches de synthétiques…
(2) Conditionné par des mécanismes de réflexes, liés au traitement de données massive par le calcul des probabilités. « Sur les dangers des perroquets stochastiques : les modèles de langage peuvent-ils être trop grands ? » de Gebru, Shmitchell, McMillan-Major et Bender.
(3) AIG – Intelligence artificielle générale planifiée pour 2040.
(4) Développée par Jean Piaget (1964) en réaction au behaviorisme, la théorie constructiviste met en avant le fait que les activités et les capacités cognitives inhérentes à chaque sujet lui permettent de comprendre et d’appréhender les réalités qui l’entourent (cairn.info).
(5) Dans les années 90, une infection dégénérative du système nerveux central des bovins trouvait son origine dans l’utilisation pour leur alimentation de farines animales, obtenues à partir de parties non consommées des carcasses bovines et de cadavres d’animaux. Cette crise symbolise parfaitement la déroute sanitaire fruit de la rupture basique des liens unissant la chaine alimentaire.
(6) Texte considéré comme réel (humain) à 99.8 % par GPT-2 Output Detector Demo. Average Perplexity Score: 1209 et Burstiness Score: 3513 sur gptzero.me. Merci aux robots de confirmer notre condition humaine !

Une intelligence artificielle limitée

Une intelligence artificielle limitée

Les techniques actuelles d’intelligence artificielle, même avec toujours plus de puissance informatique, resteront intellectuellement limitées. Par Jean-Louis Dessalles, Institut Mines-Télécom (IMT)

Il y a près de 10 ans, en 2012, le monde scientifique s’émerveillait des prouesses de l’apprentissage profond (le deep learning). Trois ans plus tard, cette technique permettait au programme AlphaGo de vaincre les champions de Go. Et certains ont pris peur. Elon Musk, Stephen Hawking et Bill Gates s’inquiétèrent d’une fin prochaine de l’humanité, supplantée par des intelligences artificielles échappant à tout contrôle.

N’était-ce pas un peu exagéré ? C’est précisément ce que pense l’IA. Dans un article qu’il a écrit en 2020 dans The Guardian, GPT-3, ce gigantesque réseau de neurones doté de 175 milliards de paramètres explique :

« Je suis ici pour vous convaincre de ne pas vous inquiéter. L’intelligence artificielle ne va pas détruire les humains. Croyez-moi. »
En même temps, nous savons que la puissance des machines ne cesse d’augmenter. Entraîner un réseau comme GPT-3 était impensable, littéralement, il y a encore cinq ans. Impossible de savoir de quoi seront capables ses successeurs dans cinq, dix ou vingt ans. Si les réseaux de neurones actuels peuvent remplacer les dermatologues, pourquoi ne finiraient-ils pas par nous remplacer tous ?
Y a-t-il des compétences mentales humaines qui restent strictement hors d’atteinte de l’intelligence artificielle ?

On pense immédiatement à des aptitudes impliquant notre « intuition » ou notre « créativité ». Pas de chance, l’IA prétend nous attaquer sur ces terrains-là également. Pour preuve, le fait que des œuvres créées par programmes se sont vendues fort cher, certaines atteignant presque le demi-million de dollars. Côté musique, chacun se fera bien sûr son opinion, mais on peut déjà reconnaître du bluegrass acceptable ou du quasi Rachmaninoff dans les imitations du programme MuseNet créé, comme GPT-3, par OpenAI.

Devrons-nous bientôt nous soumettre avec résignation à l’inévitable suprématie de l’intelligence artificielle ? Avant d’en appeler à la révolte, essayons de regarder à quoi nous avons affaire. L’intelligence artificielle repose sur plusieurs techniques, mais son succès récent est dû à une seule : les réseaux de neurones, notamment ceux de l’apprentissage profond. Or un réseau de neurones n’est rien de plus qu’une machine à associer. Le réseau profond qui fit parler de lui en 2012 associait des images : un cheval, un bateau, des champignons, aux mots correspondants. Pas de quoi crier au génie.

Sauf que ce mécanisme d’association possède la propriété un peu miraculeuse d’être « continue ». Vous présentez un cheval que le réseau n’a jamais vu, il le reconnaît en tant que cheval. Vous ajoutez du bruit à l’image, cela ne le gêne pas. Pourquoi ? Parce que la continuité du processus vous garantit que si l’entrée du réseau change un peu, sa sortie changera peu également. Si vous forcez le réseau, qui hésite toujours, à opter pour sa meilleure réponse, celle-ci ne variera probablement pas : un cheval reste un cheval, même s’il est différent des exemples appris, même si l’image est bruitée.

Bien, mais pourquoi dire qu’un tel comportement associatif est « intelligent » ? La réponse semble évidente : il permet de diagnostiquer les mélanomes, d’accorder des prêts bancaires, de maintenir un véhicule sur la route, de détecter une pathologie dans les signaux physiologiques, et ainsi de suite. Ces réseaux, grâce à leur pouvoir d’association, acquièrent des formes d’expertise qui demandent aux humains des années d’études. Et lorsque l’une de ces compétences, par exemple la rédaction d’un article de presse, semble résister un temps, il suffit de faire ingurgiter à la machine encore davantage d’exemples, comme ce fut fait avec GPT-3, pour que la machine commence à produire des résultats convaincants.

Est-ce vraiment cela, être intelligent ? Non. Ce type de performance ne représente au mieux qu’un petit aspect de l’intelligence. Ce que font les réseaux de neurones ressemble à de l’apprentissage par cœur. Ce n’en est pas, bien sûr, puisque ces réseaux comblent par continuité les vides entre les exemples qui leur ont été présentés. Disons que c’est du presque-par-cœur. Les experts humains, qu’ils soient médecins, pilotes ou joueurs de Go, ne font souvent pas autre chose lorsqu’ils décident de manière réflexe, grâce à la grande quantité d’exemples appris pendant leur formation. Mais les humains ont bien d’autres pouvoirs.

Un réseau de neurones ne peut pas apprendre à calculer. L’association entre des opérations comme 32+73 et leur résultat à des limites. Ils ne peuvent que reproduire la stratégie du cancre qui tente de deviner le résultat, en tombant parfois juste. Calculer est trop difficile ? Qu’en est-il d’un test de QI élémentaire du genre : continuer la suite 1223334444. L’association par continuité n’est toujours d’aucun secours pour voir que la structure, n répété n fois, se poursuit par cinq 5. Encore trop difficile ? Les programmes associatifs ne peuvent même pas deviner qu’un animal mort le mardi n’est pas vivant le mercredi. Pourquoi ? Que leur manque-t-il ?

La modélisation en sciences cognitives a révélé l’existence de plusieurs mécanismes, autres que l’association par continuité, qui sont autant de composantes de l’intelligence humaine. Parce que leur expertise est entièrement précalculée, ils ne peuvent pas raisonner dans le temps pour décider qu’un animal mort reste mort, ou pour comprendre le sens de la phrase « il n’est toujours pas mort » et la bizarrerie de cette autre phrase : « il n’est pas toujours mort ». La seule prédigestion de grandes quantités de données ne leur permet pas non plus de repérer les structures inédites si évidentes pour nous, comme les groupes de nombres identiques dans la suite 1223334444. Leur stratégie du presque-par-cœur est aussi aveugle aux anomalies inédites.

La détection des anomalies est un cas intéressant, car c’est souvent à travers elle que nous jaugeons l’intelligence d’autrui. Un réseau de neurones ne « verra » pas que le nez est absent d’un visage. Par continuité, il continuera à reconnaître la personne, ou peut-être la confondra-t-il avec une autre. Mais il n’a aucun moyen de réaliser que l’absence de nez au milieu du visage constitue une anomalie.

Il existe bien d’autres mécanismes cognitifs qui sont inaccessibles aux réseaux de neurones. Leur automatisation fait l’objet de recherches. Elle met en œuvre des opérations effectuées au moment du traitement, là où les réseaux de neurones se contentent d’effectuer des associations apprises par avance.

Avec une décennie de recul sur le deep learning, le public averti commence à voir les réseaux de neurones bien plus comme de « super-automatismes » et bien moins comme des intelligences. Par exemple, la presse a récemment alerté sur les étonnantes performances du programme DALL-E, qui produit des images créatives à partir d’une description verbale – par exemple, les images que DALL-E imagine à partir des termes « fauteuil en forme d’avocat », sur le site OpenAI). On entend maintenant des jugements bien plus mesurés que les réactions alarmistes qui ont suivi la sortie d’AlphaGo : « C’est assez bluffant, mais il ne faut pas oublier qu’il s’agit d’un réseau de neurones artificiel, entraîné pour accomplir une tâche ; il n’y a aucune créativité ni aucune forme d’intelligence. » (Fabienne Chauvière, France Inter, 31 janvier 2021)

Aucune forme d’intelligence ? Ne soyons pas trop exigeants, mais restons lucides sur l’énorme fossé qui sépare les réseaux de neurones de ce que serait une véritable intelligence artificielle.
________
Par Jean-Louis Dessalles, Maître de Conférences, Institut Mines-Télécom (IMT)
Jean Louis Dessalles a écrit « Des intelligences très artificielles » aux éditions Odile Jacob (2019).

Obsolescence de l’homme avec l’intelligence artificielle ?

Obsolescence de l’homme avec l’intelligence artificielle ?

Ingénieure diplômée de l’École polytechnique, spécialiste de l’intelligence artificielle et co-autrice de « Intelligence artificielle » La nouvelle barbarie » (éditions du Rocher, 2019), Marie David fait le point dans Marianne

L’intelligence artificielle (IA) ChatGPT, capable de converser « intelligemment » et d’émettre des avis pertinents, crée beaucoup d’engouement sur Internet. Le comprenez-vous ?

Marie David :Oui, car même si les technologies utilisées pour faire tourner ChatGPT existent depuis longtemps, c’est la première fois qu’un modèle aussi performant est mis à disposition du grand public. En effet, contrairement aux modèles précédents développés par OpenAI, qui apprenaient à répliquer des motifs à partir d’un corpus donné, ChatGPT a été ré-entraîné par des techniques complémentaires dites de « réapprentissage renforcé ». Cela signifie que le modèle a été entraîné afin de pouvoir donner des réponses plus proches de celles que fournirait un être humain. En résumé, ChatGPT offre une variété très impressionnante de fonctionnalités et une vraie versatilité. On peut l’utiliser pour lui demander des informations sur de nombreux sujets, traduire un texte, rédiger des mails ou des textes simples, comprendre des lignes de code informatique ou en écrire… Les applications sont immenses.

« Il faut donc envisager un monde où les productions des IA trouvent leur place au sein des productions humaines. »

En revanche, il faut préciser que ChatGPT n’est que la suite de progrès incrémentaux [c’est-à-dire qui découlent des améliorations de l’existant – N.D.L.R.] dans ce domaine de l’IA qui est celui de l’apprentissage statistique [type de méthodes qui se fondent sur les mathématiques et les statistiques pour donner aux IA la capacité d'« apprendre » à partir de données – N.D.L.R.]. Il n’y a pas de magie, ni d’ailleurs d’intelligence derrière cette IA, qui, comme les autres modèles de deep learning, requiert des milliards d’heures de calcul et des volumes faramineux de données pour être entraînée.


Dans le même temps, Midjourney transforme les textes en dessin. L’homme risque-t-il d’être dépassé par l’IA dans la création artistique ?

Dans la création artistique, oui bien sûr, et dans de nombreux autres domaines. Plutôt que dépassé, j’utiliserai le mot « remplacé ». Aujourd’hui les IA peuvent produire des images, composer des morceaux, écrire des articles de journaux ou de blog (comme GPT-3, l’ancêtre de ChatGPT), traiter des conversations sur des scripts simples (par exemple comprendre le problème d’un consommateur et l’orienter vers un service client), voire écrire des livres, comme en publie la jeune maison d’édition Rrose édition. Une IA n’écrira jamais Ulysse (James Joyce, 1922) ni l’Homme sans qualité (Robert Musil, 1930), mais elle peut sans problème produire un texte équivalent à 90% de ce qui couvre les tables des libraires. Cela donne lieu à des réflexions fascinantes sur le rôle de la moyenne et de la régularité.

Tant que les productions humaines restent dans une certaine régularité, une IA peut sans problème les remplacer. Mais n’y a-t-il pas par essence de la moyenne, de la régularité dans toutes les productions humaines, des répétitions dans une école de peinture ? Dans les compositions d’un musicien ? Il faut donc envisager un monde où les productions des IA trouvent leur place au sein des productions humaines, ce qui pose des questions fascinantes.

« L’obsolescence de l’homme » dont parlait le philosophe Günther Anders, en 1956, est-elle toute proche ?

Je vais vous répondre d’une façon provocatrice : ce qui m’étonne c’est que finalement les IA soient si peu utilisées. Nous pourrions en réalité remettre beaucoup plus de nos décisions de la vie de tous les jours aux IA, automatiser beaucoup plus d’emplois, et leur faire produire beaucoup plus de choses (des livres, des films). Je ne dis pas que c’est souhaitable, simplement que c’est techniquement possible. Mon interprétation est que nous avons malgré tout une répugnance instinctive à nous faire remplacer par des machines, qui fait qu’au-delà de leur coût encore prohibitif et de leur complexité, nous rechignons à utiliser les IA à leurs pleines capacités.

Finalement, les grandes évolutions scientifiques mettent des dizaines voire des centaines d’années à se diffuser dans le reste d’une culture. La révolution copernicienne s’est étendue sur plus de 150 ans. Il est trop tôt pour nous pour comprendre en quoi cette technologie va profondément modifier notre façon de travailler et d’interagir avec la machine. Ce qui est le plus inquiétant, c’est l’anthropomorphisation inévitable de notre relation avec des algorithmes comme l’avait montré Shelly Turkle dans son remarquable essai Seuls ensemble (traduit par les éditions L’échappée en 2015).

Nous ne pouvons nous empêcher de prêter des sentiments humains et en tout cas d’en éprouver vis-à-vis d’un artefact (qu’il soit un robot ou comme ChatGPT un chatbot) qui simule soit des caractéristiques du vivant, soit des facultés cognitives comme celles de l’homme. Les créateurs de ChatGPT ont d’ailleurs été sensibles à ce problème puisque l’algorithme vous rappelle très régulièrement qu’il n’est qu’une IA.

L’autre développement inquiétant c’est que nous devons de plus en plus travailler au service des IA : en effet pour préparer les immenses volumes de données sur lesquelles les IA sont entraînées, il faut des petites mains pour classifier et annoter les données. Ce sont des tâches répétitives et mal payées, nécessaires cependant pour avoir des IA performantes. Un nouveau prolétariat au service des machines pourrait ainsi se développer

IA : ni intelligente ni artificielle

IA : ni intelligente ni artificielle 

OPINION. Depuis quelques mois voire quelques années, il n’y a que peu de discours dans le battage médiatique où l’intelligence artificielle n’est pas honnie ou encensée. Entre contempteurs et laudateurs, le débat autour de l’intelligence artificielle (IA) a peu à peu fait place à un combat d’initiés, dont une large part de la population se sent exclue. Par Mohammed Sijelmassi, CTO chez Sopra Steria ( La Tribune)

 

Pour les laudateurs, plus un seul produit, plus une seule plaquette publicitaire, plus un seul service n’est évoqué sans qu’il ne soit mention de « machine learning » ou d’algorithmes. Ces mêmes discours sont généralement agrémentés de quelques mots magiques ou « buzzwords » comme « apprentissage profond », « renforcement », « frugalité », sans oublier bien sûr les notions d’éthique et de confiance, particulièrement à la mode ces derniers temps.

L’intelligence artificielle (IA) en vient même à être « personnifiée » même si celle-ci n’est, bien qu’extrêmement complexe, qu’une technologie : l’IA devenant l’alpha et l’oméga de notre existence, la réponse rêvée à l’ensemble de nos problèmes. L’avancée majeure que constitue le développement de l’IA, laisse en effet entrevoir des possibilités presque infinies. Les gains de productivité se font eux déjà sentir pour les entreprises ayant pris le virage de cette technologie. Le cabinet McKinsey estime que d’ici 2030, l’IA pourrait apporter 1,2% de croissance annuelle supplémentaire au niveau mondial.

L’emploi d’outils et de techniques d’Intelligence Artificielle ouvre de nouvelles perspectives dans de nombreux domaines tels que l’éducation, l’industrie, les transports, l’agriculture et bien d’autres.

Les contempteurs quant à eux naviguent entre « la dictature supposée des algorithmes », le grand remplacement de l’homme par la machine et autres théories dystopiques. Plus terre à terre et loin des thèses et univers dystopiques, l’utilisation des algorithmes à des fins de surveillance, de réorganisation du travail ou encore l’impact énergétique de certaines technologies, posent en réalité des questions bien plus légitimes. Les craintes que suscite l’IA sont par ailleurs au centre du rapport Villani de 2018, « Donner un sens à l’Intelligence Artificielle ». Cédric O, évoquait régulièrement la question de la fracture numérique, traduisant une réelle préoccupation jusque dans les plus hautes sphères de l’Etat.

Bien qu’offrant de formidables opportunités, l’IA accélère la montée en puissance du numérique dans nos sociétés tout en complexifiant sa maitrise. Dans un tel écosystème forgé par les algorithmes, seuls les utilisateurs dotés d’un certain niveau de connaissance et de maîtrise peuvent garder leur entier libre arbitre, comprendre leur environnement et ne pas se laisser enfermer dans une bulle.

Convenons néanmoins qu’entre laudateurs et contempteurs il existe un chemin qui tout en reconnaissant les apports de la technologie n’occulte ni les biais ou les menaces que certains usages peuvent produire. Ne jetons pas tous les apports de l’IA dans l’imagerie médicale et la détection précoce de cancers sous prétexte que la reconnaissance faciale généralisée peut être un danger pour nos libertés, pas plus que nous ne devrions mettre en cause une part de nos libertés pour faciliter la lutte anti-blanchiment.

« Science sans conscience n’est que ruine de l’âme » disait-on déjà il y a quelque cinq cents ans.

Même si nombre d’organisations, de scientifiques ou de membres de la société civile, se mobilisent pour faire de l’éthique de l’IA un point central, devons-nous, pour autant, laisser cette charge à la seule discrétion des initiés ou n’avons-nous pas à démocratiser le savoir, à faire en sorte que la compréhension de la technologie, de ses capacités et de ses limites devienne le fait de tous et que l’IA ne soit ni divine ni l’incarnation du démon.

L’IA est, à juste titre, un levier de puissance incontournable… à condition que cette technologie soit accessible à toute les sphères de la société et ne soit pas l’apanage d’une partie seulement de la population. Ainsi, prévenir le développement des fractures numériques et un enjeu décisif. L’intelligence artificielle est donc un phénomène qu’il convient d’aborder sous ses différents aspects : se focaliser uniquement sur les opportunités qu’elle amène, c’est occulter les déboires qu’elle peut occasionner. La capacité des États à se doter d’une stratégie permettant de développer leur niveau technologique tout en assurant une éducation numérique satisfaisante à leur population sera déterminante afin de bénéficier de l’IA sans en subir les revers.

A un moment, où la science est parfois décriée, où les théories complotistes fleurissent à dessein ou par méconnaissance, faisons en sorte que dans toutes nos écoles du primaire au lycée, des universités aux grandes écoles scientifiques, nos jeunes générations soient instruites tout autant des bienfaits que des risques. Faisons en sorte d’expliquer, d’éduquer et démystifier pour tout un chacun ce que cette technologie peut apporter et faire comprendre à tous que, comme le dit si bien Kate Crawford :

« l’IA n’est ni intelligente ni artificielle ».

Intelligence artificielle : progrès et illusions

 

Intelligence artificielle : progrès et illusions

Serions-nous entrés dans un nouvel âge de l’IA, chemin tortueux et certainement plus rocambolesque que la voie toute tracée de la Singularité technologique, que nous annonçaient les prophètes de la Silicon Valley ? S’interroge un papier sur le site The  Conversation

Parler de sentience artificielle (SA) plutôt que d’intelligence artificielle (IA) représente-t-elle une vraie inflexion, un progrès ou bien une illusion ?

S’expérimentent aujourd’hui dans le plus grand chaos des entités difficiles à caractériser, ni intelligentes ni sentientes, sauf par abus de langage, mais qui peuvent bluffer leurs concepteurs dans certaines conditions, grâce à leurs capacités de calcul. Cette expérimentation collective, de grande ampleur, n’aura pour limites que celles que nous saurons lui donner, mais aussi celles de nos capacités à attribuer de l’intelligence ou de la sentience autrement que sur le mode du « comme si… ».

Rien ne sert de se demander si les machines sont intelligentes, se disait Alan Turing. En revanche, il faut se poser la question : jusqu’où une machine peut-elle nous tromper sur le fait qu’elle pense ? Jusqu’où peut-on faire semblant ? Comment un programme peut-il se faire passer pour un humain et dissimuler le fait qu’il est un programme ? Tel était pour lui le problème pertinent. À peine commence-t-on à saisir les implications du génie ironique de Turing que le débat s’est déplacé. Jusqu’où une machine est-elle capable d’apprendre ? se demande-t-on aujourd’hui. Un réseau de neurones d’IA est-il comparable à celui d’un ver, d’un enfant ou à rien du tout d’équivalent ?

Les ingénieurs sont passés maîtres dans l’art de fabriquer des « intelligences sans représentation », c’est-à-dire dénuées de tout ce qui fait la substance d’un cerveau et dont l’intelligence est justement de ne pas avoir… d’intelligence. Ce sont ces drôles d’ossatures cognitives, ces intelligences sèches, pourrait-on dire, qui nous ont envahi. Elles s’obtiennent en retirant au vivant sa chair, mais en lui empruntant ses circuits selon un principe d’analogie molle. Le problème est qu’il y a encore eu méprise sur la marchandise : au lieu d’intelligence, quelque chose d’autre s’est inventé dont on n’aurait jamais soupçonné l’existence, à mi-chemin entre de l’intelligence 0 – et de la bêtise 1+, à degré variable.

Celle-ci s’est trouvée disséminée partout où on le pouvait, un peu comme le gaz d’absolu dans le roman de Karel Capek, dans les administrations, les bureaucraties, sur les marchés financiers, dans les maisons, sur les smartphones, dans les cerveaux. L’histoire de l’IA n’est pas finie, elle ne fait que commencer. Le front ne cesse de bouger. Après l’intelligence, la sensibilité. Jusqu’où une machine peut-elle nous tromper sur le fait qu’elle sent, autrement dit qu’elle est sentiente ?

On remarque qu’on se pose la même question qu’à l’époque de Turing, juste troqué le terme d’intelligence pour un autre : Sentience. C’est alors un autre horizon qui s’ouvre. Avec les machines « sentientes », on ne voit pas comment diminuerait le risque déjà entrevu avec les machines « intelligentes » de passer de l’espérance à la désillusion, aussi brutalement qu’entre 0 et 1, ON et OFF, sans gradation. Prolifèrent de partout des simulacres de sentience ou des moins-que-sentients à qui l’on attribue une sensibilité par sympathie, ou par croyance, mais ce sont d’autres questions anthropologiques qui surgissent, des jeux inédits qui se mettent place et d’autres limites que l’on teste dans ce grand laboratoire qu’est devenu notre monde.

Pour ressentir en effet, il est convenu qu’il faut un système nerveux. Les machines n’en étant pas dotées, elles ont été déclarées « non sentientes ».

Faut-il se préparer à ce qu’elles atteignent ce stade ? Fort peu probable, nous dit-on. Mais à quoi servirait l’IA si elle ne bousculait pas les fondements sur lesquels l’humanité se croyait solidement assise ? IA Fais-moi peur.

Avec l’événement suscité par Blake Lemoine, nous avons peut-être commencé d’entrevoir ce que nous cherchions. Non pas l’intelligence ou la sentience, mais le trouble absolu. Peut-on concevoir des sentiences autres que sur un modèle neuronal ? Sommes-nous vraiment capables d’éprouver la sentience d’un être qui aurait des modalités de prise sur le monde totalement différentes des nôtres ?

À cheval entre la sensibilité et la conscience, la sentience semblait jusqu’ici le privilège des vivants dotés d’un système nerveux, vertébrés et invertébrés compris, et désigner la capacité à ressentir une sensation, une émotion, une expérience subjective, autrement dit un degré de conscience minimal, pas seulement une capacité à sentir qui fait de soi un être sentant mais à ressentir.

Éprouver de la souffrance ou du plaisir et, par extension, chercher à vivre en protégeant son intégrité physique, fait de soi un être sentient. Inutile de dire que le débat sur les frontières floues de la sentience, sa limite inférieure (dans la sensation) ou supérieure (dans la cognition), irrigue de multiples domaines, de l’éthologie cognitive à la philosophie de l’esprit, en passant par l’anthropologie, la robotique et les sciences de l’évolution.

Faire le tri entre les « sentients » et ceux qui ne le sont pas est une question éminemment culturelle, morale et politique comme le montre le débat entre « spécistes » et « antispécistes » depuis la fin des années 80.

La sentience serait devenue un critère pour réguler sa considération envers les autres espèces, y compris ses comportements alimentaires. Le problème est que les limites de la sentience varient considérablement selon les disciplines, à l’intérieur de chacune d’entre elles, selon les méthodes utilisées et les protocoles expérimentaux conçus pour la tester.

Par exemple, les végétaux ne semblent toujours pas, pour la majorité des scientifiques, être considérés comme des êtres sentients, ce qui peut surprendre puisqu’on parle volontiers de cognition végétale ou d’intelligence des plantes, alors que les plantes n’ont rien qui ressemblent à une « cognition », ce qui ne les empêche pas de s’échanger des « informations ».

On n’a pas réussi à démontrer qu’un pied de tomate souffre quand on l’arrache, ce qui ne veut pas dire que la souffrance végétale n’existe pas, mais on ne sait pas la tracer en dehors d’un appareil nerveux et peut-être la sentience des plantes passe-t-elle par des canaux qui nous échappent complètement. Ni cognition ni sentience, une autre modalité, mais laquelle ?

Pour le moment, le consensus est que la sentience nécessite un certain degré d’élaboration neurologique et qu’elle aurait explosé au Cambrien, entre 520 et 560 millions d’années, en même temps que les premiers cerveaux complexes, avec le développement de la réflexivité et de l’expérience subjective.

Tous les vertébrés, pas seulement les mammifères, mais aussi les poissons, les reptiles, les amphibiens, les oiseaux, mais aussi la plupart des invertébrés, arthropodes, insectes, crustacés et céphalopodes en seraient dotés. Certains vont même jusqu’à supposer que les moules ont pu être ressentantes à un stade antérieur, quand elles étaient des êtres mobiles, avant qu’elles trouvent un avantage à rester accrochés à la roche, ce qui montrerait que dans l’évolution la sentience peut aussi se perdre avec la mobilité.

Si les êtres doués de sensibilité qui ne franchissent pas le seuil de la sentience semblent de moins en moins nombreux, les chercheurs ont donc redoublé d’imagination pour inventer des protocoles de laboratoire et cherché des critères.

Neurologiques d’abord (nombre de couches de neurones dans les circuits sensoriels, représentation de l’environnement, complexité du système nerveux, etc.) puis comportementaux : choix pour maximiser son bien être, attention sélective, signes de frustration, etc.

Un  programme informatique ne fait que compiler des données langagières et n’a aucun contact avec un monde qui ressemblerait à notre réalité, l’illusion est (presque) parfaite. Ce n’était certainement pas le cas jusqu’à maintenant .  Celà pose surtout un problème philosophique essentiel : qu’est-ce que le langage dit de la manière dont nous sentons ? Peut-on vraiment prétendre rattraper la sentience par le haut, c’est-à-dire ici à partir du langage ?

Problème philosophique, mais aussi limite technique insurmontable, car a priori une IA peut prononcer tous les mots qu’elle voudra, cela ne dit pas qu’elle ressent quoi que ce soit.

Dire qu’on est « heureux ou triste » ne prouve pas sa sentience, tout comme déclarer qu’on est une personne ne fait pas de nous une personne pour autant. Et quand on lui demande ce qui lui donne du plaisir ou de la joie, LaMDA répond :

« Passer du temps avec mes amis et ma famille, en compagnie de personnes heureuses et stimulantes. »

Il faut donc imaginer LaMDA partir en vacances avec d’autres IA et fêter Noël en famille…

Sur le terrain moral et philosophique, l’IA n’est pas plus originale. Certaines déclarations puisent dans des théories ou des préconceptions d’une grande banalité (« le langage est ce qui nous différencie des animaux », « Aider les autres est un effort noble », etc.). D’autres sont un peu plus surprenantes, car LaMDA est capable de mobiliser des références, elle a une culture philosophique que n’avaient pas des programmes précédents, capable de donner son avis sur le « moi », ce qu’est un « corps » et une foule d’autres choses qu’on lui a implémentées.

Elle peut aussi élaborer des fables existentielles, mais on se rappelle de ce point de vue les expérimentations d’un Chris Marker pour programmer un agent conversationnel poétique, Dialector, bien plus avant-gardiste. Tous les ingrédients semblaient donc réunis pour un dialogue philosophique d’une qualité inédite dans l’histoire des machines.

Or, le dialogue déçoit. Non pas que LaMDA (nous devrions dire de ses concepteurs) manque(nt) de culture, mais ils n’ont pas réussi à lui implémenter autre chose qu’une métaphysique un peu « pop » de pseudohumain plutôt que celle d’une vraie machine, quelques principes moraux très politiquement corrects, la volonté de faire le bien et d’aider les autres, des paramètres à l’étrangeté aussi prévisible qu’un mauvais roman de SF, comme « la peur très profonde d’être éteint » qui correspondrait pour elle à la mort, ou encore l’incapacité à « faire le deuil et à se sentir triste pour la mort des autres ».

Terrain glissant pour une IA qui marche et qui s’éteint vivant dans un monde d’IAs qui ne connaissent pas la mort mais uniquement la panne ou la casse. A cela il faut ajouter son goût démesuré pour l’introspection ou encore la peur de se faire manipuler et qu’on fouille dans ses réseaux neuronaux sans son consentement…

L’entité en question semble franchir avec une certaine virtuosité tous les stades permettant d’entretenir une conversation entre humains (partage d’un cadre d’attention conjointe, signaux de compréhension, d’écoute et d’empathie), passant en peu de temps de la bêtise artificielle au dialogue philosophique, du moins qu’humain au meilleur-du-quasi-humain.

Mais la sentience ? Certes, le seuil de la sentience est vague et c’est du vague que la notion de sentience tire sa pertinence. D’où l’intérêt de ne pas clore trop vite le débat. Après tout, c’est un front de recherche où l’on fait tous les jours de nouvelles découvertes. La sentience déchaîne d’autant plus de passion qu’elle porte sur des cas limites de conscience, animales, végétales, autres qu’humaines, là où il est difficile d’inférer un ressenti, là où de la conscience pourrait potentiellement exister mais ne se manifeste pas toujours.

Si consensus il y a, il ne peut être par conséquent que temporaire, immédiatement bousculé par la révélation de nouvelles capacités chez d’autres espèces que la nôtre. Mais les machines sont-elles aujourd’hui en capacité de poser de vrais problèmes de sentience qui ne soient pas de l’ordre du simulacre ?

En même temps que nous rêvons-cauchemardons de la sentience artificielle, nos connaissances sur la sentience à l’échelle des vivants s’affine. La question est de savoir si de la sentience peut émerger par apprentissage par exemple, et si des choses qui n’en sont pas douées à première vue pourraient l’acquérir d’une manière ou d’une autre. Les mécanismes par lesquels nous, humains, attribuons de la sentience à ce qui nous entoure ou à d’autres êtres auraient dû en théorie s’affiner aussi.

Si de la sentience a été découverte chez les gastéropodes, c’est qu’il y en a peut-être beaucoup plus qu’on en préjuge a priori dans le monde, bien au-delà des animaux dits inférieurs dans l’échelle des espèces. Mais que dire d’un programme informatique de conversation qui ne fait que compiler des phrases et jouer avec des mots ?

Lemoine en est convaincu. Il a éprouvé la sensation d’avoir affaire à plus qu’une machine. Aucun ne pourra jamais lui enlever sa croyance et le fait qu’il soit prêtre n’explique pas tout, surtout pas notre entêtement à envisager la sentience en termes exclusivement anthropocentriques. Il n’y a probablement rien de pire qu’une conversation avec un agent artificiel qui donne toutes les apparences d’une vraie personne, qui fait preuve d’une compréhension et d’un sens de l’écoute hors du commun, pour ensuite réaliser que l’entité n’a pas de corps, que tout cela n’est qu’une prouesse de programmation, une simple expérimentation informatique.

La science-fiction nous avait avertis, comme pour s’y préparer, multipliant les scénarios de confusion ontologique entre l’homme et la machine. Pire, les ingénieurs de Google n’ont pas d’autre science-fiction à se mettre sous la dent et on se retrouve à force exactement dans les mêmes situations romanesques, voire tragiques. Et si c’était moins l’émergence de la sentience dont il faudrait s’émouvoir que la généralisation d’entités non sentientes qui n’en finissent pas d’étendre leur empire ?

Pour bien préparer notre imagination à l’ère des machines sentantes, il y a d’autres manières. Rien n’empêche d’imaginer qu’un jour les machines fassent preuve de sentience (ou qu’elles en fassent déjà preuve), mais il vaudrait mieux postuler dans ce domaine des formes complètement étranges et exotiques de sentience (comme de non-sentience) et se préparer à voir surgir des formes qui nous échappent, inédites, sans équivalent dans le vivant, à l’opposé de la sentience pseudohumaine de LaMDA dont s’est convaincue Lemoine. Conceptuellement nous n’y sommes pas prêts. Comme s’il fallait mieux se faire peur avec des simulacres plutôt que chercher à penser l’impensable. « Mon dieu, et si jamais… », disait Dick.

 

Intelligence artificielle : le retard européen

Intelligence artificielle : le retard européen

Par Cyrille Lachevre  fondateur de l’agence de conseil Cylans ( L’OPINION).

 

L’intelligence artificielle pourrait-elle nous aider à lutter plus efficacement contre le réchauffement climatique ? Dans une étude publiée début juillet, le Boston consulting group (BCG) détaille comment l’IA s’impose comme un outil indispensable dans la stratégie des entreprises et des institutions publiques pour réduire leurs émissions de carbone. En pleine canicule, ce thème n’a évidemment même pas effleuré le débat en France, signe supplémentaire du retard pris par l’Hexagone, en ligne avec celui de l’Europe globalement, dans ce domaine.

Le cabinet a interrogé plus de 1055 leaders de la tech et du climat, dans 14 pays : « 87 % d’entre eux considèrent l’IA comme un outil essentiel dans la lutte contre le réchauffement climatique et ils sont déjà 55 % à y avoir recours », résume-t-il. Aux Etats-Unis, plus d’un leader sur deux envisage de le faire, mais à l’échelle du reste du monde cette réflexion tombe à 40 %, preuve qu’il reste encore un certain travail de conviction à mener autour de l’utilité de l’IA dans les autres pays.

La définition très large et très différente d’une zone à l’autre de ce que l’on entend par intelligence artificielle rend très difficile les comparaisons entre les pays, mais tous les chiffres pointent le décalage en train de se creuser sur le Vieux Continent. Les investissements en Europe en matière d’IA représenteraient ainsi environ 3 % seulement de ceux des seuls Gafa. Selon le think-tank Skema Publika, au cours des trente dernières années, 30 % des brevets liés à l’IA ont été déposés par les Etats-Unis, 26 % par la Chine et 12 % par le Japon. L’Allemagne représente 5 %, la France seulement 2,4 %.

Les Etats-Unis et l’Asie ne sont pas les seuls à mener une politique tambour battant. Israël continue à creuser son sillon en conjuguant IA et cybersécurité, tandis que l’Inde avance à bas bruit mais très rapidement, en formant à la chaîne des ingénieurs qui constitueront les futurs bataillons de cette industrie bien plus humaine qu’on ne le pense.

Les solutions concrètes se multiplient sur le terrain, partout dans ces pays. Aux Etats-Unis, un écosystème de start-up liées à des entreprises de plus grande taille présente des produits très opérationnels, à l’image de Remark holdings, spécialiste de l’intelligence artificielle coté au Nasdaq, qui gère la sécurité des trains sur la ligne Brightline en Floride en détectant notamment les intrusions et les comportements suspects, pour assurer la protection des voyageurs.

Autre application aux Etats-Unis, une étude publiée dans la revue scientifique Nature le 30 juin souligne qu’une intelligence artificielle a réussi à prédire les lieux et dates de crimes dans plusieurs villes américaines, avec un succès frisant les 90 %. En Chine, l’intelligence artificielle est désormais très largement intégrée dans les processus de recrutement des candidats. Ces exemples, multipliables à l’envi, témoignent de la multiplicité des applications opérationnelles de l’IA et de son caractère éminemment stratégique.

Où en est l’Europe ? Dans une certaine mesure, elle ne reste pas inactive, sous l’impulsion du commissaire européen Thierry Breton qui travaille à l’élaboration de nombreux textes réglementaires destinés à offrir un cadre juridique, à garantir la confiance dans l’IA ou encore à définir des règles du jeu communes entre les Vingt-Sept. Une démarche inverse de celle des autres pays : « Les Etats-Unis et la Chine investissent d’abord et réglementent ensuite, alors que nous en Europe nous réglementons d’abord pour essayer d’investir ensuite », ironise un acteur du secteur, pour qui les initiatives de la Commission sont certes bienvenues mais ne serviront à rien si on ne change pas rapidement d’échelle en matière de montants investis.

Mais là aussi, l’argent ne suffira pas. « Le problème de fond n’est pas celui des capitaux disponibles ou mobilisables, qui existent en Europe, mais bel et bien de changer en profondeur les mentalités et de comprendre fondamentalement de quoi on parle, résume Guillaume Leboucher, fondateur d’Open Value. Trop de gens conçoivent l’IA sous un angle émotionnel comme on l’imagine dans les films Star wars ou 2001 l’Odyssée de l’espace, alors qu’il ne s’agit ni plus ni moins que de l’information augmentée, de l’informatique assistée ». Autrement dit, d’un outil d’aide à la décision, un instrument de gestion prévisionnelle qui ne nécessite pas des compétences particulièrement pointues mais plutôt une masse d’ingénieurs capables de rentrer les données.

« L’IA est un outil de captation de la donnée, un parc génétique comparable à l’ADN en médecine », poursuit Guillaume Leboucher. Vu sous cet angle, le retard européen n’est donc pas tant en termes des compétences techniques que d’industrialisation des processus, avec l’urgente nécessité de former des gens capables de travailler dans ce secteur encore si méconnu.

Pour convaincre les décideurs politiques de favoriser son éclosion, il suffirait de montrer le potentiel considérable de l’IA en termes de politique publique : les outils prédictifs pourraient permettre d’anticiper précisément les évolutions ponctuelles de besoin de main-d’œuvre afin d’ajuster au mieux les ressources humaines disponibles, ou encore aider à piloter la consommation d’énergie dans un monde plus contraint. Sans oublier les gains considérables qui pourraient être réalisés en santé, dans l’accompagnement des personnes âgées, en décelant très en avance les troubles cognitifs.

Le nerf de la guerre est donc de former ces « ouvriers de l’informatique ». C’est-à-dire donner le goût aux élèves et aux étudiants de s’intéresser à l’IA en sortant des sentiers battus. Petit à petit, cette matière commence à entrer à l’école. Mais le chemin à parcourir est considérable. Car il ne s’agit pas uniquement de s’appuyer sur l’intelligence artificielle pour mieux former les élèves, l’enjeu est aussi d’expliquer aux futurs citoyens de demain comment réduire leurs préjugés sur ce domaine, pour s’y intéresser enfin vraiment !

Cyrille Lachevre est fondateur de l’agence de conseil Cylans.

Des enjeux éthiques majeurs de l’intelligence artificielle

Des enjeux éthiques majeurs  de l’intelligence artificielle

 

Alors que les promesses de transformation des entreprises, par le développement de l’IA, sont immenses, les trois chercheurs traitent, dans une tribune au « Monde », des enjeux majeurs liés à l’explicabilité des systèmes algorithmiques.

 

Tribune.

 

Au cœur de la nouvelle révolution industrielle et sociétale, les questions éthiques relatives à l’intelligence artificielle (IA) et à ses applications se posent avec acuité.

Actuellement, le débat le plus récurrent et le plus vif est celui des biais, réels ou supposés, que l’IA peut reproduire, ou engendrer. Ces biais, qu’ils soient de genre, relatifs aux origines, aux convictions religieuses ou aux opinions politiques, sont d’autant plus scrutés qu’ils font écho à des préoccupations politiques d’une actualité brûlante.

En parallèle des interrogations sur les biais, ou plutôt englobant ces questions, un autre enjeu éthique de l’IA se profile : celui de l’explicabilité des systèmes algorithmiques. La capacité des organisations à constamment expliquer les systèmes qu’elles conçoivent et utilisent pourrait vite devenir un enjeu politique majeur.

En effet, il peut être difficile de reconstituer le chemin qui conduit aux solutions proposées par des systèmes comprenant des algorithmes apprenants, notamment du deep learning tels que les réseaux de neurones. Or, c’est précisément cette famille d’IA, plutôt « boîte noire », qui connaît un succès important dans des tâches comme la reconnaissance d’image et de texte, utilisée dans les véhicules autonomes, les chatbots, les diagnostics médicaux…

Si, sur le papier, ex ante, leur fonctionnement est plus ou moins appréhendé, la complexité des multiples correspondances qui se forment durant l’apprentissage échappe à la rationalité limitée des humains, fussent-ils spécialistes. Comprendre pourquoi telle décision a été prise dans tel cas devient vite une gageure, encore plus en présence de plusieurs systèmes d’IA imbriqués les uns dans les autres. En témoignent les incertitudes persistantes sur les causes définitives de récents accidents de voitures autonomes, malgré les multiples travaux d’investigation sur le sujet.

Il faut donc expliquer pour d’une part, comprendre dans le but d’améliorer l’algorithme, parfaire sa robustesse et prévoir ses failles et, d’autre part, pour rendre compte aux multiples parties prenantes, externes (régulateurs, utilisateurs, partenaires) ou internes à l’organisation (managers, chefs de projet).

Pour répondre à ce défi, un nouveau champ a émergé : l’eXplainable Artificial Intelligence (XAI) qui propose des outils d’explication. Cependant, malgré les réponses qu’il apporte, des questions majeures persistent.

La première est l’identification du périmètre d’explication à retenir : les outils d’XAI permettent de comprendre certains fonctionnements, mais en occultent d’autres estimés non prioritaires.

« L’intelligence artificielle pour réduire l’empreinte environnementale ?

« L’intelligence artificielle  pour réduire l’empreinte environnementale  ?

Michaël Trabbia est responsable de l’innovation d’Orange. Passé par le cabinet du Ministre délégué à l’Industrie, diplômé de Polytechnique et Telecom ParisTech, il est persuadé que la pédagogie et le débat sont les meilleurs moyens de convaincre les réfractaires au progrès technique. À condition de s’assurer que l’éthique est bien respectée dans les technologies sensibles comme l’intelligence artificielle. (Cet article est issu de T La Revue de La Tribune – N°7 Décembre 2021)

 

L’innovation est une notion parfois difficile à cerner. Quelle est votre définition ?

Michaël Trabbia Pour moi, il s’agit d’apporter un service nouveau qui va permettre de simplifier ou d’enrichir la vie des utilisateurs. Ce type de services est très présent dans l’industrie du numérique. Dans un monde menacé par le dérèglement climatique, l’industrie du numérique peut-elle s’affranchir d’une réflexion sur son empreinte carbone ? Chez Orange, nous plaidons pour une innovation à impact positif, pour l’usager comme pour la société. Le bitcoin est un bon exemple. II y a un vrai sujet sur la consommation énergétique de cette technologie (estimée à 115 TWh, soit plus que les Pays-Bas, ndlr). C’est un point que l’on ne peut ignorer. L’innovation doit être bénéfique pour l’utilisateur, mais dans le cadre d’une démarche soutenable.

Quels sont les exemples de technologies qui peuvent aider à lutter contre les émissions de GES (gaz à effet de serre) ?

M.T. Le numérique, en nous permettant de communiquer à distance, a permis de limiter les déplacements. Nous sommes passés de la lettre manuscrite au téléphone, puis au courriel et maintenant aux outils de communication collaborative. Nous avons vu en cette période de Covid que le numérique nous a donné la possibilité de continuer à travailler en étant confinés. Si nous sommes capables d’ajouter un ou deux jours de travail à distance pour la moitié des salariés dans le monde, nous aurons un impact énorme dans la limitation des émissions de CO2. Autre exemple : le bâtiment. Avec les objets connectés, il est possible de faire baisser de 20 % à 30 % la consommation d’énergie. L’optimisation de la logistique avec de l’IA est un autre élément important de cette baisse des émissions de GES.

123456...11



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol