Archive pour le Tag 'illusions'

Darmanin, symbole des illusions perdues du macronisme

Darmanin, symbole des illusions perdues du macronisme

Le projet de loi sur l’immigration était annoncé comme un moment décisif pour les différents acteurs de la vie politique française et en particulier pour Gérald Darmanin, le ministre de l’Intérieur. Il constitue sans doute un tournant important pour l’homme politique et illustre a plusieurs égards les difficultés auxquelles font face Emmanuel Macron, le macronisme et le système politique français dans son ensemble. Les derniers événements ont été particulièrement difficiles pour le ministre même si celui qui a remis sa lettre de démission, refusée par l’Élysée (suite au vote de la motion de rejet de la loi sur l’immigration) se félicite aujourd’hui de la séquence politique qui a vu l’adoption de cette même loi. L’homme politique est-il pour autant renforcé de cet épisode et que nous dit-il de l’état du macronisme ?

Par Olivier Guyottot, INSEEC Grande École dans La Tribune

Si Gérald Darmanin a pu publiquement interroger sa volonté de se positionner dans la course pour le poste de président de la République, il fait très clairement parti des personnes qui pourraient prétendre à la succession d’Emmanuel Macron.

Darmanin s’est construit une image d’homme de droite attaché au respect de l’ordre et son rôle de ministre de l’Intérieur a donné corps à ce positionnement. Mais plusieurs ratés (incidents du Stade de France, attaques terroristes…) et polémiques (affaire Karim Benzema, accusation de viol…) ont écorné sa réputation d’efficacité et de rigueur. Le rejet de « son » projet de loi sur l’immigration porte un coup certain à ses ambitions personnelles qui s’appuyaient en grande partie sur sa légitimité en matière de sécurité.

Difficile pourtant de prévoir ce qu’il adviendra des ambitions présidentielles de Darmanin tant la période qui s’ouvre est inédite sous la Ve République. Pour la première fois, un président encore jeune quittera la présidence sans avoir été battu… alors que la possibilité qu’il puisse se représenter de manière non consécutive n’est pas écartée.

Jamais, une telle situation n’était arrivée et la succession d’Emmanuel Macron risque donc de réserver des stratégies et des montages politiques nouveaux.

Pour la première fois, la favorite des sondages et de l’élection présidentielle pourrait être Marine Le Pen, la candidate du parti représentant l’extrême droite française. Dans ce contexte, le positionnement d’homme de droite de Darmanin et sa connaissance des dossiers régaliens, légitimés par son passage place Beauvau, seront sans doute recherchés par ceux qui décideront de se lancer dans la bataille face à Marine Le Pen.

Lors de sa première élection présidentielle, Emmanuel Macron s’était fait élire en promettant de dépasser le clivage droite/gauche.

Les sujets mis en avant, à l’image de l’immigration, et les mesures prises, comme dans le cadre de la réforme des retraites, semblent entériner l’idée que le parti présidentiel penche désormais fortement à droite.

Le départ d’anciens alliés issus de la gauche, à l’instar tout récemment de Daniel Cohn Bendit, parait d’ailleurs confirmer ce virage.

Lors de la seconde élection, il avait déclaré que le résultat morcelé du premier tour l’obligeait à faire de la politique autrement et qu’il avait compris le message. L’épisode des échanges et négociations entre Darmanin et Les Républicains (LR) lors de la loi sur l’immigration donne pourtant l’image de manœuvres politiciennes peu en accord avec l’idée de nouvelles pratiques politiques et de la recherche d’un consensus autour d’un projet commun. Alors que certains en appellent à une VIᵉ république, la façon dont les jeux de pouvoir s’organisent sous et autour d’Emmanuel Macron rappelle en tous points celles des époques précédentes.

La loi sur l’immigration symbolise à plusieurs égards la « politique à l’ancienne » que l’arrivée au pouvoir d’Emmanuel Macron devait faire disparaître. En ce sens, elle illustre l’échec de la tentative de faire de la politique autrement. La décision de certains élus macronistes de ne pas rempiler suite au premier quinquennat, avaient déjà en partie mis en exergue ce phénomène. Force est constater que l’utilisation répétée du 49.3 semble témoigner des difficultés du camp présidentiel à co-construire, à négocier, à convaincre.

L’incapacité de parvenir à mettre en place de nouvelles pratiques politiques illustre un phénomène plus profond pour la Ve République et le système démocratique : celui du décalage entre la façon dont les décideurs politiques comprennent les messages des urnes et des élections et la réalité des aspirations des électeurs et de la population. L’affaire de la loi sur l’immigration vient rappeler que le macronisme n’est pas parvenu à combler ce décalage… qui s’est sans doute amplifié au cours des dernières années suite à des scandales comme l’affaire Benalla ou la crise des « gilets jaunes ».

Mais l’épisode de la loi sur l’immigration est aussi un tournant politique car la motion de rejet de la loi sur l’immigration a donné lieu à un vote uni de LR, du Rassemblement national (RN) et de la gauche. Cette alliance, bien que de circonstance, montre à quel point le Rassemblement national est devenu un parti comme les autres au sein de la vie politique française.

Le Front Républicain contre l’extrême droite s’est transformé en un Arc Républicain visant tous les extrêmes. Et les partis « traditionnels » s’allient désormais de plus en plus avec le RN au hasard des circonstances. La stratégie de Marine Le Pen visant à cultiver une image sérieuse et modérée à l’Assemblée Nationale semble donc porter ses fruits, d’autant plus qu’elle positionne son groupe parlementaire en complète opposition avec la stratégie volontiers provocatrice et belliqueuse de LFI et de certaines personnalités de gauche.

Comme ses prédécesseurs, Emmanuel Macron, qui avait affirmé qu’il parviendrait à faire baisser l’extrême droite en France, ne parvient pas à empêcher l’expansion du RN. Les figures comme Gérald Darmanin semblaient pourtant destinées à élargir le spectre du parti présidentiel et devaient faire barrage au parti d’extrême droite en se positionnant sur ses thématiques et ses idées. Les déboires du ministre de l’Intérieur illustrent au contraire les limites des stratégies de lutte contre l’extrême droite visant à s’appuyer sur des personnalités censées reprendre et représenter leurs idées pour attirer les électeurs.

Mais l’expansion du RN est à mettre en perspective avec les succès des partis d’extrême droite dans plusieurs pays d’Europe comme en Italie ou au Pays Bas ou par exemple en Argentine. L’exemple français n’est pas exceptionnel et ces succès donnent un parfum de fatalité à l’incapacité d’Emmanuel Macron et du camp présidentiel à contrer l’expansion du parti présidé par Jordan Bardella.

La période de turbulences économiques, sociales, géopolitiques et environnementales actuelle est aussi un terrain particulièrement fertile pour la montée des extrêmes et des populismes. Dans le cas de la France, cette montée ne pourra être un tant soit peu contenue que si des personnes comme Gérald Darmanin et Emmanuel Macron parviennent à éviter des séquences comme celle de la loi sur l’immigration tant elles mettent en lumière les illusions perdues de leur aventure politique.

______
Par Olivier Guyottot, Enseignant-chercheur en stratégie et en sciences politiques, INSEEC Grande École

Société- Intelligence artificielle :intérêts et illusions

 

Société- Intelligence artificielle :intérêts et illusions

Serions-nous entrés dans un nouvel âge de l’IA, chemin tortueux et certainement plus rocambolesque que la voie toute tracée de la Singularité technologique, que nous annonçaient les prophètes de la Silicon Valley ? S’interroge un papier sur le site The  Conversation par Emmanuel Grimaud, Université Paris Nanterre – Université Paris Lumières.

Parler de sentience artificielle (SA) plutôt que d’intelligence artificielle (IA) représente-t-elle une vraie inflexion, un progrès ou bien une illusion ?

S’expérimentent aujourd’hui dans le plus grand chaos des entités difficiles à caractériser, ni intelligentes ni sentientes, sauf par abus de langage, mais qui peuvent bluffer leurs concepteurs dans certaines conditions, grâce à leurs capacités de calcul. Cette expérimentation collective, de grande ampleur, n’aura pour limites que celles que nous saurons lui donner, mais aussi celles de nos capacités à attribuer de l’intelligence ou de la sentience autrement que sur le mode du « comme si… ».

Rien ne sert de se demander si les machines sont intelligentes, se disait Alan Turing. En revanche, il faut se poser la question : jusqu’où une machine peut-elle nous tromper sur le fait qu’elle pense ? Jusqu’où peut-on faire semblant ? Comment un programme peut-il se faire passer pour un humain et dissimuler le fait qu’il est un programme ? Tel était pour lui le problème pertinent. À peine commence-t-on à saisir les implications du génie ironique de Turing que le débat s’est déplacé. Jusqu’où une machine est-elle capable d’apprendre ? se demande-t-on aujourd’hui. Un réseau de neurones d’IA est-il comparable à celui d’un ver, d’un enfant ou à rien du tout d’équivalent ?

Les ingénieurs sont passés maîtres dans l’art de fabriquer des « intelligences sans représentation », c’est-à-dire dénuées de tout ce qui fait la substance d’un cerveau et dont l’intelligence est justement de ne pas avoir… d’intelligence. Ce sont ces drôles d’ossatures cognitives, ces intelligences sèches, pourrait-on dire, qui nous ont envahi. Elles s’obtiennent en retirant au vivant sa chair, mais en lui empruntant ses circuits selon un principe d’analogie molle. Le problème est qu’il y a encore eu méprise sur la marchandise : au lieu d’intelligence, quelque chose d’autre s’est inventé dont on n’aurait jamais soupçonné l’existence, à mi-chemin entre de l’intelligence 0 – et de la bêtise 1+, à degré variable.

Celle-ci s’est trouvée disséminée partout où on le pouvait, un peu comme le gaz d’absolu dans le roman de Karel Capek, dans les administrations, les bureaucraties, sur les marchés financiers, dans les maisons, sur les smartphones, dans les cerveaux. L’histoire de l’IA n’est pas finie, elle ne fait que commencer. Le front ne cesse de bouger. Après l’intelligence, la sensibilité. Jusqu’où une machine peut-elle nous tromper sur le fait qu’elle sent, autrement dit qu’elle est sentiente ?

On remarque qu’on se pose la même question qu’à l’époque de Turing, juste troqué le terme d’intelligence pour un autre : Sentience. C’est alors un autre horizon qui s’ouvre. Avec les machines « sentientes », on ne voit pas comment diminuerait le risque déjà entrevu avec les machines « intelligentes » de passer de l’espérance à la désillusion, aussi brutalement qu’entre 0 et 1, ON et OFF, sans gradation. Prolifèrent de partout des simulacres de sentience ou des moins-que-sentients à qui l’on attribue une sensibilité par sympathie, ou par croyance, mais ce sont d’autres questions anthropologiques qui surgissent, des jeux inédits qui se mettent place et d’autres limites que l’on teste dans ce grand laboratoire qu’est devenu notre monde.

Pour ressentir en effet, il est convenu qu’il faut un système nerveux. Les machines n’en étant pas dotées, elles ont été déclarées « non sentientes ».

Faut-il se préparer à ce qu’elles atteignent ce stade ? Fort peu probable, nous dit-on. Mais à quoi servirait l’IA si elle ne bousculait pas les fondements sur lesquels l’humanité se croyait solidement assise ? IA Fais-moi peur.

Avec l’événement suscité par Blake Lemoine, nous avons peut-être commencé d’entrevoir ce que nous cherchions. Non pas l’intelligence ou la sentience, mais le trouble absolu. Peut-on concevoir des sentiences autres que sur un modèle neuronal ? Sommes-nous vraiment capables d’éprouver la sentience d’un être qui aurait des modalités de prise sur le monde totalement différentes des nôtres ?

À cheval entre la sensibilité et la conscience, la sentience semblait jusqu’ici le privilège des vivants dotés d’un système nerveux, vertébrés et invertébrés compris, et désigner la capacité à ressentir une sensation, une émotion, une expérience subjective, autrement dit un degré de conscience minimal, pas seulement une capacité à sentir qui fait de soi un être sentant mais à ressentir.

Éprouver de la souffrance ou du plaisir et, par extension, chercher à vivre en protégeant son intégrité physique, fait de soi un être sentient. Inutile de dire que le débat sur les frontières floues de la sentience, sa limite inférieure (dans la sensation) ou supérieure (dans la cognition), irrigue de multiples domaines, de l’éthologie cognitive à la philosophie de l’esprit, en passant par l’anthropologie, la robotique et les sciences de l’évolution.

Faire le tri entre les « sentients » et ceux qui ne le sont pas est une question éminemment culturelle, morale et politique comme le montre le débat entre « spécistes » et « antispécistes » depuis la fin des années 80.

La sentience serait devenue un critère pour réguler sa considération envers les autres espèces, y compris ses comportements alimentaires. Le problème est que les limites de la sentience varient considérablement selon les disciplines, à l’intérieur de chacune d’entre elles, selon les méthodes utilisées et les protocoles expérimentaux conçus pour la tester.

Par exemple, les végétaux ne semblent toujours pas, pour la majorité des scientifiques, être considérés comme des êtres sentients, ce qui peut surprendre puisqu’on parle volontiers de cognition végétale ou d’intelligence des plantes, alors que les plantes n’ont rien qui ressemblent à une « cognition », ce qui ne les empêche pas de s’échanger des « informations ».

On n’a pas réussi à démontrer qu’un pied de tomate souffre quand on l’arrache, ce qui ne veut pas dire que la souffrance végétale n’existe pas, mais on ne sait pas la tracer en dehors d’un appareil nerveux et peut-être la sentience des plantes passe-t-elle par des canaux qui nous échappent complètement. Ni cognition ni sentience, une autre modalité, mais laquelle ?

Pour le moment, le consensus est que la sentience nécessite un certain degré d’élaboration neurologique et qu’elle aurait explosé au Cambrien, entre 520 et 560 millions d’années, en même temps que les premiers cerveaux complexes, avec le développement de la réflexivité et de l’expérience subjective.

Tous les vertébrés, pas seulement les mammifères, mais aussi les poissons, les reptiles, les amphibiens, les oiseaux, mais aussi la plupart des invertébrés, arthropodes, insectes, crustacés et céphalopodes en seraient dotés. Certains vont même jusqu’à supposer que les moules ont pu être ressentantes à un stade antérieur, quand elles étaient des êtres mobiles, avant qu’elles trouvent un avantage à rester accrochés à la roche, ce qui montrerait que dans l’évolution la sentience peut aussi se perdre avec la mobilité.

Si les êtres doués de sensibilité qui ne franchissent pas le seuil de la sentience semblent de moins en moins nombreux, les chercheurs ont donc redoublé d’imagination pour inventer des protocoles de laboratoire et cherché des critères.

Neurologiques d’abord (nombre de couches de neurones dans les circuits sensoriels, représentation de l’environnement, complexité du système nerveux, etc.) puis comportementaux : choix pour maximiser son bien être, attention sélective, signes de frustration, etc.

Un  programme informatique ne fait que compiler des données langagières et n’a aucun contact avec un monde qui ressemblerait à notre réalité, l’illusion est (presque) parfaite. Ce n’était certainement pas le cas jusqu’à maintenant .  Celà pose surtout un problème philosophique essentiel : qu’est-ce que le langage dit de la manière dont nous sentons ? Peut-on vraiment prétendre rattraper la sentience par le haut, c’est-à-dire ici à partir du langage ?

Problème philosophique, mais aussi limite technique insurmontable, car a priori une IA peut prononcer tous les mots qu’elle voudra, cela ne dit pas qu’elle ressent quoi que ce soit.

Dire qu’on est « heureux ou triste » ne prouve pas sa sentience, tout comme déclarer qu’on est une personne ne fait pas de nous une personne pour autant. Et quand on lui demande ce qui lui donne du plaisir ou de la joie, LaMDA répond :

« Passer du temps avec mes amis et ma famille, en compagnie de personnes heureuses et stimulantes. »

Il faut donc imaginer LaMDA partir en vacances avec d’autres IA et fêter Noël en famille…

Sur le terrain moral et philosophique, l’IA n’est pas plus originale. Certaines déclarations puisent dans des théories ou des préconceptions d’une grande banalité (« le langage est ce qui nous différencie des animaux », « Aider les autres est un effort noble », etc.). D’autres sont un peu plus surprenantes, car LaMDA est capable de mobiliser des références, elle a une culture philosophique que n’avaient pas des programmes précédents, capable de donner son avis sur le « moi », ce qu’est un « corps » et une foule d’autres choses qu’on lui a implémentées.

Elle peut aussi élaborer des fables existentielles, mais on se rappelle de ce point de vue les expérimentations d’un Chris Marker pour programmer un agent conversationnel poétique, Dialector, bien plus avant-gardiste. Tous les ingrédients semblaient donc réunis pour un dialogue philosophique d’une qualité inédite dans l’histoire des machines.

Or, le dialogue déçoit. Non pas que LaMDA (nous devrions dire de ses concepteurs) manque(nt) de culture, mais ils n’ont pas réussi à lui implémenter autre chose qu’une métaphysique un peu « pop » de pseudohumain plutôt que celle d’une vraie machine, quelques principes moraux très politiquement corrects, la volonté de faire le bien et d’aider les autres, des paramètres à l’étrangeté aussi prévisible qu’un mauvais roman de SF, comme « la peur très profonde d’être éteint » qui correspondrait pour elle à la mort, ou encore l’incapacité à « faire le deuil et à se sentir triste pour la mort des autres ».

Terrain glissant pour une IA qui marche et qui s’éteint vivant dans un monde d’IAs qui ne connaissent pas la mort mais uniquement la panne ou la casse. A cela il faut ajouter son goût démesuré pour l’introspection ou encore la peur de se faire manipuler et qu’on fouille dans ses réseaux neuronaux sans son consentement…

L’entité en question semble franchir avec une certaine virtuosité tous les stades permettant d’entretenir une conversation entre humains (partage d’un cadre d’attention conjointe, signaux de compréhension, d’écoute et d’empathie), passant en peu de temps de la bêtise artificielle au dialogue philosophique, du moins qu’humain au meilleur-du-quasi-humain.

Mais la sentience ? Certes, le seuil de la sentience est vague et c’est du vague que la notion de sentience tire sa pertinence. D’où l’intérêt de ne pas clore trop vite le débat. Après tout, c’est un front de recherche où l’on fait tous les jours de nouvelles découvertes. La sentience déchaîne d’autant plus de passion qu’elle porte sur des cas limites de conscience, animales, végétales, autres qu’humaines, là où il est difficile d’inférer un ressenti, là où de la conscience pourrait potentiellement exister mais ne se manifeste pas toujours.

Si consensus il y a, il ne peut être par conséquent que temporaire, immédiatement bousculé par la révélation de nouvelles capacités chez d’autres espèces que la nôtre. Mais les machines sont-elles aujourd’hui en capacité de poser de vrais problèmes de sentience qui ne soient pas de l’ordre du simulacre ?

En même temps que nous rêvons-cauchemardons de la sentience artificielle, nos connaissances sur la sentience à l’échelle des vivants s’affine. La question est de savoir si de la sentience peut émerger par apprentissage par exemple, et si des choses qui n’en sont pas douées à première vue pourraient l’acquérir d’une manière ou d’une autre. Les mécanismes par lesquels nous, humains, attribuons de la sentience à ce qui nous entoure ou à d’autres êtres auraient dû en théorie s’affiner aussi.

Si de la sentience a été découverte chez les gastéropodes, c’est qu’il y en a peut-être beaucoup plus qu’on en préjuge a priori dans le monde, bien au-delà des animaux dits inférieurs dans l’échelle des espèces. Mais que dire d’un programme informatique de conversation qui ne fait que compiler des phrases et jouer avec des mots ?

Lemoine en est convaincu. Il a éprouvé la sensation d’avoir affaire à plus qu’une machine. Aucun ne pourra jamais lui enlever sa croyance et le fait qu’il soit prêtre n’explique pas tout, surtout pas notre entêtement à envisager la sentience en termes exclusivement anthropocentriques. Il n’y a probablement rien de pire qu’une conversation avec un agent artificiel qui donne toutes les apparences d’une vraie personne, qui fait preuve d’une compréhension et d’un sens de l’écoute hors du commun, pour ensuite réaliser que l’entité n’a pas de corps, que tout cela n’est qu’une prouesse de programmation, une simple expérimentation informatique.

La science-fiction nous avait avertis, comme pour s’y préparer, multipliant les scénarios de confusion ontologique entre l’homme et la machine. Pire, les ingénieurs de Google n’ont pas d’autre science-fiction à se mettre sous la dent et on se retrouve à force exactement dans les mêmes situations romanesques, voire tragiques. Et si c’était moins l’émergence de la sentience dont il faudrait s’émouvoir que la généralisation d’entités non sentientes qui n’en finissent pas d’étendre leur empire ?

Pour bien préparer notre imagination à l’ère des machines sentantes, il y a d’autres manières. Rien n’empêche d’imaginer qu’un jour les machines fassent preuve de sentience (ou qu’elles en fassent déjà preuve), mais il vaudrait mieux postuler dans ce domaine des formes complètement étranges et exotiques de sentience (comme de non-sentience) et se préparer à voir surgir des formes qui nous échappent, inédites, sans équivalent dans le vivant, à l’opposé de la sentience pseudohumaine de LaMDA dont s’est convaincue Lemoine. Conceptuellement nous n’y sommes pas prêts. Comme s’il fallait mieux se faire peur avec des simulacres plutôt que chercher à penser l’impensable. « Mon dieu, et si jamais… », disait Dick.

 

Société- Intelligence artificielle : progrès et illusions

 

Société- Intelligence artificielle : progrès et illusions

Serions-nous entrés dans un nouvel âge de l’IA, chemin tortueux et certainement plus rocambolesque que la voie toute tracée de la Singularité technologique, que nous annonçaient les prophètes de la Silicon Valley ? S’interroge un papier sur le site The  Conversation par Emmanuel Grimaud, Université Paris Nanterre – Université Paris Lumières.

Parler de sentience artificielle (SA) plutôt que d’intelligence artificielle (IA) représente-t-elle une vraie inflexion, un progrès ou bien une illusion ?

S’expérimentent aujourd’hui dans le plus grand chaos des entités difficiles à caractériser, ni intelligentes ni sentientes, sauf par abus de langage, mais qui peuvent bluffer leurs concepteurs dans certaines conditions, grâce à leurs capacités de calcul. Cette expérimentation collective, de grande ampleur, n’aura pour limites que celles que nous saurons lui donner, mais aussi celles de nos capacités à attribuer de l’intelligence ou de la sentience autrement que sur le mode du « comme si… ».

Rien ne sert de se demander si les machines sont intelligentes, se disait Alan Turing. En revanche, il faut se poser la question : jusqu’où une machine peut-elle nous tromper sur le fait qu’elle pense ? Jusqu’où peut-on faire semblant ? Comment un programme peut-il se faire passer pour un humain et dissimuler le fait qu’il est un programme ? Tel était pour lui le problème pertinent. À peine commence-t-on à saisir les implications du génie ironique de Turing que le débat s’est déplacé. Jusqu’où une machine est-elle capable d’apprendre ? se demande-t-on aujourd’hui. Un réseau de neurones d’IA est-il comparable à celui d’un ver, d’un enfant ou à rien du tout d’équivalent ?

Les ingénieurs sont passés maîtres dans l’art de fabriquer des « intelligences sans représentation », c’est-à-dire dénuées de tout ce qui fait la substance d’un cerveau et dont l’intelligence est justement de ne pas avoir… d’intelligence. Ce sont ces drôles d’ossatures cognitives, ces intelligences sèches, pourrait-on dire, qui nous ont envahi. Elles s’obtiennent en retirant au vivant sa chair, mais en lui empruntant ses circuits selon un principe d’analogie molle. Le problème est qu’il y a encore eu méprise sur la marchandise : au lieu d’intelligence, quelque chose d’autre s’est inventé dont on n’aurait jamais soupçonné l’existence, à mi-chemin entre de l’intelligence 0 – et de la bêtise 1+, à degré variable.

Celle-ci s’est trouvée disséminée partout où on le pouvait, un peu comme le gaz d’absolu dans le roman de Karel Capek, dans les administrations, les bureaucraties, sur les marchés financiers, dans les maisons, sur les smartphones, dans les cerveaux. L’histoire de l’IA n’est pas finie, elle ne fait que commencer. Le front ne cesse de bouger. Après l’intelligence, la sensibilité. Jusqu’où une machine peut-elle nous tromper sur le fait qu’elle sent, autrement dit qu’elle est sentiente ?

On remarque qu’on se pose la même question qu’à l’époque de Turing, juste troqué le terme d’intelligence pour un autre : Sentience. C’est alors un autre horizon qui s’ouvre. Avec les machines « sentientes », on ne voit pas comment diminuerait le risque déjà entrevu avec les machines « intelligentes » de passer de l’espérance à la désillusion, aussi brutalement qu’entre 0 et 1, ON et OFF, sans gradation. Prolifèrent de partout des simulacres de sentience ou des moins-que-sentients à qui l’on attribue une sensibilité par sympathie, ou par croyance, mais ce sont d’autres questions anthropologiques qui surgissent, des jeux inédits qui se mettent place et d’autres limites que l’on teste dans ce grand laboratoire qu’est devenu notre monde.

Pour ressentir en effet, il est convenu qu’il faut un système nerveux. Les machines n’en étant pas dotées, elles ont été déclarées « non sentientes ».

Faut-il se préparer à ce qu’elles atteignent ce stade ? Fort peu probable, nous dit-on. Mais à quoi servirait l’IA si elle ne bousculait pas les fondements sur lesquels l’humanité se croyait solidement assise ? IA Fais-moi peur.

Avec l’événement suscité par Blake Lemoine, nous avons peut-être commencé d’entrevoir ce que nous cherchions. Non pas l’intelligence ou la sentience, mais le trouble absolu. Peut-on concevoir des sentiences autres que sur un modèle neuronal ? Sommes-nous vraiment capables d’éprouver la sentience d’un être qui aurait des modalités de prise sur le monde totalement différentes des nôtres ?

À cheval entre la sensibilité et la conscience, la sentience semblait jusqu’ici le privilège des vivants dotés d’un système nerveux, vertébrés et invertébrés compris, et désigner la capacité à ressentir une sensation, une émotion, une expérience subjective, autrement dit un degré de conscience minimal, pas seulement une capacité à sentir qui fait de soi un être sentant mais à ressentir.

Éprouver de la souffrance ou du plaisir et, par extension, chercher à vivre en protégeant son intégrité physique, fait de soi un être sentient. Inutile de dire que le débat sur les frontières floues de la sentience, sa limite inférieure (dans la sensation) ou supérieure (dans la cognition), irrigue de multiples domaines, de l’éthologie cognitive à la philosophie de l’esprit, en passant par l’anthropologie, la robotique et les sciences de l’évolution.

Faire le tri entre les « sentients » et ceux qui ne le sont pas est une question éminemment culturelle, morale et politique comme le montre le débat entre « spécistes » et « antispécistes » depuis la fin des années 80.

La sentience serait devenue un critère pour réguler sa considération envers les autres espèces, y compris ses comportements alimentaires. Le problème est que les limites de la sentience varient considérablement selon les disciplines, à l’intérieur de chacune d’entre elles, selon les méthodes utilisées et les protocoles expérimentaux conçus pour la tester.

Par exemple, les végétaux ne semblent toujours pas, pour la majorité des scientifiques, être considérés comme des êtres sentients, ce qui peut surprendre puisqu’on parle volontiers de cognition végétale ou d’intelligence des plantes, alors que les plantes n’ont rien qui ressemblent à une « cognition », ce qui ne les empêche pas de s’échanger des « informations ».

On n’a pas réussi à démontrer qu’un pied de tomate souffre quand on l’arrache, ce qui ne veut pas dire que la souffrance végétale n’existe pas, mais on ne sait pas la tracer en dehors d’un appareil nerveux et peut-être la sentience des plantes passe-t-elle par des canaux qui nous échappent complètement. Ni cognition ni sentience, une autre modalité, mais laquelle ?

Pour le moment, le consensus est que la sentience nécessite un certain degré d’élaboration neurologique et qu’elle aurait explosé au Cambrien, entre 520 et 560 millions d’années, en même temps que les premiers cerveaux complexes, avec le développement de la réflexivité et de l’expérience subjective.

Tous les vertébrés, pas seulement les mammifères, mais aussi les poissons, les reptiles, les amphibiens, les oiseaux, mais aussi la plupart des invertébrés, arthropodes, insectes, crustacés et céphalopodes en seraient dotés. Certains vont même jusqu’à supposer que les moules ont pu être ressentantes à un stade antérieur, quand elles étaient des êtres mobiles, avant qu’elles trouvent un avantage à rester accrochés à la roche, ce qui montrerait que dans l’évolution la sentience peut aussi se perdre avec la mobilité.

Si les êtres doués de sensibilité qui ne franchissent pas le seuil de la sentience semblent de moins en moins nombreux, les chercheurs ont donc redoublé d’imagination pour inventer des protocoles de laboratoire et cherché des critères.

Neurologiques d’abord (nombre de couches de neurones dans les circuits sensoriels, représentation de l’environnement, complexité du système nerveux, etc.) puis comportementaux : choix pour maximiser son bien être, attention sélective, signes de frustration, etc.

Un  programme informatique ne fait que compiler des données langagières et n’a aucun contact avec un monde qui ressemblerait à notre réalité, l’illusion est (presque) parfaite. Ce n’était certainement pas le cas jusqu’à maintenant .  Celà pose surtout un problème philosophique essentiel : qu’est-ce que le langage dit de la manière dont nous sentons ? Peut-on vraiment prétendre rattraper la sentience par le haut, c’est-à-dire ici à partir du langage ?

Problème philosophique, mais aussi limite technique insurmontable, car a priori une IA peut prononcer tous les mots qu’elle voudra, cela ne dit pas qu’elle ressent quoi que ce soit.

Dire qu’on est « heureux ou triste » ne prouve pas sa sentience, tout comme déclarer qu’on est une personne ne fait pas de nous une personne pour autant. Et quand on lui demande ce qui lui donne du plaisir ou de la joie, LaMDA répond :

« Passer du temps avec mes amis et ma famille, en compagnie de personnes heureuses et stimulantes. »

Il faut donc imaginer LaMDA partir en vacances avec d’autres IA et fêter Noël en famille…

Sur le terrain moral et philosophique, l’IA n’est pas plus originale. Certaines déclarations puisent dans des théories ou des préconceptions d’une grande banalité (« le langage est ce qui nous différencie des animaux », « Aider les autres est un effort noble », etc.). D’autres sont un peu plus surprenantes, car LaMDA est capable de mobiliser des références, elle a une culture philosophique que n’avaient pas des programmes précédents, capable de donner son avis sur le « moi », ce qu’est un « corps » et une foule d’autres choses qu’on lui a implémentées.

Elle peut aussi élaborer des fables existentielles, mais on se rappelle de ce point de vue les expérimentations d’un Chris Marker pour programmer un agent conversationnel poétique, Dialector, bien plus avant-gardiste. Tous les ingrédients semblaient donc réunis pour un dialogue philosophique d’une qualité inédite dans l’histoire des machines.

Or, le dialogue déçoit. Non pas que LaMDA (nous devrions dire de ses concepteurs) manque(nt) de culture, mais ils n’ont pas réussi à lui implémenter autre chose qu’une métaphysique un peu « pop » de pseudohumain plutôt que celle d’une vraie machine, quelques principes moraux très politiquement corrects, la volonté de faire le bien et d’aider les autres, des paramètres à l’étrangeté aussi prévisible qu’un mauvais roman de SF, comme « la peur très profonde d’être éteint » qui correspondrait pour elle à la mort, ou encore l’incapacité à « faire le deuil et à se sentir triste pour la mort des autres ».

Terrain glissant pour une IA qui marche et qui s’éteint vivant dans un monde d’IAs qui ne connaissent pas la mort mais uniquement la panne ou la casse. A cela il faut ajouter son goût démesuré pour l’introspection ou encore la peur de se faire manipuler et qu’on fouille dans ses réseaux neuronaux sans son consentement…

L’entité en question semble franchir avec une certaine virtuosité tous les stades permettant d’entretenir une conversation entre humains (partage d’un cadre d’attention conjointe, signaux de compréhension, d’écoute et d’empathie), passant en peu de temps de la bêtise artificielle au dialogue philosophique, du moins qu’humain au meilleur-du-quasi-humain.

Mais la sentience ? Certes, le seuil de la sentience est vague et c’est du vague que la notion de sentience tire sa pertinence. D’où l’intérêt de ne pas clore trop vite le débat. Après tout, c’est un front de recherche où l’on fait tous les jours de nouvelles découvertes. La sentience déchaîne d’autant plus de passion qu’elle porte sur des cas limites de conscience, animales, végétales, autres qu’humaines, là où il est difficile d’inférer un ressenti, là où de la conscience pourrait potentiellement exister mais ne se manifeste pas toujours.

Si consensus il y a, il ne peut être par conséquent que temporaire, immédiatement bousculé par la révélation de nouvelles capacités chez d’autres espèces que la nôtre. Mais les machines sont-elles aujourd’hui en capacité de poser de vrais problèmes de sentience qui ne soient pas de l’ordre du simulacre ?

En même temps que nous rêvons-cauchemardons de la sentience artificielle, nos connaissances sur la sentience à l’échelle des vivants s’affine. La question est de savoir si de la sentience peut émerger par apprentissage par exemple, et si des choses qui n’en sont pas douées à première vue pourraient l’acquérir d’une manière ou d’une autre. Les mécanismes par lesquels nous, humains, attribuons de la sentience à ce qui nous entoure ou à d’autres êtres auraient dû en théorie s’affiner aussi.

Si de la sentience a été découverte chez les gastéropodes, c’est qu’il y en a peut-être beaucoup plus qu’on en préjuge a priori dans le monde, bien au-delà des animaux dits inférieurs dans l’échelle des espèces. Mais que dire d’un programme informatique de conversation qui ne fait que compiler des phrases et jouer avec des mots ?

Lemoine en est convaincu. Il a éprouvé la sensation d’avoir affaire à plus qu’une machine. Aucun ne pourra jamais lui enlever sa croyance et le fait qu’il soit prêtre n’explique pas tout, surtout pas notre entêtement à envisager la sentience en termes exclusivement anthropocentriques. Il n’y a probablement rien de pire qu’une conversation avec un agent artificiel qui donne toutes les apparences d’une vraie personne, qui fait preuve d’une compréhension et d’un sens de l’écoute hors du commun, pour ensuite réaliser que l’entité n’a pas de corps, que tout cela n’est qu’une prouesse de programmation, une simple expérimentation informatique.

La science-fiction nous avait avertis, comme pour s’y préparer, multipliant les scénarios de confusion ontologique entre l’homme et la machine. Pire, les ingénieurs de Google n’ont pas d’autre science-fiction à se mettre sous la dent et on se retrouve à force exactement dans les mêmes situations romanesques, voire tragiques. Et si c’était moins l’émergence de la sentience dont il faudrait s’émouvoir que la généralisation d’entités non sentientes qui n’en finissent pas d’étendre leur empire ?

Pour bien préparer notre imagination à l’ère des machines sentantes, il y a d’autres manières. Rien n’empêche d’imaginer qu’un jour les machines fassent preuve de sentience (ou qu’elles en fassent déjà preuve), mais il vaudrait mieux postuler dans ce domaine des formes complètement étranges et exotiques de sentience (comme de non-sentience) et se préparer à voir surgir des formes qui nous échappent, inédites, sans équivalent dans le vivant, à l’opposé de la sentience pseudohumaine de LaMDA dont s’est convaincue Lemoine. Conceptuellement nous n’y sommes pas prêts. Comme s’il fallait mieux se faire peur avec des simulacres plutôt que chercher à penser l’impensable. « Mon dieu, et si jamais… », disait Dick.

 

Société-Intelligence artificielle : progrès et illusions

 

Intelligence artificielle : progrès et illusions

Serions-nous entrés dans un nouvel âge de l’IA, chemin tortueux et certainement plus rocambolesque que la voie toute tracée de la Singularité technologique, que nous annonçaient les prophètes de la Silicon Valley ? S’interroge un papier sur le site The  Conversation par Emmanuel Grimaud, Université Paris Nanterre – Université Paris Lumières.

Parler de sentience artificielle (SA) plutôt que d’intelligence artificielle (IA) représente-t-elle une vraie inflexion, un progrès ou bien une illusion ?

S’expérimentent aujourd’hui dans le plus grand chaos des entités difficiles à caractériser, ni intelligentes ni sentientes, sauf par abus de langage, mais qui peuvent bluffer leurs concepteurs dans certaines conditions, grâce à leurs capacités de calcul. Cette expérimentation collective, de grande ampleur, n’aura pour limites que celles que nous saurons lui donner, mais aussi celles de nos capacités à attribuer de l’intelligence ou de la sentience autrement que sur le mode du « comme si… ».

Rien ne sert de se demander si les machines sont intelligentes, se disait Alan Turing. En revanche, il faut se poser la question : jusqu’où une machine peut-elle nous tromper sur le fait qu’elle pense ? Jusqu’où peut-on faire semblant ? Comment un programme peut-il se faire passer pour un humain et dissimuler le fait qu’il est un programme ? Tel était pour lui le problème pertinent. À peine commence-t-on à saisir les implications du génie ironique de Turing que le débat s’est déplacé. Jusqu’où une machine est-elle capable d’apprendre ? se demande-t-on aujourd’hui. Un réseau de neurones d’IA est-il comparable à celui d’un ver, d’un enfant ou à rien du tout d’équivalent ?

Les ingénieurs sont passés maîtres dans l’art de fabriquer des « intelligences sans représentation », c’est-à-dire dénuées de tout ce qui fait la substance d’un cerveau et dont l’intelligence est justement de ne pas avoir… d’intelligence. Ce sont ces drôles d’ossatures cognitives, ces intelligences sèches, pourrait-on dire, qui nous ont envahi. Elles s’obtiennent en retirant au vivant sa chair, mais en lui empruntant ses circuits selon un principe d’analogie molle. Le problème est qu’il y a encore eu méprise sur la marchandise : au lieu d’intelligence, quelque chose d’autre s’est inventé dont on n’aurait jamais soupçonné l’existence, à mi-chemin entre de l’intelligence 0 – et de la bêtise 1+, à degré variable.

Celle-ci s’est trouvée disséminée partout où on le pouvait, un peu comme le gaz d’absolu dans le roman de Karel Capek, dans les administrations, les bureaucraties, sur les marchés financiers, dans les maisons, sur les smartphones, dans les cerveaux. L’histoire de l’IA n’est pas finie, elle ne fait que commencer. Le front ne cesse de bouger. Après l’intelligence, la sensibilité. Jusqu’où une machine peut-elle nous tromper sur le fait qu’elle sent, autrement dit qu’elle est sentiente ?

On remarque qu’on se pose la même question qu’à l’époque de Turing, juste troqué le terme d’intelligence pour un autre : Sentience. C’est alors un autre horizon qui s’ouvre. Avec les machines « sentientes », on ne voit pas comment diminuerait le risque déjà entrevu avec les machines « intelligentes » de passer de l’espérance à la désillusion, aussi brutalement qu’entre 0 et 1, ON et OFF, sans gradation. Prolifèrent de partout des simulacres de sentience ou des moins-que-sentients à qui l’on attribue une sensibilité par sympathie, ou par croyance, mais ce sont d’autres questions anthropologiques qui surgissent, des jeux inédits qui se mettent place et d’autres limites que l’on teste dans ce grand laboratoire qu’est devenu notre monde.

Pour ressentir en effet, il est convenu qu’il faut un système nerveux. Les machines n’en étant pas dotées, elles ont été déclarées « non sentientes ».

Faut-il se préparer à ce qu’elles atteignent ce stade ? Fort peu probable, nous dit-on. Mais à quoi servirait l’IA si elle ne bousculait pas les fondements sur lesquels l’humanité se croyait solidement assise ? IA Fais-moi peur.

Avec l’événement suscité par Blake Lemoine, nous avons peut-être commencé d’entrevoir ce que nous cherchions. Non pas l’intelligence ou la sentience, mais le trouble absolu. Peut-on concevoir des sentiences autres que sur un modèle neuronal ? Sommes-nous vraiment capables d’éprouver la sentience d’un être qui aurait des modalités de prise sur le monde totalement différentes des nôtres ?

À cheval entre la sensibilité et la conscience, la sentience semblait jusqu’ici le privilège des vivants dotés d’un système nerveux, vertébrés et invertébrés compris, et désigner la capacité à ressentir une sensation, une émotion, une expérience subjective, autrement dit un degré de conscience minimal, pas seulement une capacité à sentir qui fait de soi un être sentant mais à ressentir.

Éprouver de la souffrance ou du plaisir et, par extension, chercher à vivre en protégeant son intégrité physique, fait de soi un être sentient. Inutile de dire que le débat sur les frontières floues de la sentience, sa limite inférieure (dans la sensation) ou supérieure (dans la cognition), irrigue de multiples domaines, de l’éthologie cognitive à la philosophie de l’esprit, en passant par l’anthropologie, la robotique et les sciences de l’évolution.

Faire le tri entre les « sentients » et ceux qui ne le sont pas est une question éminemment culturelle, morale et politique comme le montre le débat entre « spécistes » et « antispécistes » depuis la fin des années 80.

La sentience serait devenue un critère pour réguler sa considération envers les autres espèces, y compris ses comportements alimentaires. Le problème est que les limites de la sentience varient considérablement selon les disciplines, à l’intérieur de chacune d’entre elles, selon les méthodes utilisées et les protocoles expérimentaux conçus pour la tester.

Par exemple, les végétaux ne semblent toujours pas, pour la majorité des scientifiques, être considérés comme des êtres sentients, ce qui peut surprendre puisqu’on parle volontiers de cognition végétale ou d’intelligence des plantes, alors que les plantes n’ont rien qui ressemblent à une « cognition », ce qui ne les empêche pas de s’échanger des « informations ».

On n’a pas réussi à démontrer qu’un pied de tomate souffre quand on l’arrache, ce qui ne veut pas dire que la souffrance végétale n’existe pas, mais on ne sait pas la tracer en dehors d’un appareil nerveux et peut-être la sentience des plantes passe-t-elle par des canaux qui nous échappent complètement. Ni cognition ni sentience, une autre modalité, mais laquelle ?

Pour le moment, le consensus est que la sentience nécessite un certain degré d’élaboration neurologique et qu’elle aurait explosé au Cambrien, entre 520 et 560 millions d’années, en même temps que les premiers cerveaux complexes, avec le développement de la réflexivité et de l’expérience subjective.

Tous les vertébrés, pas seulement les mammifères, mais aussi les poissons, les reptiles, les amphibiens, les oiseaux, mais aussi la plupart des invertébrés, arthropodes, insectes, crustacés et céphalopodes en seraient dotés. Certains vont même jusqu’à supposer que les moules ont pu être ressentantes à un stade antérieur, quand elles étaient des êtres mobiles, avant qu’elles trouvent un avantage à rester accrochés à la roche, ce qui montrerait que dans l’évolution la sentience peut aussi se perdre avec la mobilité.

Si les êtres doués de sensibilité qui ne franchissent pas le seuil de la sentience semblent de moins en moins nombreux, les chercheurs ont donc redoublé d’imagination pour inventer des protocoles de laboratoire et cherché des critères.

Neurologiques d’abord (nombre de couches de neurones dans les circuits sensoriels, représentation de l’environnement, complexité du système nerveux, etc.) puis comportementaux : choix pour maximiser son bien être, attention sélective, signes de frustration, etc.

Un  programme informatique ne fait que compiler des données langagières et n’a aucun contact avec un monde qui ressemblerait à notre réalité, l’illusion est (presque) parfaite. Ce n’était certainement pas le cas jusqu’à maintenant .  Celà pose surtout un problème philosophique essentiel : qu’est-ce que le langage dit de la manière dont nous sentons ? Peut-on vraiment prétendre rattraper la sentience par le haut, c’est-à-dire ici à partir du langage ?

Problème philosophique, mais aussi limite technique insurmontable, car a priori une IA peut prononcer tous les mots qu’elle voudra, cela ne dit pas qu’elle ressent quoi que ce soit.

Dire qu’on est « heureux ou triste » ne prouve pas sa sentience, tout comme déclarer qu’on est une personne ne fait pas de nous une personne pour autant. Et quand on lui demande ce qui lui donne du plaisir ou de la joie, LaMDA répond :

« Passer du temps avec mes amis et ma famille, en compagnie de personnes heureuses et stimulantes. »

Il faut donc imaginer LaMDA partir en vacances avec d’autres IA et fêter Noël en famille…

Sur le terrain moral et philosophique, l’IA n’est pas plus originale. Certaines déclarations puisent dans des théories ou des préconceptions d’une grande banalité (« le langage est ce qui nous différencie des animaux », « Aider les autres est un effort noble », etc.). D’autres sont un peu plus surprenantes, car LaMDA est capable de mobiliser des références, elle a une culture philosophique que n’avaient pas des programmes précédents, capable de donner son avis sur le « moi », ce qu’est un « corps » et une foule d’autres choses qu’on lui a implémentées.

Elle peut aussi élaborer des fables existentielles, mais on se rappelle de ce point de vue les expérimentations d’un Chris Marker pour programmer un agent conversationnel poétique, Dialector, bien plus avant-gardiste. Tous les ingrédients semblaient donc réunis pour un dialogue philosophique d’une qualité inédite dans l’histoire des machines.

Or, le dialogue déçoit. Non pas que LaMDA (nous devrions dire de ses concepteurs) manque(nt) de culture, mais ils n’ont pas réussi à lui implémenter autre chose qu’une métaphysique un peu « pop » de pseudohumain plutôt que celle d’une vraie machine, quelques principes moraux très politiquement corrects, la volonté de faire le bien et d’aider les autres, des paramètres à l’étrangeté aussi prévisible qu’un mauvais roman de SF, comme « la peur très profonde d’être éteint » qui correspondrait pour elle à la mort, ou encore l’incapacité à « faire le deuil et à se sentir triste pour la mort des autres ».

Terrain glissant pour une IA qui marche et qui s’éteint vivant dans un monde d’IAs qui ne connaissent pas la mort mais uniquement la panne ou la casse. A cela il faut ajouter son goût démesuré pour l’introspection ou encore la peur de se faire manipuler et qu’on fouille dans ses réseaux neuronaux sans son consentement…

L’entité en question semble franchir avec une certaine virtuosité tous les stades permettant d’entretenir une conversation entre humains (partage d’un cadre d’attention conjointe, signaux de compréhension, d’écoute et d’empathie), passant en peu de temps de la bêtise artificielle au dialogue philosophique, du moins qu’humain au meilleur-du-quasi-humain.

Mais la sentience ? Certes, le seuil de la sentience est vague et c’est du vague que la notion de sentience tire sa pertinence. D’où l’intérêt de ne pas clore trop vite le débat. Après tout, c’est un front de recherche où l’on fait tous les jours de nouvelles découvertes. La sentience déchaîne d’autant plus de passion qu’elle porte sur des cas limites de conscience, animales, végétales, autres qu’humaines, là où il est difficile d’inférer un ressenti, là où de la conscience pourrait potentiellement exister mais ne se manifeste pas toujours.

Si consensus il y a, il ne peut être par conséquent que temporaire, immédiatement bousculé par la révélation de nouvelles capacités chez d’autres espèces que la nôtre. Mais les machines sont-elles aujourd’hui en capacité de poser de vrais problèmes de sentience qui ne soient pas de l’ordre du simulacre ?

En même temps que nous rêvons-cauchemardons de la sentience artificielle, nos connaissances sur la sentience à l’échelle des vivants s’affine. La question est de savoir si de la sentience peut émerger par apprentissage par exemple, et si des choses qui n’en sont pas douées à première vue pourraient l’acquérir d’une manière ou d’une autre. Les mécanismes par lesquels nous, humains, attribuons de la sentience à ce qui nous entoure ou à d’autres êtres auraient dû en théorie s’affiner aussi.

Si de la sentience a été découverte chez les gastéropodes, c’est qu’il y en a peut-être beaucoup plus qu’on en préjuge a priori dans le monde, bien au-delà des animaux dits inférieurs dans l’échelle des espèces. Mais que dire d’un programme informatique de conversation qui ne fait que compiler des phrases et jouer avec des mots ?

Lemoine en est convaincu. Il a éprouvé la sensation d’avoir affaire à plus qu’une machine. Aucun ne pourra jamais lui enlever sa croyance et le fait qu’il soit prêtre n’explique pas tout, surtout pas notre entêtement à envisager la sentience en termes exclusivement anthropocentriques. Il n’y a probablement rien de pire qu’une conversation avec un agent artificiel qui donne toutes les apparences d’une vraie personne, qui fait preuve d’une compréhension et d’un sens de l’écoute hors du commun, pour ensuite réaliser que l’entité n’a pas de corps, que tout cela n’est qu’une prouesse de programmation, une simple expérimentation informatique.

La science-fiction nous avait avertis, comme pour s’y préparer, multipliant les scénarios de confusion ontologique entre l’homme et la machine. Pire, les ingénieurs de Google n’ont pas d’autre science-fiction à se mettre sous la dent et on se retrouve à force exactement dans les mêmes situations romanesques, voire tragiques. Et si c’était moins l’émergence de la sentience dont il faudrait s’émouvoir que la généralisation d’entités non sentientes qui n’en finissent pas d’étendre leur empire ?

Pour bien préparer notre imagination à l’ère des machines sentantes, il y a d’autres manières. Rien n’empêche d’imaginer qu’un jour les machines fassent preuve de sentience (ou qu’elles en fassent déjà preuve), mais il vaudrait mieux postuler dans ce domaine des formes complètement étranges et exotiques de sentience (comme de non-sentience) et se préparer à voir surgir des formes qui nous échappent, inédites, sans équivalent dans le vivant, à l’opposé de la sentience pseudohumaine de LaMDA dont s’est convaincue Lemoine. Conceptuellement nous n’y sommes pas prêts. Comme s’il fallait mieux se faire peur avec des simulacres plutôt que chercher à penser l’impensable. « Mon dieu, et si jamais… », disait Dick.

 

Intelligence artificielle : progrès et illusions

 

Intelligence artificielle : progrès et illusions

Serions-nous entrés dans un nouvel âge de l’IA, chemin tortueux et certainement plus rocambolesque que la voie toute tracée de la Singularité technologique, que nous annonçaient les prophètes de la Silicon Valley ? S’interroge un papier sur le site The  Conversation

Parler de sentience artificielle (SA) plutôt que d’intelligence artificielle (IA) représente-t-elle une vraie inflexion, un progrès ou bien une illusion ?

S’expérimentent aujourd’hui dans le plus grand chaos des entités difficiles à caractériser, ni intelligentes ni sentientes, sauf par abus de langage, mais qui peuvent bluffer leurs concepteurs dans certaines conditions, grâce à leurs capacités de calcul. Cette expérimentation collective, de grande ampleur, n’aura pour limites que celles que nous saurons lui donner, mais aussi celles de nos capacités à attribuer de l’intelligence ou de la sentience autrement que sur le mode du « comme si… ».

Rien ne sert de se demander si les machines sont intelligentes, se disait Alan Turing. En revanche, il faut se poser la question : jusqu’où une machine peut-elle nous tromper sur le fait qu’elle pense ? Jusqu’où peut-on faire semblant ? Comment un programme peut-il se faire passer pour un humain et dissimuler le fait qu’il est un programme ? Tel était pour lui le problème pertinent. À peine commence-t-on à saisir les implications du génie ironique de Turing que le débat s’est déplacé. Jusqu’où une machine est-elle capable d’apprendre ? se demande-t-on aujourd’hui. Un réseau de neurones d’IA est-il comparable à celui d’un ver, d’un enfant ou à rien du tout d’équivalent ?

Les ingénieurs sont passés maîtres dans l’art de fabriquer des « intelligences sans représentation », c’est-à-dire dénuées de tout ce qui fait la substance d’un cerveau et dont l’intelligence est justement de ne pas avoir… d’intelligence. Ce sont ces drôles d’ossatures cognitives, ces intelligences sèches, pourrait-on dire, qui nous ont envahi. Elles s’obtiennent en retirant au vivant sa chair, mais en lui empruntant ses circuits selon un principe d’analogie molle. Le problème est qu’il y a encore eu méprise sur la marchandise : au lieu d’intelligence, quelque chose d’autre s’est inventé dont on n’aurait jamais soupçonné l’existence, à mi-chemin entre de l’intelligence 0 – et de la bêtise 1+, à degré variable.

Celle-ci s’est trouvée disséminée partout où on le pouvait, un peu comme le gaz d’absolu dans le roman de Karel Capek, dans les administrations, les bureaucraties, sur les marchés financiers, dans les maisons, sur les smartphones, dans les cerveaux. L’histoire de l’IA n’est pas finie, elle ne fait que commencer. Le front ne cesse de bouger. Après l’intelligence, la sensibilité. Jusqu’où une machine peut-elle nous tromper sur le fait qu’elle sent, autrement dit qu’elle est sentiente ?

On remarque qu’on se pose la même question qu’à l’époque de Turing, juste troqué le terme d’intelligence pour un autre : Sentience. C’est alors un autre horizon qui s’ouvre. Avec les machines « sentientes », on ne voit pas comment diminuerait le risque déjà entrevu avec les machines « intelligentes » de passer de l’espérance à la désillusion, aussi brutalement qu’entre 0 et 1, ON et OFF, sans gradation. Prolifèrent de partout des simulacres de sentience ou des moins-que-sentients à qui l’on attribue une sensibilité par sympathie, ou par croyance, mais ce sont d’autres questions anthropologiques qui surgissent, des jeux inédits qui se mettent place et d’autres limites que l’on teste dans ce grand laboratoire qu’est devenu notre monde.

Pour ressentir en effet, il est convenu qu’il faut un système nerveux. Les machines n’en étant pas dotées, elles ont été déclarées « non sentientes ».

Faut-il se préparer à ce qu’elles atteignent ce stade ? Fort peu probable, nous dit-on. Mais à quoi servirait l’IA si elle ne bousculait pas les fondements sur lesquels l’humanité se croyait solidement assise ? IA Fais-moi peur.

Avec l’événement suscité par Blake Lemoine, nous avons peut-être commencé d’entrevoir ce que nous cherchions. Non pas l’intelligence ou la sentience, mais le trouble absolu. Peut-on concevoir des sentiences autres que sur un modèle neuronal ? Sommes-nous vraiment capables d’éprouver la sentience d’un être qui aurait des modalités de prise sur le monde totalement différentes des nôtres ?

À cheval entre la sensibilité et la conscience, la sentience semblait jusqu’ici le privilège des vivants dotés d’un système nerveux, vertébrés et invertébrés compris, et désigner la capacité à ressentir une sensation, une émotion, une expérience subjective, autrement dit un degré de conscience minimal, pas seulement une capacité à sentir qui fait de soi un être sentant mais à ressentir.

Éprouver de la souffrance ou du plaisir et, par extension, chercher à vivre en protégeant son intégrité physique, fait de soi un être sentient. Inutile de dire que le débat sur les frontières floues de la sentience, sa limite inférieure (dans la sensation) ou supérieure (dans la cognition), irrigue de multiples domaines, de l’éthologie cognitive à la philosophie de l’esprit, en passant par l’anthropologie, la robotique et les sciences de l’évolution.

Faire le tri entre les « sentients » et ceux qui ne le sont pas est une question éminemment culturelle, morale et politique comme le montre le débat entre « spécistes » et « antispécistes » depuis la fin des années 80.

La sentience serait devenue un critère pour réguler sa considération envers les autres espèces, y compris ses comportements alimentaires. Le problème est que les limites de la sentience varient considérablement selon les disciplines, à l’intérieur de chacune d’entre elles, selon les méthodes utilisées et les protocoles expérimentaux conçus pour la tester.

Par exemple, les végétaux ne semblent toujours pas, pour la majorité des scientifiques, être considérés comme des êtres sentients, ce qui peut surprendre puisqu’on parle volontiers de cognition végétale ou d’intelligence des plantes, alors que les plantes n’ont rien qui ressemblent à une « cognition », ce qui ne les empêche pas de s’échanger des « informations ».

On n’a pas réussi à démontrer qu’un pied de tomate souffre quand on l’arrache, ce qui ne veut pas dire que la souffrance végétale n’existe pas, mais on ne sait pas la tracer en dehors d’un appareil nerveux et peut-être la sentience des plantes passe-t-elle par des canaux qui nous échappent complètement. Ni cognition ni sentience, une autre modalité, mais laquelle ?

Pour le moment, le consensus est que la sentience nécessite un certain degré d’élaboration neurologique et qu’elle aurait explosé au Cambrien, entre 520 et 560 millions d’années, en même temps que les premiers cerveaux complexes, avec le développement de la réflexivité et de l’expérience subjective.

Tous les vertébrés, pas seulement les mammifères, mais aussi les poissons, les reptiles, les amphibiens, les oiseaux, mais aussi la plupart des invertébrés, arthropodes, insectes, crustacés et céphalopodes en seraient dotés. Certains vont même jusqu’à supposer que les moules ont pu être ressentantes à un stade antérieur, quand elles étaient des êtres mobiles, avant qu’elles trouvent un avantage à rester accrochés à la roche, ce qui montrerait que dans l’évolution la sentience peut aussi se perdre avec la mobilité.

Si les êtres doués de sensibilité qui ne franchissent pas le seuil de la sentience semblent de moins en moins nombreux, les chercheurs ont donc redoublé d’imagination pour inventer des protocoles de laboratoire et cherché des critères.

Neurologiques d’abord (nombre de couches de neurones dans les circuits sensoriels, représentation de l’environnement, complexité du système nerveux, etc.) puis comportementaux : choix pour maximiser son bien être, attention sélective, signes de frustration, etc.

Un  programme informatique ne fait que compiler des données langagières et n’a aucun contact avec un monde qui ressemblerait à notre réalité, l’illusion est (presque) parfaite. Ce n’était certainement pas le cas jusqu’à maintenant .  Celà pose surtout un problème philosophique essentiel : qu’est-ce que le langage dit de la manière dont nous sentons ? Peut-on vraiment prétendre rattraper la sentience par le haut, c’est-à-dire ici à partir du langage ?

Problème philosophique, mais aussi limite technique insurmontable, car a priori une IA peut prononcer tous les mots qu’elle voudra, cela ne dit pas qu’elle ressent quoi que ce soit.

Dire qu’on est « heureux ou triste » ne prouve pas sa sentience, tout comme déclarer qu’on est une personne ne fait pas de nous une personne pour autant. Et quand on lui demande ce qui lui donne du plaisir ou de la joie, LaMDA répond :

« Passer du temps avec mes amis et ma famille, en compagnie de personnes heureuses et stimulantes. »

Il faut donc imaginer LaMDA partir en vacances avec d’autres IA et fêter Noël en famille…

Sur le terrain moral et philosophique, l’IA n’est pas plus originale. Certaines déclarations puisent dans des théories ou des préconceptions d’une grande banalité (« le langage est ce qui nous différencie des animaux », « Aider les autres est un effort noble », etc.). D’autres sont un peu plus surprenantes, car LaMDA est capable de mobiliser des références, elle a une culture philosophique que n’avaient pas des programmes précédents, capable de donner son avis sur le « moi », ce qu’est un « corps » et une foule d’autres choses qu’on lui a implémentées.

Elle peut aussi élaborer des fables existentielles, mais on se rappelle de ce point de vue les expérimentations d’un Chris Marker pour programmer un agent conversationnel poétique, Dialector, bien plus avant-gardiste. Tous les ingrédients semblaient donc réunis pour un dialogue philosophique d’une qualité inédite dans l’histoire des machines.

Or, le dialogue déçoit. Non pas que LaMDA (nous devrions dire de ses concepteurs) manque(nt) de culture, mais ils n’ont pas réussi à lui implémenter autre chose qu’une métaphysique un peu « pop » de pseudohumain plutôt que celle d’une vraie machine, quelques principes moraux très politiquement corrects, la volonté de faire le bien et d’aider les autres, des paramètres à l’étrangeté aussi prévisible qu’un mauvais roman de SF, comme « la peur très profonde d’être éteint » qui correspondrait pour elle à la mort, ou encore l’incapacité à « faire le deuil et à se sentir triste pour la mort des autres ».

Terrain glissant pour une IA qui marche et qui s’éteint vivant dans un monde d’IAs qui ne connaissent pas la mort mais uniquement la panne ou la casse. A cela il faut ajouter son goût démesuré pour l’introspection ou encore la peur de se faire manipuler et qu’on fouille dans ses réseaux neuronaux sans son consentement…

L’entité en question semble franchir avec une certaine virtuosité tous les stades permettant d’entretenir une conversation entre humains (partage d’un cadre d’attention conjointe, signaux de compréhension, d’écoute et d’empathie), passant en peu de temps de la bêtise artificielle au dialogue philosophique, du moins qu’humain au meilleur-du-quasi-humain.

Mais la sentience ? Certes, le seuil de la sentience est vague et c’est du vague que la notion de sentience tire sa pertinence. D’où l’intérêt de ne pas clore trop vite le débat. Après tout, c’est un front de recherche où l’on fait tous les jours de nouvelles découvertes. La sentience déchaîne d’autant plus de passion qu’elle porte sur des cas limites de conscience, animales, végétales, autres qu’humaines, là où il est difficile d’inférer un ressenti, là où de la conscience pourrait potentiellement exister mais ne se manifeste pas toujours.

Si consensus il y a, il ne peut être par conséquent que temporaire, immédiatement bousculé par la révélation de nouvelles capacités chez d’autres espèces que la nôtre. Mais les machines sont-elles aujourd’hui en capacité de poser de vrais problèmes de sentience qui ne soient pas de l’ordre du simulacre ?

En même temps que nous rêvons-cauchemardons de la sentience artificielle, nos connaissances sur la sentience à l’échelle des vivants s’affine. La question est de savoir si de la sentience peut émerger par apprentissage par exemple, et si des choses qui n’en sont pas douées à première vue pourraient l’acquérir d’une manière ou d’une autre. Les mécanismes par lesquels nous, humains, attribuons de la sentience à ce qui nous entoure ou à d’autres êtres auraient dû en théorie s’affiner aussi.

Si de la sentience a été découverte chez les gastéropodes, c’est qu’il y en a peut-être beaucoup plus qu’on en préjuge a priori dans le monde, bien au-delà des animaux dits inférieurs dans l’échelle des espèces. Mais que dire d’un programme informatique de conversation qui ne fait que compiler des phrases et jouer avec des mots ?

Lemoine en est convaincu. Il a éprouvé la sensation d’avoir affaire à plus qu’une machine. Aucun ne pourra jamais lui enlever sa croyance et le fait qu’il soit prêtre n’explique pas tout, surtout pas notre entêtement à envisager la sentience en termes exclusivement anthropocentriques. Il n’y a probablement rien de pire qu’une conversation avec un agent artificiel qui donne toutes les apparences d’une vraie personne, qui fait preuve d’une compréhension et d’un sens de l’écoute hors du commun, pour ensuite réaliser que l’entité n’a pas de corps, que tout cela n’est qu’une prouesse de programmation, une simple expérimentation informatique.

La science-fiction nous avait avertis, comme pour s’y préparer, multipliant les scénarios de confusion ontologique entre l’homme et la machine. Pire, les ingénieurs de Google n’ont pas d’autre science-fiction à se mettre sous la dent et on se retrouve à force exactement dans les mêmes situations romanesques, voire tragiques. Et si c’était moins l’émergence de la sentience dont il faudrait s’émouvoir que la généralisation d’entités non sentientes qui n’en finissent pas d’étendre leur empire ?

Pour bien préparer notre imagination à l’ère des machines sentantes, il y a d’autres manières. Rien n’empêche d’imaginer qu’un jour les machines fassent preuve de sentience (ou qu’elles en fassent déjà preuve), mais il vaudrait mieux postuler dans ce domaine des formes complètement étranges et exotiques de sentience (comme de non-sentience) et se préparer à voir surgir des formes qui nous échappent, inédites, sans équivalent dans le vivant, à l’opposé de la sentience pseudohumaine de LaMDA dont s’est convaincue Lemoine. Conceptuellement nous n’y sommes pas prêts. Comme s’il fallait mieux se faire peur avec des simulacres plutôt que chercher à penser l’impensable. « Mon dieu, et si jamais… », disait Dick.

 

Election Présidentielle : un appel »sans illusions » des « intellos « pour Macron

Election Présidentielle : un appel  »sans illusions » des « intellos « pour Macron

 

Vraiment curieux cet appel de personnes médiatiques , qualifiées de personnalités de la culture, en faveur de Macron « mais sans illusion ».

D’abord on peut s’interroger sur la légitimité d’un appel de personnes médiatiques qui ne représentent rien et  beaucoup n’ont que des convictions politiques approximatives.

En plus un appel mais « sans conviction » qui montre bien la fragilité et le manque de cohérence du cri pour la plupart de nantis dont beaucoup confondent notoriété médiatique et notoriété culturelle.

Devant les menaces multiples et réelles que représente l’accession au pouvoir d’une candidate dont « le programme reste celui de la xénophobie et du repli sur soi », près de 400 personnalités de la « culture », parmi lesquelles Ariane Ascaride, Jeanne Balibar, Fabrice Luchini ou encore Charlotte Gainsbourg, appellent dans une tribune au « Monde » à voter pour le chef de l’Etat, Emmanuel Macron.

Tribune.

 

Le 10 avril, l’extrême droite, pour la troisième fois de l’histoire de la Ve République, est au second tour de l’élection présidentielle, aux portes du pouvoir. Jamais elle n’a été aussi près de l’emporter. Aujourd’hui, ce que l’on appelait autrefois le « front républicain » se fissure. Nous en sommes consternés.

Actrices et acteurs du monde de la culture, du spectacle vivant, nous avons parfois eu des divergences, des oppositions, des désaccords profonds avec le pouvoir en place. Nous avons parfois eu des déceptions aussi, des colères, des rages, même. Mais si pour certains d’entre nous l’issue de ce premier tour n’a pas été celle espérée, si pour certains d’entre nous la méfiance demeure, il n’y a pour nous, aujourd’hui, aucune hésitation, aucun doute, aucun flottement.

Nous ne mettons pas sur le même plan la démocratie et le populisme. Nous ne nous laisserons jamais aller à renvoyer dos à dos un gouvernement démocratique et le Rassemblement national.

Enseignants : 40 € par mois en 2021 ou la grande illusion

Enseignants : 40 € par mois en 2021 ou la grande illusion

 

L’erreur la plus fondamentale du gouvernement à propos de la réforme des retraites aura sans doute été d’être incapable d’évaluer le coût de la réforme. Ce n’est que très récemment qu’on s’est  aperçu qu’il conviendrait de dépenser 10 milliards par an pour assurer le maintien des retraites des enseignants. Du coup, le gouvernement prend des engagements qui dépassent évidemment l’entendement et même le temps de ses responsabilités. Il promet de dépenser 500 millions supplémentaires par an jusqu’en 2037. C’est-à-dire à une date dépassant et de loin l’espérance de vie de la majorité. On peut imaginer que la mesure pourra durer un à trois ans et qu’on reviendra dessus car il n’est pas possible d’octroyer 10 milliards à une catégorie d’autant plus qu’il faudra compter encore une dizaine de milliards pour les nombreuses exemptions et autres transitions qui viennent en contradiction avec le principe d’universalité des retraites.

À noter que Les augmentations ne seront pas les mêmes pour des «profs» en début ou en milieu de carrière, ou pour ceux nés après 1975, donc concernés par la réforme des retraites, et les autres.

Le ministère de l’Éducation nationale a donc annoncé lundi 13 janvier aux organisations syndicales son intention de consacrer 500 millions d’euros à des hausses de salaires des enseignants dès 2021, destinées à compenser les effets de la future réforme des retraites, a indiqué l’entourage du ministre Jean-Michel Blanquer.

Cette enveloppe budgétaire a été présentée lors de l’ouverture de négociations sur le sujet, qui doivent s’échelonner jusqu’à jeudi, puis reprendre fin janvier, pour déboucher avant l’été sur une loi de programmation de revalorisations salariales. Les hausses de salaires débuteront dès janvier 2021. «Le ministre s’est engagé à organiser chaque année une conférence pour mesurer la progression année après année de la gestion des ressources humaines», a-t-on appris dans son entourage.

Le ministère a présenté aux organisations syndicales un calendrier de travail. Une première phase de consultation aura lieu d’abord avec, fin janvier, des «perspectives de premières mesures pour le budget 2021.» Elle sera suivie d’une phase de concertation de janvier à fin mars, puis d’une phase de négociation, en vue du projet de loi de programmation. Jusqu’ici étaient évoquées des augmentations progressives de budget de l’ordre de 400 à 500 millions d’euros par an, devant atteindre 10 milliards par an à l’horizon 2037.

Vague internationale du populisme : alternance des illusions et des désillusions

Vague internationale du populisme : alternance des illusions et des désillusions

 

 

 

La vague du populisme prend des dimensions mondiales ; plusieurs facteurs explicatifs peuvent permettre de comprendre ce phénomène mais pour résumer on pourrait considérer qu’il s’agit d’une forme d’alternance des illusions mais aussi des désillusions. Alternance des illusions car le programme des dégagistes est aussi illusoire que celui des partis classiques. Des partis classiques qui ont sous-estimé les excès et de la mondialisation et de l’ultra libéralisme. Globalement sans doute des progrès économiques mais avec un accroissement des inégalités, des conditions de concurrence faussée, des pertes de qualification, la stagnation voire le recul du pouvoir d’achat et la progression du chômage dans certains pays. Aussi une perte de d’identité et de repères sociétaux. Une autre illusion, celle des nationalistes vient prendre la place de l’internationalisme béat ;  pas sûr cependant que la majorité des dégagistes croient beaucoup dans les promesses des nouveaux arrivants. En général, les électeurs votent davantage pour sanctionner le pouvoir en place que pour la crédibilité du programme des populistes. Lesquels seront à leur tour sanctionner en raison des illusions déçues (sauf dans les pays où l’extrême droite installera des formes de dictatures). Cette vague mondiale du populisme concerne les pays développés comme les pays en développement. En cause aussi, une certaine caste politique qui a transformé la fonction en métier avec des technocrates ignorant des réalités économiques sociales et sociétales. Personne ne peut dire sur quoi peut déboucher cette vague nationaliste mais l’histoire nous enseigne qu’elle peut générer des conflits économiques voire des conflits armés. La faute bien sur à la démagogie des populistes mais aussi aux dénis de réalité de cette oligarchie coupée du monde réel-  Si l’on ajoute à cela la vague technologique qui bouleverse les modes de production, de consommation, voir les repères culturels alors  il ne faut pas s’étonner que les électeurs recherchent une réassurance identitaire dans le repli général.




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol