L’intelligence artificielle va-t-elle remplacer l’être humain ?
Par Charles Hadji
Professeur honoraire (Sciences de l’éducation), Université Grenoble Alpes (UGA)
dans The Conversation France
Depuis sa mise en ligne fin novembre, le logiciel ChatGPT, agent conversationnel (chatbot) qui utilise les capacités impressionnantes du plus gros réseau mondial de neurones artificiels actuel (GPT-3), a provoqué un tsunami de questions sur les sujets les plus variés de demandes de rédaction de devoirs, d’articles, de courriers, etc. Destinées à l’éprouver, à en tester les limites, ces utilisations très diverses ont aussi fait naître, ou conforté, de fortes craintes.Au-delà même de ses dangers immédiatement visibles (fabrication possible de fake news, triche aux examens, facilitation d’entreprises illégales ou nocives), et contre lesquels il y aurait lieu de se prémunir par des régulations appropriées, cet outil d’intelligence artificielle (IA), n’est-il pas de nature à remplacer un humain devenu obsolète ? Le moment de la fin de la « singularité », l’IA venant dépasser l’intelligence de l’homme, n’est-il pas arrivé ? La machine ne va-t-elle pas pousser l’homme dans les oubliettes de l’histoire ?
La question de savoir s’il faut craindre que la machine se hisse au niveau de l’humain, voire le dépasse, en soulève en fait deux autres, que nous proposons d’examiner rapidement. La première porte sur l’étendue de ce que l’IA peut en quelque sorte arracher à l’homme. Il s’agit de savoir ce qui est vraiment à portée des « machines intelligentes ». N’existe-t-il pas des capacités spécifiquement humaines, qui rendraient l’homme irremplaçable, le mettant à l’abri des empiétements dévastateurs de l’IA ?
La deuxième porte sur l’intensité, et la nature même, de la peur que l’homme doit éprouver quand sont en question ses pouvoirs dans les domaines de la connaissance et de l’action. Qu’est-ce que l’homme doit craindre le plus : le développement de l’IA, ou la force et la permanence de ses tentations et perversions ? L’homme ne serait-il pas, bien plus que la machine, le principal ennemi de l’Homme ?
La première question nous invite à nous prononcer sur l’existence de capacités humaines qui ne seraient pas « algorithmables », c’est-à-dire découpables en une suite logique d’opérations permettant d’atteindre à coup sûr un résultat désiré. Il devrait être clair que la réponse à cette question relève sans doute plus de l’anthropologie, et de la philosophie, que de la robotique et de l’IA. Car on peut s’attendre à ce que l’IA prenne en charge tout ce que peuvent faire les êtres humains sur le plan cognitif, sauf ce qui relèverait de ce que seuls les humains sont capables de faire : douter, faillir, et souffrir.
Les performances de ChatGPT sont particulièrement impressionnantes dans le champ de ce qui est calculable. Mais calculer n’est pas penser. Il manque au calcul la dimension de la distanciation, autrement dit du doute. Un algorithme n’est pas capable de sortir de lui-même, comme l’expliquait le spécialiste de robotique Raja Chatila dans Le Monde en 2020. Il déroule, sans état d’âme, sa suite d’opérations. Alors que l’homme est capable, non seulement de produire, mais de s’interroger continûment sur ses productions.
Depuis sa mise en ligne fin novembre, le logiciel ChatGPT a provoqué un tsunami de questions sur les sujets les plus variés. Shutterstock
ChatGPT pourrait très bien réécrire le Cogito de Descartes, mais alors en imitant seulement son style, sans prendre lui-même la décision de sortir du rapport habituel à la réalité, et sans mettre en œuvre le travail intellectuel par lequel cette décision devient opératoire. Il n’est pas capable de produire des idées, car l’idée n’est pas « une peinture muette sur un panneau ». « L’idée, mode du penser ne consiste ni dans l’image de quelque chose, ni dans les mots », disait Spinoza dans l’Ethique.
Dire des mots (produire un texte, ce dont est capable ChatGPT) n’est pas davantage penser que simplement calculer. Blaise Pascal, par ailleurs inventeur de ce qui est considéré comme la première machine à calculer (« la pascaline ») avait perçu les limites des algorithmes : « La machine d’arithmétique fait des effets qui approchent plus de la pensée que tout ce que font les animaux ; mais elle ne fait rien qui puisse faire dire qu’elle a de la volonté, comme les animaux ».
Il faut avoir la volonté de bien penser : « Travaillons donc à bien penser : voilà le principe de la morale ». Certes « nous sommes automate [Pascal appelait cela « la « machine »] autant qu’esprit ». Mais l’ordre des automatismes, où peuvent régner les logiciels, est inférieur à l’ordre des esprits, où règne la pensée : « De tous les corps ensemble, on ne saurait en faire réussir une petite pensée. Cela est impossible, et d’un autre ordre ».
Quand il opère dans son champ d’application (ici, le mot a été bien choisi), l’algorithme est (quasiment) infaillible. Il fait disparaître toute incertitude. Mais l’être humain souffre d’une faillibilité intrinsèque. Il erre, il se trompe, commet des fautes. L’âme humaine est fragile. Avec le doute vient l’incertitude. Le comble de cette faillibilité est sans doute la bêtise (pour ne pas dire la connerie, terme qui serait le plus approprié).
La faculté de dire des bêtises, dont abuse tout populiste qui se respecte, est un signe très fiable d’humanité. « L’homme est bien capable des plus extravagantes opinions ». « Voilà mon état, plein de faiblesse et d’incertitude » (Pascal, encore). Il faudra bien sûr se poser la question de savoir en quel sens cette faiblesse pourrait être une force. Mais nous voyons que la réflexion sur la force et les limites de l’outil ChatGPT nous contraint à réfléchir sur la force et les limites de la cognition humaine !
Enfin, l’homme éprouve des sentiments. Spinoza en a retenu deux principaux (en plus du désir) : la joie, toujours positive, en tant que « passion par laquelle l’esprit passe à une perfection plus grande » ; et la tristesse, toujours négative, en tant que « passion par laquelle il passe à une perfection moindre ». Un sentiment est un état dans lequel le corps est affecté. Un algorithme ne connaîtra jamais d’instant d’émotion. On ne le verra jamais pleurer, ni de joie, ni de tristesse.
Quand donc un robot pourra effectivement douter (penser), faillir, et pleurer, on pourra dire bienvenue à ce nouveau frère en humanité ! Mais si la pensée est à l’évidence une force, la faillibilité et la souffrance sont, immédiatement, des faiblesses. Cela nous conduit à la seconde question : qu’est-ce qui est le plus à craindre pour l’homme ? Certainement les dérives auxquelles peuvent le conduire ses faiblesses – mais des faiblesses qui sont aussi la source de son principal point fort, la créativité. Car, sans les sentiments, pas d’énergie pour entreprendre.
Si un robot peut mimer des comportements humaines, il ne ressentira jamais d’émotion. Shutterstock
Dans La psychologie de l’intelligence, Piaget nous a fait comprendre que « toute conduite implique une énergétique ou une “économie”, qui constitue son aspect affectif » ainsi qu’une « structuration » des « rapports entre le milieu et l’organisme », en lequel « consiste son aspect cognitif ». Sans l’énergie provenant des sentiments, il n’y a ni vie intellectuelle ni création.
C’est que, chez l’homme, force et faiblesse sont intimement liées. Ce qui fait sa faiblesse est aussi ce qui fait sa force, et réciproquement. Si donc le robot a la force que donne la maîtrise d’un logiciel, il n’a pas celle que donne la capacité d’être affecté, et de souffrir. Et il n’a pas la créativité que confère la capacité d’essayer, en prenant le risque de se tromper, et d’entrer en errance. Alors que chez l’homme, la « bassesse », que Pascal reconnaît même en Jésus-Christ, ne peut pas empêcher d’accéder à l’ordre, « surnaturel », de la « sagesse » et de la « charité ».
Mais pourquoi alors cette cohabitation, en l’homme, de sa force et de sa faiblesse, est-elle bien plus à craindre qu’une hypothétique prise de pouvoir par les algorithmes, dont ChatGPT serait le champion ? Parce que, étant donné la nature de ce qui fait sa force, si l’homme est capable du meilleur, il est aussi trop souvent coupable du pire ! Mais ni le meilleur ni le pire ne sont certains.
L’homme est le seul animal capable de choisir, et de faire consciemment, le mal : tuer par cruauté ; faire souffrir par plaisir. Ce n’est pas un algorithme qui a créé le darknet. Mais d’un autre côté, on peut voir dans le triptyque penser, faillir, éprouver, les trois piliers fondateurs de la liberté. La liberté qui rend possible le choix du mal, comme du bien.
En définitive, est-ce ChatGPT qu’il faut craindre ? Il n’y a là qu’un outil, dont la valeur dépend de l’usage qui en sera fait. Cet usage dépend lui-même de choix d’ordre éthique. Selon ce choix, et comme pour tout, l’homme pourra se montrer capable du meilleur, en mettant l’outil au service du développement et de la valorisation de la personne humaine, pour faciliter ses apprentissages, et l’accomplissement de ses actions. Ou bien coupable du pire, en faisant de l’outil un instrument d’assujettissement et d’exploitation de l’être humain, en tombant dans l’une ou l’autre des dérives possibles.
C’est à l’homme qu’il appartient de choisir. La machine (comme Dieu, selon Platon) est innocen-te : elle n’a pas le pouvoir de choisir… Le plus grand ennemi de l’homme sera toujours l’homme.