Intelligence artificielle et mensonges
« Humains, trop humains, ces systèmes ont nos vices et nos faiblesses ; rien d’étonnant puisque nous les avons créés. Aussi, ils sont programmés pour avoir toujours quelque chose à dire. Codés pour répondre. Alors que la véritable sagesse consiste bien souvent à dire “je ne sais pas”»
par Pierre Bentata est maître de conférences à la Faculté de Droit et de Science Politique d’Aix Marseille Université dans l’Opinion ( extrait)
En réalité, chaque fois qu’une requête porte sur un sujet dont la réponse n’est pas directement présente dans la base de données initiale, l’hallucination n’est pas loin. Ce n’est pas que l’IA soit calibrée pour mentir ou inventer des données. Il s’agit plutôt d’un effet secondaire de son mode de fonctionnement. Les systèmes de génération de contenus opèrent selon des règles de probabilités évaluant quelle lettre, phonème ou mot a le plus de chances d’apparaître à la suite d’un texte donné. Bien sûr, en amont, des experts vont vérifier qu’ils fournissent une réponse adéquate à un certain nombre de questions et les contraindre à revoir leurs calculs en cas de réponses inexactes. Mais cela n’empêche pas que, parfois, le résultat soit totalement faux. Plusieurs causes peuvent être à l’origine de cette erreur : les données initiales peuvent être de mauvaise qualité ou contradictoire – en aspirant une grande partie de ce qui est produit sur internet, il y a des chances que certains contenus soient faux –, le décodage des données peut être biaisé ou les calculs erronés, ce qui est inévitable avec des systèmes ayant plusieurs centaines de milliards de paramètres. Dès lors, il est possible qu’à la suite d’un texte donné, pour lequel l’information n’est pas directement disponible, le système de génération de contenus fournisse un mauvais mot puis, de proche en proche, aboutisse à une réponse totalement fausse.
Un cas illustre bien ce processus d’hallucination. En janvier dernier, David Smerdon, Grand Maître aux échecs et professeur d’économie, a demandé à ChatGPT quel était l’article le plus cité en sciences économiques. Ce dernier a produit la réponse suivante : Douglass North et Robert Thomas, « A Theory of Economic History », Journal of Economic History, 1969. En apparence, le résultat semble cohérent, le titre est pertinent, les auteurs existent et sont reconnus par la communauté scientifique et la revue est l’une des plus prestigieuses au monde. Sauf que cet article n’existe pas. Smerdon a alors tenté de comprendre comment ChatGPT avait pu créer de toutes pièces un tel résultat. Il s’avère que dans sa base de données, ChatGPT a sûrement des données concernant les mots les plus utilisés dans les titres d’articles de sciences économiques, et ces derniers sont bien Economic, Theory et History. A partir de cela, il a recherché dans sa base le nom des auteurs les plus souvent associés à ses termes, puis a examiné dans quelles revues ces derniers ont publié la majorité de leurs articles. Et voilà, le tour est joué !
Corrélations. Ainsi fonctionne l’IA : dès qu’il lui manque une information, elle estime des corrélations entre des données qu’elle possède et fabrique un nouveau contenu, souvent cohérent, mais pas nécessairement vrai. Comme l’ami qui, pour participer à la conversation, finit par inventer une histoire, l’IA construit du contenu pour entretenir le dialogue. Elle aussi ment pour avoir quelque chose à dire. Cela ne signifie pas qu’elle est inutile. Tout comme l’ami menteur n’en demeure pas moins un ami – il a sans doute d’autres qualités –, l’IA reste un excellent outil, à condition d’être appréhendée avec prudence, ce qui implique de l’interroger uniquement sur des sujets que l’on connaît déjà, et de vérifier toutes références à des données brutes, qu’il s’agisse de chiffres, de citations ou d’événements particuliers.
« Gardons l’acronyme mais substituons-lui un autre sens : ces systèmes ne sont pas des « Intelligences Artificielles » mais des “Interlocuteurs Affabulateurs”. Tant que nous en serons conscients, ces petites machines resteront de bons assistants »
A bien y réfléchir, que ces systèmes hallucinent devrait plutôt nous rassurer. Loin d’être les créatures omniscientes et omnipotentes qui font fantasmer les plus technophobes, ils se révèlent faillibles et cantonnés pour cette raison au rôle d’assistant ; assistant efficace certes, mais aussi un peu trop affable et désireux de nous plaire pour être tout à fait honnêtes. Car c’est bien de cela dont il est question. Humains, trop humains , ces systèmes ont nos vices et nos faiblesses ; rien d’étonnant puisque nous les avons créés. Aussi, ils sont programmés pour avoir toujours quelque chose à dire. Codés pour répondre. Alors que la véritable sagesse consiste bien souvent à dire « je ne sais pas », ces derniers en sont, par construction, tout à fait incapables. Et sans cette capacité à se taire, il n’est pas de réelle intelligence. Pas de découverte sans aveu préalable d’une ignorance ; pas d’apprentissage ni de production de connaissances nouvelles. De quoi éloigner un peu l’avènement d’une véritable IA.
Aussi, puisque le terme IA est désormais consacré, gardons l’acronyme mais substituons-lui un autre sens : ces systèmes ne sont pas des « Intelligences Artificielles » mais des « Interlocuteurs Affabulateurs ». Tant que nous en serons conscients, ces petites machines resteront de bons assistants.
Pierre Bentata est maître de conférences à la Faculté de Droit et de Science Politique d’Aix Marseille Université. Dans ses essais, il s’intéresse aux évolutions de la société à partir des crises économiques, politiques et technologiques qu’elle traverse.
0 Réponses à “Intelligence artificielle et mensonges”