ChatGPT : Perspectives et limites

ChatGPT : Perspectives et limites

Par Benoît Bergeret, directeur exécutif ESSEC Metalab for Data, Technology and Society et co-fondateur du Hub France IA.

En seulement cinq semaines, ChatGPT a été adopté par plus d’un million d’utilisateurs. Mais tous comprennent-ils les limites de l’outil, qui nous étonne par sa capacité à produire des textes cohérents, grammaticalement corrects et apparemment pertinents ? Quel impact anticiper pour son usage en entreprise ? Le système dont tout le monde parle peut-il devenir une « machine pensante » ? Est-il fondé de le voir comme un pas de plus vers l’IA généralisée, celle qui finira par nous diriger ?

Le langage n’est pas la pensée. Mais l’illusion est impressionnante. Selon Nick Cave, chanteur de The Bad Seeds, « les paroles écrites par ChatGPT sont une grotesque moquerie de ce qu’est être humain ». Il rejoint ainsi le philosophe américain John Searle : un système syntaxique peut donner l’impression qu’il comprend la langue alors qu’il ne comprend ni les prompts, ni les réponses produites. Et la recherche en neurosciences cognitives montre que la maîtrise du langage nécessite des capacités comme le raisonnement, les connaissances sur le monde et la cognition sociale. ChatGPT, système syntaxique par nature, a des compétences linguistiques formelles indéniables, mais rien de plus.

Neurosciences. Searle rejoint aussi les neurosciences : l’esprit humain n’est pas un système computationnel, il résulte de processus biologiques. Or, le numérique ne peut que simuler ceux-ci, pas les dupliquer. C’est un obstacle infranchissable au développement de la conscience, donc d’une IA capable d’égaler l’humain. Contrairement aux apparences, ChatGPT est une avancée intéressante, mais pas un « pas décisif » vers l’IA généralisée.

Bien sûr, la combinaison de cet outil syntaxique avec des moteurs de recherche sémantiques, produira des résultats impressionnants pour des usages « étroits » (« Narrow AI »). Mais nous resterons loin de l’IA généralisée.

L’outil va disrupter les stratégies de déploiement centralisées de l’IA : il va être difficile de demander à renoncer à son utilisation. L’expérience de Sciences Po, qui en a interdit récemment l’usage par ses étudiants, va être suivie avec beaucoup d’intérêt.

Pour les entreprises, il va falloir s’adapter vite, compléter les stratégies top-down d’adoption de l’IA à l’accueil et à l’intégration raisonnée de ces nouveaux outils. A minima, dans les semaines qui viennent, il va leur falloir mettre en place une gouvernance. Par exemple : définir le périmètre acceptable d’usage et interdire toute autre utilisation, mettre en place un contrat engageant la responsabilité du fournisseur, pour diminuer le risque lié à une interruption inattendue de l’accès au système.

Confiance. Il faut aussi établir la confiance par l’éducation en expliquant les limites de l’outil, en rappelant qu’il ne peut pas garantir la véracité des informations générées et que le producteur de contenu a la responsabilité d’une nécessaire vérification manuelle de toutes les informations. Les entreprises devront assurer une stratégie de résilience (« j’utilise ChatGPT, que ferai-je si je n’y ai plus accès ? »), garantir le respect des normes éthiques et des lois lors de l’utilisation, et enfin mettre en place un système de détection de ChatGPT dans les contenus produits.
Souhaitable pour l’entreprise s’il est utilisé de manière appropriée, l’outil va ajouter de la valeur au travail des employés. Selon moi, ChatGPT (avec ses imperfections) se révélera in fine un catalyseur de l’adoption de l’IA en entreprise.

Son arrivée soulève les questions liées à l’introduction rapide auprès du public de technologies numériques peu matures et mal comprises. La question de l’adoption consciente et informée de cet outil se pose : comment éviter les dégâts collatéraux similaires à ceux causés par les réseaux sociaux ?
Mais n’ayons pas peur de chatGPT : ce n’est au fond qu’un outil, le successeur fonctionnel du traitement de texte et du correcteur orthographique ! Un outil merveilleux, plein de promesses, mais qu’il ne faut pas adopter à l’aveugle. Et les entreprises ont une grande responsabilité dans le bon usage qui en sera fait.

Benoît Bergeret, directeur exécutif, ESSEC Metalab for data, technology and society et Co-fondateur du Hub France IA

0 Réponses à “ChatGPT : Perspectives et limites”


  • Aucun commentaire

Laisser un Commentaire




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol