Archive pour le Tag 'ChatGPT :'

ChatGPT: des centaines de millions d’emploi menacés par l’Intelligence artificielle

ChatGPT: des centaines de millions d’emploi menacés par l’Intelligence artificielle

2 emplois sur 3 sont directement menacés par l’éclosion des IA, et parmi eux, les professions administratives et juridiques seront les plus impactées avec des suppressions de postes pouvant atteindre respectivement 46 % et 44 %. d’après un ppaier de sciences et vie. Alors que des experts et des intellectuels réclament une pause dans le développement de l’Intelligence artificielle, un rapport de la banque Goldman-Sachs cible les secteurs qui seront le plus impactés par l’automatisation des tâches confiées à Chat GPT-4 et ses concurrents.
Une centaine d’experts dont Elon Musk, Steve Wozniak ou encore Yuval Noah Harari ont signé mercredi une pétition pour qu’un moratoire de six mois soit mis en place sur le développement de l’Intelligence artificielle qui va succéder à Chat GPT-4. Dans ce texte publié sur Future Of Life, on peut lire que « les systèmes d’IA dotés d’une intelligence humaine compétitive peuvent poser de graves risques pour la société et l’humanité », notamment parce que « les systèmes d’IA contemporains deviennent désormais compétitifs pour les humains dans les tâches générales »
.

Sur ce dernier point, le dernier rapport publié par Goldman-Sachs ne va rassurer personne puisqu’on apprend que deux tiers des emplois actuels pourraient être affectés par les progrès et les capacités d’automatiser les tâches des Intelligences artificielles. A terme, et même si l’étude ne donne pas de date-butoir, ce sont pas moins de 300 millions d’emplois qui pourraient disparaître aux Etats-Unis et en Europe.

En moyenne, dans le monde, 18% des métiers actuels pourraient être automatisés par une Intelligence artificielle, avec des variations du simple au double selon les pays © Goldman Sachs

On savait que des métiers comme développeurs, rédacteurs ou encore interprètes pourraient rapidement être remplacés par des modèles comme Chat GPT-4, mais les secteurs les plus en danger seraient les professions administratives et juridiques avec des suppressions de postes pouvant atteindre respectivement 46 % et 44 %. C’est quasiment un emploi sur deux, et il faut donc s’attendre que ce que des IA apporte des conseils juridiques, rédigent des rapports sur des contentieux ou répondent efficacement à des demandes administratives. Certains craignent même qu’elles remplacent des médecins pour des diagnostics, et ce sont les métiers les plus qualifiés qui pourraient souffrir de cette révolution.

Comme les IA sont capables de piloter des robots, l’impact sur les métiers liés à l’entretien et au nettoyage pourraient même atteindre 95 % ! Toutes les professions liées à la maintenance, la logistique ou encore la réparation seraient aussi en danger. A l’inverse, certains secteurs n’ont pas à redouter cette éclosion de l’Intelligence artificielle. Goldman-Sachs cite par exemple l’ingénierie, la finance ou encore les sports et les médias. Le paradoxe, ou plutôt le côté positif pour certains, c’est que la productivité serait considérablement boostée par l’IA avec une hausse du PIB mondial annuel de 7%.

ChatGPT: danger majeur pour l’humanité ?

ChatGPT: danger majeur pour l’humanité ?

Face à l’ accélération de l’IA, de grands noms mettent en garde contre ses dangers. Pour Geoffrey Hinton, les avancées dans le secteur de l’IA induisent « de profonds risques pour la société et l’humanité », avait-il estimé dans le New York Times. C’est la raison pour laquelle il a quitté son poste au sein du géant Google début mai, qui a d’ailleurs récemment présenté ses plans pour intégrer l’intelligence artificielle générative à son moteur de recherche.

En mars, c’était le milliardaire Elon Musk – un des fondateurs d’OpenAI dont il a ensuite quitté le conseil d’administration – et des centaines d’experts mondiaux qui avaient réclamé une pause de six mois dans la recherche sur les IA puissantes, en évoquant « des risques majeurs pour l’humanité ».

Sam Altman multiplie aussi régulièrement les mises en garde, craignant que l’IA ne « cause de graves dommages au monde », en manipulant des élections ou en chamboulant le marché du travail.

Depuis mi-mai, le patron d’OpenAI parcourt le monde pour rassurer sur l’IA et plaider pour une régulation. Car les régulations ne sont pas seulement un mal nécessaire pour le secteur, mais aussi une opportunité économique.

« Tout le monde a intérêt à la mise en place rapide de régulations uniformisées à l’échelle mondiale, sous l’impulsion des États-Unis, y compris les entreprises de l’intelligence artificielle. En l’absence de telles régulations, il est en effet probable que chaque pays, voire chaque région, bricole ses propres règles dans son coin, ce qui forcerait demain les entreprises de l’intelligence artificielle à entraîner une infinité de modèles différents pour coller aux spécificités de chaque loi locale. Un cauchemar », considère Gary Marcus, expert de l’IA.

Nouvelles technologies–ChatGPT : disponible en France

Nouvelles technologies–ChatGPT : disponible en France

Téléchargeable sur les appareils Apple, la nouvelle application n’est pourtant pas facile à trouver sur les différents magasins (Voici le lien pour celui d’Apple). En effet, la recherche donne d’abord lieu à plusieurs répliques du vrai ChatGPT, qui ne sont pas du même acabit que la version originale. Et dont l’utilisation est payante. L’application gratuite, elle, de Sam Altman, président de l’OpenAI, n’arrive même pas en première position lorsque les mots-clés «ChatGPT» et «OpenAI» sont associés. Pour bénéficier de plus de fonctionnalités, les utilisateurs peuvent toutefois s’abonner à l’offre premium Plus.

L’app officielle de ChatGPT est simple : après s’être connecté avec un compte Apple, Google ou OpenAI, on arrive directement sur l’interface du robot conversationnel. On a la possibilité de dicter ses commandes grâce au moteur de reconnaissance vocale intégré, Whisper, qui se montre très efficace.

ChatGPT : disponible en France

ChatGPT : disponible en France

Téléchargeable sur les appareils Apple, la nouvelle application n’est pourtant pas facile à trouver sur les différents magasins (Voici le lien pour celui d’Apple). En effet, la recherche donne d’abord lieu à plusieurs répliques du vrai ChatGPT, qui ne sont pas du même acabit que la version originale. Et dont l’utilisation est payante. L’application gratuite, elle, de Sam Altman, président de l’OpenAI, n’arrive même pas en première position lorsque les mots-clés «ChatGPT» et «OpenAI» sont associés. Pour bénéficier de plus de fonctionnalités, les utilisateurs peuvent toutefois s’abonner à l’offre premium Plus.

L’app officielle de ChatGPT est simple : après s’être connecté avec un compte Apple, Google ou OpenAI, on arrive directement sur l’interface du robot conversationnel. On a la possibilité de dicter ses commandes grâce au moteur de reconnaissance vocale intégré, Whisper, qui se montre très efficace.

ChatGPT: Limite sémantique

ChatGPT: Limite sémantique

par Frederic Alexandre, Directeur de recherche en neurosciences computationnelles, Université de Bordeaux, Inria dans The conversation

Un des problèmes que l’IA n’a toujours pas résolu aujourd’hui est d’associer des symboles – des mots par exemple – à leur signification, ancrée dans le monde réel – un problème appelé l’« ancrage du symbole ». Par exemple, si je dis : « le chat dort sur son coussin car il est fatigué », la plupart des êtres humains comprendra sans effort que « il » renvoie à « chat » et pas à « coussin ». C’est ce qu’on appelle un raisonnement de bon sens. En revanche, comment faire faire cette analyse à une IA ? La technique dite de « plongement lexical », si elle ne résout pas tout le problème, propose cependant une solution d’une redoutable efficacité. Il est important de connaître les principes de cette technique, car c’est celle qui est utilisée dans la plupart des modèles d’IA récents, dont ChatGPT… et elle est similaire aux techniques utilisées par Cambridge Analytica par exemple.

Le plongement lexical, ou comment les systèmes d’intelligence artificielle associent des mots proches
Cette technique consiste à remplacer un mot (qui peut être vu comme un symbole abstrait, impossible à relier directement à sa signification) par un vecteur numérique (une liste de nombres). Notons que ce passage au numérique fait que cette représentation peut être directement utilisée par des réseaux de neurones et bénéficier de leurs capacités d’apprentissage.

Plus spécifiquement, ces réseaux de neurones vont, à partir de très grands corpus de textes, apprendre à plonger un mot dans un espace numérique de grande dimension (typiquement 300) où chaque dimension calcule la probabilité d’occurrence de ce mot dans certains contextes. En simplifiant, on remplace par exemple la représentation symbolique du mot « chat » par 300 nombres représentant la probabilité de trouver ce mot dans 300 types de contextes différents (texte historique, texte animalier, texte technologique, etc.) ou de co-occurrence avec d’autres mots (oreilles, moustache ou avion).

Plonger dans un océan de mots et repérer ceux qui sont utilisés conjointement, voilà une des phases de l’apprentissage pour ChatGPT. Amy Lister/Unsplash, CC BY
Même si cette approche peut sembler très pauvre, elle a pourtant un intérêt majeur en grande dimension : elle code des mots dont le sens est proche avec des valeurs numériques proches. Ceci permet de définir des notions de proximité et de distance pour comparer le sens de symboles, ce qui est un premier pas vers leur compréhension.

Pour donner une intuition de la puissance de telles techniques (en fait, de la puissance des statistiques en grande dimension), prenons un exemple dont on a beaucoup entendu parler.

Relier les traits psychologiques des internautes à leurs « likes » grâce aux statistiques en grande dimension

C’est en effet avec une approche similaire que des sociétés comme Cambridge Analytica ont pu agir sur le déroulement d’élections en apprenant à associer des préférences électorales (représentations symboliques) à différents contextes d’usages numériques (statistiques obtenues à partir de pages Facebook d’usagers).

Leurs méthodes reposent sur une publication scientifique parue en 2014 dans la revue PNAS, qui comparait des jugements humains et des jugements issus de statistiques sur des profils Facebook.

L’expérimentation reportée dans cette publication demandait à des participants de définir certains de leurs traits psychologiques (sont-ils consciencieux, extravertis, etc.), leur donnant ainsi des étiquettes symboliques. On pouvait également les représenter par des étiquettes numériques comptant les « likes » qu’ils avaient mis sur Facebook sur différents thèmes (sports, loisirs, cinéma, cuisine, etc.). On pouvait alors, par des statistiques dans cet espace numérique de grande dimension, apprendre à associer certains endroits de cet espace à certains traits psychologiques.

Ensuite, pour un nouveau sujet, uniquement en regardant son profil Facebook, on pouvait voir dans quelle partie de cet espace il se trouvait et donc de quels types de traits psychologiques il est le plus proche. On pouvait également comparer cette prédiction à ce que ses proches connaissent de ce sujet.

Le résultat principal de cette publication est que, si on s’en donne les moyens (dans un espace d’assez grande dimension, avec assez de « likes » à récolter, et avec assez d’exemples, ici plus de 70000 sujets), le jugement statistique peut être plus précis que le jugement humain. Avec 10 « likes », on en sait plus sur vous que votre collègue de bureau ; 70 « likes » que vos amis ; 275 « likes » que votre conjoint.

Cette publication nous alerte sur le fait que, quand on recoupe différents indicateurs en grand nombre, nous sommes très prévisibles et qu’il faut donc faire attention quand on laisse des traces sur les réseaux sociaux, car ils peuvent nous faire des recommandations ou des publicités ciblées avec une très grande efficacité. L’exploitation de telles techniques est d’ailleurs la principale source de revenus de nombreux acteurs sur Internet.

Nos likes et autres réaction sur les réseaux sociaux en disent beaucoup sur nous, et ces informations peuvent être exploitées à des fins publicitaires ou pour des campagnes d’influence. George Pagan III/Unsplash, CC BY
Cambridge Analytica est allée un cran plus loin en subtilisant les profils Facebook de millions d’Américains et en apprenant à associer leurs « likes » avec leurs préférences électorales, afin de mieux cibler des campagnes électorales américaines. De telles techniques ont également été utilisées lors du vote sur le Brexit, ce qui a confirmé leur efficacité.

Notons que c’est uniquement l’aspiration illégale des profils Facebook qui a été reprochée par la justice, ce qui doit continuer à nous rendre méfiants quant aux traces qu’on laisse sur Internet.

Calculer avec des mots en prenant en compte leur signification

En exploitant ce même pouvoir des statistiques en grande dimension, les techniques de plongement lexical utilisent de grands corpus de textes disponibles sur Internet (Wikipédia, livres numérisés, réseaux sociaux) pour associer des mots avec leur probabilité d’occurrence dans différents contextes, c’est-à-dire dans différents types de textes. Comme on l’a vu plus haut, ceci permet de considérer une proximité dans cet espace de grande dimension comme une similarité sémantique et donc de calculer avec des mots en prenant en compte leur signification.

Un exemple classique qui est rapporté est de prendre un vecteur numérique représentant le mot roi, de lui soustraire le vecteur (de même taille car reportant les probabilités d’occurrence sur les mêmes critères) représentant le mot homme, de lui ajouter le vecteur représentant le mot femme, pour obtenir un vecteur très proche de celui représentant le mot reine. Autrement dit, on a bien réussi à apprendre une relation sémantique de type « A est à B ce que C est à D ».

Le principe retenu ici pour définir une sémantique est que deux mots proches sont utilisés dans de mêmes contextes : on parle de « sémantique distributionnelle ». C’est ce principe de codage des mots qu’utilise ChatGPT, auquel il ajoute d’autres techniques.

Ce codage lui permet souvent d’utiliser des mots de façon pertinente ; il l’entraîne aussi parfois vers des erreurs grossières qu’on appelle hallucinations, où il semble inventer des nouveaux faits. C’est le cas par exemple quand on l’interroge sur la manière de différencier des œufs de poule des œufs de vache et qu’il répond que ces derniers sont plus gros. Mais est-ce vraiment surprenant quand on sait comment il code le sens des symboles qu’il manipule ?

Sous cet angle, il répond bien à la question qu’on lui pose, tout comme il pourra nous dire, si on lui demande, que les vaches sont des mammifères et ne pondent pas d’œuf. Le seul problème est que, bluffés par la qualité de ses conversations, nous pensons qu’il a un raisonnement de bon sens similaire au nôtre : qu’il « comprend » comme nous, alors que ce qu’il comprend est juste issu de ces statistiques en grande dimension.

Intelligence artificielle: ChatGPT bientôt sur les smartphones

Intelligence artificielle: ChatGPT bientôt sur les smartphones

La nouvelle application, dont le site web était déjà source d’inquiétude, est à présent disponible sur les iPhone aux Etats-Unis et pourra être utilisée « bientôt » dans d’autres pays.

OpenAI a lancé, jeudi 18 mai, une application mobile pour ChatGPT, son interface d’intelligence artificielle (IA) générative qui enregistre déjà une croissance phénoménale sur le web, et dont les capacités impressionnantes fascinent et inquiètent.

La nouvelle application est disponible sur les iPhone aux Etats-Unis, pour commencer, et doit arriver « bientôt » dans d’autres pays et sur les téléphones portables opérés par Android (Google), selon l’entreprise. Gratuite, elle permet, comme le site web, de discuter avec le chatbot et surtout de lui demander de rédiger des messages, d’expliquer des concepts techniques, de suggérer des idées ou de résumer des notes. OpenAI promet par exemple « d’obtenir des informations précises sans avoir à trier entre les publicités ou des résultats multiples », le modèle actuel des moteurs de recherche. Mais à la première ouverture, l’appli prévient aussi tôt que ChatGPT peut « fournir des informations inexactes sur des personnes, des lieux ou des faits ».

 ChatGPT: une intelligence affabulatrice ?

 ChatGPT: une intelligence affabulatrice ?

Jean-Baptiste Fressoz, CNRS ,dans le Monde


L’intelligence artificielle peut-elle aider les chercheurs ? Non pas pour écrire des articles et formuler des arguments originaux – ChatGPT propose en général des réponses d’une banalité affligeante – mais au moins pour accomplir des recherches bibliographiques ? C’est dans cet esprit et sans a priori que j’ai questionné ChatGPT sur un point précis : l’évolution historique du nombre des maisons en bambou. Pourquoi cette curieuse question ? Parce que j’ai le sentiment que la diminution de l’intensité carbone de l’économie – il faut en 2020 presque deux fois moins de CO₂ pour générer un dollar de PIB mondial qu’en 1980, selon l’Agence internationale de l’énergie (« Global Energy Review : CO2 Emissions in 2021 », 2022) – cache le fait que les énergies fossiles se sont en réalité insinuées de plus en plus profondément dans la production matérielle.

L’agriculture a accru sa dépendance au pétrole et au méthane avec les progrès de la mécanisation et l’usage croissant d’engrais azotés ; la métallurgie devient plus gourmande en énergie avec la baisse de la teneur des minerais ; l’extension des chaînes de valeur accroît les kilomètres parcourus par chaque marchandise ou composant de marchandise, et donc le rôle du pétrole dans la bonne marche de l’économie. Ces phénomènes ont pour l’instant été masqués par l’efficacité croissante des machines et par le poids des services dans le produit national brut, mais ils n’en sont pas moins des obstacles majeurs sur le chemin de la décarbonation.

Les matériaux de construction fournissent un autre exemple : l’aluminium est plus intense en CO₂ que l’acier, le polyuréthane que la laine de verre, les panneaux de bois que les planches. Enfin, dans les pays pauvres, le béton remplace souvent des matériaux décarbonés comme la terre crue et… le bambou.

ChatGPT : un développement Incontournable

ChatGPT : un développement Incontournable

par Ryan Shea, crypto-économiste chez Trakx dans la Tribune
Ryan Shea (*)

Un article intéressant mais le parallèle entre l’intelligence artificielle et les cryptomonnaies est assez douteux ne serait-ce qu’au niveau des enjeux NDLR

Les fossoyeurs des cryptos qui proclamaient haut et fort que 2023 serait un événement d’extinction du secteur ont – une fois de plus – eu tort. L’hiver crypto est terminé. Mais ce n’est pas la seule technologie qui profite du chaud soleil printanier. Je parle bien sûr de l’IA qui, après avoir elle-même connu plusieurs hivers dans le passé, connaît une renaissance spectaculaire. Alimentés par la popularité explosive de ChatGPT, qui, après avoir acquis plus de 100 millions d’utilisateurs depuis son lancement en novembre dernier, est l’application destinée aux consommateurs la plus réussie de tous les temps, les médias – traditionnels et sociaux – regorgent d’articles décrivant les derniers développements dans l’espace, et pour cause car les résultats sont impressionnants.

Ce que l’on observe avec de tels projets, ce sont des ordres de grandeur de meilleurs résultats que les systèmes « IA » antérieurs étaient capables de produire il y a quelques années à peine. On peut dire que les modèles LLM actuels qui alimentent ChatGPT et d’autres comme eux, sont capables d’imiter avec précision le contenu créé par l’homme – la base du célèbre test d’Alan Turing (3). L’IAG, ou intelligence artificielle générale, est peut-être encore hors de portée (elle peut être inaccessible – qui sait), mais avec l’intelligence artificielle déjà à un tel niveau, les implications sociales et économiques seront profondes.

La capacité de l’IA générative à produire des textes/son/images déjà proches de ceux produits par les humains dérange clairement beaucoup de gens, d’autant plus que la technologie s’améliore à un rythme exponentiel et non linéaire, d’où la raison pour laquelle ChatGPT 4.0 est nettement meilleur que ChatGPT 3.5. Cela signifie qu’il deviendra extrêmement difficile de détecter le contenu généré par l’IA par rapport à celui généré par l’homme. De plus, ces résultats pourront être produits à grande échelle pour une large diffusion sur Internet, l’une des principales sources d’information pour pratiquement tout le monde sur la planète (4). Les problèmes de fausses nouvelles semblent devoir exploser dans un avenir pas trop lointain.

On s’inquiète également des licenciements généralisés, car les machines sont généralement plus rentables que les employés à base de carbone et il existe donc une forte incitation au profit pour remplacer la main-d’œuvre par du capital. En effet, un récent rapport de Goldman Sachs suggère que 300 millions d’emplois pourraient être perdus en raison du déploiement de cette technologie – un choc économique négatif massif selon les normes de quiconque (6).

Reflétant ces préoccupations, le Future of Life Institute a publié le mois dernier une lettre ouverte (7), signée par des milliers de personnes, dont notamment Elon Musk et Steve Wozniak et de nombreux chercheurs de premier plan en IA. La lettre appelait à un moratoire de six mois sur la formation de systèmes d’IA plus puissants que ChatGPT 4 afin de « développer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement avancés d’IA qui sont rigoureusement audités et supervisés par des experts externes indépendants »(8).

Appuyer sur le bouton de répétition est clairement une stratégie, mais le problème avec cette approche est de savoir comment elle est appliquée. Si une grande entreprise ou un État-nation (et je peux penser à plus de quelques exemples tout de suite, comme je suis sûr que beaucoup d’autres le peuvent) décide d’aller de l’avant avec la recherche sur l’IA et la formation de modèles, que peut-on faire pour les arrêter ? Rien. Tout comme Bitcoin, le développement de l’IA est impossible à bannir. Tout ce qu’une pause de six mois ferait, c’est donner à ceux qui choisissent de l’ignorer le temps de rattraper leur retard ou d’étendre leur avance dans la course aux armements de l’IA. La logique derrière la proposition ne correspond pas.

Cela dit, tout le monde n’est pas aussi pessimiste quant à l’impact de l’IA. Brian Roemmele, un ingénieur qui a travaillé avec l’IA et les réseaux de neurones pendant des décennies et a publié SuperPrompts (9) via son site Web (10) et son compte Twitter (11), par exemple, estime que la comparaison luddite est très pertinente par rapport à la situation actuelle. Pour ceux qui ne connaissaient pas les luddites, il s’agissait d’un groupe de tisserands du 19e siècle en Grande-Bretagne – dirigé par Ned Ludd d’où leur nom – qui a détruit des machines introduites dans l’industrie textile au milieu de la crainte de perdre leur emploi. Comme le souligne Brian, contrairement à leurs croyances initiales (et à la conclusion que beaucoup de gens tirent de cette histoire), Ludd et ses partisans ont découvert que l’introduction des machines n’était pas un inconvénient pour eux. Au lieu de cela, les machines leur permettaient de faire plus de travail à valeur ajoutée, ce qui était non seulement moins banal, mais générait également des salaires plus élevés, plus d’emplois (12) et, par conséquent, une plus grande prospérité.

Modèles centralisés ou décentralisés ?

J’ai beaucoup de respect pour ces vues optimistes, et l’histoire est certainement de leur côté, car l’introduction de nouvelles technologies a tendance à précéder une plus grande création de richesse économique (13) . Cependant, je ne peux pas échapper au sentiment tenace que si – et j’admets que c’est un gros si – la récolte actuelle de modèles d’IA conduit finalement à l’IAG et à la création d’une ressource concurrente des humains, alors l’analogie s’effondre (14).

Cela mis à part, étant donné l’impossibilité d’imposer une interdiction effective du développement de l’IA – temporaire ou autre – il est clair que notre avenir sera de plus en plus affecté par l’IA et ses diverses applications. La question est de savoir si nous, en tant qu’espèce (oui, je considère ce sujet comme si profond), pouvons-nous guider l’IA d’une manière qui nous profite à tous tout en atténuant les inconvénients potentiels. C’est là que la crypto entre en jeu.

Les modèles d’IA sont intrinsèquement centralisés, en partie à cause de leurs coûts de développement et de fonctionnement. ChatGPT-3 coûte environ 12 millions de dollars pour s’entraîner et 100 000 dollars par jour pour fonctionner (15) (je me demande combien de temps il faudra au lobby vert pour commencer à lutter contre l’électricité utilisée dans la formation des modèles d’IA comme il l’a fait contre les crypto-monnaies, même si de telles les critiques sont déplacées). Même si les coûts unitaires des modèles de formation diminuent, en raison de jeux de données plus volumineux et de la nécessité d’augmenter la puissance de calcul, certains estiment que les coûts de formation des modèles de pointe (SoA) pourraient atteindre 100 à 500 millions de dollars (17). dollars – des fonds auxquels peu de gens ont accès. C’est la raison pour laquelle l’IA n’est vraiment dominée que par une poignée d’acteurs, tels que OpenAI, Google et Meta.

Est-ce vraiment une si bonne idée d’avoir une technologie qui, sans aucun doute, empiètera de plus en plus sur la vie quotidienne de chacun d’une myriade de façons différentes, contrôlée par seulement quelques organisations privées (18) ?

Les chaînes de blocs offrent un moyen de rendre l’IA plus transparente et plus responsable, car elles sont capables de stocker et de traiter les données utilisées par les systèmes d’IA de manière décentralisée. Ils fournissent également les moyens d’avoir une gouvernance décentralisée basée sur des mécanismes de consensus bien connus et peuvent être déployés d’une manière sans confiance et résistante à la censure. Bien sûr, cela ne surmontera pas tous les obstacles potentiels, surtout si AGI se concrétise un jour, mais au moins cela empêche le pouvoir de l’IA de se concentrer entre les mains de quelques-uns avec peu ou pas de surveillance publique. L’IA décentralisée basée sur la blockchain n’est pas qu’une chimère. Il existe déjà plusieurs projets visant à mettre en place de tels systèmes.

Un autre avantage accessoire de la combinaison des technologies de l’IA et de la blockchain est qu’elle peut aider à résoudre le problème des « (deep) fake news » qui est susceptible de croître considérablement à mesure que la technologie se déploie plus largement. En vertu d’être sur la blockchain, un historique vérifiable indépendamment est créé permettant de déterminer quand un contenu (vidéo/voix/texte) a été créé et/ou quand il est entré en possession de quelqu’un (chaîne de possession). Cela aidera en rendant plus difficile pour les acteurs malveillants de créer et de distribuer des deepfakes non détectés.

À bien des égards, je suis d’accord avec les commentaires de Gary Gensler qui, dans son récent témoignage devant la Chambre des représentants des États-Unis, a exprimé sa conviction que « la technologie qui, à mon avis, est la plus transformatrice à notre époque est l’intelligence artificielle ». Il a poursuivi en ajoutant « Ce n’est pas une crypto ». Sur ce dernier je ne suis pas d’accord. Pour les raisons décrites dans cette note de recherche, à mon avis, pour obtenir le plus d’avantages et, ce qui est tout aussi important, atténuer les inconvénients potentiels, la propriété de l’IA sur les technologies sous-jacentes devrait être élargie et son évolution ne pas être laissée entre les mains de quelques technologies privées. entreprises. La blockchain – le fondement de la cryptographie – est le moyen par lequel parvenir à un tel résultat. Ce faisant, nous pouvons peut-être transformer deux technologies transformatrices en quelque chose qui vaut plus que la somme de ses parties, ou comme le titre de cette note le suggère faire 1 + 1 = 3 !

ChatGPT : technologie de rupture ou d’aliénation ?

ChatGPT : technologie de rupture ou d’aliénation ?

par Marion Trommenschlager
Chercheure en sciences de l’information-communication, laboratoire PREFics, Université Rennes 2 dans the Conversation


Alors que l’impact de l’intelligence artificielle (IA) dans le monde du travail ou en matière de désinformation fait couler beaucoup d’encre, des dirigeants du secteur, dont Elon Musk, appellent à décélérer. Une intelligence artificielle ultra-médiatisée a tenu un rôle majeur dans l’ouverture de ces débats : ChatGPT. Mais a-t-elle vraiment créé une rupture ?

Il n’y a pas de réelle nouveauté technique dans ChatGPT. Son ancêtre, Eliza, date de 1966. La technique de codage, aussi sophistiquée soit-elle, s’inscrit dans une continuité des conceptions de langage de programmation. Par ailleurs, dans une approche sociologique, rappelons que nous sommes une humanité numérique, une société artefactuelle (puisque nous évoluons à travers le progrès technique), dans laquelle toute innovation s’inscrit dans une continuité.

Peut-on alors réellement parler d’innovation de rupture pour ChatGPT ?

Et s’il fallait finalement se saisir de ce raz de marée médiatique pour comprendre la fulgurance de son déploiement, et plus encore, pour comprendre où nous en sommes, nous, utilisateurs, dans nos représentations, entre fantasmes et réalités, de l’intelligence artificielle ?

Ces logiciels d’intelligence conversationnelle nous ramènent à deux grandes tendances liées à la technicisation de la société. Tout d’abord celle de la servicisation, c’est-à-dire une normalisation de l’assistance personnalisée au quotidien. Cette tendance est arrivée avec le passage d’une économie basée sur des logiques de masse, vers une autre basée sur des logiques individuelles.

Le second grand levier est la plateformisation : créés au sein d’empires numériques (entre autres GAFAM), ces logiciels sont pensés pour être infusés dans tout l’écosystème. C’est le cas par exemple de ChatGPT, amené à investir Bing, Outlook, et autres services de Microsoft.

Et pour cause, le disgracieux « GPT » dans sa version francophone, renvoie au « general purpose technologies », soit technologies à usage général. Il est donc de par sa nature, un outil conçu pour être facilement transposé et utilisé dans différents domaines. Différent d’un moteur de recherche, il répond à des questions complexes et cherche à comprendre l’intention.

Comment expliquer l’appropriation si rapide de ChatGPT par les utilisateurs ?
L’impact médiatique relève du fait de ses utilisateurs. Comme souligné par l’anthropologue Lionel Obadia, il est difficile de parler d’invention. Néanmoins, la diffusion et l’appropriation remarquablement rapide font de ChatGPT une innovation marquante. Elle peut être utilisée par n’importe qui, initié ou non, gratuitement en ligne, et entraîne de ce fait autant de nouveaux usages, de contournements, que de business potentiels.


Trois forces expliquent la rapide intégration et appropriation sociale du logiciel.

Premièrement, ChatGPT est très accessible : ce qui lui permet un passage à l’échelle, autrement dit un déploiement, très rapide. L’accessibilité de l’outil et son appropriation généralisée massifient l’usage, mais également l’intérêt pour ce qui paraît « nouveau », voire « divertissant ».

Ensuite, ChatGPT nous ressemble. Le processus de machine learning en fait un outil d’auto-enrichissement continu, comme les humains. Le dialogue lui permet par exemple d’améliorer ses réponses avec un langage naturel. Ainsi, plus il est utilisé, plus il est performant. Autrement dit, nous nous « éduquons » mutuellement.

Enfin, ChatGPT est un champ des possibles : il laisse entrevoir de nouveaux scénarios. Nous sommes, en tant qu’utilisateurs, la condition pour la réussite du déploiement de ces innovations numériques. Chose faite pour ChatGPT qui compte à présent plus de 100 millions d’utilisateurs. Nous commençons à prendre conscience de « l’après » et de l’émergence d’autres innovations issues du modèle de ce logiciel.

La philosophe Marie Robert raconte son expérience lorsque le média Brut lui propose de corriger une copie rédigée par le logiciel :

« C’est avec un certain frisson que j’ai pris mon stylo rouge pour tenter de comprendre le raisonnement élaboré par une machine. Malgré une absence de citations, un manque cruel de nuances et une structure bien trop rigide, ma première remarque fut que ce n’était « pas si mal » […] C’est donc avec un mélange de fascination et d’effroi que j’ai terminé l’exercice, me demandant sincèrement ce que nous allions faire pour le monde à venir, pour ces générations qui n’auront pas à connaître l’effort. »


Des métiers de la cognition voués à disparaître ?

Ce qui diffère vraiment avec les précédentes évolutions liées à l’innovation, c’est que ChatGPT touche les métiers de la cognition, plutôt épargnés jusqu’alors. Il est d’ailleurs intéressant de rappeler que l’un des logiciels les plus (technologiquement) complexes, l’Autopilot de Tesla, a été pour 85 % fabriqué par l’intelligence artificielle. La dynamique d’hybridation entre métiers et intelligence artificielle est de plus en plus forte. Cependant, il serait fantasmé de parler de « grand remplacement ».

L’autonomie de l’intelligence conversationnelle n’est pas totale. Par exemple, ChatGPT développé par Open AI a été construit à partir de 175 milliards de paramètres, il s’appuie sur un jeu de données gigantesque. Gigantesque certes, mais sélectionné, donc faillible.

Récemment, des échanges et lectures sur l’art du codage m’ont permis d’éclairer plus encore les limites du mythe d’une autonomie de l’intelligence artificielle. Cela notamment à travers la dimension de labellisation dans les réseaux de neurones. Dans ce processus, il s’agit d’étiqueter des données, c’est-à-dire d’associer un label (une valeur prédéfinie) à un contenu (image, texte, forme, etc.). L’objectif est d’apporter un modèle d’apprentissage aux machines. Cette pratique rappelle la nécessité de paramétrage et de supervision dans l’interprétation des données, une réalité a (re) découvrir dans la mini-série documentaire Les travailleurs du clic de Antonio Casilli. Open AI a d’ailleurs différents contrats avec des travailleurs au Kenya pour ce travail de modération.

Nous voyons donc les limites d’un fantasme autour d’une intelligence artificielle parfaitement autonome.

Bien que l’intelligence artificielle ne comprenne pas ce qu’elle dit, ces implications humaines dans la supervision de l’apprentissage des machines nous montrent que les données qui nourrissent cette intelligence, elles, ne sont pas neutres. Elles reproduisent et amplifient les biais de ceux qui la supervisent, chariant un lot potentiel de stéréotypes, de désinformation, de contenus aspirés aux sources invisibles, de censure, ou encore de complotisme (Meta en a fait l’expérience avec Blender bot 3).

La question centrale est donc : qui paramètre ? Le professeur de droit Lawrence Lessig le souligne dans son clairvoyant « Code is law » : la personne qui paramètre est la personne qui a la possibilité d’orienter un système de pensée. Un outil comme ChatGPT est principalement conçu par et pour une cible nord-américaine. Son déploiement rapide, renforcé par sa dimension ludique, conduit à la normalisation de son utilisation. Une normalisation non pas sans effet, puisqu’elle vient renforcer l’impression d’un objet politiquement neutre chez les utilisateurs.

Or, c’est loin d’être le cas, pour les raisons évoquées précédemment, mais aussi parce que l’IA est avant tout un enjeu de domination tant entre empires du numérique, que dans la sphère géopolitique.

ChatGPT : outil de rupture ou de domination ?

ChatGPT : outil de rupture ou de domination ?

par Marion Trommenschlager
Chercheure en sciences de l’information-communication, laboratoire PREFics, Université Rennes 2 dans the Conversation


Alors que l’impact de l’intelligence artificielle (IA) dans le monde du travail ou en matière de désinformation fait couler beaucoup d’encre, des dirigeants du secteur, dont Elon Musk, appellent à décélérer. Une intelligence artificielle ultra-médiatisée a tenu un rôle majeur dans l’ouverture de ces débats : ChatGPT. Mais a-t-elle vraiment créé une rupture ?

Il n’y a pas de réelle nouveauté technique dans ChatGPT. Son ancêtre, Eliza, date de 1966. La technique de codage, aussi sophistiquée soit-elle, s’inscrit dans une continuité des conceptions de langage de programmation. Par ailleurs, dans une approche sociologique, rappelons que nous sommes une humanité numérique, une société artefactuelle (puisque nous évoluons à travers le progrès technique), dans laquelle toute innovation s’inscrit dans une continuité.

Peut-on alors réellement parler d’innovation de rupture pour ChatGPT ?

Et s’il fallait finalement se saisir de ce raz de marée médiatique pour comprendre la fulgurance de son déploiement, et plus encore, pour comprendre où nous en sommes, nous, utilisateurs, dans nos représentations, entre fantasmes et réalités, de l’intelligence artificielle ?

Ces logiciels d’intelligence conversationnelle nous ramènent à deux grandes tendances liées à la technicisation de la société. Tout d’abord celle de la servicisation, c’est-à-dire une normalisation de l’assistance personnalisée au quotidien. Cette tendance est arrivée avec le passage d’une économie basée sur des logiques de masse, vers une autre basée sur des logiques individuelles.

Le second grand levier est la plateformisation : créés au sein d’empires numériques (entre autres GAFAM), ces logiciels sont pensés pour être infusés dans tout l’écosystème. C’est le cas par exemple de ChatGPT, amené à investir Bing, Outlook, et autres services de Microsoft.

Et pour cause, le disgracieux « GPT » dans sa version francophone, renvoie au « general purpose technologies », soit technologies à usage général. Il est donc de par sa nature, un outil conçu pour être facilement transposé et utilisé dans différents domaines. Différent d’un moteur de recherche, il répond à des questions complexes et cherche à comprendre l’intention.

Comment expliquer l’appropriation si rapide de ChatGPT par les utilisateurs ?
L’impact médiatique relève du fait de ses utilisateurs. Comme souligné par l’anthropologue Lionel Obadia, il est difficile de parler d’invention. Néanmoins, la diffusion et l’appropriation remarquablement rapide font de ChatGPT une innovation marquante. Elle peut être utilisée par n’importe qui, initié ou non, gratuitement en ligne, et entraîne de ce fait autant de nouveaux usages, de contournements, que de business potentiels.


Trois forces expliquent la rapide intégration et appropriation sociale du logiciel.

Premièrement, ChatGPT est très accessible : ce qui lui permet un passage à l’échelle, autrement dit un déploiement, très rapide. L’accessibilité de l’outil et son appropriation généralisée massifient l’usage, mais également l’intérêt pour ce qui paraît « nouveau », voire « divertissant ».

Ensuite, ChatGPT nous ressemble. Le processus de machine learning en fait un outil d’auto-enrichissement continu, comme les humains. Le dialogue lui permet par exemple d’améliorer ses réponses avec un langage naturel. Ainsi, plus il est utilisé, plus il est performant. Autrement dit, nous nous « éduquons » mutuellement.

Enfin, ChatGPT est un champ des possibles : il laisse entrevoir de nouveaux scénarios. Nous sommes, en tant qu’utilisateurs, la condition pour la réussite du déploiement de ces innovations numériques. Chose faite pour ChatGPT qui compte à présent plus de 100 millions d’utilisateurs. Nous commençons à prendre conscience de « l’après » et de l’émergence d’autres innovations issues du modèle de ce logiciel.

La philosophe Marie Robert raconte son expérience lorsque le média Brut lui propose de corriger une copie rédigée par le logiciel :

« C’est avec un certain frisson que j’ai pris mon stylo rouge pour tenter de comprendre le raisonnement élaboré par une machine. Malgré une absence de citations, un manque cruel de nuances et une structure bien trop rigide, ma première remarque fut que ce n’était « pas si mal » […] C’est donc avec un mélange de fascination et d’effroi que j’ai terminé l’exercice, me demandant sincèrement ce que nous allions faire pour le monde à venir, pour ces générations qui n’auront pas à connaître l’effort. »


Des métiers de la cognition voués à disparaître ?

Ce qui diffère vraiment avec les précédentes évolutions liées à l’innovation, c’est que ChatGPT touche les métiers de la cognition, plutôt épargnés jusqu’alors. Il est d’ailleurs intéressant de rappeler que l’un des logiciels les plus (technologiquement) complexes, l’Autopilot de Tesla, a été pour 85 % fabriqué par l’intelligence artificielle. La dynamique d’hybridation entre métiers et intelligence artificielle est de plus en plus forte. Cependant, il serait fantasmé de parler de « grand remplacement ».

L’autonomie de l’intelligence conversationnelle n’est pas totale. Par exemple, ChatGPT développé par Open AI a été construit à partir de 175 milliards de paramètres, il s’appuie sur un jeu de données gigantesque. Gigantesque certes, mais sélectionné, donc faillible.

Récemment, des échanges et lectures sur l’art du codage m’ont permis d’éclairer plus encore les limites du mythe d’une autonomie de l’intelligence artificielle. Cela notamment à travers la dimension de labellisation dans les réseaux de neurones. Dans ce processus, il s’agit d’étiqueter des données, c’est-à-dire d’associer un label (une valeur prédéfinie) à un contenu (image, texte, forme, etc.). L’objectif est d’apporter un modèle d’apprentissage aux machines. Cette pratique rappelle la nécessité de paramétrage et de supervision dans l’interprétation des données, une réalité a (re) découvrir dans la mini-série documentaire Les travailleurs du clic de Antonio Casilli. Open AI a d’ailleurs différents contrats avec des travailleurs au Kenya pour ce travail de modération.

Nous voyons donc les limites d’un fantasme autour d’une intelligence artificielle parfaitement autonome.

Bien que l’intelligence artificielle ne comprenne pas ce qu’elle dit, ces implications humaines dans la supervision de l’apprentissage des machines nous montrent que les données qui nourrissent cette intelligence, elles, ne sont pas neutres. Elles reproduisent et amplifient les biais de ceux qui la supervisent, chariant un lot potentiel de stéréotypes, de désinformation, de contenus aspirés aux sources invisibles, de censure, ou encore de complotisme (Meta en a fait l’expérience avec Blender bot 3).

La question centrale est donc : qui paramètre ? Le professeur de droit Lawrence Lessig le souligne dans son clairvoyant « Code is law » : la personne qui paramètre est la personne qui a la possibilité d’orienter un système de pensée. Un outil comme ChatGPT est principalement conçu par et pour une cible nord-américaine. Son déploiement rapide, renforcé par sa dimension ludique, conduit à la normalisation de son utilisation. Une normalisation non pas sans effet, puisqu’elle vient renforcer l’impression d’un objet politiquement neutre chez les utilisateurs.

Or, c’est loin d’être le cas, pour les raisons évoquées précédemment, mais aussi parce que l’IA est avant tout un enjeu de domination tant entre empires du numérique, que dans la sphère géopolitique.

ChatGPT : interdit en Italie… Et bientôt en Europe ?

ChatGPT : interdit en Italie… Et bientôt en Europe ?

Les autorités italiennes ont ordonné à OpenAI de ne plus traiter les données personnelles des utilisateurs italiens. Désormais, l’entreprise à 20 jours pour se mettre en conformité, sans quoi elle s’expose à une amende pouvant aller jusqu’à 20 millions d’euros, ou 4% de son chiffre d’affaires annuel global. Inattendu, ce coup de poing sur la table pourrait avoir des conséquences pour tout l’écosystème et sur l’ensemble de l’Europe.

La technologie Chat GPT pose de nombreux problèmes. Comme d’autres applications d’abord elle recueille de nombreuses informations personnelles dont on ne connaît pas l’exploitation. Ce n’est pas non plus un système expert scientifique. Il s’agit plutôt d’une sorte de synthèse des idées du moment assez nettement orientées. Bref qui souffre d’ une absence de caution scientifique. En outre, un outil qui peut se révéler dangereux quand il oriente le comportement d’usagers fragiles psychologiquement. Bref sans doute quand même un progrès technologique mais qui a un besoin urgent de régulation non seulement en Italie mais dans l’union européenne. C’est même tout l’écosystème des outils informatiques qui mérite cette régulation.

Pour l’instant, le blocage ne concerne que l’Italie. Mais les autorités des données européennes convergent souvent sur ce genre de décision, à l’image des efforts de coordination concédés ces dernières années. Contactée par La Tribune, la Cnil (l’autorité française) précise qu’elle n’a pas reçu de plainte et qu’elle n’a pas de procédure similaire en cours. En revanche, elle s’est rapprochée de son homologue italienne afin d’échanger sur les constats qu’elle a faits. L’autorité française s’est dotée en janvier d’une division spécialisée en intelligence artificielle afin d’accompagner la nouvelle vague qui frappe le secteur, et elle prévoit de « clarifier le cadre légal des bases d’apprentissage et des IA génératives dans les prochains mois ».

De plus, si la décision de la GPDP vise nommément ChatGPT, elle ne se limite pas implicitement à l’outil d’OpenAI. « La décision de publier la sanction est un message envoyé à l’ensemble de l’écosystème. Toutes les entreprises doivent se sentir concernées », met en garde Sonia Cissé, avocate associée en droit des technologies au sein du cabinet Linklaters. « Les autorités savent qu’il est extrêmement difficile pour les entreprises d’intelligence artificielle de se conformer à 100% au RGPD », ajoute-t-elle.
Cette décision intervient alors que le texte européen de régulation de l’intelligence artificielle, l’IA Act, est toujours en discussion à Bruxelles.

IA- ChatGPT :une nouvelle « révolution anthropologique » ?

IA- ChatGPT :une nouvelle « révolution anthropologique » ?

Par Lionel Obadia, Université Lumière Lyon 2

Depuis la mise en ligne de la version « Chat » de l’intelligence artificielle (IA) GPT, capable d’imiter la production intellectuelle humaine, l’effervescence autour de ces technologies fait ressurgir dans les débats la notion de « révolution anthropologique ».

Or, ce que nous observons, au-delà de ChatGPT, est que chaque nouvelle avancée dans des technologies dites de « rupture » relève en fait de cette ambivalente technophilie, tentée par le technoscepticisme, qui oscille entre émerveillement et frisson face aux rapides et impressionnants progrès de l’informatique et de la cybernétique.
Depuis la victoire de Deep Blue, le super-ordinateur, contre un humain aux échecs, la tonalité est donnée : il se jouerait là un « tournant de l’histoire de l’humanité ».

Les dernières prouesses mathématiques et technologiques ont donné naissance à une rapide massification de ce que l’on désigne comme « intelligence artificielle », appellation que des spécialistes comme Luc Julia ou Jean-Louis Dessalles contestent car cette « intelligence » se décline en fait sous une multitude de dispositifs informatiques.

On trouve ainsi pêle-mêle des algorithmes d’aide à la décision, notamment juridique (CaseLaw Analytics), reconnaissance faciale comme FaceNet, musique générée par algorithmes avec Jukedeck, images générées par le texte avec Dall•E 2, agents conversationnels portables (Siri), domotique intelligente qui informe sur le contenu du réfrigérateur, robots humanoïdes capables d’engager et tenir une conversation… on pense ainsi à la désormais célèbre Sofia, qui passe de plateau TV en conférence, ou à Ameca, dont la gestuelle et les expressions ne cessent de montrer les limites de l’humain.

La massification des technologies et leur injection tous azimuts dans les sociétés contemporaines sont, certes, remarquables, et donnent l’impression d’une vague irrépressible de technologisation et de digitalisation des environnements humains.

Cette tendance nourrit un imaginaire débridé qui se pense nécessairement en rupture avec le passé, d’où la mode de la « révolution » aux accents transhumanistes. Nous serions ainsi à « l’aube » d’une « nouvelle » humanité prise dans une nouvelle « ère » technologique. Un récit qui oublie les nombreux ratés des dites technologies, d’ailleurs.
La « révolution de l’IA » ou « digitale » est-elle une révolution anthropologique ? Curieusement, ce sont les entrepreneurs comme Gilles Babinet, les historiens à succès, comme Yuval Noah Harari, les philosophes, comme Frédéric Worms, qui se sont emparés de l’expression (avec des termes plus ou moins exacts).
Le premier pour affirmer avec force que c’est bien le cas.

Le second, avec son livre Homo Deus, pour inscrire cette révolution dans un modèle de longue durée de l’histoire humaine au péril d’une simplification à outrance qui brouille les pistes entre lecture rétrospective de l’histoire et imagination prospective.

Le troisième, enfin, avec un bien plus de mesure, pour au moins souligner la pertinence d’un questionnement sur la profondeur des transformations en cours.
On regrettera que les anthropologues soient malheureusement peu mobilisés sur un débat qui concerne au premier chef la discipline dont le nom est mis à toutes les sauces, à quelques exceptions près. Emmanuel Grimaud a pris à bras le corps la question essentielle de la nature de l’IA par comparaison avec les traits d’une humanité toujours plus questionnée sur ce qui fait sa singularité.
Pascal Picq, s’en est emparé dans un genre très différent, puisque le paléoanthropologue n’hésite pas à sortir du cadre strict de l’anthropogenèse (l’évolution humaine). Il inscrit la révolution digitale dans le temps long de l’évolution humaine et, contre toute réduction intellectuelle, invite à penser la complexité des formes d’intelligences animales et artificielles.

Les anthropologues, habitués, par spécialisation intellectuelle, au temps long et plus enclins à considérer les continuités que les ruptures (souvent hâtivement annoncées) dans l’ordre des sociétés et les mutations culturelles, ont toutes les raisons d’être circonspects.
D’abord parce que tout changement technologique n’entraîne pas un changement culturel majeur. Suivant Claude Lévi-Strauss notamment dans Race et Histoire (1955), il faut peut-être réserver le terme à un phénomène de nature à transformer en profondeur (structurellement) l’ordre de la pensée et de l’organisation sociale.
Ce fut le cas avec la domestication du feu et des espèces animales, la sédentarisation et l’agriculture au néolithique, qui ne sont pas toutes des inventions (ex-nihilo) mais bien souvent des innovations au sens anthropologique du terme : l’amélioration d’une technique déjà élaborée par les humains. Et c’est en ce sens que l’IA et nombre de technologies digitales méritent proprement le terme d’innovation plus que d’inventions.

En ce sens, le philosophe Michel Serres évoquait une « troisième révolution » pour qualifier l’avènement du monde digital, après l’écriture et l’imprimerie. Il fait ainsi écho à Jack Goody, qui explique que la raison graphique a métamorphosé une raison orale, structurant la pensée et la communication humaine pendant des millénaires. En d’autres termes, ce ne sera pas l’unique fois, bien au contraire, où l’humanité se trouve confrontée à une réadaptation de ses manières de penser après un changement dans ses techniques.

Révolution, donc que cet Homo numericus comme on l’affirme ici ou là avec la force de la conviction que le présent explique tout ?
Si on suit l’historienne Adrienne Mayor, les civilisations de l’Antiquité ont déjà imaginé et même commencé à mettre en œuvre des technologies qui sont actuellement sur le devant de la scène, de manière embryonnaire pour l’IA ou plus aboutie pour les robots. Son God and Robots tord le cou à des lectures partielles et partiales d’une histoire monolithique et récente.
Elle narre ainsi les récits de Talos, « premier robot », puis le chaudron d’immortalité de Médée, les emprunts des humains aux animaux et aux Dieux pour accroître leurs pouvoirs, les premières statues « vivantes » de Dédale et Pygmalion, la création des humains plus qu’humains par Prométhée, les automates d’Héphaïstos, la première réalité virtuelle qu’incarne Pandore… Pour Mayor, la révolution numérique ne serait qu’une actualisation dans le présent d’anciennes technologies.

Une réinvention plus qu’une révolution, donc, et des impacts moins profonds qu’il n’y parait : les machines étaient là, depuis le début, dans l’imaginaire des humains qui ont tâtonné (dans tous les sens du terme) pour les matérialiser.
Certes, les technologies sont loin d’être identiques – entre les automates grecs et les machines agissantes de Boston Dynamics, l’écart est quand même sensible et toute technologie est d’abord évaluable dans son contexte – mais elles étaient déjà investies des espoirs de l’humanité d’être assistée voire suppléée dans ses tâches physiques (pour les robots) et intellectuelles (pour l’IA).

La révolution est-elle d’ailleurs anthropologique ou technologique ? La leçon de l’anthropologie, c’est de considérer comment l’humain élabore des technologies et comment celles-ci sont absorbées par les systèmes sociaux et culturels.

La « révolution numérique » ou « digitale » engendre indubitablement des transformations dans les technologies, sans qu’elles se traduisent mécaniquement par des mutations des modèles de comportements humains. De nouveaux usages apparaissent mais les modèles de comportement peuvent infléchir les techniques, plutôt que d’être infléchis par elles.
Suivant les plus critiques des spécialistes de l’IA, et des technologies digitales, il s’agit de considérer la singularité de chaque technologie et de ses effets : là où la réponse sociale aux agents conversationnels semble plutôt positive et immédiate (les chatbots sont facilement adoptés), les IA de reconnaissance faciale donnent lieu à des contournements au moyen de contre-systèmes informatiques.

Suivant Picq, il faut sans doute réserver aux smartphones un sort à part, dans le sens où ils allient la matérialité d’un ordinateur portable, et la virtuosité technologique des IA. Ce terminal concentré de technologie qui a quand même changé les modes de communication, accompagné ou engendré des changements dans la mobilité humaine, dans le rapport au savoir, etc. que Pascal Picq veut l’objet véritable de la « révolution » actuelle est le détournement dans le sens où il devient ordinateur portable plus que téléphone…

Bref, depuis le feu, les armes, la magie – peut-être première technologie de transformation de la réalité humaine – donc première réalité virtuelle de l’histoire ? – jusqu’à l’IA et les robots, l’humanité s’amuse et se fait peur avec ses créations technologiques, utiles ou ludiques.
Elle se plaît parfois à les constituer comme des créatures (sans qu’elles soient nécessairement anthropomorphisées) telles que la pensée mythique les figure. Rien de surprenant dans ce cadre que certains trichent avec ChatGPT par exemple.
En effet, l’humain est un être versé dans le ludisme, c’est-à-dire, qui aime le jeu comme l’affirmait le philosophe Johann Huizinga mais aussi dans le luddisme, une forme de crainte suscitée par les technologies (en référence au conflit social du XIXe siècle qui avait opposé des manufacturiers à des artisans, les luddistes qui dénonçaient l’emploi de machines).

La tentation reste toutefois grande de céder au fétiche intellectuel du terme « révolution ». Dans la plupart des cas, est qualifiée de révolution un changement culturel ou socio-technique dont sont observées les prémisses et sont conjecturés les impacts qui ne sont pas encore observés.

Or, une révolution (sauf sans doute quand elle se décrète sur le plan politique) se mesure à partir d’éléments rétrospectifs et non pas d’extrapolations, qui sont assez stables dans le domaine des sciences et technologies, mais très peu fiables en sciences humaines.

Si l’on considère toutefois les avancées actuelles de l’Intelligence artificielle, non plus du seul point de vue d’une échelle technologique linéaire, comme la loi de Moore, mais sur le plan des absorptions culturelles et adoptions sociales des technologies, sans doute faudrait-il alors parler (d’une même voix avec les informaticiens) d’évolution plutôt que de révolution anthropologique.
Mais au prix d’un renversement intellectuel majeur : celui de passer d’une pensée technocentrée (qui considère que c’est la technologie qui transforme la société) à une pensée sociocentrée des techniques (la perspective inverse, donc). Une petite « révolution » donc… ?
______
Par Lionel Obadia, professeur en Anthropologie sociale et culturelle, Université Lumière Lyon 2.
La version originale de cet article a été publiée sur The Conversation.

ChatGPT : une nouvelle « révolution anthropologique » ?

ChatGPT :une nouvelle « révolution anthropologique » ?

Par Lionel Obadia, Université Lumière Lyon 2

Depuis la mise en ligne de la version « Chat » de l’intelligence artificielle (IA) GPT, capable d’imiter la production intellectuelle humaine, l’effervescence autour de ces technologies fait ressurgir dans les débats la notion de « révolution anthropologique ».

Or, ce que nous observons, au-delà de ChatGPT, est que chaque nouvelle avancée dans des technologies dites de « rupture » relève en fait de cette ambivalente technophilie, tentée par le technoscepticisme, qui oscille entre émerveillement et frisson face aux rapides et impressionnants progrès de l’informatique et de la cybernétique.
Depuis la victoire de Deep Blue, le super-ordinateur, contre un humain aux échecs, la tonalité est donnée : il se jouerait là un « tournant de l’histoire de l’humanité ».

Les dernières prouesses mathématiques et technologiques ont donné naissance à une rapide massification de ce que l’on désigne comme « intelligence artificielle », appellation que des spécialistes comme Luc Julia ou Jean-Louis Dessalles contestent car cette « intelligence » se décline en fait sous une multitude de dispositifs informatiques.

On trouve ainsi pêle-mêle des algorithmes d’aide à la décision, notamment juridique (CaseLaw Analytics), reconnaissance faciale comme FaceNet, musique générée par algorithmes avec Jukedeck, images générées par le texte avec Dall•E 2, agents conversationnels portables (Siri), domotique intelligente qui informe sur le contenu du réfrigérateur, robots humanoïdes capables d’engager et tenir une conversation… on pense ainsi à la désormais célèbre Sofia, qui passe de plateau TV en conférence, ou à Ameca, dont la gestuelle et les expressions ne cessent de montrer les limites de l’humain.

La massification des technologies et leur injection tous azimuts dans les sociétés contemporaines sont, certes, remarquables, et donnent l’impression d’une vague irrépressible de technologisation et de digitalisation des environnements humains.

Cette tendance nourrit un imaginaire débridé qui se pense nécessairement en rupture avec le passé, d’où la mode de la « révolution » aux accents transhumanistes. Nous serions ainsi à « l’aube » d’une « nouvelle » humanité prise dans une nouvelle « ère » technologique. Un récit qui oublie les nombreux ratés des dites technologies, d’ailleurs.
La « révolution de l’IA » ou « digitale » est-elle une révolution anthropologique ? Curieusement, ce sont les entrepreneurs comme Gilles Babinet, les historiens à succès, comme Yuval Noah Harari, les philosophes, comme Frédéric Worms, qui se sont emparés de l’expression (avec des termes plus ou moins exacts).
Le premier pour affirmer avec force que c’est bien le cas.

Le second, avec son livre Homo Deus, pour inscrire cette révolution dans un modèle de longue durée de l’histoire humaine au péril d’une simplification à outrance qui brouille les pistes entre lecture rétrospective de l’histoire et imagination prospective.

Le troisième, enfin, avec un bien plus de mesure, pour au moins souligner la pertinence d’un questionnement sur la profondeur des transformations en cours.
On regrettera que les anthropologues soient malheureusement peu mobilisés sur un débat qui concerne au premier chef la discipline dont le nom est mis à toutes les sauces, à quelques exceptions près. Emmanuel Grimaud a pris à bras le corps la question essentielle de la nature de l’IA par comparaison avec les traits d’une humanité toujours plus questionnée sur ce qui fait sa singularité.
Pascal Picq, s’en est emparé dans un genre très différent, puisque le paléoanthropologue n’hésite pas à sortir du cadre strict de l’anthropogenèse (l’évolution humaine). Il inscrit la révolution digitale dans le temps long de l’évolution humaine et, contre toute réduction intellectuelle, invite à penser la complexité des formes d’intelligences animales et artificielles.

Les anthropologues, habitués, par spécialisation intellectuelle, au temps long et plus enclins à considérer les continuités que les ruptures (souvent hâtivement annoncées) dans l’ordre des sociétés et les mutations culturelles, ont toutes les raisons d’être circonspects.
D’abord parce que tout changement technologique n’entraîne pas un changement culturel majeur. Suivant Claude Lévi-Strauss notamment dans Race et Histoire (1955), il faut peut-être réserver le terme à un phénomène de nature à transformer en profondeur (structurellement) l’ordre de la pensée et de l’organisation sociale.
Ce fut le cas avec la domestication du feu et des espèces animales, la sédentarisation et l’agriculture au néolithique, qui ne sont pas toutes des inventions (ex-nihilo) mais bien souvent des innovations au sens anthropologique du terme : l’amélioration d’une technique déjà élaborée par les humains. Et c’est en ce sens que l’IA et nombre de technologies digitales méritent proprement le terme d’innovation plus que d’inventions.

En ce sens, le philosophe Michel Serres évoquait une « troisième révolution » pour qualifier l’avènement du monde digital, après l’écriture et l’imprimerie. Il fait ainsi écho à Jack Goody, qui explique que la raison graphique a métamorphosé une raison orale, structurant la pensée et la communication humaine pendant des millénaires. En d’autres termes, ce ne sera pas l’unique fois, bien au contraire, où l’humanité se trouve confrontée à une réadaptation de ses manières de penser après un changement dans ses techniques.

Révolution, donc que cet Homo numericus comme on l’affirme ici ou là avec la force de la conviction que le présent explique tout ?
Si on suit l’historienne Adrienne Mayor, les civilisations de l’Antiquité ont déjà imaginé et même commencé à mettre en œuvre des technologies qui sont actuellement sur le devant de la scène, de manière embryonnaire pour l’IA ou plus aboutie pour les robots. Son God and Robots tord le cou à des lectures partielles et partiales d’une histoire monolithique et récente.
Elle narre ainsi les récits de Talos, « premier robot », puis le chaudron d’immortalité de Médée, les emprunts des humains aux animaux et aux Dieux pour accroître leurs pouvoirs, les premières statues « vivantes » de Dédale et Pygmalion, la création des humains plus qu’humains par Prométhée, les automates d’Héphaïstos, la première réalité virtuelle qu’incarne Pandore… Pour Mayor, la révolution numérique ne serait qu’une actualisation dans le présent d’anciennes technologies.

Une réinvention plus qu’une révolution, donc, et des impacts moins profonds qu’il n’y parait : les machines étaient là, depuis le début, dans l’imaginaire des humains qui ont tâtonné (dans tous les sens du terme) pour les matérialiser.
Certes, les technologies sont loin d’être identiques – entre les automates grecs et les machines agissantes de Boston Dynamics, l’écart est quand même sensible et toute technologie est d’abord évaluable dans son contexte – mais elles étaient déjà investies des espoirs de l’humanité d’être assistée voire suppléée dans ses tâches physiques (pour les robots) et intellectuelles (pour l’IA).

La révolution est-elle d’ailleurs anthropologique ou technologique ? La leçon de l’anthropologie, c’est de considérer comment l’humain élabore des technologies et comment celles-ci sont absorbées par les systèmes sociaux et culturels.

La « révolution numérique » ou « digitale » engendre indubitablement des transformations dans les technologies, sans qu’elles se traduisent mécaniquement par des mutations des modèles de comportements humains. De nouveaux usages apparaissent mais les modèles de comportement peuvent infléchir les techniques, plutôt que d’être infléchis par elles.
Suivant les plus critiques des spécialistes de l’IA, et des technologies digitales, il s’agit de considérer la singularité de chaque technologie et de ses effets : là où la réponse sociale aux agents conversationnels semble plutôt positive et immédiate (les chatbots sont facilement adoptés), les IA de reconnaissance faciale donnent lieu à des contournements au moyen de contre-systèmes informatiques.

Suivant Picq, il faut sans doute réserver aux smartphones un sort à part, dans le sens où ils allient la matérialité d’un ordinateur portable, et la virtuosité technologique des IA. Ce terminal concentré de technologie qui a quand même changé les modes de communication, accompagné ou engendré des changements dans la mobilité humaine, dans le rapport au savoir, etc. que Pascal Picq veut l’objet véritable de la « révolution » actuelle est le détournement dans le sens où il devient ordinateur portable plus que téléphone…

Bref, depuis le feu, les armes, la magie – peut-être première technologie de transformation de la réalité humaine – donc première réalité virtuelle de l’histoire ? – jusqu’à l’IA et les robots, l’humanité s’amuse et se fait peur avec ses créations technologiques, utiles ou ludiques.
Elle se plaît parfois à les constituer comme des créatures (sans qu’elles soient nécessairement anthropomorphisées) telles que la pensée mythique les figure. Rien de surprenant dans ce cadre que certains trichent avec ChatGPT par exemple.
En effet, l’humain est un être versé dans le ludisme, c’est-à-dire, qui aime le jeu comme l’affirmait le philosophe Johann Huizinga mais aussi dans le luddisme, une forme de crainte suscitée par les technologies (en référence au conflit social du XIXe siècle qui avait opposé des manufacturiers à des artisans, les luddistes qui dénonçaient l’emploi de machines).

La tentation reste toutefois grande de céder au fétiche intellectuel du terme « révolution ». Dans la plupart des cas, est qualifiée de révolution un changement culturel ou socio-technique dont sont observées les prémisses et sont conjecturés les impacts qui ne sont pas encore observés.

Or, une révolution (sauf sans doute quand elle se décrète sur le plan politique) se mesure à partir d’éléments rétrospectifs et non pas d’extrapolations, qui sont assez stables dans le domaine des sciences et technologies, mais très peu fiables en sciences humaines.

Si l’on considère toutefois les avancées actuelles de l’Intelligence artificielle, non plus du seul point de vue d’une échelle technologique linéaire, comme la loi de Moore, mais sur le plan des absorptions culturelles et adoptions sociales des technologies, sans doute faudrait-il alors parler (d’une même voix avec les informaticiens) d’évolution plutôt que de révolution anthropologique.
Mais au prix d’un renversement intellectuel majeur : celui de passer d’une pensée technocentrée (qui considère que c’est la technologie qui transforme la société) à une pensée sociocentrée des techniques (la perspective inverse, donc). Une petite « révolution » donc… ?
______
Par Lionel Obadia, professeur en Anthropologie sociale et culturelle, Université Lumière Lyon 2.
La version originale de cet article a été publiée sur The Conversation.

ChatGPT: Un moyen pour remonter le QI moyen en France ou le contraire ?

ChatGPT: Un moyen pour remonter le QI moyen en France ou le contraire ?

Le désastre n’est pas l’arrivée de cette IA qu’il va falloir domestiquer, mais le déni de réalité et le déclassement éducatif de notre pays, la stagnation voire la baisse du QI moyen, le recul du langage

L’Intelligence artificielle (IA) fait réagir. Enfin ! Le logiciel ChatGPT fait couler beaucoup d’encre, tant il présage une transformation de notre rapport à la connaissance et de nos modes de travail. Avec plus de 100 millions d’utilisateurs en deux mois, cette intelligence artificielle fascine le monde, interroge, effraie. Pourtant, il s’agit encore de l’âge de pierre de la révolution de l’IA. Toutes nos professions, activités, expressions vont être bouleversées. Le tsunami est imminent et au lieu de nous y préparer, nos « dirigeants » politiques attendent la vague au soleil sur la plage, en devisant sur le sexe des anges qui partent à la retraite et la pénibilité de métiers en voie de disparition.

Le désastre n’est pas l’arrivée de cette IA qu’il va falloir domestiquer, mais le déni de réalité et le déclassement éducatif de notre pays, la stagnation voire la baisse du QI moyen, le recul du langage.

Comment nos enfants vont-ils s’instruire, faire leurs devoirs, s’aguerrir, développer un esprit imaginatif et analytique à mesure que l’IA se répand ? Comment allons-nous créer de la valeur alors que la machine s’apprête à engloutir des milliers d’emplois, y compris hautement qualifiés, d’analyste, de codeur, de communicant ou d’avocat ? L’espèce humaine sera-t-elle encore capable, hormis une élite, de bâtir une œuvre et de construire un raisonnement, de le conceptualiser, l’exprimer ? Plutôt qu’à coder l’informatique (ce que fera bien mieux l’IA que l’humain), apprenons aux futurs adultes à décoder le monde ! L’avenir exige plus que jamais d’apprendre à exercer sa raison critique, d’être capable de créativité.

Opportunités. L’innovation radicale est par essence porteuse de grands risques, proportionnels aux opportunités qu’elle fait naître. A l’aube de l’émergence de l’intelligence artificielle, Sciences Po – comme des établissements d’enseignement à New York – en a interdit l’usage. Si les craintes sont légitimes au regard de l’ampleur du bouleversement qui nous attend, les solutions ne pourront être trouvées du côté du refus, incarné à l’extrême par l’idéologie de la décroissance qui ne porte aucune alternative crédible et propose un monde sans innovation, marqué par la peur et le recul ; une société où chacun devrait rétrécir son existence : moins se déplacer, moins travailler, moins agir, moins créer. Moins vivre. Ce projet politique est mortifère.

Il faut rester fidèles à nos principes, qui seuls peuvent guider nos choix dans le tumulte des circonstances : la liberté comme valeur cardinale, la responsabilité comme corollaire indissociable, la culture et la raison critique comme sources d’émancipation individuelle et lien collectif, et la dignité humaine comme finalité ultime et ontologique

L’innovation est indissociable de la vie, de l’humanité, et désormais de sa survie face au défi écologique. S’opposer à la révolution de l’IA serait vain. Il faut en revanche rester fidèles à nos principes, qui seuls peuvent guider nos choix dans le tumulte des circonstances : la liberté comme valeur cardinale, la responsabilité comme corollaire indissociable, la culture et la raison critique comme sources d’émancipation individuelle et lien collectif, et la dignité humaine comme finalité ultime et ontologique.

Nous pouvons aspirer à la science et la conscience. C’est le rôle du politique. En matière d’intelligence artificielle, cette conscience est celle de l’origine des contenus, de la transparence des informations concernant l’outil et ses limites, de l’exigence de l’enseignement des humanités, des œuvres artistiques, du goût du beau, hors utilitarisme.

Souveraineté. Plutôt que d’interdire l’usage, il faut avant tout sanctionner les abus, mettre en place les technologies contrôlées par la souveraineté populaire qui signaleront les constructions de l’IA dans le champ de l’information (vidéos, discours, etc.) et permettre aux esprits encore en formation de ne pas en être des victimes.

L’IA est un enjeu économique (plus de 500 milliards de dollars de chiffre d’affaires), scientifique et politique. Car l’IA connectée à la robotique, aux nano et biotechnologies permettra de relever les défis climatiques, médicaux, éducatifs, entrepreneuriaux, logistiques, sécuritaires. Se pose aussi la question de la concurrence militaire et géopolitique des nations : quelle place pour notre pays et notre continent dans ce monde en devenir ? Donc celle de la souveraineté, de la sécurité et de la liberté des peuples. C’est en cela que l’enjeu est également démocratique et philosophique, en posant l’Intelligence artificielle comme outil de progrès individuel et collectif ou de soumission.

Il en résulte un étourdissement anthropologique : comment éviter qu’au rêve déjà douteux de l’homme augmenté du transhumanisme ne succède le cauchemar de l’homme inutile, celui d’une espèce dont le corps et le cerveau seraient remplacés par des machines auto apprenantes ? Vieux thème… qui devient actualité. Certains nous ont éclairés depuis un demi-siècle sur les potentialités et dangers de l’IA. Nous sommes en France quelques-uns à vouloir inscrire cette réflexion dans le champ du débat civique. Il y a désormais urgence ! Voulons-nous subir ou choisir ? Etre une colonie numérique des Etats-Unis et de l’Asie ou porter une ambition industrielle française et européenne ?

Car le monde a les yeux rivés sur l’IA. Une erreur de Bard, l’outil présenté par Google le 7 février, a fait perdre 100 milliards de dollars en bourse à l’entreprise ; un aperçu des attentes autour de ces technologies.

Pendant ce temps, nous voilà ici absorbés par le sempiternel débat sur l’âge de la retraite, avec les mêmes postures qu’il y a trente ans et la même absence de perspective. Nous devons nous projeter, développer notre puissance de recherche et catalyser les investissements dans les technologies. La France est une terre d’innovation qui continue de produire parmi les plus grands chercheurs. En octobre dernier, Alain Aspect a reçu le prix Nobel de physique pour ses travaux sur le monde quantique : c’est le quinzième Français à recevoir cette distinction. Notre pays peut être aux avant-postes de la révolution qui commence, à condition de ne pas sortir les fourches, ou simplement de ne pas refuser de voir. Là encore, c’est le rôle du politique. Ainsi va la France.

David Lisnard, maire de Cannes, président de Nouvelle Energie. dans l’Opinion

ChatGPT : Perspectives et limites

ChatGPT : Perspectives et limites

Par Benoît Bergeret, directeur exécutif ESSEC Metalab for Data, Technology and Society et co-fondateur du Hub France IA.

En seulement cinq semaines, ChatGPT a été adopté par plus d’un million d’utilisateurs. Mais tous comprennent-ils les limites de l’outil, qui nous étonne par sa capacité à produire des textes cohérents, grammaticalement corrects et apparemment pertinents ? Quel impact anticiper pour son usage en entreprise ? Le système dont tout le monde parle peut-il devenir une « machine pensante » ? Est-il fondé de le voir comme un pas de plus vers l’IA généralisée, celle qui finira par nous diriger ?

Le langage n’est pas la pensée. Mais l’illusion est impressionnante. Selon Nick Cave, chanteur de The Bad Seeds, « les paroles écrites par ChatGPT sont une grotesque moquerie de ce qu’est être humain ». Il rejoint ainsi le philosophe américain John Searle : un système syntaxique peut donner l’impression qu’il comprend la langue alors qu’il ne comprend ni les prompts, ni les réponses produites. Et la recherche en neurosciences cognitives montre que la maîtrise du langage nécessite des capacités comme le raisonnement, les connaissances sur le monde et la cognition sociale. ChatGPT, système syntaxique par nature, a des compétences linguistiques formelles indéniables, mais rien de plus.

Neurosciences. Searle rejoint aussi les neurosciences : l’esprit humain n’est pas un système computationnel, il résulte de processus biologiques. Or, le numérique ne peut que simuler ceux-ci, pas les dupliquer. C’est un obstacle infranchissable au développement de la conscience, donc d’une IA capable d’égaler l’humain. Contrairement aux apparences, ChatGPT est une avancée intéressante, mais pas un « pas décisif » vers l’IA généralisée.

Bien sûr, la combinaison de cet outil syntaxique avec des moteurs de recherche sémantiques, produira des résultats impressionnants pour des usages « étroits » (« Narrow AI »). Mais nous resterons loin de l’IA généralisée.

L’outil va disrupter les stratégies de déploiement centralisées de l’IA : il va être difficile de demander à renoncer à son utilisation. L’expérience de Sciences Po, qui en a interdit récemment l’usage par ses étudiants, va être suivie avec beaucoup d’intérêt.

Pour les entreprises, il va falloir s’adapter vite, compléter les stratégies top-down d’adoption de l’IA à l’accueil et à l’intégration raisonnée de ces nouveaux outils. A minima, dans les semaines qui viennent, il va leur falloir mettre en place une gouvernance. Par exemple : définir le périmètre acceptable d’usage et interdire toute autre utilisation, mettre en place un contrat engageant la responsabilité du fournisseur, pour diminuer le risque lié à une interruption inattendue de l’accès au système.

Confiance. Il faut aussi établir la confiance par l’éducation en expliquant les limites de l’outil, en rappelant qu’il ne peut pas garantir la véracité des informations générées et que le producteur de contenu a la responsabilité d’une nécessaire vérification manuelle de toutes les informations. Les entreprises devront assurer une stratégie de résilience (« j’utilise ChatGPT, que ferai-je si je n’y ai plus accès ? »), garantir le respect des normes éthiques et des lois lors de l’utilisation, et enfin mettre en place un système de détection de ChatGPT dans les contenus produits.
Souhaitable pour l’entreprise s’il est utilisé de manière appropriée, l’outil va ajouter de la valeur au travail des employés. Selon moi, ChatGPT (avec ses imperfections) se révélera in fine un catalyseur de l’adoption de l’IA en entreprise.

Son arrivée soulève les questions liées à l’introduction rapide auprès du public de technologies numériques peu matures et mal comprises. La question de l’adoption consciente et informée de cet outil se pose : comment éviter les dégâts collatéraux similaires à ceux causés par les réseaux sociaux ?
Mais n’ayons pas peur de chatGPT : ce n’est au fond qu’un outil, le successeur fonctionnel du traitement de texte et du correcteur orthographique ! Un outil merveilleux, plein de promesses, mais qu’il ne faut pas adopter à l’aveugle. Et les entreprises ont une grande responsabilité dans le bon usage qui en sera fait.

Benoît Bergeret, directeur exécutif, ESSEC Metalab for data, technology and society et Co-fondateur du Hub France IA

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol