Archive pour le Tag 'ChatGPT :'

Page 2 sur 2

ChatGPT : un développement Incontournable

ChatGPT : un développement Incontournable

par Ryan Shea, crypto-économiste chez Trakx dans la Tribune
Ryan Shea (*)

Un article intéressant mais le parallèle entre l’intelligence artificielle et les cryptomonnaies est assez douteux ne serait-ce qu’au niveau des enjeux NDLR

Les fossoyeurs des cryptos qui proclamaient haut et fort que 2023 serait un événement d’extinction du secteur ont – une fois de plus – eu tort. L’hiver crypto est terminé. Mais ce n’est pas la seule technologie qui profite du chaud soleil printanier. Je parle bien sûr de l’IA qui, après avoir elle-même connu plusieurs hivers dans le passé, connaît une renaissance spectaculaire. Alimentés par la popularité explosive de ChatGPT, qui, après avoir acquis plus de 100 millions d’utilisateurs depuis son lancement en novembre dernier, est l’application destinée aux consommateurs la plus réussie de tous les temps, les médias – traditionnels et sociaux – regorgent d’articles décrivant les derniers développements dans l’espace, et pour cause car les résultats sont impressionnants.

Ce que l’on observe avec de tels projets, ce sont des ordres de grandeur de meilleurs résultats que les systèmes « IA » antérieurs étaient capables de produire il y a quelques années à peine. On peut dire que les modèles LLM actuels qui alimentent ChatGPT et d’autres comme eux, sont capables d’imiter avec précision le contenu créé par l’homme – la base du célèbre test d’Alan Turing (3). L’IAG, ou intelligence artificielle générale, est peut-être encore hors de portée (elle peut être inaccessible – qui sait), mais avec l’intelligence artificielle déjà à un tel niveau, les implications sociales et économiques seront profondes.

La capacité de l’IA générative à produire des textes/son/images déjà proches de ceux produits par les humains dérange clairement beaucoup de gens, d’autant plus que la technologie s’améliore à un rythme exponentiel et non linéaire, d’où la raison pour laquelle ChatGPT 4.0 est nettement meilleur que ChatGPT 3.5. Cela signifie qu’il deviendra extrêmement difficile de détecter le contenu généré par l’IA par rapport à celui généré par l’homme. De plus, ces résultats pourront être produits à grande échelle pour une large diffusion sur Internet, l’une des principales sources d’information pour pratiquement tout le monde sur la planète (4). Les problèmes de fausses nouvelles semblent devoir exploser dans un avenir pas trop lointain.

On s’inquiète également des licenciements généralisés, car les machines sont généralement plus rentables que les employés à base de carbone et il existe donc une forte incitation au profit pour remplacer la main-d’œuvre par du capital. En effet, un récent rapport de Goldman Sachs suggère que 300 millions d’emplois pourraient être perdus en raison du déploiement de cette technologie – un choc économique négatif massif selon les normes de quiconque (6).

Reflétant ces préoccupations, le Future of Life Institute a publié le mois dernier une lettre ouverte (7), signée par des milliers de personnes, dont notamment Elon Musk et Steve Wozniak et de nombreux chercheurs de premier plan en IA. La lettre appelait à un moratoire de six mois sur la formation de systèmes d’IA plus puissants que ChatGPT 4 afin de « développer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement avancés d’IA qui sont rigoureusement audités et supervisés par des experts externes indépendants »(8).

Appuyer sur le bouton de répétition est clairement une stratégie, mais le problème avec cette approche est de savoir comment elle est appliquée. Si une grande entreprise ou un État-nation (et je peux penser à plus de quelques exemples tout de suite, comme je suis sûr que beaucoup d’autres le peuvent) décide d’aller de l’avant avec la recherche sur l’IA et la formation de modèles, que peut-on faire pour les arrêter ? Rien. Tout comme Bitcoin, le développement de l’IA est impossible à bannir. Tout ce qu’une pause de six mois ferait, c’est donner à ceux qui choisissent de l’ignorer le temps de rattraper leur retard ou d’étendre leur avance dans la course aux armements de l’IA. La logique derrière la proposition ne correspond pas.

Cela dit, tout le monde n’est pas aussi pessimiste quant à l’impact de l’IA. Brian Roemmele, un ingénieur qui a travaillé avec l’IA et les réseaux de neurones pendant des décennies et a publié SuperPrompts (9) via son site Web (10) et son compte Twitter (11), par exemple, estime que la comparaison luddite est très pertinente par rapport à la situation actuelle. Pour ceux qui ne connaissaient pas les luddites, il s’agissait d’un groupe de tisserands du 19e siècle en Grande-Bretagne – dirigé par Ned Ludd d’où leur nom – qui a détruit des machines introduites dans l’industrie textile au milieu de la crainte de perdre leur emploi. Comme le souligne Brian, contrairement à leurs croyances initiales (et à la conclusion que beaucoup de gens tirent de cette histoire), Ludd et ses partisans ont découvert que l’introduction des machines n’était pas un inconvénient pour eux. Au lieu de cela, les machines leur permettaient de faire plus de travail à valeur ajoutée, ce qui était non seulement moins banal, mais générait également des salaires plus élevés, plus d’emplois (12) et, par conséquent, une plus grande prospérité.

Modèles centralisés ou décentralisés ?

J’ai beaucoup de respect pour ces vues optimistes, et l’histoire est certainement de leur côté, car l’introduction de nouvelles technologies a tendance à précéder une plus grande création de richesse économique (13) . Cependant, je ne peux pas échapper au sentiment tenace que si – et j’admets que c’est un gros si – la récolte actuelle de modèles d’IA conduit finalement à l’IAG et à la création d’une ressource concurrente des humains, alors l’analogie s’effondre (14).

Cela mis à part, étant donné l’impossibilité d’imposer une interdiction effective du développement de l’IA – temporaire ou autre – il est clair que notre avenir sera de plus en plus affecté par l’IA et ses diverses applications. La question est de savoir si nous, en tant qu’espèce (oui, je considère ce sujet comme si profond), pouvons-nous guider l’IA d’une manière qui nous profite à tous tout en atténuant les inconvénients potentiels. C’est là que la crypto entre en jeu.

Les modèles d’IA sont intrinsèquement centralisés, en partie à cause de leurs coûts de développement et de fonctionnement. ChatGPT-3 coûte environ 12 millions de dollars pour s’entraîner et 100 000 dollars par jour pour fonctionner (15) (je me demande combien de temps il faudra au lobby vert pour commencer à lutter contre l’électricité utilisée dans la formation des modèles d’IA comme il l’a fait contre les crypto-monnaies, même si de telles les critiques sont déplacées). Même si les coûts unitaires des modèles de formation diminuent, en raison de jeux de données plus volumineux et de la nécessité d’augmenter la puissance de calcul, certains estiment que les coûts de formation des modèles de pointe (SoA) pourraient atteindre 100 à 500 millions de dollars (17). dollars – des fonds auxquels peu de gens ont accès. C’est la raison pour laquelle l’IA n’est vraiment dominée que par une poignée d’acteurs, tels que OpenAI, Google et Meta.

Est-ce vraiment une si bonne idée d’avoir une technologie qui, sans aucun doute, empiètera de plus en plus sur la vie quotidienne de chacun d’une myriade de façons différentes, contrôlée par seulement quelques organisations privées (18) ?

Les chaînes de blocs offrent un moyen de rendre l’IA plus transparente et plus responsable, car elles sont capables de stocker et de traiter les données utilisées par les systèmes d’IA de manière décentralisée. Ils fournissent également les moyens d’avoir une gouvernance décentralisée basée sur des mécanismes de consensus bien connus et peuvent être déployés d’une manière sans confiance et résistante à la censure. Bien sûr, cela ne surmontera pas tous les obstacles potentiels, surtout si AGI se concrétise un jour, mais au moins cela empêche le pouvoir de l’IA de se concentrer entre les mains de quelques-uns avec peu ou pas de surveillance publique. L’IA décentralisée basée sur la blockchain n’est pas qu’une chimère. Il existe déjà plusieurs projets visant à mettre en place de tels systèmes.

Un autre avantage accessoire de la combinaison des technologies de l’IA et de la blockchain est qu’elle peut aider à résoudre le problème des « (deep) fake news » qui est susceptible de croître considérablement à mesure que la technologie se déploie plus largement. En vertu d’être sur la blockchain, un historique vérifiable indépendamment est créé permettant de déterminer quand un contenu (vidéo/voix/texte) a été créé et/ou quand il est entré en possession de quelqu’un (chaîne de possession). Cela aidera en rendant plus difficile pour les acteurs malveillants de créer et de distribuer des deepfakes non détectés.

À bien des égards, je suis d’accord avec les commentaires de Gary Gensler qui, dans son récent témoignage devant la Chambre des représentants des États-Unis, a exprimé sa conviction que « la technologie qui, à mon avis, est la plus transformatrice à notre époque est l’intelligence artificielle ». Il a poursuivi en ajoutant « Ce n’est pas une crypto ». Sur ce dernier je ne suis pas d’accord. Pour les raisons décrites dans cette note de recherche, à mon avis, pour obtenir le plus d’avantages et, ce qui est tout aussi important, atténuer les inconvénients potentiels, la propriété de l’IA sur les technologies sous-jacentes devrait être élargie et son évolution ne pas être laissée entre les mains de quelques technologies privées. entreprises. La blockchain – le fondement de la cryptographie – est le moyen par lequel parvenir à un tel résultat. Ce faisant, nous pouvons peut-être transformer deux technologies transformatrices en quelque chose qui vaut plus que la somme de ses parties, ou comme le titre de cette note le suggère faire 1 + 1 = 3 !

ChatGPT : technologie de rupture ou d’aliénation ?

ChatGPT : technologie de rupture ou d’aliénation ?

par Marion Trommenschlager
Chercheure en sciences de l’information-communication, laboratoire PREFics, Université Rennes 2 dans the Conversation


Alors que l’impact de l’intelligence artificielle (IA) dans le monde du travail ou en matière de désinformation fait couler beaucoup d’encre, des dirigeants du secteur, dont Elon Musk, appellent à décélérer. Une intelligence artificielle ultra-médiatisée a tenu un rôle majeur dans l’ouverture de ces débats : ChatGPT. Mais a-t-elle vraiment créé une rupture ?

Il n’y a pas de réelle nouveauté technique dans ChatGPT. Son ancêtre, Eliza, date de 1966. La technique de codage, aussi sophistiquée soit-elle, s’inscrit dans une continuité des conceptions de langage de programmation. Par ailleurs, dans une approche sociologique, rappelons que nous sommes une humanité numérique, une société artefactuelle (puisque nous évoluons à travers le progrès technique), dans laquelle toute innovation s’inscrit dans une continuité.

Peut-on alors réellement parler d’innovation de rupture pour ChatGPT ?

Et s’il fallait finalement se saisir de ce raz de marée médiatique pour comprendre la fulgurance de son déploiement, et plus encore, pour comprendre où nous en sommes, nous, utilisateurs, dans nos représentations, entre fantasmes et réalités, de l’intelligence artificielle ?

Ces logiciels d’intelligence conversationnelle nous ramènent à deux grandes tendances liées à la technicisation de la société. Tout d’abord celle de la servicisation, c’est-à-dire une normalisation de l’assistance personnalisée au quotidien. Cette tendance est arrivée avec le passage d’une économie basée sur des logiques de masse, vers une autre basée sur des logiques individuelles.

Le second grand levier est la plateformisation : créés au sein d’empires numériques (entre autres GAFAM), ces logiciels sont pensés pour être infusés dans tout l’écosystème. C’est le cas par exemple de ChatGPT, amené à investir Bing, Outlook, et autres services de Microsoft.

Et pour cause, le disgracieux « GPT » dans sa version francophone, renvoie au « general purpose technologies », soit technologies à usage général. Il est donc de par sa nature, un outil conçu pour être facilement transposé et utilisé dans différents domaines. Différent d’un moteur de recherche, il répond à des questions complexes et cherche à comprendre l’intention.

Comment expliquer l’appropriation si rapide de ChatGPT par les utilisateurs ?
L’impact médiatique relève du fait de ses utilisateurs. Comme souligné par l’anthropologue Lionel Obadia, il est difficile de parler d’invention. Néanmoins, la diffusion et l’appropriation remarquablement rapide font de ChatGPT une innovation marquante. Elle peut être utilisée par n’importe qui, initié ou non, gratuitement en ligne, et entraîne de ce fait autant de nouveaux usages, de contournements, que de business potentiels.


Trois forces expliquent la rapide intégration et appropriation sociale du logiciel.

Premièrement, ChatGPT est très accessible : ce qui lui permet un passage à l’échelle, autrement dit un déploiement, très rapide. L’accessibilité de l’outil et son appropriation généralisée massifient l’usage, mais également l’intérêt pour ce qui paraît « nouveau », voire « divertissant ».

Ensuite, ChatGPT nous ressemble. Le processus de machine learning en fait un outil d’auto-enrichissement continu, comme les humains. Le dialogue lui permet par exemple d’améliorer ses réponses avec un langage naturel. Ainsi, plus il est utilisé, plus il est performant. Autrement dit, nous nous « éduquons » mutuellement.

Enfin, ChatGPT est un champ des possibles : il laisse entrevoir de nouveaux scénarios. Nous sommes, en tant qu’utilisateurs, la condition pour la réussite du déploiement de ces innovations numériques. Chose faite pour ChatGPT qui compte à présent plus de 100 millions d’utilisateurs. Nous commençons à prendre conscience de « l’après » et de l’émergence d’autres innovations issues du modèle de ce logiciel.

La philosophe Marie Robert raconte son expérience lorsque le média Brut lui propose de corriger une copie rédigée par le logiciel :

« C’est avec un certain frisson que j’ai pris mon stylo rouge pour tenter de comprendre le raisonnement élaboré par une machine. Malgré une absence de citations, un manque cruel de nuances et une structure bien trop rigide, ma première remarque fut que ce n’était « pas si mal » […] C’est donc avec un mélange de fascination et d’effroi que j’ai terminé l’exercice, me demandant sincèrement ce que nous allions faire pour le monde à venir, pour ces générations qui n’auront pas à connaître l’effort. »


Des métiers de la cognition voués à disparaître ?

Ce qui diffère vraiment avec les précédentes évolutions liées à l’innovation, c’est que ChatGPT touche les métiers de la cognition, plutôt épargnés jusqu’alors. Il est d’ailleurs intéressant de rappeler que l’un des logiciels les plus (technologiquement) complexes, l’Autopilot de Tesla, a été pour 85 % fabriqué par l’intelligence artificielle. La dynamique d’hybridation entre métiers et intelligence artificielle est de plus en plus forte. Cependant, il serait fantasmé de parler de « grand remplacement ».

L’autonomie de l’intelligence conversationnelle n’est pas totale. Par exemple, ChatGPT développé par Open AI a été construit à partir de 175 milliards de paramètres, il s’appuie sur un jeu de données gigantesque. Gigantesque certes, mais sélectionné, donc faillible.

Récemment, des échanges et lectures sur l’art du codage m’ont permis d’éclairer plus encore les limites du mythe d’une autonomie de l’intelligence artificielle. Cela notamment à travers la dimension de labellisation dans les réseaux de neurones. Dans ce processus, il s’agit d’étiqueter des données, c’est-à-dire d’associer un label (une valeur prédéfinie) à un contenu (image, texte, forme, etc.). L’objectif est d’apporter un modèle d’apprentissage aux machines. Cette pratique rappelle la nécessité de paramétrage et de supervision dans l’interprétation des données, une réalité a (re) découvrir dans la mini-série documentaire Les travailleurs du clic de Antonio Casilli. Open AI a d’ailleurs différents contrats avec des travailleurs au Kenya pour ce travail de modération.

Nous voyons donc les limites d’un fantasme autour d’une intelligence artificielle parfaitement autonome.

Bien que l’intelligence artificielle ne comprenne pas ce qu’elle dit, ces implications humaines dans la supervision de l’apprentissage des machines nous montrent que les données qui nourrissent cette intelligence, elles, ne sont pas neutres. Elles reproduisent et amplifient les biais de ceux qui la supervisent, chariant un lot potentiel de stéréotypes, de désinformation, de contenus aspirés aux sources invisibles, de censure, ou encore de complotisme (Meta en a fait l’expérience avec Blender bot 3).

La question centrale est donc : qui paramètre ? Le professeur de droit Lawrence Lessig le souligne dans son clairvoyant « Code is law » : la personne qui paramètre est la personne qui a la possibilité d’orienter un système de pensée. Un outil comme ChatGPT est principalement conçu par et pour une cible nord-américaine. Son déploiement rapide, renforcé par sa dimension ludique, conduit à la normalisation de son utilisation. Une normalisation non pas sans effet, puisqu’elle vient renforcer l’impression d’un objet politiquement neutre chez les utilisateurs.

Or, c’est loin d’être le cas, pour les raisons évoquées précédemment, mais aussi parce que l’IA est avant tout un enjeu de domination tant entre empires du numérique, que dans la sphère géopolitique.

ChatGPT : outil de rupture ou de domination ?

ChatGPT : outil de rupture ou de domination ?

par Marion Trommenschlager
Chercheure en sciences de l’information-communication, laboratoire PREFics, Université Rennes 2 dans the Conversation


Alors que l’impact de l’intelligence artificielle (IA) dans le monde du travail ou en matière de désinformation fait couler beaucoup d’encre, des dirigeants du secteur, dont Elon Musk, appellent à décélérer. Une intelligence artificielle ultra-médiatisée a tenu un rôle majeur dans l’ouverture de ces débats : ChatGPT. Mais a-t-elle vraiment créé une rupture ?

Il n’y a pas de réelle nouveauté technique dans ChatGPT. Son ancêtre, Eliza, date de 1966. La technique de codage, aussi sophistiquée soit-elle, s’inscrit dans une continuité des conceptions de langage de programmation. Par ailleurs, dans une approche sociologique, rappelons que nous sommes une humanité numérique, une société artefactuelle (puisque nous évoluons à travers le progrès technique), dans laquelle toute innovation s’inscrit dans une continuité.

Peut-on alors réellement parler d’innovation de rupture pour ChatGPT ?

Et s’il fallait finalement se saisir de ce raz de marée médiatique pour comprendre la fulgurance de son déploiement, et plus encore, pour comprendre où nous en sommes, nous, utilisateurs, dans nos représentations, entre fantasmes et réalités, de l’intelligence artificielle ?

Ces logiciels d’intelligence conversationnelle nous ramènent à deux grandes tendances liées à la technicisation de la société. Tout d’abord celle de la servicisation, c’est-à-dire une normalisation de l’assistance personnalisée au quotidien. Cette tendance est arrivée avec le passage d’une économie basée sur des logiques de masse, vers une autre basée sur des logiques individuelles.

Le second grand levier est la plateformisation : créés au sein d’empires numériques (entre autres GAFAM), ces logiciels sont pensés pour être infusés dans tout l’écosystème. C’est le cas par exemple de ChatGPT, amené à investir Bing, Outlook, et autres services de Microsoft.

Et pour cause, le disgracieux « GPT » dans sa version francophone, renvoie au « general purpose technologies », soit technologies à usage général. Il est donc de par sa nature, un outil conçu pour être facilement transposé et utilisé dans différents domaines. Différent d’un moteur de recherche, il répond à des questions complexes et cherche à comprendre l’intention.

Comment expliquer l’appropriation si rapide de ChatGPT par les utilisateurs ?
L’impact médiatique relève du fait de ses utilisateurs. Comme souligné par l’anthropologue Lionel Obadia, il est difficile de parler d’invention. Néanmoins, la diffusion et l’appropriation remarquablement rapide font de ChatGPT une innovation marquante. Elle peut être utilisée par n’importe qui, initié ou non, gratuitement en ligne, et entraîne de ce fait autant de nouveaux usages, de contournements, que de business potentiels.


Trois forces expliquent la rapide intégration et appropriation sociale du logiciel.

Premièrement, ChatGPT est très accessible : ce qui lui permet un passage à l’échelle, autrement dit un déploiement, très rapide. L’accessibilité de l’outil et son appropriation généralisée massifient l’usage, mais également l’intérêt pour ce qui paraît « nouveau », voire « divertissant ».

Ensuite, ChatGPT nous ressemble. Le processus de machine learning en fait un outil d’auto-enrichissement continu, comme les humains. Le dialogue lui permet par exemple d’améliorer ses réponses avec un langage naturel. Ainsi, plus il est utilisé, plus il est performant. Autrement dit, nous nous « éduquons » mutuellement.

Enfin, ChatGPT est un champ des possibles : il laisse entrevoir de nouveaux scénarios. Nous sommes, en tant qu’utilisateurs, la condition pour la réussite du déploiement de ces innovations numériques. Chose faite pour ChatGPT qui compte à présent plus de 100 millions d’utilisateurs. Nous commençons à prendre conscience de « l’après » et de l’émergence d’autres innovations issues du modèle de ce logiciel.

La philosophe Marie Robert raconte son expérience lorsque le média Brut lui propose de corriger une copie rédigée par le logiciel :

« C’est avec un certain frisson que j’ai pris mon stylo rouge pour tenter de comprendre le raisonnement élaboré par une machine. Malgré une absence de citations, un manque cruel de nuances et une structure bien trop rigide, ma première remarque fut que ce n’était « pas si mal » […] C’est donc avec un mélange de fascination et d’effroi que j’ai terminé l’exercice, me demandant sincèrement ce que nous allions faire pour le monde à venir, pour ces générations qui n’auront pas à connaître l’effort. »


Des métiers de la cognition voués à disparaître ?

Ce qui diffère vraiment avec les précédentes évolutions liées à l’innovation, c’est que ChatGPT touche les métiers de la cognition, plutôt épargnés jusqu’alors. Il est d’ailleurs intéressant de rappeler que l’un des logiciels les plus (technologiquement) complexes, l’Autopilot de Tesla, a été pour 85 % fabriqué par l’intelligence artificielle. La dynamique d’hybridation entre métiers et intelligence artificielle est de plus en plus forte. Cependant, il serait fantasmé de parler de « grand remplacement ».

L’autonomie de l’intelligence conversationnelle n’est pas totale. Par exemple, ChatGPT développé par Open AI a été construit à partir de 175 milliards de paramètres, il s’appuie sur un jeu de données gigantesque. Gigantesque certes, mais sélectionné, donc faillible.

Récemment, des échanges et lectures sur l’art du codage m’ont permis d’éclairer plus encore les limites du mythe d’une autonomie de l’intelligence artificielle. Cela notamment à travers la dimension de labellisation dans les réseaux de neurones. Dans ce processus, il s’agit d’étiqueter des données, c’est-à-dire d’associer un label (une valeur prédéfinie) à un contenu (image, texte, forme, etc.). L’objectif est d’apporter un modèle d’apprentissage aux machines. Cette pratique rappelle la nécessité de paramétrage et de supervision dans l’interprétation des données, une réalité a (re) découvrir dans la mini-série documentaire Les travailleurs du clic de Antonio Casilli. Open AI a d’ailleurs différents contrats avec des travailleurs au Kenya pour ce travail de modération.

Nous voyons donc les limites d’un fantasme autour d’une intelligence artificielle parfaitement autonome.

Bien que l’intelligence artificielle ne comprenne pas ce qu’elle dit, ces implications humaines dans la supervision de l’apprentissage des machines nous montrent que les données qui nourrissent cette intelligence, elles, ne sont pas neutres. Elles reproduisent et amplifient les biais de ceux qui la supervisent, chariant un lot potentiel de stéréotypes, de désinformation, de contenus aspirés aux sources invisibles, de censure, ou encore de complotisme (Meta en a fait l’expérience avec Blender bot 3).

La question centrale est donc : qui paramètre ? Le professeur de droit Lawrence Lessig le souligne dans son clairvoyant « Code is law » : la personne qui paramètre est la personne qui a la possibilité d’orienter un système de pensée. Un outil comme ChatGPT est principalement conçu par et pour une cible nord-américaine. Son déploiement rapide, renforcé par sa dimension ludique, conduit à la normalisation de son utilisation. Une normalisation non pas sans effet, puisqu’elle vient renforcer l’impression d’un objet politiquement neutre chez les utilisateurs.

Or, c’est loin d’être le cas, pour les raisons évoquées précédemment, mais aussi parce que l’IA est avant tout un enjeu de domination tant entre empires du numérique, que dans la sphère géopolitique.

ChatGPT : interdit en Italie… Et bientôt en Europe ?

ChatGPT : interdit en Italie… Et bientôt en Europe ?

Les autorités italiennes ont ordonné à OpenAI de ne plus traiter les données personnelles des utilisateurs italiens. Désormais, l’entreprise à 20 jours pour se mettre en conformité, sans quoi elle s’expose à une amende pouvant aller jusqu’à 20 millions d’euros, ou 4% de son chiffre d’affaires annuel global. Inattendu, ce coup de poing sur la table pourrait avoir des conséquences pour tout l’écosystème et sur l’ensemble de l’Europe.

La technologie Chat GPT pose de nombreux problèmes. Comme d’autres applications d’abord elle recueille de nombreuses informations personnelles dont on ne connaît pas l’exploitation. Ce n’est pas non plus un système expert scientifique. Il s’agit plutôt d’une sorte de synthèse des idées du moment assez nettement orientées. Bref qui souffre d’ une absence de caution scientifique. En outre, un outil qui peut se révéler dangereux quand il oriente le comportement d’usagers fragiles psychologiquement. Bref sans doute quand même un progrès technologique mais qui a un besoin urgent de régulation non seulement en Italie mais dans l’union européenne. C’est même tout l’écosystème des outils informatiques qui mérite cette régulation.

Pour l’instant, le blocage ne concerne que l’Italie. Mais les autorités des données européennes convergent souvent sur ce genre de décision, à l’image des efforts de coordination concédés ces dernières années. Contactée par La Tribune, la Cnil (l’autorité française) précise qu’elle n’a pas reçu de plainte et qu’elle n’a pas de procédure similaire en cours. En revanche, elle s’est rapprochée de son homologue italienne afin d’échanger sur les constats qu’elle a faits. L’autorité française s’est dotée en janvier d’une division spécialisée en intelligence artificielle afin d’accompagner la nouvelle vague qui frappe le secteur, et elle prévoit de « clarifier le cadre légal des bases d’apprentissage et des IA génératives dans les prochains mois ».

De plus, si la décision de la GPDP vise nommément ChatGPT, elle ne se limite pas implicitement à l’outil d’OpenAI. « La décision de publier la sanction est un message envoyé à l’ensemble de l’écosystème. Toutes les entreprises doivent se sentir concernées », met en garde Sonia Cissé, avocate associée en droit des technologies au sein du cabinet Linklaters. « Les autorités savent qu’il est extrêmement difficile pour les entreprises d’intelligence artificielle de se conformer à 100% au RGPD », ajoute-t-elle.
Cette décision intervient alors que le texte européen de régulation de l’intelligence artificielle, l’IA Act, est toujours en discussion à Bruxelles.

IA- ChatGPT :une nouvelle « révolution anthropologique » ?

IA- ChatGPT :une nouvelle « révolution anthropologique » ?

Par Lionel Obadia, Université Lumière Lyon 2

Depuis la mise en ligne de la version « Chat » de l’intelligence artificielle (IA) GPT, capable d’imiter la production intellectuelle humaine, l’effervescence autour de ces technologies fait ressurgir dans les débats la notion de « révolution anthropologique ».

Or, ce que nous observons, au-delà de ChatGPT, est que chaque nouvelle avancée dans des technologies dites de « rupture » relève en fait de cette ambivalente technophilie, tentée par le technoscepticisme, qui oscille entre émerveillement et frisson face aux rapides et impressionnants progrès de l’informatique et de la cybernétique.
Depuis la victoire de Deep Blue, le super-ordinateur, contre un humain aux échecs, la tonalité est donnée : il se jouerait là un « tournant de l’histoire de l’humanité ».

Les dernières prouesses mathématiques et technologiques ont donné naissance à une rapide massification de ce que l’on désigne comme « intelligence artificielle », appellation que des spécialistes comme Luc Julia ou Jean-Louis Dessalles contestent car cette « intelligence » se décline en fait sous une multitude de dispositifs informatiques.

On trouve ainsi pêle-mêle des algorithmes d’aide à la décision, notamment juridique (CaseLaw Analytics), reconnaissance faciale comme FaceNet, musique générée par algorithmes avec Jukedeck, images générées par le texte avec Dall•E 2, agents conversationnels portables (Siri), domotique intelligente qui informe sur le contenu du réfrigérateur, robots humanoïdes capables d’engager et tenir une conversation… on pense ainsi à la désormais célèbre Sofia, qui passe de plateau TV en conférence, ou à Ameca, dont la gestuelle et les expressions ne cessent de montrer les limites de l’humain.

La massification des technologies et leur injection tous azimuts dans les sociétés contemporaines sont, certes, remarquables, et donnent l’impression d’une vague irrépressible de technologisation et de digitalisation des environnements humains.

Cette tendance nourrit un imaginaire débridé qui se pense nécessairement en rupture avec le passé, d’où la mode de la « révolution » aux accents transhumanistes. Nous serions ainsi à « l’aube » d’une « nouvelle » humanité prise dans une nouvelle « ère » technologique. Un récit qui oublie les nombreux ratés des dites technologies, d’ailleurs.
La « révolution de l’IA » ou « digitale » est-elle une révolution anthropologique ? Curieusement, ce sont les entrepreneurs comme Gilles Babinet, les historiens à succès, comme Yuval Noah Harari, les philosophes, comme Frédéric Worms, qui se sont emparés de l’expression (avec des termes plus ou moins exacts).
Le premier pour affirmer avec force que c’est bien le cas.

Le second, avec son livre Homo Deus, pour inscrire cette révolution dans un modèle de longue durée de l’histoire humaine au péril d’une simplification à outrance qui brouille les pistes entre lecture rétrospective de l’histoire et imagination prospective.

Le troisième, enfin, avec un bien plus de mesure, pour au moins souligner la pertinence d’un questionnement sur la profondeur des transformations en cours.
On regrettera que les anthropologues soient malheureusement peu mobilisés sur un débat qui concerne au premier chef la discipline dont le nom est mis à toutes les sauces, à quelques exceptions près. Emmanuel Grimaud a pris à bras le corps la question essentielle de la nature de l’IA par comparaison avec les traits d’une humanité toujours plus questionnée sur ce qui fait sa singularité.
Pascal Picq, s’en est emparé dans un genre très différent, puisque le paléoanthropologue n’hésite pas à sortir du cadre strict de l’anthropogenèse (l’évolution humaine). Il inscrit la révolution digitale dans le temps long de l’évolution humaine et, contre toute réduction intellectuelle, invite à penser la complexité des formes d’intelligences animales et artificielles.

Les anthropologues, habitués, par spécialisation intellectuelle, au temps long et plus enclins à considérer les continuités que les ruptures (souvent hâtivement annoncées) dans l’ordre des sociétés et les mutations culturelles, ont toutes les raisons d’être circonspects.
D’abord parce que tout changement technologique n’entraîne pas un changement culturel majeur. Suivant Claude Lévi-Strauss notamment dans Race et Histoire (1955), il faut peut-être réserver le terme à un phénomène de nature à transformer en profondeur (structurellement) l’ordre de la pensée et de l’organisation sociale.
Ce fut le cas avec la domestication du feu et des espèces animales, la sédentarisation et l’agriculture au néolithique, qui ne sont pas toutes des inventions (ex-nihilo) mais bien souvent des innovations au sens anthropologique du terme : l’amélioration d’une technique déjà élaborée par les humains. Et c’est en ce sens que l’IA et nombre de technologies digitales méritent proprement le terme d’innovation plus que d’inventions.

En ce sens, le philosophe Michel Serres évoquait une « troisième révolution » pour qualifier l’avènement du monde digital, après l’écriture et l’imprimerie. Il fait ainsi écho à Jack Goody, qui explique que la raison graphique a métamorphosé une raison orale, structurant la pensée et la communication humaine pendant des millénaires. En d’autres termes, ce ne sera pas l’unique fois, bien au contraire, où l’humanité se trouve confrontée à une réadaptation de ses manières de penser après un changement dans ses techniques.

Révolution, donc que cet Homo numericus comme on l’affirme ici ou là avec la force de la conviction que le présent explique tout ?
Si on suit l’historienne Adrienne Mayor, les civilisations de l’Antiquité ont déjà imaginé et même commencé à mettre en œuvre des technologies qui sont actuellement sur le devant de la scène, de manière embryonnaire pour l’IA ou plus aboutie pour les robots. Son God and Robots tord le cou à des lectures partielles et partiales d’une histoire monolithique et récente.
Elle narre ainsi les récits de Talos, « premier robot », puis le chaudron d’immortalité de Médée, les emprunts des humains aux animaux et aux Dieux pour accroître leurs pouvoirs, les premières statues « vivantes » de Dédale et Pygmalion, la création des humains plus qu’humains par Prométhée, les automates d’Héphaïstos, la première réalité virtuelle qu’incarne Pandore… Pour Mayor, la révolution numérique ne serait qu’une actualisation dans le présent d’anciennes technologies.

Une réinvention plus qu’une révolution, donc, et des impacts moins profonds qu’il n’y parait : les machines étaient là, depuis le début, dans l’imaginaire des humains qui ont tâtonné (dans tous les sens du terme) pour les matérialiser.
Certes, les technologies sont loin d’être identiques – entre les automates grecs et les machines agissantes de Boston Dynamics, l’écart est quand même sensible et toute technologie est d’abord évaluable dans son contexte – mais elles étaient déjà investies des espoirs de l’humanité d’être assistée voire suppléée dans ses tâches physiques (pour les robots) et intellectuelles (pour l’IA).

La révolution est-elle d’ailleurs anthropologique ou technologique ? La leçon de l’anthropologie, c’est de considérer comment l’humain élabore des technologies et comment celles-ci sont absorbées par les systèmes sociaux et culturels.

La « révolution numérique » ou « digitale » engendre indubitablement des transformations dans les technologies, sans qu’elles se traduisent mécaniquement par des mutations des modèles de comportements humains. De nouveaux usages apparaissent mais les modèles de comportement peuvent infléchir les techniques, plutôt que d’être infléchis par elles.
Suivant les plus critiques des spécialistes de l’IA, et des technologies digitales, il s’agit de considérer la singularité de chaque technologie et de ses effets : là où la réponse sociale aux agents conversationnels semble plutôt positive et immédiate (les chatbots sont facilement adoptés), les IA de reconnaissance faciale donnent lieu à des contournements au moyen de contre-systèmes informatiques.

Suivant Picq, il faut sans doute réserver aux smartphones un sort à part, dans le sens où ils allient la matérialité d’un ordinateur portable, et la virtuosité technologique des IA. Ce terminal concentré de technologie qui a quand même changé les modes de communication, accompagné ou engendré des changements dans la mobilité humaine, dans le rapport au savoir, etc. que Pascal Picq veut l’objet véritable de la « révolution » actuelle est le détournement dans le sens où il devient ordinateur portable plus que téléphone…

Bref, depuis le feu, les armes, la magie – peut-être première technologie de transformation de la réalité humaine – donc première réalité virtuelle de l’histoire ? – jusqu’à l’IA et les robots, l’humanité s’amuse et se fait peur avec ses créations technologiques, utiles ou ludiques.
Elle se plaît parfois à les constituer comme des créatures (sans qu’elles soient nécessairement anthropomorphisées) telles que la pensée mythique les figure. Rien de surprenant dans ce cadre que certains trichent avec ChatGPT par exemple.
En effet, l’humain est un être versé dans le ludisme, c’est-à-dire, qui aime le jeu comme l’affirmait le philosophe Johann Huizinga mais aussi dans le luddisme, une forme de crainte suscitée par les technologies (en référence au conflit social du XIXe siècle qui avait opposé des manufacturiers à des artisans, les luddistes qui dénonçaient l’emploi de machines).

La tentation reste toutefois grande de céder au fétiche intellectuel du terme « révolution ». Dans la plupart des cas, est qualifiée de révolution un changement culturel ou socio-technique dont sont observées les prémisses et sont conjecturés les impacts qui ne sont pas encore observés.

Or, une révolution (sauf sans doute quand elle se décrète sur le plan politique) se mesure à partir d’éléments rétrospectifs et non pas d’extrapolations, qui sont assez stables dans le domaine des sciences et technologies, mais très peu fiables en sciences humaines.

Si l’on considère toutefois les avancées actuelles de l’Intelligence artificielle, non plus du seul point de vue d’une échelle technologique linéaire, comme la loi de Moore, mais sur le plan des absorptions culturelles et adoptions sociales des technologies, sans doute faudrait-il alors parler (d’une même voix avec les informaticiens) d’évolution plutôt que de révolution anthropologique.
Mais au prix d’un renversement intellectuel majeur : celui de passer d’une pensée technocentrée (qui considère que c’est la technologie qui transforme la société) à une pensée sociocentrée des techniques (la perspective inverse, donc). Une petite « révolution » donc… ?
______
Par Lionel Obadia, professeur en Anthropologie sociale et culturelle, Université Lumière Lyon 2.
La version originale de cet article a été publiée sur The Conversation.

ChatGPT : une nouvelle « révolution anthropologique » ?

ChatGPT :une nouvelle « révolution anthropologique » ?

Par Lionel Obadia, Université Lumière Lyon 2

Depuis la mise en ligne de la version « Chat » de l’intelligence artificielle (IA) GPT, capable d’imiter la production intellectuelle humaine, l’effervescence autour de ces technologies fait ressurgir dans les débats la notion de « révolution anthropologique ».

Or, ce que nous observons, au-delà de ChatGPT, est que chaque nouvelle avancée dans des technologies dites de « rupture » relève en fait de cette ambivalente technophilie, tentée par le technoscepticisme, qui oscille entre émerveillement et frisson face aux rapides et impressionnants progrès de l’informatique et de la cybernétique.
Depuis la victoire de Deep Blue, le super-ordinateur, contre un humain aux échecs, la tonalité est donnée : il se jouerait là un « tournant de l’histoire de l’humanité ».

Les dernières prouesses mathématiques et technologiques ont donné naissance à une rapide massification de ce que l’on désigne comme « intelligence artificielle », appellation que des spécialistes comme Luc Julia ou Jean-Louis Dessalles contestent car cette « intelligence » se décline en fait sous une multitude de dispositifs informatiques.

On trouve ainsi pêle-mêle des algorithmes d’aide à la décision, notamment juridique (CaseLaw Analytics), reconnaissance faciale comme FaceNet, musique générée par algorithmes avec Jukedeck, images générées par le texte avec Dall•E 2, agents conversationnels portables (Siri), domotique intelligente qui informe sur le contenu du réfrigérateur, robots humanoïdes capables d’engager et tenir une conversation… on pense ainsi à la désormais célèbre Sofia, qui passe de plateau TV en conférence, ou à Ameca, dont la gestuelle et les expressions ne cessent de montrer les limites de l’humain.

La massification des technologies et leur injection tous azimuts dans les sociétés contemporaines sont, certes, remarquables, et donnent l’impression d’une vague irrépressible de technologisation et de digitalisation des environnements humains.

Cette tendance nourrit un imaginaire débridé qui se pense nécessairement en rupture avec le passé, d’où la mode de la « révolution » aux accents transhumanistes. Nous serions ainsi à « l’aube » d’une « nouvelle » humanité prise dans une nouvelle « ère » technologique. Un récit qui oublie les nombreux ratés des dites technologies, d’ailleurs.
La « révolution de l’IA » ou « digitale » est-elle une révolution anthropologique ? Curieusement, ce sont les entrepreneurs comme Gilles Babinet, les historiens à succès, comme Yuval Noah Harari, les philosophes, comme Frédéric Worms, qui se sont emparés de l’expression (avec des termes plus ou moins exacts).
Le premier pour affirmer avec force que c’est bien le cas.

Le second, avec son livre Homo Deus, pour inscrire cette révolution dans un modèle de longue durée de l’histoire humaine au péril d’une simplification à outrance qui brouille les pistes entre lecture rétrospective de l’histoire et imagination prospective.

Le troisième, enfin, avec un bien plus de mesure, pour au moins souligner la pertinence d’un questionnement sur la profondeur des transformations en cours.
On regrettera que les anthropologues soient malheureusement peu mobilisés sur un débat qui concerne au premier chef la discipline dont le nom est mis à toutes les sauces, à quelques exceptions près. Emmanuel Grimaud a pris à bras le corps la question essentielle de la nature de l’IA par comparaison avec les traits d’une humanité toujours plus questionnée sur ce qui fait sa singularité.
Pascal Picq, s’en est emparé dans un genre très différent, puisque le paléoanthropologue n’hésite pas à sortir du cadre strict de l’anthropogenèse (l’évolution humaine). Il inscrit la révolution digitale dans le temps long de l’évolution humaine et, contre toute réduction intellectuelle, invite à penser la complexité des formes d’intelligences animales et artificielles.

Les anthropologues, habitués, par spécialisation intellectuelle, au temps long et plus enclins à considérer les continuités que les ruptures (souvent hâtivement annoncées) dans l’ordre des sociétés et les mutations culturelles, ont toutes les raisons d’être circonspects.
D’abord parce que tout changement technologique n’entraîne pas un changement culturel majeur. Suivant Claude Lévi-Strauss notamment dans Race et Histoire (1955), il faut peut-être réserver le terme à un phénomène de nature à transformer en profondeur (structurellement) l’ordre de la pensée et de l’organisation sociale.
Ce fut le cas avec la domestication du feu et des espèces animales, la sédentarisation et l’agriculture au néolithique, qui ne sont pas toutes des inventions (ex-nihilo) mais bien souvent des innovations au sens anthropologique du terme : l’amélioration d’une technique déjà élaborée par les humains. Et c’est en ce sens que l’IA et nombre de technologies digitales méritent proprement le terme d’innovation plus que d’inventions.

En ce sens, le philosophe Michel Serres évoquait une « troisième révolution » pour qualifier l’avènement du monde digital, après l’écriture et l’imprimerie. Il fait ainsi écho à Jack Goody, qui explique que la raison graphique a métamorphosé une raison orale, structurant la pensée et la communication humaine pendant des millénaires. En d’autres termes, ce ne sera pas l’unique fois, bien au contraire, où l’humanité se trouve confrontée à une réadaptation de ses manières de penser après un changement dans ses techniques.

Révolution, donc que cet Homo numericus comme on l’affirme ici ou là avec la force de la conviction que le présent explique tout ?
Si on suit l’historienne Adrienne Mayor, les civilisations de l’Antiquité ont déjà imaginé et même commencé à mettre en œuvre des technologies qui sont actuellement sur le devant de la scène, de manière embryonnaire pour l’IA ou plus aboutie pour les robots. Son God and Robots tord le cou à des lectures partielles et partiales d’une histoire monolithique et récente.
Elle narre ainsi les récits de Talos, « premier robot », puis le chaudron d’immortalité de Médée, les emprunts des humains aux animaux et aux Dieux pour accroître leurs pouvoirs, les premières statues « vivantes » de Dédale et Pygmalion, la création des humains plus qu’humains par Prométhée, les automates d’Héphaïstos, la première réalité virtuelle qu’incarne Pandore… Pour Mayor, la révolution numérique ne serait qu’une actualisation dans le présent d’anciennes technologies.

Une réinvention plus qu’une révolution, donc, et des impacts moins profonds qu’il n’y parait : les machines étaient là, depuis le début, dans l’imaginaire des humains qui ont tâtonné (dans tous les sens du terme) pour les matérialiser.
Certes, les technologies sont loin d’être identiques – entre les automates grecs et les machines agissantes de Boston Dynamics, l’écart est quand même sensible et toute technologie est d’abord évaluable dans son contexte – mais elles étaient déjà investies des espoirs de l’humanité d’être assistée voire suppléée dans ses tâches physiques (pour les robots) et intellectuelles (pour l’IA).

La révolution est-elle d’ailleurs anthropologique ou technologique ? La leçon de l’anthropologie, c’est de considérer comment l’humain élabore des technologies et comment celles-ci sont absorbées par les systèmes sociaux et culturels.

La « révolution numérique » ou « digitale » engendre indubitablement des transformations dans les technologies, sans qu’elles se traduisent mécaniquement par des mutations des modèles de comportements humains. De nouveaux usages apparaissent mais les modèles de comportement peuvent infléchir les techniques, plutôt que d’être infléchis par elles.
Suivant les plus critiques des spécialistes de l’IA, et des technologies digitales, il s’agit de considérer la singularité de chaque technologie et de ses effets : là où la réponse sociale aux agents conversationnels semble plutôt positive et immédiate (les chatbots sont facilement adoptés), les IA de reconnaissance faciale donnent lieu à des contournements au moyen de contre-systèmes informatiques.

Suivant Picq, il faut sans doute réserver aux smartphones un sort à part, dans le sens où ils allient la matérialité d’un ordinateur portable, et la virtuosité technologique des IA. Ce terminal concentré de technologie qui a quand même changé les modes de communication, accompagné ou engendré des changements dans la mobilité humaine, dans le rapport au savoir, etc. que Pascal Picq veut l’objet véritable de la « révolution » actuelle est le détournement dans le sens où il devient ordinateur portable plus que téléphone…

Bref, depuis le feu, les armes, la magie – peut-être première technologie de transformation de la réalité humaine – donc première réalité virtuelle de l’histoire ? – jusqu’à l’IA et les robots, l’humanité s’amuse et se fait peur avec ses créations technologiques, utiles ou ludiques.
Elle se plaît parfois à les constituer comme des créatures (sans qu’elles soient nécessairement anthropomorphisées) telles que la pensée mythique les figure. Rien de surprenant dans ce cadre que certains trichent avec ChatGPT par exemple.
En effet, l’humain est un être versé dans le ludisme, c’est-à-dire, qui aime le jeu comme l’affirmait le philosophe Johann Huizinga mais aussi dans le luddisme, une forme de crainte suscitée par les technologies (en référence au conflit social du XIXe siècle qui avait opposé des manufacturiers à des artisans, les luddistes qui dénonçaient l’emploi de machines).

La tentation reste toutefois grande de céder au fétiche intellectuel du terme « révolution ». Dans la plupart des cas, est qualifiée de révolution un changement culturel ou socio-technique dont sont observées les prémisses et sont conjecturés les impacts qui ne sont pas encore observés.

Or, une révolution (sauf sans doute quand elle se décrète sur le plan politique) se mesure à partir d’éléments rétrospectifs et non pas d’extrapolations, qui sont assez stables dans le domaine des sciences et technologies, mais très peu fiables en sciences humaines.

Si l’on considère toutefois les avancées actuelles de l’Intelligence artificielle, non plus du seul point de vue d’une échelle technologique linéaire, comme la loi de Moore, mais sur le plan des absorptions culturelles et adoptions sociales des technologies, sans doute faudrait-il alors parler (d’une même voix avec les informaticiens) d’évolution plutôt que de révolution anthropologique.
Mais au prix d’un renversement intellectuel majeur : celui de passer d’une pensée technocentrée (qui considère que c’est la technologie qui transforme la société) à une pensée sociocentrée des techniques (la perspective inverse, donc). Une petite « révolution » donc… ?
______
Par Lionel Obadia, professeur en Anthropologie sociale et culturelle, Université Lumière Lyon 2.
La version originale de cet article a été publiée sur The Conversation.

ChatGPT: Un moyen pour remonter le QI moyen en France ou le contraire ?

ChatGPT: Un moyen pour remonter le QI moyen en France ou le contraire ?

Le désastre n’est pas l’arrivée de cette IA qu’il va falloir domestiquer, mais le déni de réalité et le déclassement éducatif de notre pays, la stagnation voire la baisse du QI moyen, le recul du langage

L’Intelligence artificielle (IA) fait réagir. Enfin ! Le logiciel ChatGPT fait couler beaucoup d’encre, tant il présage une transformation de notre rapport à la connaissance et de nos modes de travail. Avec plus de 100 millions d’utilisateurs en deux mois, cette intelligence artificielle fascine le monde, interroge, effraie. Pourtant, il s’agit encore de l’âge de pierre de la révolution de l’IA. Toutes nos professions, activités, expressions vont être bouleversées. Le tsunami est imminent et au lieu de nous y préparer, nos « dirigeants » politiques attendent la vague au soleil sur la plage, en devisant sur le sexe des anges qui partent à la retraite et la pénibilité de métiers en voie de disparition.

Le désastre n’est pas l’arrivée de cette IA qu’il va falloir domestiquer, mais le déni de réalité et le déclassement éducatif de notre pays, la stagnation voire la baisse du QI moyen, le recul du langage.

Comment nos enfants vont-ils s’instruire, faire leurs devoirs, s’aguerrir, développer un esprit imaginatif et analytique à mesure que l’IA se répand ? Comment allons-nous créer de la valeur alors que la machine s’apprête à engloutir des milliers d’emplois, y compris hautement qualifiés, d’analyste, de codeur, de communicant ou d’avocat ? L’espèce humaine sera-t-elle encore capable, hormis une élite, de bâtir une œuvre et de construire un raisonnement, de le conceptualiser, l’exprimer ? Plutôt qu’à coder l’informatique (ce que fera bien mieux l’IA que l’humain), apprenons aux futurs adultes à décoder le monde ! L’avenir exige plus que jamais d’apprendre à exercer sa raison critique, d’être capable de créativité.

Opportunités. L’innovation radicale est par essence porteuse de grands risques, proportionnels aux opportunités qu’elle fait naître. A l’aube de l’émergence de l’intelligence artificielle, Sciences Po – comme des établissements d’enseignement à New York – en a interdit l’usage. Si les craintes sont légitimes au regard de l’ampleur du bouleversement qui nous attend, les solutions ne pourront être trouvées du côté du refus, incarné à l’extrême par l’idéologie de la décroissance qui ne porte aucune alternative crédible et propose un monde sans innovation, marqué par la peur et le recul ; une société où chacun devrait rétrécir son existence : moins se déplacer, moins travailler, moins agir, moins créer. Moins vivre. Ce projet politique est mortifère.

Il faut rester fidèles à nos principes, qui seuls peuvent guider nos choix dans le tumulte des circonstances : la liberté comme valeur cardinale, la responsabilité comme corollaire indissociable, la culture et la raison critique comme sources d’émancipation individuelle et lien collectif, et la dignité humaine comme finalité ultime et ontologique

L’innovation est indissociable de la vie, de l’humanité, et désormais de sa survie face au défi écologique. S’opposer à la révolution de l’IA serait vain. Il faut en revanche rester fidèles à nos principes, qui seuls peuvent guider nos choix dans le tumulte des circonstances : la liberté comme valeur cardinale, la responsabilité comme corollaire indissociable, la culture et la raison critique comme sources d’émancipation individuelle et lien collectif, et la dignité humaine comme finalité ultime et ontologique.

Nous pouvons aspirer à la science et la conscience. C’est le rôle du politique. En matière d’intelligence artificielle, cette conscience est celle de l’origine des contenus, de la transparence des informations concernant l’outil et ses limites, de l’exigence de l’enseignement des humanités, des œuvres artistiques, du goût du beau, hors utilitarisme.

Souveraineté. Plutôt que d’interdire l’usage, il faut avant tout sanctionner les abus, mettre en place les technologies contrôlées par la souveraineté populaire qui signaleront les constructions de l’IA dans le champ de l’information (vidéos, discours, etc.) et permettre aux esprits encore en formation de ne pas en être des victimes.

L’IA est un enjeu économique (plus de 500 milliards de dollars de chiffre d’affaires), scientifique et politique. Car l’IA connectée à la robotique, aux nano et biotechnologies permettra de relever les défis climatiques, médicaux, éducatifs, entrepreneuriaux, logistiques, sécuritaires. Se pose aussi la question de la concurrence militaire et géopolitique des nations : quelle place pour notre pays et notre continent dans ce monde en devenir ? Donc celle de la souveraineté, de la sécurité et de la liberté des peuples. C’est en cela que l’enjeu est également démocratique et philosophique, en posant l’Intelligence artificielle comme outil de progrès individuel et collectif ou de soumission.

Il en résulte un étourdissement anthropologique : comment éviter qu’au rêve déjà douteux de l’homme augmenté du transhumanisme ne succède le cauchemar de l’homme inutile, celui d’une espèce dont le corps et le cerveau seraient remplacés par des machines auto apprenantes ? Vieux thème… qui devient actualité. Certains nous ont éclairés depuis un demi-siècle sur les potentialités et dangers de l’IA. Nous sommes en France quelques-uns à vouloir inscrire cette réflexion dans le champ du débat civique. Il y a désormais urgence ! Voulons-nous subir ou choisir ? Etre une colonie numérique des Etats-Unis et de l’Asie ou porter une ambition industrielle française et européenne ?

Car le monde a les yeux rivés sur l’IA. Une erreur de Bard, l’outil présenté par Google le 7 février, a fait perdre 100 milliards de dollars en bourse à l’entreprise ; un aperçu des attentes autour de ces technologies.

Pendant ce temps, nous voilà ici absorbés par le sempiternel débat sur l’âge de la retraite, avec les mêmes postures qu’il y a trente ans et la même absence de perspective. Nous devons nous projeter, développer notre puissance de recherche et catalyser les investissements dans les technologies. La France est une terre d’innovation qui continue de produire parmi les plus grands chercheurs. En octobre dernier, Alain Aspect a reçu le prix Nobel de physique pour ses travaux sur le monde quantique : c’est le quinzième Français à recevoir cette distinction. Notre pays peut être aux avant-postes de la révolution qui commence, à condition de ne pas sortir les fourches, ou simplement de ne pas refuser de voir. Là encore, c’est le rôle du politique. Ainsi va la France.

David Lisnard, maire de Cannes, président de Nouvelle Energie. dans l’Opinion

ChatGPT : Perspectives et limites

ChatGPT : Perspectives et limites

Par Benoît Bergeret, directeur exécutif ESSEC Metalab for Data, Technology and Society et co-fondateur du Hub France IA.

En seulement cinq semaines, ChatGPT a été adopté par plus d’un million d’utilisateurs. Mais tous comprennent-ils les limites de l’outil, qui nous étonne par sa capacité à produire des textes cohérents, grammaticalement corrects et apparemment pertinents ? Quel impact anticiper pour son usage en entreprise ? Le système dont tout le monde parle peut-il devenir une « machine pensante » ? Est-il fondé de le voir comme un pas de plus vers l’IA généralisée, celle qui finira par nous diriger ?

Le langage n’est pas la pensée. Mais l’illusion est impressionnante. Selon Nick Cave, chanteur de The Bad Seeds, « les paroles écrites par ChatGPT sont une grotesque moquerie de ce qu’est être humain ». Il rejoint ainsi le philosophe américain John Searle : un système syntaxique peut donner l’impression qu’il comprend la langue alors qu’il ne comprend ni les prompts, ni les réponses produites. Et la recherche en neurosciences cognitives montre que la maîtrise du langage nécessite des capacités comme le raisonnement, les connaissances sur le monde et la cognition sociale. ChatGPT, système syntaxique par nature, a des compétences linguistiques formelles indéniables, mais rien de plus.

Neurosciences. Searle rejoint aussi les neurosciences : l’esprit humain n’est pas un système computationnel, il résulte de processus biologiques. Or, le numérique ne peut que simuler ceux-ci, pas les dupliquer. C’est un obstacle infranchissable au développement de la conscience, donc d’une IA capable d’égaler l’humain. Contrairement aux apparences, ChatGPT est une avancée intéressante, mais pas un « pas décisif » vers l’IA généralisée.

Bien sûr, la combinaison de cet outil syntaxique avec des moteurs de recherche sémantiques, produira des résultats impressionnants pour des usages « étroits » (« Narrow AI »). Mais nous resterons loin de l’IA généralisée.

L’outil va disrupter les stratégies de déploiement centralisées de l’IA : il va être difficile de demander à renoncer à son utilisation. L’expérience de Sciences Po, qui en a interdit récemment l’usage par ses étudiants, va être suivie avec beaucoup d’intérêt.

Pour les entreprises, il va falloir s’adapter vite, compléter les stratégies top-down d’adoption de l’IA à l’accueil et à l’intégration raisonnée de ces nouveaux outils. A minima, dans les semaines qui viennent, il va leur falloir mettre en place une gouvernance. Par exemple : définir le périmètre acceptable d’usage et interdire toute autre utilisation, mettre en place un contrat engageant la responsabilité du fournisseur, pour diminuer le risque lié à une interruption inattendue de l’accès au système.

Confiance. Il faut aussi établir la confiance par l’éducation en expliquant les limites de l’outil, en rappelant qu’il ne peut pas garantir la véracité des informations générées et que le producteur de contenu a la responsabilité d’une nécessaire vérification manuelle de toutes les informations. Les entreprises devront assurer une stratégie de résilience (« j’utilise ChatGPT, que ferai-je si je n’y ai plus accès ? »), garantir le respect des normes éthiques et des lois lors de l’utilisation, et enfin mettre en place un système de détection de ChatGPT dans les contenus produits.
Souhaitable pour l’entreprise s’il est utilisé de manière appropriée, l’outil va ajouter de la valeur au travail des employés. Selon moi, ChatGPT (avec ses imperfections) se révélera in fine un catalyseur de l’adoption de l’IA en entreprise.

Son arrivée soulève les questions liées à l’introduction rapide auprès du public de technologies numériques peu matures et mal comprises. La question de l’adoption consciente et informée de cet outil se pose : comment éviter les dégâts collatéraux similaires à ceux causés par les réseaux sociaux ?
Mais n’ayons pas peur de chatGPT : ce n’est au fond qu’un outil, le successeur fonctionnel du traitement de texte et du correcteur orthographique ! Un outil merveilleux, plein de promesses, mais qu’il ne faut pas adopter à l’aveugle. Et les entreprises ont une grande responsabilité dans le bon usage qui en sera fait.

Benoît Bergeret, directeur exécutif, ESSEC Metalab for data, technology and society et Co-fondateur du Hub France IA

ChatGPT: Une révolution pour Bill Gates

ChatGPT: Une révolution pour Bill Gates


Les sociétés modernes sont-elles en train de vivre l’amorce d’une nouvelle révolution technologique ? Pas moins, selon Bill Gates. Le cofondateur de Microsoft estime que le « chatbot » ChatGPT est une invention aussi importante qu’Internet, a-t-il déclaré au quotidien économique allemand Handelsblatt, dans une interview publiée vendredi 10 février.

L’agent conversationnel ChatGPT, est capable de générer à la demande des articles, des recettes de cuisine et même des blagues avec une qualité similaire à celle d’un humain grâce à l’intelligence artificielle. « Jusqu’à présent, l’intelligence artificielle pouvait lire et écrire, mais ne pouvait pas comprendre le contenu. Les nouveaux programmes comme ChatGPT rendront de nombreux travaux de bureau plus efficaces en aidant à rédiger des factures ou des lettres. Cela va changer notre monde », a précisé le milliardaire américain au journal Handelsblatt.

Concurrence. Pour l’heure, l’univers du cloud et des recherches sur Internet pourraient être bouleversés. Et la transformation pourrait toucher d’autres secteurs ainsi que des postes de cols blancs. « L’intelligence artificielle combinée à la mondialisation pourrait remodeler le travail comme jamais auparavant », indiquait Richard Baldwin, professeur d’économie internationale à l’Institut des hautes études universitaires de Genève. Avec des gains de productivité à la clef et des débats sur le travail qui s’annoncent épineux, tant celui-ci structure les sociétés modernes.

ChatGPT, développé par la société américaine OpenAI et soutenu par Microsoft, a été classé comme l’application grand public ayant connu la plus rapide croissance de l’histoire. C’est une bataille de l’intelligence artificielle qui se dévoile, au feu vif de la concurrence. Google a ainsi officialisé sa réponse à ChatGPT, Bard, déjà critiqué pour une bourde et des lacunes. Quant au géant chinois de la tech, Baidu, il est aussi sur le pont, précisent Les Echos.

CHATGPT: UNE VERSION GOOGLE INTÉGRÉE AU MOTEUR DE RECHERCHE

CHATGPT: UNE VERSION GOOGLE INTÉGRÉE AU MOTEUR DE RECHERCHE

Une nouvelle étape dans le domaine de l’intelligence artificielle chez les géants de la tech: l’arrivée d’un concurrent au désormais célèbre ChatGPT avec une version Google.

Google a annoncé lundi le lancement en phase de test de son robot conversationnel, baptisé Bard, quelques mois après celui de ChatGPT, le logiciel de la startup américaine OpenAI qui déchaîne les passions.

« Bard a pour ambition de combiner l’étendue des connaissances du monde avec la puissance, l’intelligence et la créativité de nos grands modèles de langage », a expliqué Sundar Pichai, directeur général d’Alphabet, maison mère de Google, cité dans un communiqué. Le logiciel « s’appuie sur les informations du web pour fournir des réponses actualisées et de haute qualité », a indiqué le responsable, pour lequel « Bard peut être un terrain d’expression pour la créativité et une rampe de lancement pour la curiosité. »
Le robot conversationnel est capable d’« expliquer les dernières découvertes de la Nasa issues du télescope James Webb à un enfant de 9 ans, ou de vous renseigner sur les meilleurs attaquants du football actuel, puis de vous proposer un entraînement spécifique pour vous améliorer ».
Bard s’appuie sur LaMDA, un programme informatique conçu par Google pour générer des robots de conversation (chatbots), dont le groupe de Mountain View (Californie) avait dévoilé la première version en 2021.

Si l’intelligence artificielle est omniprésente dans le secteur technologique et au-delà depuis des années, voire des décennies, la sortie de ChatGPT en novembre a fait évoluer la vision du grand public sur ses capacités. Il n’est pas le premier logiciel du genre mais il a surpris par la qualité de ses réponses, qu’il s’agisse d’écrire un texte sur un thème donné, d’expliquer un sujet complexe de façon intelligible, voire de créer un poème ou les paroles d’une chanson.
Déjà partenaire d’Open AI, le créateur de ChatGPT, Microsoft a annoncé fin janvier qu’il allait investir « plusieurs milliards de dollars » pour étendre leur collaboration, après avoir réalisé deux investissements en 2019 et en 2021.

Microsoft, Google, mais aussi Meta et Amazon font partie des acteurs les plus importants de l’intelligence artificielle, technologie à laquelle ils consacrent des investissements colossaux. Selon plusieurs médias américains, l’arrivée de ChatGPT a bousculé Google, qui disposait déjà de LaMDA mais qui a, depuis, mis les bouchées doubles pour proposer dans des délais resserrés, un produit similaire au robot conversationnel d’OpenAI.

Google a indiqué lundi qu’il lançait Bard avec une « version allégée » de LaMDA, « nécessitant une puissance de calcul moindre » pour permettre l’utilisation par un « plus grand nombre d’utilisateurs » et « de traiter un volume plus important de retours. » Pour l’instant, l’utilisation du logiciel va être limitée à « des testeurs de confiance, avant de le rendre plus largement disponible dans les semaines à venir », a précisé Sundar Pichai.

Cette phase de test vise notamment à s’« assurer que les réponses de Bard atteignent un niveau élevé en termes de qualité, de sécurité et d’ancrage dans les informations du monde réel », selon lui.

ChatGPT: une IA pour quoi faire ?

ChatGPT: une IA pour quoi faire ?

ChatGPT tient le devant de la scène depuis sa sortie le 30 novembre dernier, du fait de ses fonctionnalités bluffantes, notamment pour dialoguer et répondre à des questions, même complexes, de façon naturelle et réaliste. Par Thierry Poibeau, École normale supérieure (ENS) – PSL

Alors qu’on commence à avoir un peu de recul sur cet outil, des questions se posent : quelles sont les limites actuelles et futures de ChatGPT, et quels sont les marchés potentiels pour ce type de systèmes ?

ChatGPT est souvent décrit comme un futur concurrent de Google, voire comme un « Google killer » pour sa partie moteur de recherche : même si l’outil produit parfois des réponses baroques, voire carrément fausses, il répond de manière directe et ne propose pas simplement une liste ordonnée de documents, comme le moteur de recherche de Google.

Il y a là assurément un danger potentiel sérieux pour Google, qui pourrait menacer sa position de quasi-monopole sur les moteurs de recherche. Microsoft en particulier (principal investisseur dans OpenAI, qui a par ailleurs un accès privilégié à la technologie développée) travaille à intégrer ChatGPT à son moteur de recherche Bing, dans l’espoir de reprendre l’avantage sur Google.
Il y a toutefois plusieurs incertitudes concernant une telle perspective.

Les requêtes dans les moteurs de recherche sont généralement composées de quelques mots, voire d’un seul mot, comme un événement ou un nom de personnalité. ChatGPT suscite en ce moment la curiosité d’une population technophile, mais ceci est très différent de l’usage classique, grand public, d’un moteur de recherche.

On peut aussi imaginer ChatGPT accessible à travers une interface vocale, ce qui éviterait d’avoir à taper la requête. Mais les systèmes comme Alexa d’Amazon ont eu du mal à s’imposer, et restent confinés à des usages précis et limités (demander des horaires de cinéma, la météo…). Il y a 10 ans, Alexa était vu comme l’avenir de la société de distribution américaine, mais est aujourd’hui un peu à l’abandon, parce qu’Amazon n’a jamais réussi à monétiser son outil, c’est-à-dire à le rendre économiquement profitable.
ChatGPT peut-il réussir là où Alexa a en partie échoué ?

Bien sûr, l’avenir de ChatGPT ne devrait pas se résumer à la recherche d’information. Il existe une foule d’autres situations où on a besoin de produire du texte : production de lettres types, de résumés, de textes publicitaires…

ChatGPT est aussi un bon outil d’aide à l’écriture. On voit déjà différents usages : solliciter ChatGPT pour partir de quelques paragraphes qui peuvent susciter l’inspiration et éviter la peur de la page blanche ; voir quels points l’outil met en avant sur une question particulière (pour vérifier si ça correspond à ce que l’on aurait dit nous-mêmes ou non) ; demander des suggestions de plan sur une question particulière. ChatGPT n’est pas un outil magique et ne peut pas savoir ce que l’utilisateur a en tête, donc face à la rédaction d’un document complexe, il ne peut s’agir que d’une aide.
On peut évidemment imaginer des usages plus problématiques et de nombreux articles ont déjà été publiés dans la presse concernant par exemple l’usage de ChatGPT dans l’enseignement, avec des craintes, justifiées ou non. On peut ainsi imaginer des étudiants produisant des devoirs grâce à ChatGPT, mais aussi des enseignants utilisant l’outil pour rédiger leurs appréciations, ou des chercheurs produisant des articles scientifiques semi-automatiquement. Il y a beaucoup d’articles sur les étudiants dans la presse, mais ce ne seront pas les seuls à faire un usage éventuellement problématique de ce genre de technologie.

Il y a bien sûr lieu de se poser des questions, mais la technologie est là et ne va pas disparaître. Il semble donc primordial d’en parler, et de former les élèves et les étudiants à ces outils, pour expliquer leur intérêt et leurs limites, et discuter de la place qu’ils devraient avoir dans la formation.

Enfin, à l’extrême du spectre des usages problématiques, on pensera bien évidemment à la production de fake news : de fausses informations pouvant ensuite être disséminées en quantité industrielle.
Il ne faut pas exagérer ces dangers, mais ceux-ci sont réels. Même si des détecteurs de texte produits par ChatGPT commencent à apparaître, ceux-ci seront nécessairement imparfaits, car les textes produits sont trop divers et trop réalistes pour pouvoir être reconnus à 100 % par un système… à part par la société OpenAI elle-même, évidemment !
Les limites de ChatGPT : quand l’IA « hallucine »

La masse des interactions avec ChatGPT depuis son ouverture au grand public le 30 novembre a déjà permis d’identifier certaines de ses limites.
ChatGPT fournit en général des réponses correctes, souvent bluffantes… mais si on l’interroge sur des domaines qu’il ne maîtrise pas, voire si on invente une question en apparence sérieuse mais en fait absurde (par exemple sur des faits ou des personnes qui n’existent pas), le système produit une réponse en apparence tout aussi sérieuse, mais en fait complètement absurde ou inventée.
Les exemples sur Twitter sont légion : ChatGPT propose des références scientifiques qui n’existent pas, des explications fumeuses, voire une démonstration où est postulé que -4 = -5. Ceci serait une richesse, si ChatGPT était juste un outil destiné à produire des histoires, des pastiches ou des parodies.

Mais ce que le public attend, c’est avant tout des réponses avérées à des questions réelles, ou l’absence de réponse dans le cas contraire (si le système ne peut trouver la réponse, ou si la question est absurde). C’est la principale faiblesse de l’outil, et donc probablement aussi le principal obstacle pour en faire un concurrent du moteur de recherche de Google, comme on l’a déjà vu.
Pour cette raison, une conférence comme ICML (International Conference on Machine Learning) a déjà interdit aux chercheurs de soumettre des articles produits en partie avec ChatGPT. Stackoverflow, une plate-forme d’échanges entre développeurs informatiques, a aussi interdit les réponses générées par ChatGPT, ayant peur de se retrouver submergée par un flux de réponses générées automatiquement (et en partie fausses).

Ceci est dû au fait que le système n’a pas de « modèle de monde ». Autrement dit, il ne sait pas ce qui est vrai, il peut générer des absurdités, des fausses informations, inventer des choses de toute pièce avec l’aplomb d’un menteur professionnel. C’est ce que l’on appelle les « hallucinations », comme si ChatGPT voyait alors des éléments imaginaires (en fait, on ne peut pas vraiment dire que le système ment, dans la mesure où il n’a pas de modèle de vérité).
Ceci est surtout vrai quand la question elle-même n’est pas tournée vers la réalité, auquel cas le système se met à inventer : en ce sens, GPT n’est ni un journaliste, ni un savant, mais plutôt un raconteur d’histoires.

Il y a fort à parier qu’OpenAI essaie dans de futures versions de fournir un système qui évite d’affabuler quand le contexte ne s’y prête pas, grâce à une analyse fine de la question posée, ou l’ajout de connaissances validées (comme le font déjà Amazon avec Alexa ou Google avec son knowledge graph, qui est tout simplement une base de connaissances). Google, justement, à travers sa succursale Deepmind, travaille actuellement sur un modèle similaire à ChatGPT appelé Sparrow, en essayant de renforcer la fiabilité du système. Il est par exemple question que le système fournisse une liste de sources sur laquelle il s’appuie pour fournir une réponse.
Les enjeux pour demain

L’autre limite de ce système est qu’il repose sur des données (en gros, l’ensemble des textes disponibles sur Internet) à la mi-2021 et que ses connaissances ne peuvent pas être mises à jour en direct. C’est évidemment un problème, ChatGPT ne peut pas répondre de façon pertinente à des questions sur l’actualité, alors qu’il s’agit d’un aspect particulièrement important.
La mise à jour en continu du modèle est donc logiquement un des prochains buts d’OpenAI, qui n’en fait pas mystère. Réviser un modèle, le réentraîner « à partir de zéro » (from scratch) est un processus long et coûteux, qui peut mettre en jeu des milliers de GPU ou de TPU pendant plusieurs semaines ou plusieurs mois, ce qui n’est pas en phase avec la rapidité de l’actualité. La prochaine grande innovation consistera donc en des systèmes capables de se mettre à jour de manière plus localisée en temps réel (ou quasiment), et ceci est sans doute pour bientôt.

Mais le principal enjeu est évidemment celui de l’acceptabilité. On l’a vu : le débat est déjà lancé sur l’influence d’un tel système sur l’éducation. Plus globalement, si un système tel que ChatGPT est par exemple intégré à un logiciel comme Word, se posera aussi la question de qui contrôle ce qui est produit. La voie est étroite entre des systèmes d’IA pas assez contrôlés et capables de produire des contenus racistes ou homophobes, et des systèmes trop bridés qui interdiraient de produire certains contenus.

En conclusion, et comme dit l’adage populaire : il est difficile de faire des prévisions, surtout quand elles concernent l’avenir. Il y a de nombreuses inconnues autour de technologies de type ChatGPT : les perspectives de tels outils sont assez vertigineuses, susceptibles d’avoir un impact profond sur la société, mais en même temps leur potentiel réel et commercial devra passer l’épreuve du monde réel. Ce qui est certain, c’est que les bouleversements actuels devraient inciter au développement d’instituts (au sein des universités, mais aussi à travers des fondations ou des associations capables d’atteindre le grand public) permettant une réflexion large et ouverte sur ces technologies, impliquant tous les acteurs de la société, car c’est la société tout entière qui est déjà impactée, comme en témoigne l’intérêt actuel autour de ChatGPT.
_______
Par Thierry Poibeau, DR CNRS, École normale supérieure (ENS) – PSL
La version originale de cet article a été publiée sur The Conversation.

Plusieurs milliards pour OpenAI, le créateur de ChatGPT

Plusieurs milliards pour OpenAI, le créateur de ChatGPT

Microsoft et l’entreprise spécialisée en intelligence artificielle OpenAI ont annoncé un accord sur plusieurs années à « plusieurs milliards de dollars » d’investissements.
Le géant de la tech garde ainsi l’exclusivité des outils d’OpenAI sur son cloud Azure. Autrement dit, il sera le seul -avec OpenAI- à commercialiser les utilisations du générateur d’image DALL-E, du générateur de texte GPT-3, ou encore du générateur de code Codex. Microsoft frappe donc un grand coup dans la course à l’intelligence artificielle et parvient même à inquiéter l’un de ses principaux concurrents, Google.

L’idylle entre OpenAI et Microsoft a commencé en 2019 avec un investissement de 1 milliard de dollars. Cette opération financière a ouvert la voie à la commercialisation des outils d’OpenAI, alors que l’entreprise créée quatre ans plus tôt ne se consacrait qu’à la recherche.
En 2021, Microsoft a remis au pot -pour un montant inconnu- et commencé l’intégration à son cloud Azure d’outils comme le puissant modèle de langage naturel GPT-3 -dont est issu ChatGPT, le chatbot surpuissant sur lequel sont braqués les projecteurs depuis novembre 2022.
Ce partenariat est essentiel aux ambitions d’OpenAI, qui doit payer des chercheurs parmi les plus grosses pointures mondiales, et faire tourner des modèles d’intelligence artificielle très gourmands en capacité de calcul. D’après Fortune, l’entreprise aurait ainsi perdu plus de 500 millions de dollars rien qu’en 2022, et pour cause : elle n’enregistrait jusqu’ici pratiquement aucun revenu. Mais l’entreprise espère désormais réaliser 200 millions de dollars de chiffre d’affaires en 2023, notamment grâce à la commercialisation prochaine de ChatGPT, et à l’élargissement de son offre sur le cloud Azure.

Pour autant, l’investissement de Microsoft est aussi technologique : le géant de la tech construit des superordinateurs sur mesure pour qu’OpenAI entraîne ses intelligences artificielles de plusieurs milliards de paramètres sur des milliers de milliards de données.

Pour rappel, OpenAI reste avant tout un organisme de recherche, qui vise à terme la création d’une intelligence artificielle générale (ou AGI en anglais) capable de répliquer le fonctionnement d’un cerveau humain, voire même d’en dépasser les capacités.

ChatGPT : un saut technologique et sociétal ?

ChatGPT : un saut technologique et sociétal ?

par Thierry Poibeau , CNRS  École Normale Supérieure (ENS) dans The conversation 

La sortie de ChatGPT le 30 novembre dernier a marqué une nouvelle étape dans le développement des technologies de traitement des langues. C’est en tout cas la première fois qu’un système d’IA, directement issu de la recherche, suscite un tel engouement : de nombreux articles sont parus dans la presse spécialisée mais aussi générale. ChatGPT (ou OpenAI, la société qui développe ChatGPT, ou les deux) sont régulièrement en top tendance sur Twitter aujourd’hui encore.

Pourquoi un tel écho ? Les capacités de ChatGPT marquent-elles un tournant par rapport aux précédentes technologies capables de générer des textes ?

Clairement, ChatGPT a permis un saut qualitatif : il est capable de répondre, de manière souvent pertinente, à presque n’importe quelle requête en langage naturel. GPT2, puis GPT3 – les précédents modèles de langage mis au point par OpenAI – étaient déjà très forts pour générer du texte à partir de quelques mots ou phrases donnés en amorce (ce que l’on appelle le « prompt ») : on parlait souvent de « perroquets » (stochastic parrots), comme l’a proposé Emily Bender, et de nombreux autres chercheurs critiques de ces techniques. En effet, on pouvait dire que ces systèmes produisaient du texte à partir de bouts de phrases tirées des immenses corpus à leur disposition… même s’il faut nuancer cette image du perroquet : les systèmes ne répètent pas des extraits mot à mot, mais produisent en général un texte original en reprenant, paraphrasant, combinant des éléments vus dans des corpus variés.

ChatGPT reprend ces caractéristiques, mais la partie « chat » (dialogue) y ajoute une dimension tout à fait différente, et en apparence souvent bluffante.

Le système ne produit plus juste un paragraphe à partir d’une phrase donnée en entrée. Il est maintenant capable de répondre correctement à des questions simples comme à des questions complexes, il peut fournir des éléments de raisonnement, s’exprimer dans différentes langues, analyser ou produire du code informatique, entre autres.

Par exemple, si on lui demande si deux personnages ont pu se rencontrer, le système est capable de déterminer les dates correspondant à leur existence, comparer ces dates et en déduire une réponse. Ceci est trivial pour un humain, mais aucun système ne pouvait jusque-là répondre de manière aussi précise à ce type de question sans être hautement spécialisé. Au-delà du langage, ChatGPT peut aussi fournir des éléments de raisonnements mathématiques (mais il se trompe souvent) et analyser du code informatique notamment.

De ce point de vue, ChatGPT a une longueur d’avance sur ses concurrents.
Concernant le fonctionnement du système, difficile d’en dire plus, car OpenAI, malgré son nom, développe des systèmes fermés. C’est-à-dire que le code informatique (code source) utilisé n’est pas disponible et que les recherches liées à ChatGPT restent pour l’instant en grande partie un secret industriel – même si, évidemment, d’autres équipes travaillent sur des systèmes similaires, aussi à base d’apprentissage profond. On a donc une idée de ce qui est utilisé par OpenAI.

D’autres entreprises ont gardé un modèle plus ouvert, par exemple Meta avec les travaux menés à FAIR, en général ouverts et publiés dans les principales conférences du domaine. Mais, plus généralement, on constate de plus en plus une fermeture des recherches. Par exemple, alors qu’Apple a toujours eu un modèle de développement privé et très secret, Deepmind avait un modèle ouvert et l’est sans doute un peu moins, maintenant que l’entreprise est sous le contrôle de Google.

Le système ChatGPT lui-même pourrait devenir commercial : OpenAI est financé par Microsoft qui pourrait décider de fermer l’accès au système un jour prochain, si c’est son intérêt.

En attendant, OpenAI bénéficie de l’énorme publicité que lui apporte son outil, et aussi de toutes les interactions des utilisateurs avec lui. Si un utilisateur signale qu’une réponse n’est pas bonne, ou demande à l’outil de reformuler sa réponse en tenant compte d’un élément en plus, c’est autant d’information que le système emmagasine et pourra réutiliser pour affiner sa réponse la prochaine fois, sur la requête posée ou sur une requête similaire. En testant ChatGPT, on travaille gratuitement pour OpenAI !

Pour en revenir au système lui-même, la partie dialogue est donc ce qui fait la force et la particularité de ChatGPT (par rapport à GPT3 par exemple). Il ne s’agit plus d’un « simple » modèle de langage capable de générer du texte « au kilomètre », mais d’un véritable système de dialogue. Celui-ci a probablement bénéficié de millions ou de milliards d’exemples évalués par des humains, et la phase actuelle – où des centaines de milliers d’utilisateurs « jouent » quasi gratuitement avec le système – permet encore de l’améliorer en continu, puisque toutes les interactions sont évidemment enregistrées et exploitées pour cela.

Il est aujourd’hui assez simple d’accéder à des corpus de milliards de mots pour mettre au point un modèle de langage de type « GPT », au moins pour les langues bien répandues sur Internet.

Mais les données ayant permis la mise au point de ChatGPT (dialogues, interactions avec des humains) ne sont, elles, pas publiques, et c’est ce qui donne un avantage important pour OpenAI face à la concurrence.

Par exemple, Google dispose de données différentes, mais sans doute aussi exploitables pour ce type de systèmes – d’autant que Google a développé depuis plusieurs années un graphe de connaissances qui pourrait permettre de générer des réponses avec une meilleure fiabilité que ChatGPT. Notamment, l’analyse des enchaînements de requêtes issus du moteur de recherche de Google pourrait fournir des informations précieuses pour guider l’interaction avec l’utilisateur… Mais, en attendant, c’est OpenAI qui dispose de ChatGPT, et non Google : OpenAi a l’avantage.

De fait, même s’il est possible de contourner les limites de ChatGPT, le système refuse d’expliquer comment créer une bombe, de produire des contes érotiques ou de donner ses sentiments (ChatGPT répond fréquemment qu’elle est une machine, qu’elle n’a pas de sentiments ni de personnalité). OpenAI a visiblement soigné sa communication. La société a aussi mis un soin extrême à « blinder » le système, à lui permettre de déjouer la plupart des pièges qui peuvent ruiner en quelques heures ce type d’application, comme cela arrive fréquemment pour des systèmes ouverts au grand public.

On peut par exemple citer Meta, qui en novembre dernier a dû retirer son système appelé « Galactica » deux jours après l’avoir mis en ligne. Galactica avait été entraîné sur le domaine scientifique et pensé pour offrir des services aux chercheurs. Il a d’abord été présenté comme pouvant écrire des articles scientifiques automatiquement à partir d’un prompt… avant que la société ne précise qu’il ne s’agissait évidemment que d’une aide à la rédaction. Mais cette stratégie de communication malheureuse a déclenché une polémique qui a obligé Meta à débrancher rapidement Galactica.

À l’inverse, ChatGPT est toujours en ligne, et suscite toujours autant de passion auprès d’un large public. Des questions demeurent cependant : quel impact aura ChatGPT ? Quelles applications en seront dérivées ? Et quel modèle économique la compagnie OpenAI (et Microsoft, son principal investisseur) vise-t-elle ?

Nouvelles technologies : ChatGPT, un tournant ?

Nouvelles technologies : ChatGPT, un tournant  ?

par Thierry Poibeau , CNRS  École Normale Supérieure (ENS) dans The conversation 

La sortie de ChatGPT le 30 novembre dernier a marqué une nouvelle étape dans le développement des technologies de traitement des langues. C’est en tout cas la première fois qu’un système d’IA, directement issu de la recherche, suscite un tel engouement : de nombreux articles sont parus dans la presse spécialisée mais aussi générale. ChatGPT (ou OpenAI, la société qui développe ChatGPT, ou les deux) sont régulièrement en top tendance sur Twitter aujourd’hui encore.

Pourquoi un tel écho ? Les capacités de ChatGPT marquent-elles un tournant par rapport aux précédentes technologies capables de générer des textes ?

Clairement, ChatGPT a permis un saut qualitatif : il est capable de répondre, de manière souvent pertinente, à presque n’importe quelle requête en langage naturel. GPT2, puis GPT3 – les précédents modèles de langage mis au point par OpenAI – étaient déjà très forts pour générer du texte à partir de quelques mots ou phrases donnés en amorce (ce que l’on appelle le « prompt ») : on parlait souvent de « perroquets » (stochastic parrots), comme l’a proposé Emily Bender, et de nombreux autres chercheurs critiques de ces techniques. En effet, on pouvait dire que ces systèmes produisaient du texte à partir de bouts de phrases tirées des immenses corpus à leur disposition… même s’il faut nuancer cette image du perroquet : les systèmes ne répètent pas des extraits mot à mot, mais produisent en général un texte original en reprenant, paraphrasant, combinant des éléments vus dans des corpus variés.

ChatGPT reprend ces caractéristiques, mais la partie « chat » (dialogue) y ajoute une dimension tout à fait différente, et en apparence souvent bluffante.

Le système ne produit plus juste un paragraphe à partir d’une phrase donnée en entrée. Il est maintenant capable de répondre correctement à des questions simples comme à des questions complexes, il peut fournir des éléments de raisonnement, s’exprimer dans différentes langues, analyser ou produire du code informatique, entre autres.

Par exemple, si on lui demande si deux personnages ont pu se rencontrer, le système est capable de déterminer les dates correspondant à leur existence, comparer ces dates et en déduire une réponse. Ceci est trivial pour un humain, mais aucun système ne pouvait jusque-là répondre de manière aussi précise à ce type de question sans être hautement spécialisé. Au-delà du langage, ChatGPT peut aussi fournir des éléments de raisonnements mathématiques (mais il se trompe souvent) et analyser du code informatique notamment.

De ce point de vue, ChatGPT a une longueur d’avance sur ses concurrents.
Concernant le fonctionnement du système, difficile d’en dire plus, car OpenAI, malgré son nom, développe des systèmes fermés. C’est-à-dire que le code informatique (code source) utilisé n’est pas disponible et que les recherches liées à ChatGPT restent pour l’instant en grande partie un secret industriel – même si, évidemment, d’autres équipes travaillent sur des systèmes similaires, aussi à base d’apprentissage profond. On a donc une idée de ce qui est utilisé par OpenAI.

D’autres entreprises ont gardé un modèle plus ouvert, par exemple Meta avec les travaux menés à FAIR, en général ouverts et publiés dans les principales conférences du domaine. Mais, plus généralement, on constate de plus en plus une fermeture des recherches. Par exemple, alors qu’Apple a toujours eu un modèle de développement privé et très secret, Deepmind avait un modèle ouvert et l’est sans doute un peu moins, maintenant que l’entreprise est sous le contrôle de Google.

Le système ChatGPT lui-même pourrait devenir commercial : OpenAI est financé par Microsoft qui pourrait décider de fermer l’accès au système un jour prochain, si c’est son intérêt.

En attendant, OpenAI bénéficie de l’énorme publicité que lui apporte son outil, et aussi de toutes les interactions des utilisateurs avec lui. Si un utilisateur signale qu’une réponse n’est pas bonne, ou demande à l’outil de reformuler sa réponse en tenant compte d’un élément en plus, c’est autant d’information que le système emmagasine et pourra réutiliser pour affiner sa réponse la prochaine fois, sur la requête posée ou sur une requête similaire. En testant ChatGPT, on travaille gratuitement pour OpenAI !

Pour en revenir au système lui-même, la partie dialogue est donc ce qui fait la force et la particularité de ChatGPT (par rapport à GPT3 par exemple). Il ne s’agit plus d’un « simple » modèle de langage capable de générer du texte « au kilomètre », mais d’un véritable système de dialogue. Celui-ci a probablement bénéficié de millions ou de milliards d’exemples évalués par des humains, et la phase actuelle – où des centaines de milliers d’utilisateurs « jouent » quasi gratuitement avec le système – permet encore de l’améliorer en continu, puisque toutes les interactions sont évidemment enregistrées et exploitées pour cela.

Il est aujourd’hui assez simple d’accéder à des corpus de milliards de mots pour mettre au point un modèle de langage de type « GPT », au moins pour les langues bien répandues sur Internet.

Mais les données ayant permis la mise au point de ChatGPT (dialogues, interactions avec des humains) ne sont, elles, pas publiques, et c’est ce qui donne un avantage important pour OpenAI face à la concurrence.

Par exemple, Google dispose de données différentes, mais sans doute aussi exploitables pour ce type de systèmes – d’autant que Google a développé depuis plusieurs années un graphe de connaissances qui pourrait permettre de générer des réponses avec une meilleure fiabilité que ChatGPT. Notamment, l’analyse des enchaînements de requêtes issus du moteur de recherche de Google pourrait fournir des informations précieuses pour guider l’interaction avec l’utilisateur… Mais, en attendant, c’est OpenAI qui dispose de ChatGPT, et non Google : OpenAi a l’avantage.

De fait, même s’il est possible de contourner les limites de ChatGPT, le système refuse d’expliquer comment créer une bombe, de produire des contes érotiques ou de donner ses sentiments (ChatGPT répond fréquemment qu’elle est une machine, qu’elle n’a pas de sentiments ni de personnalité). OpenAI a visiblement soigné sa communication. La société a aussi mis un soin extrême à « blinder » le système, à lui permettre de déjouer la plupart des pièges qui peuvent ruiner en quelques heures ce type d’application, comme cela arrive fréquemment pour des systèmes ouverts au grand public.

On peut par exemple citer Meta, qui en novembre dernier a dû retirer son système appelé « Galactica » deux jours après l’avoir mis en ligne. Galactica avait été entraîné sur le domaine scientifique et pensé pour offrir des services aux chercheurs. Il a d’abord été présenté comme pouvant écrire des articles scientifiques automatiquement à partir d’un prompt… avant que la société ne précise qu’il ne s’agissait évidemment que d’une aide à la rédaction. Mais cette stratégie de communication malheureuse a déclenché une polémique qui a obligé Meta à débrancher rapidement Galactica.

À l’inverse, ChatGPT est toujours en ligne, et suscite toujours autant de passion auprès d’un large public. Des questions demeurent cependant : quel impact aura ChatGPT ? Quelles applications en seront dérivées ? Et quel modèle économique la compagnie OpenAI (et Microsoft, son principal investisseur) vise-t-elle ?

ChatGPT : un tournant technologique ?

ChatGPT : un tournant technologique ?

par Thierry Poibeau , CNRS  École Normale Supérieure (ENS) dans The conversation 

La sortie de ChatGPT le 30 novembre dernier a marqué une nouvelle étape dans le développement des technologies de traitement des langues. C’est en tout cas la première fois qu’un système d’IA, directement issu de la recherche, suscite un tel engouement : de nombreux articles sont parus dans la presse spécialisée mais aussi générale. ChatGPT (ou OpenAI, la société qui développe ChatGPT, ou les deux) sont régulièrement en top tendance sur Twitter aujourd’hui encore.

Pourquoi un tel écho ? Les capacités de ChatGPT marquent-elles un tournant par rapport aux précédentes technologies capables de générer des textes ?

Clairement, ChatGPT a permis un saut qualitatif : il est capable de répondre, de manière souvent pertinente, à presque n’importe quelle requête en langage naturel. GPT2, puis GPT3 – les précédents modèles de langage mis au point par OpenAI – étaient déjà très forts pour générer du texte à partir de quelques mots ou phrases donnés en amorce (ce que l’on appelle le « prompt ») : on parlait souvent de « perroquets » (stochastic parrots), comme l’a proposé Emily Bender, et de nombreux autres chercheurs critiques de ces techniques. En effet, on pouvait dire que ces systèmes produisaient du texte à partir de bouts de phrases tirées des immenses corpus à leur disposition… même s’il faut nuancer cette image du perroquet : les systèmes ne répètent pas des extraits mot à mot, mais produisent en général un texte original en reprenant, paraphrasant, combinant des éléments vus dans des corpus variés.

ChatGPT reprend ces caractéristiques, mais la partie « chat » (dialogue) y ajoute une dimension tout à fait différente, et en apparence souvent bluffante.

Le système ne produit plus juste un paragraphe à partir d’une phrase donnée en entrée. Il est maintenant capable de répondre correctement à des questions simples comme à des questions complexes, il peut fournir des éléments de raisonnement, s’exprimer dans différentes langues, analyser ou produire du code informatique, entre autres.

Par exemple, si on lui demande si deux personnages ont pu se rencontrer, le système est capable de déterminer les dates correspondant à leur existence, comparer ces dates et en déduire une réponse. Ceci est trivial pour un humain, mais aucun système ne pouvait jusque-là répondre de manière aussi précise à ce type de question sans être hautement spécialisé. Au-delà du langage, ChatGPT peut aussi fournir des éléments de raisonnements mathématiques (mais il se trompe souvent) et analyser du code informatique notamment.

De ce point de vue, ChatGPT a une longueur d’avance sur ses concurrents.
Concernant le fonctionnement du système, difficile d’en dire plus, car OpenAI, malgré son nom, développe des systèmes fermés. C’est-à-dire que le code informatique (code source) utilisé n’est pas disponible et que les recherches liées à ChatGPT restent pour l’instant en grande partie un secret industriel – même si, évidemment, d’autres équipes travaillent sur des systèmes similaires, aussi à base d’apprentissage profond. On a donc une idée de ce qui est utilisé par OpenAI.

D’autres entreprises ont gardé un modèle plus ouvert, par exemple Meta avec les travaux menés à FAIR, en général ouverts et publiés dans les principales conférences du domaine. Mais, plus généralement, on constate de plus en plus une fermeture des recherches. Par exemple, alors qu’Apple a toujours eu un modèle de développement privé et très secret, Deepmind avait un modèle ouvert et l’est sans doute un peu moins, maintenant que l’entreprise est sous le contrôle de Google.

Le système ChatGPT lui-même pourrait devenir commercial : OpenAI est financé par Microsoft qui pourrait décider de fermer l’accès au système un jour prochain, si c’est son intérêt.

En attendant, OpenAI bénéficie de l’énorme publicité que lui apporte son outil, et aussi de toutes les interactions des utilisateurs avec lui. Si un utilisateur signale qu’une réponse n’est pas bonne, ou demande à l’outil de reformuler sa réponse en tenant compte d’un élément en plus, c’est autant d’information que le système emmagasine et pourra réutiliser pour affiner sa réponse la prochaine fois, sur la requête posée ou sur une requête similaire. En testant ChatGPT, on travaille gratuitement pour OpenAI !

Pour en revenir au système lui-même, la partie dialogue est donc ce qui fait la force et la particularité de ChatGPT (par rapport à GPT3 par exemple). Il ne s’agit plus d’un « simple » modèle de langage capable de générer du texte « au kilomètre », mais d’un véritable système de dialogue. Celui-ci a probablement bénéficié de millions ou de milliards d’exemples évalués par des humains, et la phase actuelle – où des centaines de milliers d’utilisateurs « jouent » quasi gratuitement avec le système – permet encore de l’améliorer en continu, puisque toutes les interactions sont évidemment enregistrées et exploitées pour cela.

Il est aujourd’hui assez simple d’accéder à des corpus de milliards de mots pour mettre au point un modèle de langage de type « GPT », au moins pour les langues bien répandues sur Internet.

Mais les données ayant permis la mise au point de ChatGPT (dialogues, interactions avec des humains) ne sont, elles, pas publiques, et c’est ce qui donne un avantage important pour OpenAI face à la concurrence.

Par exemple, Google dispose de données différentes, mais sans doute aussi exploitables pour ce type de systèmes – d’autant que Google a développé depuis plusieurs années un graphe de connaissances qui pourrait permettre de générer des réponses avec une meilleure fiabilité que ChatGPT. Notamment, l’analyse des enchaînements de requêtes issus du moteur de recherche de Google pourrait fournir des informations précieuses pour guider l’interaction avec l’utilisateur… Mais, en attendant, c’est OpenAI qui dispose de ChatGPT, et non Google : OpenAi a l’avantage.

De fait, même s’il est possible de contourner les limites de ChatGPT, le système refuse d’expliquer comment créer une bombe, de produire des contes érotiques ou de donner ses sentiments (ChatGPT répond fréquemment qu’elle est une machine, qu’elle n’a pas de sentiments ni de personnalité). OpenAI a visiblement soigné sa communication. La société a aussi mis un soin extrême à « blinder » le système, à lui permettre de déjouer la plupart des pièges qui peuvent ruiner en quelques heures ce type d’application, comme cela arrive fréquemment pour des systèmes ouverts au grand public.

On peut par exemple citer Meta, qui en novembre dernier a dû retirer son système appelé « Galactica » deux jours après l’avoir mis en ligne. Galactica avait été entraîné sur le domaine scientifique et pensé pour offrir des services aux chercheurs. Il a d’abord été présenté comme pouvant écrire des articles scientifiques automatiquement à partir d’un prompt… avant que la société ne précise qu’il ne s’agissait évidemment que d’une aide à la rédaction. Mais cette stratégie de communication malheureuse a déclenché une polémique qui a obligé Meta à débrancher rapidement Galactica.

À l’inverse, ChatGPT est toujours en ligne, et suscite toujours autant de passion auprès d’un large public. Des questions demeurent cependant : quel impact aura ChatGPT ? Quelles applications en seront dérivées ? Et quel modèle économique la compagnie OpenAI (et Microsoft, son principal investisseur) vise-t-elle ?

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol