Archive pour le Tag 'ChatGPT :'

Elon Musk lance Grok, IA générative anti ChatGPT, gavée aux fake news de X (ex Twitter)!

Elon Musk lance Grok, IA générative anti ChatGPT gavée aux fake news de X (ex Twitter)!


Le patron de X (ex-Twitter)a longtemps demandé une sorte de pause à l’égard de l’intelligence artificielle générative pour officiellement en réguler le développement et ses excès. La vérité est différente car le patron de X (ex Twitter) était en retard par rapport à ses concurrents dans ce domaine et souhaitait donc une suspension pour les rattraper. Or aujourd’hui, il lance avec une certaine précipitation son propre modèle d’intelligence artificielle en plus gavé au fake news de X (ex Twitter) !

La régulation est en cours de réflexion aussi bien aux États-Unis qu’en Europe mais pendant ce temps-là, l’intelligence artificielle se développe. Du coup Musk est contraint de lancer avec une certaine précipitation son propre modèle d’IA générative. Le problème, c’est que les données seront surtout issues de X (ex Twitter) où foisonnent les fakes news.

On pourrait avoir des surprises assez extravagantes en interrogeant désormais le modèle d’intelligence artificielle d’Elon Musk.a révélé ce samedi le premier modèle d’intelligence artificielle générative de sa compagnie xAI. Baptisé Grok, ce ChatGPT muskien aura la particularité d’adorer les sarcasmes et d’utiliser les contenus issus du réseau social… alors que ce dernier se distingue depuis le rachat par le milliardaire comme un vivier inépuisable de fake news.

Business et nouvelles technologies : Les plates-formes (et autres chatGPT) pillent les opérateurs et créateurs de contenus

Business et nouvelles technologies : Les plates-formes (et autres chatGPT) pillent les opérateurs et créateurs de contenus


L’économiste Edmond Baranes considère, dans une tribune au « Monde », que le coût des investissements dans les télécoms repose sur les seuls opérateurs, alors que les plates-formes en sont les premières bénéficiaires.

La croissance vertigineuse du trafic de données a rendu les relations entre les opérateurs de télécommunications et les géants du numérique de plus en plus délicates. La poule aux œufs d’or est en effet le contenu, de la vidéo aux jeux, de la diffusion en direct aux publications sur les réseaux sociaux. Or, les entreprises qui sont chargées de délivrer ce contenu ne sont pas celles qui le monétisent.

La diffusion de contenu nécessite une infrastructure de réseau de qualité, intensive en capital et déployée principalement par les opérateurs télécoms. Le besoin d’investissement pour atteindre les objectifs de connectivité fixés par l’Union européenne est estimé à au moins 174 milliards d’euros supplémentaires. Ce financement et celui nécessaire au fonctionnement et à la maintenance des réseaux proviennent de l’industrie européenne des télécoms. Le modèle économique de ces opérateurs repose principalement sur un côté du marché : les consommateurs, facturés chaque mois.

De l’autre côté du marché, les fournisseurs de contenus ont connu une croissance économique remarquable en s’appuyant sur cette infrastructure. Les géants Facebook, Amazon, Netflix et Google ont développé des modèles commerciaux sophistiqués qui leur permettent de gagner de l’argent grâce à la publicité, à la monétisation des données et aux services offerts (vidéo premium, plates-formes en ligne).

Il serait facile d’en conclure que les opérateurs devraient simplement faire évoluer leur modèle en mobilisant les deux faces du marché : les consommateurs et les offreurs de contenus. Mais cela restera très peu probable en l’absence d’intervention réglementaire en raison du déséquilibre entre les pouvoirs de marché des acteurs. Le secteur des télécoms est fragmenté entre des opérateurs relativement petits, alors que les plates-formes numériques se développent à l’échelle mondiale à grande vitesse. Les relations commerciales ne sont donc clairement pas équilibrées, non sans impact négatif sur le fonctionnement efficace du marché.

Une des hypothèses testées par la Commission européenne est le partage des coûts de réseau entre entreprises numériques et opérateurs. L’intuition est simple : la diffusion des contenus, principalement monétisée par ceux qui les fournissent, génère des coûts pour les opérateurs.

IA: Aussi un moyen pour les chatGPT de s’approprier gratuitement données et contenus

IA: Aussi un moyen pour les chatGPT de s’approprier gratuitement données et contenus


En l’état en l’état les versions de ChatGPT constituent essentiellement un moyen énorme de s’approprier gratuitement les données et les contenus produits par d’autres sur les sites. Une forme de détournement gigantesque de valeurs. Dans la réalité pour l’instant cette technologie restitue seulement les informations publiées partout et encore avec beaucoup de d’approximations.

« Il n’entre pas dans nos missions de servir gratuitement de nourriture aux algorithmes. En indexant des sites dont les informations ont un réel coût de production, les bots se créent de la valeur pour eux-mêmes à coût nul », dénonce ainsi dans Les Echos Laurent Frisch, le directeur du numérique et de la stratégie d’innovation de Radio France. La radio publique fait partie d’un ensemble d’éditeurs de médias français -où on retrouve notamment Mediapart, France Médias Monde (RFI, France24…), TF1 ou encore Publihebdos (actu.fr)- a avoir pris la décision technique et symbolique de bannir le bot d’OpenAI.

Leur objectif : trouver un accord financier avec les acteurs de l’IA, afin de rémunérer l’utilisation des articles dans l’entraînement des IA. « C’est la question du partage de la valeur dans l’univers numérique qui se joue », rappelle Pierre Pérot, avocat spécialiste du droit de la propriété intellectuelle et du droit d’auteur au cabinet August Debouzy. Avec d’un côté, un secteur des médias à l’équilibre financier instable, et de l’autre, les géants du Net, qui semblent avoir trouvé dans l’IA une mine d’or.

Lire aussi

ChatGPT : Une mutation du rapport au monde ?

ChatGPT : Une mutation du rapport au monde

Le 30 novembre 2022, la société Open AI lançait ChatGPT déclenchant un foisonnement de débats et de questionnements. Le rapport à la « réalité » qu’entretient notre société explique en partie l’émergence et le succès d’intelligence artificielle comme ChatGPT. À la fin des années 70, l’économiste Harry Braverman soulignait déjà que l’informatique contribuait à accentuer la distance entre la main et l’esprit signant la disparition progressive de gestes et de savoirs traditionnels comme de certains métiers manuels. L’informatique, nous le comprenions déjà, allait transformer notre rapport à la réalité, telle une membrane ou une interface qui s’interpose entre nous et le monde pour nous dire ce qui compte et ce qui vaut. Ce que nous ne savions pas à l’époque, c’est que ces membranes ou interfaces, autrefois maîtrisables et intelligibles dans des programmes qu’on parvenait encore à expliquer et à discuter, allaient devenir de plus en plus intelligentes et obscures. Avec les systèmes d’IA, comme celui qui supporte ChatGPT, la membrane perd en contrôle.

par Claire Lobet-Maris
Professeure senior sociologie du digital et créativité, Université de Namur dans « The Conversation »

La sociologue Madeleine Akrich propose de considérer la technologie comme un acteur à qui on décide de déléguer des tâches. Ce terme de délégation est intéressant car que déléguons-nous à ChatGPT ? On lui confie la tâche de répondre à nos questions en fouillant des milliards de données pour trouver la « bonne information ». En ce sens, ChatGPT ne fait qu’un pas de plus dans les délégations que nous avons déjà confiées aux machines.

Mais peut-être est-ce un pas de trop car en utilisant la métaphore du délégué pour penser ChatGPT, ce que nous acceptons, c’est de confier la recherche d’information – et partant, notre rapport au monde – à un délégué dont on ne sait ni ce qu’il interroge, ni comment il fonctionne. C’est comme si on acceptait de confier son sort à un parfait inconnu dont on ne sait rien. Il y a là l’installation progressive d’un régime de vraisemblance où la distinction entre matérialité des faits et fabrication des faits par l’algorithme s’obscurcit, nous amenant dans un monde où plus rien ni personne ne peut être sûr.

En effet, l’incertitude liée à l’inflation informationnelle que nous connaissons depuis des décennies avait déjà tissé le lit de ce régime de post-vérité fait de fake news et de grands complots. Ce rapport troublé à la vérité des faits est ce qui permet évidemment toutes les manipulations, puisque ces textes produits sans discernement ne se heurtent plus ni à la consistance du réel que la philosophe Hannah Arendt qualifiait de « matérialité factuelle », ni à l’âpreté du débat.

Avec des outils comme ChatGPT, nous ne sommes plus qu’« au bord du monde », comme le dirait l’urbaniste et essayiste Paul Virilio, à sa toute dernière extrémité. La réalité n’est plus qu’un reste, un résidu…

Ce régime de vraisemblance est d’autant plus critique qu’il nous prend individuellement. De fait, le deuxième rôle que nous confions à ce « délégué » est de répondre à « nos » questions en « tenant compte » de nos réactions et avis, nous enfermant progressivement, par ce système d’apprentissage, dans une boucle de renforcement. À titre d’exemple, en suggérant dans la conversation avec ChatGPT que vous adorez les romans de Louis-Ferdinand Céline ou que vous les détestez, vous aurez deux appréciations totalement différentes de l’écrivain.

Ici aussi ce qui permet à ChatGPT d’exister et de se loger dans les différents plis de la société, c’est qu’il s’inscrit dans un terreau social bien présent que Paul Virilio nomme « l’individualisme de masse ». Par ce terme, il désigne la capacité des médias informatiques avancés « à traiter tête par tête nos mentalités ». En fait, nous dit-il, toutes ces technologies ne font qu’ouvrir la voie à la « télécommande universelle », une métaphore qui permet de penser ces applications qui ne laisseront plus à l’individu « de temps perdu, autrement dit de temps libre pour la réflexion, l’introspection prolongée ».

« L’individualisme de masse » permet à ChatGPT d’exister et de se loger dans les différents plis de la société
« L’individualisme de masse » permet à ChatGPT d’exister et de se loger dans les udifférents plis de la société. Pexels, CC BY-NC
La vitesse à laquelle opère ChatGPT contribue, pour reprendre ses termes, à « une sorte d’illusion stroboscopique qui brouille toute perception et donc toute véritable connaissance ». Notre esprit y était déjà bien préparé « habitué au zapping […] à l’association sauvage de sa navigation sur Internet […] il se contente de glaner çà et là des informations par butinage des lambeaux figés de sens ». Ceci pose la question de comment peut se faire et avancer une société dans un tel individualisme volatile et pointilliste.

Ce nouveau délégué qu’est ChatGPT est très symbolique de ce régime socio-économique que le philosophe André Gorz a qualifié de capitalisme cognitif. Dans ce régime, comme le résument bien les philosophes italiens Toni Negri et Carlo Vercellone « l’enjeu central de la valorisation du capital porte directement […] sur la transformation de la connaissance en une marchandise fictive ».

Rappelons que pour l’économiste Karl Polanyi, une marchandise répond à deux critères : être produit (critère de production) pour la vente (critère de validation). Ces connaissances ne sont pas des marchandises, elles font partie du commun et c’est le propre du capitalisme cognitif de privatiser à la fois leur accès et leur exploitation.

Ce régime considère la connaissance comme un stock regorgeant de données qu’il s’agit de fouiller et d’exploiter, enfermant progressivement la connaissance dans une boucle où plus rien ne se crée et où tout devient exploitation et gestion. À l’instar d’autres systèmes industriels ayant exploité la terre et la nature jusqu’à l’épuiser, des systèmes comme ChatGPT peuvent également participer à un appauvrissement de notre culture, transformant par bouclage et renforcement ce bien commun qu’est la connaissance en un vaste fournisseur d’inepties et inerties.

Au-delà de l’épuisement de la connaissance et de la culture, ces outils d’IA recèlent en eux un risque de perte généralisée de notre rapport au réel. Ainsi, nous dit Paul Virilio, « après l’accident de la substance, nous inaugurons avec le siècle qui vient un accident sans pareil, accident du réel », véritable « dé-réalisation, conduisant adultes et adolescents vers un monde parallèle sans consistance, où chacun s’accoutume peu à peu à habiter l’accident d’un continuum audiovisuel indépendant de l’espace réel de sa vie ».

Cet accident est tout en abîme puisqu’il s’agit à la fois de perdre pied par rapport à la matérialité des faits mais aussi de ne plus pouvoir reprendre pied du fait du caractère autonome et dès lors peu contrôlable de ces technologies dites intelligentes.

En 1960, dans « L’œil et l’esprit », le philosophe Maurice Merleau Ponty écrivait « La science manipule les choses et renonce à les habiter. Elle […] ne se confronte que de loin en loin avec le monde actuel. »

Face à ChatGPT, on lirait certainement chez Paul Virilio, comme chez André Gorz, une même invitation à retrouver la voie sensible du savoir, à renouer avec l’expérience touchante du monde vécu. Savoir et comprendre nous rappellent ces auteurs n’est pas connaître. Savoir et comprendre nécessitent de se confronter au monde, de le toucher, de le sentir, de l’appréhender autrement que dans la platitude des écrans. Là, nous dit Paul Virilio, le sens du réel et de sa finitude se perd et toutes les vérités deviennent possibles.

Au-delà de l’épuisement de la connaissance et de la culture, ces outils d’IA recèlent en eux un risque de perte généralisée de notre rapport au réel. Pexels, CC BY-NC
L’ère industrielle nous a conduit au réchauffement climatique. L’ère artificielle pourrait nous conduire à un réchauffement des esprits, une perte généralisée du « sens de l’orientation » où notre rapport au monde, aux autres et à nous-mêmes deviendrait incontrôlable. Il est évident, nous dit Paul Virilio, que cette perte d’orientation inaugure une crise profonde qui affectera nos démocraties.

Face à ce défi majeur, le concept d’écologie grise de Paul Virilio est une invitation à politiser ce qui arrive au « réel », à notre culture, c’est-à-dire à notre rapport au monde, tout comme l’écologie verte l’a fait depuis bien longtemps avec la nature.

L’écologie grise nous invite à reprendre fermement et sérieusement la main démocratique sur le développement de ces technologies. Sans cette fermeté, souligne Paul Virilio en reprenant Hannah Arendt : « Il se pourrait que nous ne soyons plus jamais capables de comprendre, c’est-à-dire de penser et d’exprimer les choses que nous sommes cependant capables de faire. »

ChatGPT: fantasmes et réalités ?

ChatGPT: fantasmes et réalités ?

Cette intelligence artificielle générative, capable de répondre par des textes complexes aux requêtes lancées par des internautes ? La sortie en décembre 2022 de ce logiciel conçu par la société OpenAI a suscité une multitude d’articles, entre visions de catastrophe et utopie, produisant une panique médiatique, comme l’illustre la lettre ouverte de mars 2023 demandant un moratoire dans le développement de ce type de systèmes, signée par un millier de chercheurs.

par Divina Frau-Meigs
Professeur des sciences de l’information et de la communication, dans The Conversation France

Comme le montre une étude de la Columbia Journalism Review, la panique n’a pas commencé en décembre 2022 avec l’événement lancé par OpenAI mais en février 2023 avec les annonces de Microsoft et Google, chacun y allant de son chatbot intégré dans leur moteur de recherche (Bing Chat et Bard, respectivement). La couverture médiatique opère un brouillage informationnel, se focalisant davantage sur le potentiel remplacement de l’humain que sur la réelle concentration de la propriété de l’IA dans les mains de quelques entreprises.

Comme toute panique médiatique (les plus récentes étant celles sur la réalité virtuelle et le métavers), elle a pour but et effet de créer un débat public permettant à d’autres acteurs que ceux des médias et du numérique de s’en emparer. Pour l’éducation aux médias et à l’information (EMI), les enjeux sont de taille en matière d’interactions sociales et scolaires, même s’il est encore trop tôt pour mesurer les conséquences sur l’enseignement de ces modèles de langage générant automatiquement des textes et des images et de leur mise à disposition auprès du grand public.

En parallèle des actions politiques de régulation, l’EMI permet aux citoyens de se prémunir des risques liés à l’usage de ces outils, en développant leur esprit critique et en adoptant des stratégies d’usages appropriées et responsables. L’algo-littératie, ce sous-champ de l’EMI qui considère ce que les data font aux médias, permet d’appliquer ces clés de lecture à l’IA. Voici quatre directions dans lesquelles l’EMI peut nous aider à nous retrouver dans ces chaînes d’interactions algorithmiques, de leurs productions à leurs publics.

Tenir compte de la géopolitique de l’IA
Ce sont les entreprises contrôlant les moteurs de recherche et donc l’accès à l’information, Google et Microsoft, qui ont le plus à gagner dans le développement des IA génératives. Elles s’organisent, à l’américaine, en duopole, avec un (faux) challenger, OpenAI LP. Il s’agit en fait du bras commercial du laboratoire initialement à but non lucratif OpenAI (financé par Microsoft en grande partie).

Une autre histoire peut être racontée, surtout par les médias, celle de l’incroyable concentration de pouvoir et d’argent par un très petit nombre d’entreprises de la Silicon Valley. Elles se donnent le monopole de l’accès à l’information et de toutes les productions en découlant. Elles alimentent la concurrence frontale entre États-Unis et Chine sur le sujet. La stratégie de Google et Microsoft a en effet pour but de couper l’herbe sous les pieds du gouvernement chinois, qui ne cache pas ses ambitions en matière de développement de l’IA.

L’option d’une pause ou d’un moratoire relève de la chimère, face à ce qui est l’équivalent d’une course aux armements. Les inventeurs eux-mêmes, en apprentis sorciers repentis, dont Sam Altman le directeur général de OpenAI, ont proposé en mai 2023 « une gouvernance de l’IA ». Mais ne serait-ce pas dans l’espoir de ne pas subir de plein fouet une réglementation gouvernementale qui leur échapperait et mettrait un frein à leurs intentions commerciales ? L’Union européenne a anticipé en préparant un règlement IA pour réguler les usages de cette nouvelle évolution du numérique.

Tout ce qui est plausible n’est pas nécessairement porteur de sens. L’IA qui pilote le logiciel ChatGPT fait des propositions sur la base de requêtes et elles apparaissent rapidement… dans un langage plutôt stylé et de bonne tenue ! Mais cela peut générer des erreurs, comme l’a compris, à son grand dam, un avocat de New York qui avait monté un dossier truffé de faux avis judiciaires et de fausses citations juridiques.

Il faut donc se méfier de la pseudo-science générée par l’IA. Les contenus proposés peuvent présenter des biais car ils sont issus de l’exploitation d’énormes banques de données. Celles-ci incluent des ensembles de data avec des sources de toutes sortes… dont les médias sociaux ! La dernière version gratuite de ChatGPT s’appuie sur des données qui s’arrêtent à début 2022, donc pas vraiment au point sur l’actualité.

Ces banques de données sont pour beaucoup issues des pays anglophones, avec les biais algorithmiques attenants. De fait ChatGPT risque de créer de la désinformation et de se prêter à des usages malveillants ou d’amplifier les croyances de ceux qui l’utilisent.

Hologramme numérique du cerveau avec l’IA, icônes du chat et enfant prenant des notes
Si l’IA produit des textes qui peuvent sembler bien écrits, cela ne garantit en rien la validité des informations transmises. Shutterstock
Il est donc à utiliser comme tout autre instrument, comme un dictionnaire auprès duquel faire une recherche, élaborer un brouillon… sans lui confier de secrets et de données personnelles. Lui demander de produire ses sources est une bonne consigne, mais même cela ne garantit pas l’absence de filtres, le robot conversationnel ayant tendance à produire une liste de sources qui ressemblent à des citations mais ne sont pas toutes de vraies références.

Par ailleurs, il ne faut pas oublier les problèmes de droits d’auteur qui ne vont pas tarder à rentrer en action.

Se méfier des imaginaires autour de l’IA
Le terme d’intelligence artificielle n’est pas approprié pour ce qui relève d’un traitement de données préentrainé (le sens de l’acronyme GPT pour generative pre-trained transformer).

Cet anthropomorphisme, qui nous mène à attribuer de la pensée, de la créativité et des sentiments à un agent non humain, est négatif à double titre. Il nous rappelle tous les mythes anxiogènes qui alertent sur la non-viabilité de toute porosité entre le vivant et le non-vivant, du Golem à Frankenstein, avec des peurs d’extinction de la race humaine. Il dessert la compréhension sereine de l’utilité réelle de ces transformateurs à grande échelle. La science-fiction ne permet pas de comprendre la science. Et donc de formuler des repères éthiques, économiques, politiques.

Ces imaginaires, pour actifs qu’ils soient, doivent être démystifiés. Ladite « boite noire » de l’IA générative est plutôt simple dans son principe. Les modèles de langage à grande échelle sont des algorithmes entraînés à reproduire les codes du langage écrit (ou visuel). Ils parcourent des milliers de textes sur Internet et convertissent une entrée (une séquence de lettres par exemple) en une sortie (sa prédiction pour la lettre suivante).

Ce que l’algorithme génère, à très grande vitesse, c’est une série de probabilités, ce que vous pouvez vérifier en refaisant la même requête et en voyant que vos résultats ne sont pas les mêmes. Aucune magie là-dedans, aucune sensibilité non plus, même si l’usager a le sentiment de tenir une « conversation », encore un mot du vocabulaire de l’humain.

Vue sur l’écran d’un smartphone et sur la page ChatGPT sur fond flou
La « boite noire » de l’IA générative fonctionne sur des principes plutôt simples. Shutterstock
Et cela peut être amusant, comme le montre l’IA BabyGPT créé par le New York Times, travaillant sur de petits corpus fermés, pour montrer comment écrire à la manière de Jane Austen, de William Shakespeare ou de J.K. Rowling. Même ChatGPT ne s’y laisse pas prendre : quand on lui demande ce qu’il ressent, il répond, très cash, qu’il n’est pas programmé pour cela.

Les publics de l’IA, notamment à l’école, se doivent donc de développer des connaissances et compétences autour des risques et opportunités de ce genre de robot dit conversationnel. Outre la compréhension des mécanismes du traitement automatique de l’information et de la désinformation, d’autres précautions prêtent à éducation :

prendre garde au monopole de la requête en ligne, tel que visé par Bing Chat et Google Bard, en jouant de la concurrence entre elles, donc en utilisant régulièrement plusieurs moteurs de recherche ;

exiger des labels, des codes couleur et autres marqueurs pour indiquer qu’un document a été produit par une IA ou avec son aide est aussi frappé au coin du bon sens et certains médias l’ont déjà anticipé ;

demander que les producteurs fassent de la rétro-ingénierie pour produire des IA qui surveillent l’IA. Ce qui est déjà le cas avec GPTZero ;

entamer des poursuites judiciaires, en cas d’« hallucination » de ChatGPT- – encore un terme anthropomorphisé pour marquer une erreur du système !

Et se souvenir que, plus on utilise ChatGPT, sous sa version gratuite comme payante, plus on l’aide à s’améliorer.

Dans le domaine éducatif, les solutions marketing de la EdTech vantent les avantages de l’IA pour personnaliser les apprentissages, faciliter l’analyse de données, augmenter l’efficacité administrative… Mais ces métriques et statistiques ne sauraient en rien se substituer à la validation des compétences acquises et aux productions des jeunes.

Pour tout intelligente qu’elle prétende être, l’IA ne peut remplacer la nécessité pour les élèves de développer leur esprit critique et leur propre créativité, de se former et s’informer en maîtrisant leurs sources et ressources. Alors que la EdTech, notamment aux États-Unis, se précipite pour introduire l’IA dans les classes, d’école primaire au supérieur, la vigilance des enseignants et des décideurs reste primordiale pour préserver les missions centrales de l’école et de l’université. L’intelligence collective peut ainsi s’emparer de l’intelligence artificielle.

IA-ChatGPT: danger majeur pour l’humanité ?

IA-ChatGPT: danger majeur pour l’humanité ?


Face à l’ accélération de l’IA, de grands noms mettent en garde contre ses dangers. Pour Geoffrey Hinton, les avancées dans le secteur de l’IA induisent « de profonds risques pour la société et l’humanité », avait-il estimé dans le New York Times. C’est la raison pour laquelle il a quitté son poste au sein du géant Google début mai, qui a d’ailleurs récemment présenté ses plans pour intégrer l’intelligence artificielle générative à son moteur de recherche.

En mars, c’était le milliardaire Elon Musk – un des fondateurs d’OpenAI dont il a ensuite quitté le conseil d’administration – et des centaines d’experts mondiaux qui avaient réclamé une pause de six mois dans la recherche sur les IA puissantes, en évoquant « des risques majeurs pour l’humanité ».

Sam Altman multiplie aussi régulièrement les mises en garde, craignant que l’IA ne « cause de graves dommages au monde », en manipulant des élections ou en chamboulant le marché du travail.

Depuis mi-mai, le patron d’OpenAI parcourt le monde pour rassurer sur l’IA et plaider pour une régulation. Car les régulations ne sont pas seulement un mal nécessaire pour le secteur, mais aussi une opportunité économique.

« Tout le monde a intérêt à la mise en place rapide de régulations uniformisées à l’échelle mondiale, sous l’impulsion des États-Unis, y compris les entreprises de l’intelligence artificielle. En l’absence de telles régulations, il est en effet probable que chaque pays, voire chaque région, bricole ses propres règles dans son coin, ce qui forcerait demain les entreprises de l’intelligence artificielle à entraîner une infinité de modèles différents pour coller aux spécificités de chaque loi locale. Un cauchemar », considère Gary Marcus, expert de l’IA.

ChatGPT: des centaines de millions d’emploi menacés par l’Intelligence artificielle

ChatGPT: des centaines de millions d’emploi menacés par l’Intelligence artificielle

2 emplois sur 3 sont directement menacés par l’éclosion des IA, et parmi eux, les professions administratives et juridiques seront les plus impactées avec des suppressions de postes pouvant atteindre respectivement 46 % et 44 %. d’après un ppaier de sciences et vie. Alors que des experts et des intellectuels réclament une pause dans le développement de l’Intelligence artificielle, un rapport de la banque Goldman-Sachs cible les secteurs qui seront le plus impactés par l’automatisation des tâches confiées à Chat GPT-4 et ses concurrents.
Une centaine d’experts dont Elon Musk, Steve Wozniak ou encore Yuval Noah Harari ont signé mercredi une pétition pour qu’un moratoire de six mois soit mis en place sur le développement de l’Intelligence artificielle qui va succéder à Chat GPT-4. Dans ce texte publié sur Future Of Life, on peut lire que « les systèmes d’IA dotés d’une intelligence humaine compétitive peuvent poser de graves risques pour la société et l’humanité », notamment parce que « les systèmes d’IA contemporains deviennent désormais compétitifs pour les humains dans les tâches générales »
.

Sur ce dernier point, le dernier rapport publié par Goldman-Sachs ne va rassurer personne puisqu’on apprend que deux tiers des emplois actuels pourraient être affectés par les progrès et les capacités d’automatiser les tâches des Intelligences artificielles. A terme, et même si l’étude ne donne pas de date-butoir, ce sont pas moins de 300 millions d’emplois qui pourraient disparaître aux Etats-Unis et en Europe.

En moyenne, dans le monde, 18% des métiers actuels pourraient être automatisés par une Intelligence artificielle, avec des variations du simple au double selon les pays © Goldman Sachs

On savait que des métiers comme développeurs, rédacteurs ou encore interprètes pourraient rapidement être remplacés par des modèles comme Chat GPT-4, mais les secteurs les plus en danger seraient les professions administratives et juridiques avec des suppressions de postes pouvant atteindre respectivement 46 % et 44 %. C’est quasiment un emploi sur deux, et il faut donc s’attendre que ce que des IA apporte des conseils juridiques, rédigent des rapports sur des contentieux ou répondent efficacement à des demandes administratives. Certains craignent même qu’elles remplacent des médecins pour des diagnostics, et ce sont les métiers les plus qualifiés qui pourraient souffrir de cette révolution.

Comme les IA sont capables de piloter des robots, l’impact sur les métiers liés à l’entretien et au nettoyage pourraient même atteindre 95 % ! Toutes les professions liées à la maintenance, la logistique ou encore la réparation seraient aussi en danger. A l’inverse, certains secteurs n’ont pas à redouter cette éclosion de l’Intelligence artificielle. Goldman-Sachs cite par exemple l’ingénierie, la finance ou encore les sports et les médias. Le paradoxe, ou plutôt le côté positif pour certains, c’est que la productivité serait considérablement boostée par l’IA avec une hausse du PIB mondial annuel de 7%.

ChatGPT: danger majeur pour l’humanité ?

ChatGPT: danger majeur pour l’humanité ?

Face à l’ accélération de l’IA, de grands noms mettent en garde contre ses dangers. Pour Geoffrey Hinton, les avancées dans le secteur de l’IA induisent « de profonds risques pour la société et l’humanité », avait-il estimé dans le New York Times. C’est la raison pour laquelle il a quitté son poste au sein du géant Google début mai, qui a d’ailleurs récemment présenté ses plans pour intégrer l’intelligence artificielle générative à son moteur de recherche.

En mars, c’était le milliardaire Elon Musk – un des fondateurs d’OpenAI dont il a ensuite quitté le conseil d’administration – et des centaines d’experts mondiaux qui avaient réclamé une pause de six mois dans la recherche sur les IA puissantes, en évoquant « des risques majeurs pour l’humanité ».

Sam Altman multiplie aussi régulièrement les mises en garde, craignant que l’IA ne « cause de graves dommages au monde », en manipulant des élections ou en chamboulant le marché du travail.

Depuis mi-mai, le patron d’OpenAI parcourt le monde pour rassurer sur l’IA et plaider pour une régulation. Car les régulations ne sont pas seulement un mal nécessaire pour le secteur, mais aussi une opportunité économique.

« Tout le monde a intérêt à la mise en place rapide de régulations uniformisées à l’échelle mondiale, sous l’impulsion des États-Unis, y compris les entreprises de l’intelligence artificielle. En l’absence de telles régulations, il est en effet probable que chaque pays, voire chaque région, bricole ses propres règles dans son coin, ce qui forcerait demain les entreprises de l’intelligence artificielle à entraîner une infinité de modèles différents pour coller aux spécificités de chaque loi locale. Un cauchemar », considère Gary Marcus, expert de l’IA.

Nouvelles technologies–ChatGPT : disponible en France

Nouvelles technologies–ChatGPT : disponible en France

Téléchargeable sur les appareils Apple, la nouvelle application n’est pourtant pas facile à trouver sur les différents magasins (Voici le lien pour celui d’Apple). En effet, la recherche donne d’abord lieu à plusieurs répliques du vrai ChatGPT, qui ne sont pas du même acabit que la version originale. Et dont l’utilisation est payante. L’application gratuite, elle, de Sam Altman, président de l’OpenAI, n’arrive même pas en première position lorsque les mots-clés «ChatGPT» et «OpenAI» sont associés. Pour bénéficier de plus de fonctionnalités, les utilisateurs peuvent toutefois s’abonner à l’offre premium Plus.

L’app officielle de ChatGPT est simple : après s’être connecté avec un compte Apple, Google ou OpenAI, on arrive directement sur l’interface du robot conversationnel. On a la possibilité de dicter ses commandes grâce au moteur de reconnaissance vocale intégré, Whisper, qui se montre très efficace.

ChatGPT : disponible en France

ChatGPT : disponible en France

Téléchargeable sur les appareils Apple, la nouvelle application n’est pourtant pas facile à trouver sur les différents magasins (Voici le lien pour celui d’Apple). En effet, la recherche donne d’abord lieu à plusieurs répliques du vrai ChatGPT, qui ne sont pas du même acabit que la version originale. Et dont l’utilisation est payante. L’application gratuite, elle, de Sam Altman, président de l’OpenAI, n’arrive même pas en première position lorsque les mots-clés «ChatGPT» et «OpenAI» sont associés. Pour bénéficier de plus de fonctionnalités, les utilisateurs peuvent toutefois s’abonner à l’offre premium Plus.

L’app officielle de ChatGPT est simple : après s’être connecté avec un compte Apple, Google ou OpenAI, on arrive directement sur l’interface du robot conversationnel. On a la possibilité de dicter ses commandes grâce au moteur de reconnaissance vocale intégré, Whisper, qui se montre très efficace.

ChatGPT: Limite sémantique

ChatGPT: Limite sémantique

par Frederic Alexandre, Directeur de recherche en neurosciences computationnelles, Université de Bordeaux, Inria dans The conversation

Un des problèmes que l’IA n’a toujours pas résolu aujourd’hui est d’associer des symboles – des mots par exemple – à leur signification, ancrée dans le monde réel – un problème appelé l’« ancrage du symbole ». Par exemple, si je dis : « le chat dort sur son coussin car il est fatigué », la plupart des êtres humains comprendra sans effort que « il » renvoie à « chat » et pas à « coussin ». C’est ce qu’on appelle un raisonnement de bon sens. En revanche, comment faire faire cette analyse à une IA ? La technique dite de « plongement lexical », si elle ne résout pas tout le problème, propose cependant une solution d’une redoutable efficacité. Il est important de connaître les principes de cette technique, car c’est celle qui est utilisée dans la plupart des modèles d’IA récents, dont ChatGPT… et elle est similaire aux techniques utilisées par Cambridge Analytica par exemple.

Le plongement lexical, ou comment les systèmes d’intelligence artificielle associent des mots proches
Cette technique consiste à remplacer un mot (qui peut être vu comme un symbole abstrait, impossible à relier directement à sa signification) par un vecteur numérique (une liste de nombres). Notons que ce passage au numérique fait que cette représentation peut être directement utilisée par des réseaux de neurones et bénéficier de leurs capacités d’apprentissage.

Plus spécifiquement, ces réseaux de neurones vont, à partir de très grands corpus de textes, apprendre à plonger un mot dans un espace numérique de grande dimension (typiquement 300) où chaque dimension calcule la probabilité d’occurrence de ce mot dans certains contextes. En simplifiant, on remplace par exemple la représentation symbolique du mot « chat » par 300 nombres représentant la probabilité de trouver ce mot dans 300 types de contextes différents (texte historique, texte animalier, texte technologique, etc.) ou de co-occurrence avec d’autres mots (oreilles, moustache ou avion).

Plonger dans un océan de mots et repérer ceux qui sont utilisés conjointement, voilà une des phases de l’apprentissage pour ChatGPT. Amy Lister/Unsplash, CC BY
Même si cette approche peut sembler très pauvre, elle a pourtant un intérêt majeur en grande dimension : elle code des mots dont le sens est proche avec des valeurs numériques proches. Ceci permet de définir des notions de proximité et de distance pour comparer le sens de symboles, ce qui est un premier pas vers leur compréhension.

Pour donner une intuition de la puissance de telles techniques (en fait, de la puissance des statistiques en grande dimension), prenons un exemple dont on a beaucoup entendu parler.

Relier les traits psychologiques des internautes à leurs « likes » grâce aux statistiques en grande dimension

C’est en effet avec une approche similaire que des sociétés comme Cambridge Analytica ont pu agir sur le déroulement d’élections en apprenant à associer des préférences électorales (représentations symboliques) à différents contextes d’usages numériques (statistiques obtenues à partir de pages Facebook d’usagers).

Leurs méthodes reposent sur une publication scientifique parue en 2014 dans la revue PNAS, qui comparait des jugements humains et des jugements issus de statistiques sur des profils Facebook.

L’expérimentation reportée dans cette publication demandait à des participants de définir certains de leurs traits psychologiques (sont-ils consciencieux, extravertis, etc.), leur donnant ainsi des étiquettes symboliques. On pouvait également les représenter par des étiquettes numériques comptant les « likes » qu’ils avaient mis sur Facebook sur différents thèmes (sports, loisirs, cinéma, cuisine, etc.). On pouvait alors, par des statistiques dans cet espace numérique de grande dimension, apprendre à associer certains endroits de cet espace à certains traits psychologiques.

Ensuite, pour un nouveau sujet, uniquement en regardant son profil Facebook, on pouvait voir dans quelle partie de cet espace il se trouvait et donc de quels types de traits psychologiques il est le plus proche. On pouvait également comparer cette prédiction à ce que ses proches connaissent de ce sujet.

Le résultat principal de cette publication est que, si on s’en donne les moyens (dans un espace d’assez grande dimension, avec assez de « likes » à récolter, et avec assez d’exemples, ici plus de 70000 sujets), le jugement statistique peut être plus précis que le jugement humain. Avec 10 « likes », on en sait plus sur vous que votre collègue de bureau ; 70 « likes » que vos amis ; 275 « likes » que votre conjoint.

Cette publication nous alerte sur le fait que, quand on recoupe différents indicateurs en grand nombre, nous sommes très prévisibles et qu’il faut donc faire attention quand on laisse des traces sur les réseaux sociaux, car ils peuvent nous faire des recommandations ou des publicités ciblées avec une très grande efficacité. L’exploitation de telles techniques est d’ailleurs la principale source de revenus de nombreux acteurs sur Internet.

Nos likes et autres réaction sur les réseaux sociaux en disent beaucoup sur nous, et ces informations peuvent être exploitées à des fins publicitaires ou pour des campagnes d’influence. George Pagan III/Unsplash, CC BY
Cambridge Analytica est allée un cran plus loin en subtilisant les profils Facebook de millions d’Américains et en apprenant à associer leurs « likes » avec leurs préférences électorales, afin de mieux cibler des campagnes électorales américaines. De telles techniques ont également été utilisées lors du vote sur le Brexit, ce qui a confirmé leur efficacité.

Notons que c’est uniquement l’aspiration illégale des profils Facebook qui a été reprochée par la justice, ce qui doit continuer à nous rendre méfiants quant aux traces qu’on laisse sur Internet.

Calculer avec des mots en prenant en compte leur signification

En exploitant ce même pouvoir des statistiques en grande dimension, les techniques de plongement lexical utilisent de grands corpus de textes disponibles sur Internet (Wikipédia, livres numérisés, réseaux sociaux) pour associer des mots avec leur probabilité d’occurrence dans différents contextes, c’est-à-dire dans différents types de textes. Comme on l’a vu plus haut, ceci permet de considérer une proximité dans cet espace de grande dimension comme une similarité sémantique et donc de calculer avec des mots en prenant en compte leur signification.

Un exemple classique qui est rapporté est de prendre un vecteur numérique représentant le mot roi, de lui soustraire le vecteur (de même taille car reportant les probabilités d’occurrence sur les mêmes critères) représentant le mot homme, de lui ajouter le vecteur représentant le mot femme, pour obtenir un vecteur très proche de celui représentant le mot reine. Autrement dit, on a bien réussi à apprendre une relation sémantique de type « A est à B ce que C est à D ».

Le principe retenu ici pour définir une sémantique est que deux mots proches sont utilisés dans de mêmes contextes : on parle de « sémantique distributionnelle ». C’est ce principe de codage des mots qu’utilise ChatGPT, auquel il ajoute d’autres techniques.

Ce codage lui permet souvent d’utiliser des mots de façon pertinente ; il l’entraîne aussi parfois vers des erreurs grossières qu’on appelle hallucinations, où il semble inventer des nouveaux faits. C’est le cas par exemple quand on l’interroge sur la manière de différencier des œufs de poule des œufs de vache et qu’il répond que ces derniers sont plus gros. Mais est-ce vraiment surprenant quand on sait comment il code le sens des symboles qu’il manipule ?

Sous cet angle, il répond bien à la question qu’on lui pose, tout comme il pourra nous dire, si on lui demande, que les vaches sont des mammifères et ne pondent pas d’œuf. Le seul problème est que, bluffés par la qualité de ses conversations, nous pensons qu’il a un raisonnement de bon sens similaire au nôtre : qu’il « comprend » comme nous, alors que ce qu’il comprend est juste issu de ces statistiques en grande dimension.

Intelligence artificielle: ChatGPT bientôt sur les smartphones

Intelligence artificielle: ChatGPT bientôt sur les smartphones

La nouvelle application, dont le site web était déjà source d’inquiétude, est à présent disponible sur les iPhone aux Etats-Unis et pourra être utilisée « bientôt » dans d’autres pays.

OpenAI a lancé, jeudi 18 mai, une application mobile pour ChatGPT, son interface d’intelligence artificielle (IA) générative qui enregistre déjà une croissance phénoménale sur le web, et dont les capacités impressionnantes fascinent et inquiètent.

La nouvelle application est disponible sur les iPhone aux Etats-Unis, pour commencer, et doit arriver « bientôt » dans d’autres pays et sur les téléphones portables opérés par Android (Google), selon l’entreprise. Gratuite, elle permet, comme le site web, de discuter avec le chatbot et surtout de lui demander de rédiger des messages, d’expliquer des concepts techniques, de suggérer des idées ou de résumer des notes. OpenAI promet par exemple « d’obtenir des informations précises sans avoir à trier entre les publicités ou des résultats multiples », le modèle actuel des moteurs de recherche. Mais à la première ouverture, l’appli prévient aussi tôt que ChatGPT peut « fournir des informations inexactes sur des personnes, des lieux ou des faits ».

 ChatGPT: une intelligence affabulatrice ?

 ChatGPT: une intelligence affabulatrice ?

Jean-Baptiste Fressoz, CNRS ,dans le Monde


L’intelligence artificielle peut-elle aider les chercheurs ? Non pas pour écrire des articles et formuler des arguments originaux – ChatGPT propose en général des réponses d’une banalité affligeante – mais au moins pour accomplir des recherches bibliographiques ? C’est dans cet esprit et sans a priori que j’ai questionné ChatGPT sur un point précis : l’évolution historique du nombre des maisons en bambou. Pourquoi cette curieuse question ? Parce que j’ai le sentiment que la diminution de l’intensité carbone de l’économie – il faut en 2020 presque deux fois moins de CO₂ pour générer un dollar de PIB mondial qu’en 1980, selon l’Agence internationale de l’énergie (« Global Energy Review : CO2 Emissions in 2021 », 2022) – cache le fait que les énergies fossiles se sont en réalité insinuées de plus en plus profondément dans la production matérielle.

L’agriculture a accru sa dépendance au pétrole et au méthane avec les progrès de la mécanisation et l’usage croissant d’engrais azotés ; la métallurgie devient plus gourmande en énergie avec la baisse de la teneur des minerais ; l’extension des chaînes de valeur accroît les kilomètres parcourus par chaque marchandise ou composant de marchandise, et donc le rôle du pétrole dans la bonne marche de l’économie. Ces phénomènes ont pour l’instant été masqués par l’efficacité croissante des machines et par le poids des services dans le produit national brut, mais ils n’en sont pas moins des obstacles majeurs sur le chemin de la décarbonation.

Les matériaux de construction fournissent un autre exemple : l’aluminium est plus intense en CO₂ que l’acier, le polyuréthane que la laine de verre, les panneaux de bois que les planches. Enfin, dans les pays pauvres, le béton remplace souvent des matériaux décarbonés comme la terre crue et… le bambou.

ChatGPT : un développement Incontournable

ChatGPT : un développement Incontournable

par Ryan Shea, crypto-économiste chez Trakx dans la Tribune
Ryan Shea (*)

Un article intéressant mais le parallèle entre l’intelligence artificielle et les cryptomonnaies est assez douteux ne serait-ce qu’au niveau des enjeux NDLR

Les fossoyeurs des cryptos qui proclamaient haut et fort que 2023 serait un événement d’extinction du secteur ont – une fois de plus – eu tort. L’hiver crypto est terminé. Mais ce n’est pas la seule technologie qui profite du chaud soleil printanier. Je parle bien sûr de l’IA qui, après avoir elle-même connu plusieurs hivers dans le passé, connaît une renaissance spectaculaire. Alimentés par la popularité explosive de ChatGPT, qui, après avoir acquis plus de 100 millions d’utilisateurs depuis son lancement en novembre dernier, est l’application destinée aux consommateurs la plus réussie de tous les temps, les médias – traditionnels et sociaux – regorgent d’articles décrivant les derniers développements dans l’espace, et pour cause car les résultats sont impressionnants.

Ce que l’on observe avec de tels projets, ce sont des ordres de grandeur de meilleurs résultats que les systèmes « IA » antérieurs étaient capables de produire il y a quelques années à peine. On peut dire que les modèles LLM actuels qui alimentent ChatGPT et d’autres comme eux, sont capables d’imiter avec précision le contenu créé par l’homme – la base du célèbre test d’Alan Turing (3). L’IAG, ou intelligence artificielle générale, est peut-être encore hors de portée (elle peut être inaccessible – qui sait), mais avec l’intelligence artificielle déjà à un tel niveau, les implications sociales et économiques seront profondes.

La capacité de l’IA générative à produire des textes/son/images déjà proches de ceux produits par les humains dérange clairement beaucoup de gens, d’autant plus que la technologie s’améliore à un rythme exponentiel et non linéaire, d’où la raison pour laquelle ChatGPT 4.0 est nettement meilleur que ChatGPT 3.5. Cela signifie qu’il deviendra extrêmement difficile de détecter le contenu généré par l’IA par rapport à celui généré par l’homme. De plus, ces résultats pourront être produits à grande échelle pour une large diffusion sur Internet, l’une des principales sources d’information pour pratiquement tout le monde sur la planète (4). Les problèmes de fausses nouvelles semblent devoir exploser dans un avenir pas trop lointain.

On s’inquiète également des licenciements généralisés, car les machines sont généralement plus rentables que les employés à base de carbone et il existe donc une forte incitation au profit pour remplacer la main-d’œuvre par du capital. En effet, un récent rapport de Goldman Sachs suggère que 300 millions d’emplois pourraient être perdus en raison du déploiement de cette technologie – un choc économique négatif massif selon les normes de quiconque (6).

Reflétant ces préoccupations, le Future of Life Institute a publié le mois dernier une lettre ouverte (7), signée par des milliers de personnes, dont notamment Elon Musk et Steve Wozniak et de nombreux chercheurs de premier plan en IA. La lettre appelait à un moratoire de six mois sur la formation de systèmes d’IA plus puissants que ChatGPT 4 afin de « développer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement avancés d’IA qui sont rigoureusement audités et supervisés par des experts externes indépendants »(8).

Appuyer sur le bouton de répétition est clairement une stratégie, mais le problème avec cette approche est de savoir comment elle est appliquée. Si une grande entreprise ou un État-nation (et je peux penser à plus de quelques exemples tout de suite, comme je suis sûr que beaucoup d’autres le peuvent) décide d’aller de l’avant avec la recherche sur l’IA et la formation de modèles, que peut-on faire pour les arrêter ? Rien. Tout comme Bitcoin, le développement de l’IA est impossible à bannir. Tout ce qu’une pause de six mois ferait, c’est donner à ceux qui choisissent de l’ignorer le temps de rattraper leur retard ou d’étendre leur avance dans la course aux armements de l’IA. La logique derrière la proposition ne correspond pas.

Cela dit, tout le monde n’est pas aussi pessimiste quant à l’impact de l’IA. Brian Roemmele, un ingénieur qui a travaillé avec l’IA et les réseaux de neurones pendant des décennies et a publié SuperPrompts (9) via son site Web (10) et son compte Twitter (11), par exemple, estime que la comparaison luddite est très pertinente par rapport à la situation actuelle. Pour ceux qui ne connaissaient pas les luddites, il s’agissait d’un groupe de tisserands du 19e siècle en Grande-Bretagne – dirigé par Ned Ludd d’où leur nom – qui a détruit des machines introduites dans l’industrie textile au milieu de la crainte de perdre leur emploi. Comme le souligne Brian, contrairement à leurs croyances initiales (et à la conclusion que beaucoup de gens tirent de cette histoire), Ludd et ses partisans ont découvert que l’introduction des machines n’était pas un inconvénient pour eux. Au lieu de cela, les machines leur permettaient de faire plus de travail à valeur ajoutée, ce qui était non seulement moins banal, mais générait également des salaires plus élevés, plus d’emplois (12) et, par conséquent, une plus grande prospérité.

Modèles centralisés ou décentralisés ?

J’ai beaucoup de respect pour ces vues optimistes, et l’histoire est certainement de leur côté, car l’introduction de nouvelles technologies a tendance à précéder une plus grande création de richesse économique (13) . Cependant, je ne peux pas échapper au sentiment tenace que si – et j’admets que c’est un gros si – la récolte actuelle de modèles d’IA conduit finalement à l’IAG et à la création d’une ressource concurrente des humains, alors l’analogie s’effondre (14).

Cela mis à part, étant donné l’impossibilité d’imposer une interdiction effective du développement de l’IA – temporaire ou autre – il est clair que notre avenir sera de plus en plus affecté par l’IA et ses diverses applications. La question est de savoir si nous, en tant qu’espèce (oui, je considère ce sujet comme si profond), pouvons-nous guider l’IA d’une manière qui nous profite à tous tout en atténuant les inconvénients potentiels. C’est là que la crypto entre en jeu.

Les modèles d’IA sont intrinsèquement centralisés, en partie à cause de leurs coûts de développement et de fonctionnement. ChatGPT-3 coûte environ 12 millions de dollars pour s’entraîner et 100 000 dollars par jour pour fonctionner (15) (je me demande combien de temps il faudra au lobby vert pour commencer à lutter contre l’électricité utilisée dans la formation des modèles d’IA comme il l’a fait contre les crypto-monnaies, même si de telles les critiques sont déplacées). Même si les coûts unitaires des modèles de formation diminuent, en raison de jeux de données plus volumineux et de la nécessité d’augmenter la puissance de calcul, certains estiment que les coûts de formation des modèles de pointe (SoA) pourraient atteindre 100 à 500 millions de dollars (17). dollars – des fonds auxquels peu de gens ont accès. C’est la raison pour laquelle l’IA n’est vraiment dominée que par une poignée d’acteurs, tels que OpenAI, Google et Meta.

Est-ce vraiment une si bonne idée d’avoir une technologie qui, sans aucun doute, empiètera de plus en plus sur la vie quotidienne de chacun d’une myriade de façons différentes, contrôlée par seulement quelques organisations privées (18) ?

Les chaînes de blocs offrent un moyen de rendre l’IA plus transparente et plus responsable, car elles sont capables de stocker et de traiter les données utilisées par les systèmes d’IA de manière décentralisée. Ils fournissent également les moyens d’avoir une gouvernance décentralisée basée sur des mécanismes de consensus bien connus et peuvent être déployés d’une manière sans confiance et résistante à la censure. Bien sûr, cela ne surmontera pas tous les obstacles potentiels, surtout si AGI se concrétise un jour, mais au moins cela empêche le pouvoir de l’IA de se concentrer entre les mains de quelques-uns avec peu ou pas de surveillance publique. L’IA décentralisée basée sur la blockchain n’est pas qu’une chimère. Il existe déjà plusieurs projets visant à mettre en place de tels systèmes.

Un autre avantage accessoire de la combinaison des technologies de l’IA et de la blockchain est qu’elle peut aider à résoudre le problème des « (deep) fake news » qui est susceptible de croître considérablement à mesure que la technologie se déploie plus largement. En vertu d’être sur la blockchain, un historique vérifiable indépendamment est créé permettant de déterminer quand un contenu (vidéo/voix/texte) a été créé et/ou quand il est entré en possession de quelqu’un (chaîne de possession). Cela aidera en rendant plus difficile pour les acteurs malveillants de créer et de distribuer des deepfakes non détectés.

À bien des égards, je suis d’accord avec les commentaires de Gary Gensler qui, dans son récent témoignage devant la Chambre des représentants des États-Unis, a exprimé sa conviction que « la technologie qui, à mon avis, est la plus transformatrice à notre époque est l’intelligence artificielle ». Il a poursuivi en ajoutant « Ce n’est pas une crypto ». Sur ce dernier je ne suis pas d’accord. Pour les raisons décrites dans cette note de recherche, à mon avis, pour obtenir le plus d’avantages et, ce qui est tout aussi important, atténuer les inconvénients potentiels, la propriété de l’IA sur les technologies sous-jacentes devrait être élargie et son évolution ne pas être laissée entre les mains de quelques technologies privées. entreprises. La blockchain – le fondement de la cryptographie – est le moyen par lequel parvenir à un tel résultat. Ce faisant, nous pouvons peut-être transformer deux technologies transformatrices en quelque chose qui vaut plus que la somme de ses parties, ou comme le titre de cette note le suggère faire 1 + 1 = 3 !

ChatGPT : technologie de rupture ou d’aliénation ?

ChatGPT : technologie de rupture ou d’aliénation ?

par Marion Trommenschlager
Chercheure en sciences de l’information-communication, laboratoire PREFics, Université Rennes 2 dans the Conversation


Alors que l’impact de l’intelligence artificielle (IA) dans le monde du travail ou en matière de désinformation fait couler beaucoup d’encre, des dirigeants du secteur, dont Elon Musk, appellent à décélérer. Une intelligence artificielle ultra-médiatisée a tenu un rôle majeur dans l’ouverture de ces débats : ChatGPT. Mais a-t-elle vraiment créé une rupture ?

Il n’y a pas de réelle nouveauté technique dans ChatGPT. Son ancêtre, Eliza, date de 1966. La technique de codage, aussi sophistiquée soit-elle, s’inscrit dans une continuité des conceptions de langage de programmation. Par ailleurs, dans une approche sociologique, rappelons que nous sommes une humanité numérique, une société artefactuelle (puisque nous évoluons à travers le progrès technique), dans laquelle toute innovation s’inscrit dans une continuité.

Peut-on alors réellement parler d’innovation de rupture pour ChatGPT ?

Et s’il fallait finalement se saisir de ce raz de marée médiatique pour comprendre la fulgurance de son déploiement, et plus encore, pour comprendre où nous en sommes, nous, utilisateurs, dans nos représentations, entre fantasmes et réalités, de l’intelligence artificielle ?

Ces logiciels d’intelligence conversationnelle nous ramènent à deux grandes tendances liées à la technicisation de la société. Tout d’abord celle de la servicisation, c’est-à-dire une normalisation de l’assistance personnalisée au quotidien. Cette tendance est arrivée avec le passage d’une économie basée sur des logiques de masse, vers une autre basée sur des logiques individuelles.

Le second grand levier est la plateformisation : créés au sein d’empires numériques (entre autres GAFAM), ces logiciels sont pensés pour être infusés dans tout l’écosystème. C’est le cas par exemple de ChatGPT, amené à investir Bing, Outlook, et autres services de Microsoft.

Et pour cause, le disgracieux « GPT » dans sa version francophone, renvoie au « general purpose technologies », soit technologies à usage général. Il est donc de par sa nature, un outil conçu pour être facilement transposé et utilisé dans différents domaines. Différent d’un moteur de recherche, il répond à des questions complexes et cherche à comprendre l’intention.

Comment expliquer l’appropriation si rapide de ChatGPT par les utilisateurs ?
L’impact médiatique relève du fait de ses utilisateurs. Comme souligné par l’anthropologue Lionel Obadia, il est difficile de parler d’invention. Néanmoins, la diffusion et l’appropriation remarquablement rapide font de ChatGPT une innovation marquante. Elle peut être utilisée par n’importe qui, initié ou non, gratuitement en ligne, et entraîne de ce fait autant de nouveaux usages, de contournements, que de business potentiels.


Trois forces expliquent la rapide intégration et appropriation sociale du logiciel.

Premièrement, ChatGPT est très accessible : ce qui lui permet un passage à l’échelle, autrement dit un déploiement, très rapide. L’accessibilité de l’outil et son appropriation généralisée massifient l’usage, mais également l’intérêt pour ce qui paraît « nouveau », voire « divertissant ».

Ensuite, ChatGPT nous ressemble. Le processus de machine learning en fait un outil d’auto-enrichissement continu, comme les humains. Le dialogue lui permet par exemple d’améliorer ses réponses avec un langage naturel. Ainsi, plus il est utilisé, plus il est performant. Autrement dit, nous nous « éduquons » mutuellement.

Enfin, ChatGPT est un champ des possibles : il laisse entrevoir de nouveaux scénarios. Nous sommes, en tant qu’utilisateurs, la condition pour la réussite du déploiement de ces innovations numériques. Chose faite pour ChatGPT qui compte à présent plus de 100 millions d’utilisateurs. Nous commençons à prendre conscience de « l’après » et de l’émergence d’autres innovations issues du modèle de ce logiciel.

La philosophe Marie Robert raconte son expérience lorsque le média Brut lui propose de corriger une copie rédigée par le logiciel :

« C’est avec un certain frisson que j’ai pris mon stylo rouge pour tenter de comprendre le raisonnement élaboré par une machine. Malgré une absence de citations, un manque cruel de nuances et une structure bien trop rigide, ma première remarque fut que ce n’était « pas si mal » […] C’est donc avec un mélange de fascination et d’effroi que j’ai terminé l’exercice, me demandant sincèrement ce que nous allions faire pour le monde à venir, pour ces générations qui n’auront pas à connaître l’effort. »


Des métiers de la cognition voués à disparaître ?

Ce qui diffère vraiment avec les précédentes évolutions liées à l’innovation, c’est que ChatGPT touche les métiers de la cognition, plutôt épargnés jusqu’alors. Il est d’ailleurs intéressant de rappeler que l’un des logiciels les plus (technologiquement) complexes, l’Autopilot de Tesla, a été pour 85 % fabriqué par l’intelligence artificielle. La dynamique d’hybridation entre métiers et intelligence artificielle est de plus en plus forte. Cependant, il serait fantasmé de parler de « grand remplacement ».

L’autonomie de l’intelligence conversationnelle n’est pas totale. Par exemple, ChatGPT développé par Open AI a été construit à partir de 175 milliards de paramètres, il s’appuie sur un jeu de données gigantesque. Gigantesque certes, mais sélectionné, donc faillible.

Récemment, des échanges et lectures sur l’art du codage m’ont permis d’éclairer plus encore les limites du mythe d’une autonomie de l’intelligence artificielle. Cela notamment à travers la dimension de labellisation dans les réseaux de neurones. Dans ce processus, il s’agit d’étiqueter des données, c’est-à-dire d’associer un label (une valeur prédéfinie) à un contenu (image, texte, forme, etc.). L’objectif est d’apporter un modèle d’apprentissage aux machines. Cette pratique rappelle la nécessité de paramétrage et de supervision dans l’interprétation des données, une réalité a (re) découvrir dans la mini-série documentaire Les travailleurs du clic de Antonio Casilli. Open AI a d’ailleurs différents contrats avec des travailleurs au Kenya pour ce travail de modération.

Nous voyons donc les limites d’un fantasme autour d’une intelligence artificielle parfaitement autonome.

Bien que l’intelligence artificielle ne comprenne pas ce qu’elle dit, ces implications humaines dans la supervision de l’apprentissage des machines nous montrent que les données qui nourrissent cette intelligence, elles, ne sont pas neutres. Elles reproduisent et amplifient les biais de ceux qui la supervisent, chariant un lot potentiel de stéréotypes, de désinformation, de contenus aspirés aux sources invisibles, de censure, ou encore de complotisme (Meta en a fait l’expérience avec Blender bot 3).

La question centrale est donc : qui paramètre ? Le professeur de droit Lawrence Lessig le souligne dans son clairvoyant « Code is law » : la personne qui paramètre est la personne qui a la possibilité d’orienter un système de pensée. Un outil comme ChatGPT est principalement conçu par et pour une cible nord-américaine. Son déploiement rapide, renforcé par sa dimension ludique, conduit à la normalisation de son utilisation. Une normalisation non pas sans effet, puisqu’elle vient renforcer l’impression d’un objet politiquement neutre chez les utilisateurs.

Or, c’est loin d’être le cas, pour les raisons évoquées précédemment, mais aussi parce que l’IA est avant tout un enjeu de domination tant entre empires du numérique, que dans la sphère géopolitique.

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol