Archive pour le Tag 'l’intelligence'

La fin du travail avec l’intelligence artificielle ?

La fin du travail avec l’intelligence artificielle ?

 

 

La montée en puissance de l’intelligence artificielle entraîne des révolutions technologiques qui donnent le tournis en Californie, à ses meilleurs élèves : les salariés de la tech, constate Corine Lesnes, dans sa chronique au « Monde » 

Au tournant des années 2010, l’avènement de la voiture sans chauffeur faisait les gros titres. Le phénomène était imminent. « Une réalité », annonçait le New York Times en mai 2012. Les sociologues prédisaient la « fin du travail » tel que la civilisation occidentale le concevait depuis la révolution industrielle, à la suite de l’économiste Jeremy Rifkin dont le livre de 1995, La Fin du travail (La Découverte, 1997), explorait les conséquences de l’automatisation sur le marché de l’emploi.

Rien d’aussi spectaculaire n’a immédiatement suivi. Pendant deux décennies, la voiture sans chauffeur est restée au stade d’expérimentation, pour ne pas dire de mirage. Le taux de chômage n’a pas explosé, au contraire. Nous nous sommes habitués aux effets de manche des ploutocrates de la tech : coloniser Mars, occuper le métavers… Au risque de se retrouver blasés, et de négliger de prendre acte des révolutions, bien réelles, qui sont désormais parmi nous.

Aujourd’hui, les taxis autonomes circulent dans cinq villes américaines, sans anicroche ni accident (mais pas encore par tous les temps). A San Francisco, les Waymo (voiture sans conducteur) de Google sont devenues une attraction touristique au même titre que les cable cars de la fin du XIXe siècle. Et chaque trajet urbain conduit par un chauffeur fantôme suscite le même ébahissement : « wow », comme disent les Américains.

Quant à la « fin du travail » traditionnel, celle-ci n’est plus une vue de l’esprit, mais un phénomène en voie de banalisation du fait de la fulgurante accélération de l’intelligence artificielle (IA). Faut-il s’en plaindre ? Les « techies » sont en première ligne, cette fois, de la « disruption » causée par leurs propres inventions. Depuis trois ans, les charrettes se succèdent dans le secteur des technologies : 165 000 licenciements en 2022 ; 264 000 en 2023, un record ; 141 000 encore cette année, entre janvier et le 11 octobre, émanant de 468 entreprises.

«L’intelligence artificielle va tuer l’homme 1.0»

«L’intelligence artificielle va tuer l’homme 1.0»

Laurent Alexandre,  chirurgien de formation, également diplômé de Science Po, de HEC et ancien élève de l’ENA, a fondé dans les années 1990 le site d’informations Doctissimo. Il publie ChatGPT va nous rendre immortels aux Éditions JC Lattès.  ( dans le Figaro)

 En quoi ChatGPT est en train de transformer le destin de l’humanité ?

Laurent ALEXANDRE - ChatGPT a lancé une course technologique mondiale qui conduit au dépassement de l’intelligence humaine par l’intelligence artificielle (IA) des décennies plus tôt que prévu. Pour Sam Altman, père de ChatGPT, l’IA devient le principal moteur de l’histoire. Le 13 mars 2024, Elon Musk a déclaré: «L’IA sera probablement plus intelligente que n’importe quel être…

 

Une vision à la fois scientifique mais aussi de sciences fiction parfois fantaisiste concernant la révolution cognitive.

D’après Laurent Alexandre, nous entrons dans un monde magique où nos désirs seront anticipés par les intelligences artificielles (IA) qui peupleront nos appareils connectés. Le développement de la réalité virtuelle va accentuer cette immersion dans un monde irréel et magique qui deviendra une drogue ultra-addictive. « Nous nous fixons un objectif : nous voulons attirer un milliard de personnes vers la réalité virtuelle », a déclaré Mark Zuckerberg, président de Facebook, à l’occasion de la présentation de son nouveau casque Oculus Go, le 11 octobre, à San José (Californie).
Les IA associées à la réalité virtuelle, même si elles ne seront pas dotées de consciences artificielles, pourront nous dire à tout moment ce qui est bon pour notre santé, ce qui maximisera notre jouissance, et nous indiquer ce que nous devons faire. Nous ferons tellement ­confiance à ces algorithmes que nous leur ­déléguerons la décision. Le vrai pouvoir sera ­concentré dans les mains d’une élite maîtresse des IA. Simultanément, la destruction de beaucoup de métiers créerait une énorme classe de personnes inutiles économiquement, et intellectuellement dépassées. Symptôme prémonitoire de cette évolution, en 2017, à la veille du tsunami de l’IA, 17 % des jeunes Français, entre 15 et 29 ans, sont déjà des NEETs (young people Not in Education, Employment, or Training, en français : jeunes qui ne sont ni scolarisés, ni en emploi, ni en formation). Ces citoyens confieront le sens de leur existence aux algorithmes.

Montée de l’ultra violence : la conséquence d’un effondrement des valeurs et de l’intelligence

Montée de l’ultra violence : la conséquence d’un effondrement des valeurs et de  l’intelligence

 

L’ultra violence caractérise un phénomène plus général qui affecte toute la société concernant le dépérissement des valeurs mais aussi de l’intelligence. Pour s’en persuader, il suffit d’observer le comportement de nombre de Français dans leur rapport aux autres. De plus en plus par exemple s’affranchissent de dire simplement  bonjour ou merci, ce qui ne constitue pas une infraction juridique mais témoigne de la dégradation de la vie sociétale dans le pays. Un phénomène qui touche plus particulièrement les générations les plus jeunes.

À cette perte des valeurs de civilité s’ajoute une dégradation générale moyenne de la culture et de l’intelligence comme en témoignent les résultats catastrophiques des élèves français comparés à ce de l’étranger.

Pour schématiser l’ignorance et la bêtise dominent les relations sociales à un moment ou au contraire la complexité de la société exigerait à la fois une meilleure formation, une plus grande intelligence et une plus grande humanité. Les replis sectaires sont le fait d’individus -en général idiots -perdus dans le monde moderne qui recherchent une réassurance identitaire dans le repli sectaire, velléitaire et souvent violent et cela parfois jusque dans le domaine privé.

Bref c’est la sauvagerie qui pourrait se substituer aux valeurs de tolérance nécessaires au fonctionnement d’une société. La violence est l’outil des abrutis pour contraindre par la force quand l’intelligence fait défaut.

Les responsabilités sont évidemment multiples. Elles commencent sans doute dans les familles, pour continuer à l’école est un peu partout dans la société où les concepts de respect, de bienveillance et d’ouverture sur l’autre s’affaiblissent progressivement au point de rendre possible les actes les plus ignobles y compris les tueries pour des divergences de points de vue.

Montée de l’ultra violence : la conséquence d’un effondrement des civilités et de l’intelligence

Montée de l’ultra violence : la conséquence d’un effondrement des civilités et de l’intelligence

 

L’ultra violence caractérise un phénomène plus général qui affecte toute la société concernant le dépérissement des valeurs mais aussi de l’intelligence. Pour s’en persuader, il suffit d’observer le comportement de nombre de Français dans leur rapport aux autres. De plus en plus par exemple s’affranchissent de dire simplement  bonjour ou merci, ce qui ne constitue pas une infraction juridique mais témoigne de la dégradation de la vie sociétale dans le pays. Un phénomène qui touche plus particulièrement les générations les plus jeunes.

À cette perte des valeurs de civilité s’ajoute une dégradation générale moyenne de la culture et de l’intelligence comme en témoignent les résultats catastrophiques des élèves français comparés à ce de l’étranger.

Pour schématiser l’ignorance et la bêtise dominent les relations sociales à un moment ou au contraire la complexité de la société exigerait à la fois une meilleure formation, une plus grande intelligence et une plus grande humanité. Les replis sectaires sont le fait d’individus -en général idiots -perdus dans le monde moderne qui recherchent une réassurance identitaire dans le repli sectaire, velléitaire et souvent violent et cela parfois jusque dans le domaine privé.

Bref c’est la sauvagerie qui pourrait se substituer aux valeurs de tolérance nécessaires au fonctionnement d’une société. La violence est l’outil des abrutis pour contraindre par la force quand l’intelligence fait défaut.

Les responsabilités sont évidemment multiples. Elles commencent sans doute dans les familles, pour continuer à l’école est un peu partout dans la société où les concepts de respect, de bienveillance et d’ouverture sur l’autre s’affaiblissent progressivement au point de rendre possible les actes les plus ignobles y compris les tueries pour de divergences de points de vue.

Elon Musk : Des implants cérébraux pour lutter contre l’intelligence artificielle

Elon Musk : Des implants cérébraux pour lutter contre l’intelligence artificielle

Elon Musk sans doute un ingénieur brillant et un grand homme d’affaires mais on peut s’inquiéter de sa proposition d’implanter des implants soi-disant pour lutter contre l’intelligence artificielle. Par ailleurs ses fondements idéologiques proche de Trump ne manquent pas d’interroger sans parler de ses folies d’envoyer du monde sur Mars pour fuir la terres polluées !

Elon Musk a annoncé lundi 29 janvier que la start-up Neuralink, dont il est cofondateur, a posé dimanche son premier implant cérébral sur un patient, une opération qui a déjà été réalisée à plusieurs reprises par d’autres sociétés et chercheurs. Située à Fremont (Californie), dans la banlieue de San Francisco, Neuralink avait obtenu en mai le feu vert de l’Agence américaine de régulation des médicaments et appareils médicaux, la FDA. Son implant, de la taille d’une pièce de monnaie, a déjà été placé dans le cerveau d’un macaque, qui a réussi à jouer au jeu vidéo «Pong» sans manette ni clavier. «Les premiers résultats montrent une activité neuronale prometteuse», a écrit Elon Musk sur X (ex-Twitter), au sujet de l’implant sur un patient.

Fondé en 2016, Neuralink est loin d’être la première à installer un implant cérébral, aussi appelé interface cerveau-machine (ICM), sur un humain. En septembre, l’entreprise néerlandaise Onward avait annoncé qu’elle testait le couplage d’un implant cérébral à un autre stimulant la moelle épinière, dans le but de permettre à un patient tétraplégique de retrouver de la mobilité. Dès 2019, des chercheurs de l’institut grenoblois Clinatec avaient présenté un implant permettant, une fois posé, à une personne tétraplégique d’animer un exosquelette et de remuer les bras ou de se déplacer.

Elon Musk ambitionne aussi de proposer son implant à tous, afin de permettre de mieux communiquer avec les ordinateurs et de contenir, selon lui, le «risque pour notre civilisation» que fait peser l’intelligence artificielle.

L’Intelligence artificielle générative

On définit l’intelligence artificielle comme la conception de programmes informatiques capables d’accomplir des tâches impliquant normalement l’intelligence humaine (tout ce qui se rapporte à la parole, à l’analyse d’images, à l’élaboration de stratégie dans des jeux, etc.).
Des progrès récents ont été faits dans la production de textes, d’images, de vidéos ou de musique. On parle alors d’intelligence artificielle générative (AIG) car les programmes informatiques liés (et les algorithmes, c’est-à-dire les suites d’instructions derrière les programmes) « génèrent » du texte, des images ou du son.

par Thierry Poibeau
DR CNRS, École normale supérieure (ENS) – PSL dans The Conversation

Il n’y a pas d’opposition stricte entre intelligence artificielle (IA) et intelligence artificielle générative (IAG) car il a existé des systèmes capables de produire du texte ou des images presque depuis les débuts de l’IA (ou, à tout le moins, des recherches sur ces thèmes). La nouveauté principale est la qualité, la diversité et plus globalement le réalisme des résultats obtenus avec les systèmes récents (textes pertinents et cohérents, images plus vraies que nature, etc.).

Des analyses de qualité et sans publicité, chaque jour dans vos mails.
Cette brusque amélioration est due à plusieurs éléments. Le premier point, essentiel, est l’accès à des ensembles de données gigantesques (des milliards de textes ou d’images, par exemple) qui permettent aux systèmes d’avoir des montagnes d’exemples pour produire de nouveaux textes ou images réalistes, sans être simplement des copies de données existantes.

Pour le reste, on dispose aujourd’hui, d’une part, de l’augmentation astronomique de la puissance de calcul des ordinateurs (grâce aux puces de type GPU, qui permettent de faire extrêmement rapidement les calculs à la base des techniques utilisées pour ce type de système), de l’autre de nouveaux algorithmes (dits d’apprentissage profond), qui permettent une analyse très fine des données observées, de les comparer et de les combiner pour produire des contenus nouveaux.

Ces systèmes peuvent ensuite être spécialisés par rapport à des tâches précises. Par exemple, un outil comme ChatGPT peut répondre de façon précise à des questions tout-venant : il s’agit donc toujours de générer du texte, mais de le faire de façon pertinente en fonction d’une question posée (ce qu’on appelle parfois le prompt). Le générateur de texte brut est le modèle GPT, et celui-ci est encapsulé dans un autre modèle gérant le dialogue, pour former l’application ChatGPT.

Le réalisme des résultats a impressionné ces dernières années. C’est aussi un des problèmes majeurs que posent ces techniques : à partir du moment où les textes, les images et les vidéos peuvent être confondus avec la réalité, l’intelligence artificielle générative (AGI) pose d’importantes questions pratiques et éthiques. Elle peut être une source majeure de désinformation (de production de fake news) par exemple.

Une solution parfois proposée est de marquer automatiquement (en anglais « watermark ») les textes ou les images produites par des IA, mais il y aura toujours des systèmes pouvant produire des sorties non estampillées. La régulation de ce type de systèmes est une question ouverte à l’heure actuelle.

Enfin, on entend aussi parler de beaucoup de types d’IA, qui peuvent se recouper ou non, comme l’IA prédictive ou l’IA créative. Le terme IA créative (qui recouvre, en gros, l’IAG) est à éviter car les IA ne font que modifier et recombiner des fragments (de texte ou d’image) existants. L’IA prédictive est une IA plus classique, visant à évaluer la probabilité qu’un événement se produise (un crime à tel endroit par exemple). S’il peut y avoir des similarités avec l’intelligence artificielle générative (AIG) au niveau des méthodes employées, la finalité des deux types de systèmes n’est généralement pas la même.

L’intelligence artificielle : pour quoi faire ?

L’intelligence artificielle : pour quoi faire ?

ChatGPT tient le devant de la scène depuis sa sortie du fait de ses fonctionnalités bluffantes, notamment pour dialoguer et répondre à des questions, même complexes, de façon naturelle et réaliste. Par Thierry Poibeau, École normale supérieure (ENS) – PSLAlors qu’on commence à avoir un peu de recul sur cet outil, des questions se posent : quelles sont les limites actuelles et futures de ChatGPT, et quels sont les marchés potentiels pour ce type de systèmes ?

ChatGPT est souvent décrit comme un futur concurrent de Google, voire comme un « Google killer » pour sa partie moteur de recherche : même si l’outil produit parfois des réponses baroques, voire carrément fausses, il répond de manière directe et ne propose pas simplement une liste ordonnée de documents, comme le moteur de recherche de Google.

Il y a là assurément un danger potentiel sérieux pour Google, qui pourrait menacer sa position de quasi-monopole sur les moteurs de recherche. Microsoft en particulier (principal investisseur dans OpenAI, qui a par ailleurs un accès privilégié à la technologie développée) travaille à intégrer ChatGPT à son moteur de recherche Bing, dans l’espoir de reprendre l’avantage sur Google.
Il y a toutefois plusieurs incertitudes concernant une telle perspective.

Les requêtes dans les moteurs de recherche sont généralement composées de quelques mots, voire d’un seul mot, comme un événement ou un nom de personnalité. ChatGPT suscite en ce moment la curiosité d’une population technophile, mais ceci est très différent de l’usage classique, grand public, d’un moteur de recherche.

On peut aussi imaginer ChatGPT accessible à travers une interface vocale, ce qui éviterait d’avoir à taper la requête. Mais les systèmes comme Alexa d’Amazon ont eu du mal à s’imposer, et restent confinés à des usages précis et limités (demander des horaires de cinéma, la météo…). Il y a 10 ans, Alexa était vu comme l’avenir de la société de distribution américaine, mais est aujourd’hui un peu à l’abandon, parce qu’Amazon n’a jamais réussi à monétiser son outil, c’est-à-dire à le rendre économiquement profitable.
ChatGPT peut-il réussir là où Alexa a en partie échoué ?

Bien sûr, l’avenir de ChatGPT ne devrait pas se résumer à la recherche d’information. Il existe une foule d’autres situations où on a besoin de produire du texte : production de lettres types, de résumés, de textes publicitaires…

ChatGPT est aussi un bon outil d’aide à l’écriture. On voit déjà différents usages : solliciter ChatGPT pour partir de quelques paragraphes qui peuvent susciter l’inspiration et éviter la peur de la page blanche ; voir quels points l’outil met en avant sur une question particulière (pour vérifier si ça correspond à ce que l’on aurait dit nous-mêmes ou non) ; demander des suggestions de plan sur une question particulière. ChatGPT n’est pas un outil magique et ne peut pas savoir ce que l’utilisateur a en tête, donc face à la rédaction d’un document complexe, il ne peut s’agir que d’une aide.
On peut évidemment imaginer des usages plus problématiques et de nombreux articles ont déjà été publiés dans la presse concernant par exemple l’usage de ChatGPT dans l’enseignement, avec des craintes, justifiées ou non. On peut ainsi imaginer des étudiants produisant des devoirs grâce à ChatGPT, mais aussi des enseignants utilisant l’outil pour rédiger leurs appréciations, ou des chercheurs produisant des articles scientifiques semi-automatiquement. Il y a beaucoup d’articles sur les étudiants dans la presse, mais ce ne seront pas les seuls à faire un usage éventuellement problématique de ce genre de technologie.

Il y a bien sûr lieu de se poser des questions, mais la technologie est là et ne va pas disparaître. Il semble donc primordial d’en parler, et de former les élèves et les étudiants à ces outils, pour expliquer leur intérêt et leurs limites, et discuter de la place qu’ils devraient avoir dans la formation.

Enfin, à l’extrême du spectre des usages problématiques, on pensera bien évidemment à la production de fake news : de fausses informations pouvant ensuite être disséminées en quantité industrielle.
Il ne faut pas exagérer ces dangers, mais ceux-ci sont réels. Même si des détecteurs de texte produits par ChatGPT commencent à apparaître, ceux-ci seront nécessairement imparfaits, car les textes produits sont trop divers et trop réalistes pour pouvoir être reconnus à 100 % par un système… à part par la société OpenAI elle-même, évidemment !
Les limites de ChatGPT : quand l’IA « hallucine »

La masse des interactions avec ChatGPT depuis son ouverture au grand public le 30 novembre a déjà permis d’identifier certaines de ses limites.
ChatGPT fournit en général des réponses correctes, souvent bluffantes… mais si on l’interroge sur des domaines qu’il ne maîtrise pas, voire si on invente une question en apparence sérieuse mais en fait absurde (par exemple sur des faits ou des personnes qui n’existent pas), le système produit une réponse en apparence tout aussi sérieuse, mais en fait complètement absurde ou inventée.
Les exemples sur Twitter sont légion : ChatGPT propose des références scientifiques qui n’existent pas, des explications fumeuses, voire une démonstration où est postulé que -4 = -5. Ceci serait une richesse, si ChatGPT était juste un outil destiné à produire des histoires, des pastiches ou des parodies.

Mais ce que le public attend, c’est avant tout des réponses avérées à des questions réelles, ou l’absence de réponse dans le cas contraire (si le système ne peut trouver la réponse, ou si la question est absurde). C’est la principale faiblesse de l’outil, et donc probablement aussi le principal obstacle pour en faire un concurrent du moteur de recherche de Google, comme on l’a déjà vu.
Pour cette raison, une conférence comme ICML (International Conference on Machine Learning) a déjà interdit aux chercheurs de soumettre des articles produits en partie avec ChatGPT. Stackoverflow, une plate-forme d’échanges entre développeurs informatiques, a aussi interdit les réponses générées par ChatGPT, ayant peur de se retrouver submergée par un flux de réponses générées automatiquement (et en partie fausses).

Ceci est dû au fait que le système n’a pas de « modèle de monde ». Autrement dit, il ne sait pas ce qui est vrai, il peut générer des absurdités, des fausses informations, inventer des choses de toute pièce avec l’aplomb d’un menteur professionnel. C’est ce que l’on appelle les « hallucinations », comme si ChatGPT voyait alors des éléments imaginaires (en fait, on ne peut pas vraiment dire que le système ment, dans la mesure où il n’a pas de modèle de vérité).
Ceci est surtout vrai quand la question elle-même n’est pas tournée vers la réalité, auquel cas le système se met à inventer : en ce sens, GPT n’est ni un journaliste, ni un savant, mais plutôt un raconteur d’histoires.

Il y a fort à parier qu’OpenAI essaie dans de futures versions de fournir un système qui évite d’affabuler quand le contexte ne s’y prête pas, grâce à une analyse fine de la question posée, ou l’ajout de connaissances validées (comme le font déjà Amazon avec Alexa ou Google avec son knowledge graph, qui est tout simplement une base de connaissances). Google, justement, à travers sa succursale Deepmind, travaille actuellement sur un modèle similaire à ChatGPT appelé Sparrow, en essayant de renforcer la fiabilité du système. Il est par exemple question que le système fournisse une liste de sources sur laquelle il s’appuie pour fournir une réponse.
Les enjeux pour demain

L’autre limite de ce système est qu’il repose sur des données (en gros, l’ensemble des textes disponibles sur Internet) à la mi-2021 et que ses connaissances ne peuvent pas être mises à jour en direct. C’est évidemment un problème, ChatGPT ne peut pas répondre de façon pertinente à des questions sur l’actualité, alors qu’il s’agit d’un aspect particulièrement important.
La mise à jour en continu du modèle est donc logiquement un des prochains buts d’OpenAI, qui n’en fait pas mystère. Réviser un modèle, le réentraîner « à partir de zéro » (from scratch) est un processus long et coûteux, qui peut mettre en jeu des milliers de GPU ou de TPU pendant plusieurs semaines ou plusieurs mois, ce qui n’est pas en phase avec la rapidité de l’actualité. La prochaine grande innovation consistera donc en des systèmes capables de se mettre à jour de manière plus localisée en temps réel (ou quasiment), et ceci est sans doute pour bientôt.

Mais le principal enjeu est évidemment celui de l’acceptabilité. On l’a vu : le débat est déjà lancé sur l’influence d’un tel système sur l’éducation. Plus globalement, si un système tel que ChatGPT est par exemple intégré à un logiciel comme Word, se posera aussi la question de qui contrôle ce qui est produit. La voie est étroite entre des systèmes d’IA pas assez contrôlés et capables de produire des contenus racistes ou homophobes, et des systèmes trop bridés qui interdiraient de produire certains contenus.

En conclusion, et comme dit l’adage populaire : il est difficile de faire des prévisions, surtout quand elles concernent l’avenir. Il y a de nombreuses inconnues autour de technologies de type ChatGPT : les perspectives de tels outils sont assez vertigineuses, susceptibles d’avoir un impact profond sur la société, mais en même temps leur potentiel réel et commercial devra passer l’épreuve du monde réel. Ce qui est certain, c’est que les bouleversements actuels devraient inciter au développement d’instituts (au sein des universités, mais aussi à travers des fondations ou des associations capables d’atteindre le grand public) permettant une réflexion large et ouverte sur ces technologies, impliquant tous les acteurs de la société, car c’est la société tout entière qui est déjà impactée, comme en témoigne l’intérêt actuel autour de ChatGPT.
_______
Par Thierry Poibeau, DR CNRS, École normale supérieure (ENS) – PSL
La version originale de cet article a été publiée sur The Conversation.

Un accord européen sur l’intelligence artificielle très vaseux

Un accord européen sur l’intelligence artificielle très vaseux

L’Union européenne aurait trouvé un « accord politique » en matière de développement de l’intelligence artificielle. Un accord très vaseux qui essaye de trouver un équilibre entre l’innovation et les dérives. La plus grande difficulté à réguler réside surtout dans le fait que l’intelligence artificielle n’est pas clairement identifiée et qu’on place sous cette définition un tas d’applications qui ressemblent un peu à une auberge espagnole. En outre, chaque jour ou presque apparaissent de nouveaux développements dont on mesure bien mal les conséquences économiques, sociales ou sociétales.

En fait on s’est mis d’accord sur un texte de nature politique très vague qui fixe de grands principes pour la protection des usagers ou de la société en général mais sans préciser la nature des applications, leurs effets, les conséquences et leurs sanctions.

Pour Thierry Breton, à l’origine de ce texte, le compromis est un grand pas en avant. « L’Union européenne devient le premier continent à fixer des règles claires pour l’utilisation de l’IA », s’est félicité le commissaire européen français, qui, le premier, avait présenté une ébauche de projet dès avril 2021. Un enthousiasme partagé par Roberta Metsola, qui n’a pas hésité à qualifier, également, « ce moment d ‘historique pour l’Europe numérique ». La présidente du Parlement a loué une législation « avant-gardiste, responsable, et globale qui fixe des standards mondiaux. »

Un des problèmes rencontré et qui va s’amplifier, c’est le fait que nombre d’applications de l’intelligence artificielle ignore les frontières. Exemple les grandes plates-formes notamment celle des réseaux sociaux mais bien d’autres.

D’un autre côté l’Europe ne peut continuer d’être mise à l’écart des grandes révolutions numériques dont elle a manqué le virage pourra être aujourd’hui sous domination notamment américaine et chinoise. Il faut donc autoriser la recherche, l’innovation le développement et en même temps protéger ce qu’on a du mal à identifier. Exemple l’apparition brutale de ChatGPT ou équivalent des grands du numérique.

Ce système comme ceux capables de créer des sons et des images a révélé la puissance de ces outils mais aussi les risques de dérives de ces technologies génératives. Les membres craignaient qu’une régulation excessive tue la progression de champions européens naissants, comme Aleph Alpha en Allemagne ou Mistral AI en France.

Le coeur du projet se veut une liste de règles aux seuls systèmes jugés à hauts risques dans des domaines sensibles comme l’éducation, le maintien de l’ordre etc. Mais, les interdictions sont rares, et sont relatives aux applications contraires aux valeurs européennes comme les systèmes de surveillance de masse utilisés en Chine, ou l’identification biométrique à distance des personnes dans les lieux publics.

Pour Daniel Friedlaender, le responsable Europe du CCIA, un des principaux lobbies du secteur, « la rapidité l’a emporté sur la qualité et les conséquences potentielles de ce texte sont potentiellement désastreuses pour l’économie européenne. » La législation européenne pourra infliger des amendes jusqu’à 7 % du Chiffre d’affaires, avec un plancher de 35 millions d’euros, pour les infractions les plus graves.

latribune.fr

L’éducation confrontée au biais de l’intelligence artificielle

L’éducation confrontée au biais de l’intelligence artificielle

Il est impératif que les établissements, dans l’enseignement scolaire comme dans le supérieur, encouragent une culture de responsabilité dans le développement de l’intelligence artificielle, prévient Anthony Hié, directeur de la transformation digitale du groupe d’enseignement supérieur Excelia, dans une tribune au « Monde ».

L’intelligence artificielle (IA) est certainement l’une des avancées technologiques les plus significatives de notre ère. Elle a révolutionné la manière dont nous interagissons avec la technologie, en influençant des domaines allant de la médecine à la finance, en passant par le divertissement et l’éducation.

Derrière l’omniprésence de l’IA, accentuée par l’arrivée des IA génératives [capables de générer des données], les biais de l’IA restent un défi majeur. Il est impératif que l’éducation, dans toutes ses dimensions, s’attaque à cette problématique de manière proactive et éclairée.

Les biais dans l’IA se forment au stade de l’entraînement des modèles. Si les données d’entraînement comportent des préjugés ou des discriminations, l’IA peut les reproduire sans discernement. Par exemple, les systèmes de reconnaissance faciale ont été accusés de présenter des taux d’erreur plus élevés pour les personnes de couleur, en partie à cause des ensembles de données biaisés utilisés pour les former. Cela souligne l’importance cruciale de s’attaquer à cette question.

Pour comprendre les biais de l’IA, il est essentiel de saisir comment ils émergent. Les modèles d’IA apprennent à partir de données réelles, qu’ils utilisent pour prendre des décisions ou faire des recommandations. Si ces données sont imprégnées de stéréotypes, d’injustices, ou de discriminations, l’IA peut reproduire ces mêmes problèmes. Par conséquent, il est essentiel de s’attaquer aux biais à la source, c’est-à-dire les données d’entraînement.

Le projet Gender Shades, lancé par le Massachusetts Institute of Technology, évalue la précision des logiciels de classification de genre alimentés par l’IA. Cette étude a révélé que les entreprises soumises à ces évaluations obtenaient des résultats de reconnaissance faciale nettement meilleurs pour les hommes que pour les femmes, avec une différence de 8,1 % à 20,6 % dans les taux d’erreur. Cette étude concernant l’examen du logiciel d’analyse faciale révèle également un taux d’erreur surprenant de 0,8 % pour les hommes à la peau claire et de 34,7 % pour les femmes à la peau foncée1.

Les conclusions du projet mettaient en évidence le potentiel d’abus de la technologie de l’analyse faciale, que ce soit aux mains de gouvernements autoritaires, d’individus malveillants ou d’entreprises opportunistes. En fin de compte, le projet soulignait la vulnérabilité des algorithmes à la corruption et à la partialité.

La suite est réservée à nos abonnés.
Déjà abonné ?
Se connecter

Les dangers de l’intelligence artificielle dans les systèmes d’armement nucléaire

Les dangers de l’intelligence artificielle dans les systèmes d’armement nucléaire

Ancienne ministre australienne du développement international. Melissa Parke, à la tête d’une ONG de lutte contre l’arme nucléaire, alerte dans une tribune au « Monde » sur les risques de déclenchement d’un conflit atomique du fait de l’utilisation de l’intelligence artificielle dans les processus de décision.

Ce n’est désormais plus de la science-fiction : une course a débuté autour de l’application de l’intelligence artificielle aux systèmes d’armements nucléaires – une évolution susceptible d’accentuer la probabilité d’une guerre nucléaire. Les gouvernements à travers le monde agissant toutefois pour que l’IA soit développée et appliquée de manière sûre, une opportunité d’atténuation de ce risque existe.

Mais pour que les dirigeants mondiaux la saisissent, il va néanmoins leur falloir admettre que la menace est sérieuse… Ces dernières semaines, le G7 a convenu du code de conduite du processus d’Hiroshima pour les organisations développant des systèmes d’IA avancés, afin de « promouvoir une IA sûre, sécurisée et fiable à travers le monde ».

Le président américain, Joe Biden, a pris un décret présidentiel établissant de nouvelles normes autour de la « sécurité » de l’IA. Le Royaume-Uni a également organisé le tout premier sommet sur la sécurité de l’IA, avec pour objectif de veiller à ce que cette technologie soit développée de manière « sûre et responsable ».

Mais aucune de ces initiatives n’est à la hauteur des risques soulevés par l’application de l’IA aux armes nucléaires. Le code de conduite du G7 et le décret présidentiel de Biden évoquent seulement brièvement la nécessité de protéger les populations contre les menaces chimiques, biologiques et nucléaires susceptibles de résulter de l’IA.

De même, bien qu’il ait expliqué qu’une compréhension commune des risques soulevés par l’IA avait émergé lors du sommet sur la sécurité de l’IA, le premier ministre britannique, Rishi Sunak, n’a mentionné nulle part la menace élevée …

L’intelligence artificielle va provoquer la fin des médias ?

L’intelligence artificielle va provoquer la fin des médias ?

Recherche d’informations, production de contenu, traduction, détection de propos haineux… l’intelligence artificielle (IA) générative promet d’importants gains de productivité dans l’univers des médias. Les médias nous accompagnent au quotidien et sont un support à la démocratie : ils ont la liberté de montrer différents points de vue et idées, de dénoncer la corruption et les discriminations, mais également de montrer la cohésion sociale et culturelle.
Alors que le public se tourne vers les médias pour s’informer, se cultiver et se divertir, les médias n’échappent pas aux soucis économiques et à la rentabilité d’une industrie mesurée en termes d’audimat et de vente. Dans ce contexte, l’IA générative amène de nouveaux outils puissants et sera de plus en plus utilisée.

Laurence Devillers
Professeur en Intelligence Artificielle, Sorbonne Université dans The conversation

Un article intéressant mais qui n’assiste pas suffisamment sur l’actuelle très grande fragilité des médias. Une fragilité qui se traduit notamment par un introuvable équilibre financier qui favorise la médiocrité rédactionnelle. Et qui permet la mainmise des grands capitaines d’industrie sur l’information ! NDLR

Mais il faut crucialement rappeler que les IA génératives n’ont pas d’idées, et qu’elles reprennent des propos qui peuvent être agencés de façon aussi intéressante qu’absurde (on parle alors d’« hallucinations » des systèmes d’IA). Ces IA génératives ne savent pas ce qui est possible ou impossible, vrai ou faux, moral ou immoral.

Ainsi, le métier de journaliste doit rester central pour enquêter et raisonner sur les situations complexes de société et de géopolitique. Alors, comment les médias peuvent-ils exploiter les outils d’IA tout en évitant leurs écueils ?

Le Comité national pilote d’éthique du numérique (CNPEN) a rendu en juillet un avis général sur les enjeux d’éthique des IA génératives, que j’ai co-coordonné, au ministre chargé de la Transition numérique. Il précise notamment les risques de ces systèmes.

Les médias peuvent utiliser l’IA pour améliorer la qualité de l’information, lutter contre les fausses nouvelles, identifier le harcèlement et les incitations à la haine, mais aussi parce qu’elle peut permettre de faire avancer la connaissance et mieux comprendre des réalités complexes, comme le développement durable ou encore les flux migratoires.

Les IA génératives sont des outils fabuleux qui peuvent faire émerger des résultats que nous ne pourrions pas obtenir sans elles car elles calculent à des niveaux de représentation qui ne sont pas les nôtres, sur une quantité gigantesque de données et avec une rapidité qu’un cerveau ne sait pas traiter. Si on sait se doter de garde-fous, ce sont des systèmes qui vont nous faire gagner du temps de recherche d’information, de lecture et de production et qui vont nous permettre de lutter contre les stéréotypes et d’optimiser des processus.

Ces outils n’arrivent pas maintenant par hasard. Alors que nous sommes effectivement noyés sous un flot d’informations diffusées en continu par les chaînes classiques ou contenus accessibles sur Internet, des outils comme ChatGPT nous permettent de consulter et de produire des synthèses, programmes, poèmes, etc., à partir d’un ensemble d’informations gigantesques inaccessibles à un cerveau humain en temps humain. Ils peuvent donc être extrêmement utiles pour de nombreuses tâches mais aussi contribuer à un flux d’informations non sourcées. Il faut donc les apprivoiser et en comprendre le fonctionnement et les risques.

Les performances des IA génératives tiennent à la capacité d’apprentissage auto-supervisée (c’est-à-dire sans être guidée par une main humaine, ce qui est un concept différent de l’adaptation en temps réel) de leurs modèles internes, appelés « modèles de fondation », qui sont entraînés à partir d’énormes corpus de données constitués de milliards d’images, de textes ou de sons très souvent dans les cultures dominantes sur Internet, par exemple GPT3.5 de ChatGPT est nourri majoritairement de données en anglais. Les deux autres types d’apprentissage ont également été utilisés : avant sa mise à disposition fin 2022, ChatGPT a été optimisé grâce à un apprentissage supervisé puis grâce à un apprentissage par renforcement par des humains de façon à affiner les résultats et à éliminer les propos non souhaitables.

Cette optimisation par des humains a d’ailleurs été très critiquée. Comment sont-ils formés ? Qui sont ces « hommes du clic » sous-payés ? Ces propos « non souhaitables », en outre, ne sont pas décidés par un comité d’éthique ou le législateur, mais par l’entreprise seule.

Durant l’apprentissage des modèles de fondation sur des textes, le système apprend ce que l’on appelle des « vecteurs de plongements lexicaux » (de taille 512 dans GPT 3.5). C’est le système « transformers ». Le principe d’entraînement du modèle de fondation est fondé par l’hypothèse distributionnelle proposée par le linguiste américain John Ruppert Fith en 1957 : on ne peut connaître le sens d’un mot que par ses fréquentations (« You shall know a word by the company it keeps »).

Ces entités (« token » en anglais) font en moyenne quatre caractères dans GPT3.5. Elles peuvent n’être constituées que d’un seul et d’un blanc. Elles peuvent donc être des parties de mots ou des mots avec l’avantage de pouvoir combiner agilement ces entités pour recréer des mots et des phrases sans aucune connaissance linguistique (hormis celle implicite à l’enchaînement des mots), le désavantage étant évidemment d’être moins interprétable. Chaque entité est codée par un vecteur qui contient des informations sur tous les contextes où cette entité a été vue grâce à des mécanismes d’attention. Ainsi deux entités ayant le même voisinage seront considérées comme proches par le système d’IA.

Le système d’IA générative sur des textes apprend ainsi un modèle de production avec des mécanismes qui n’ont rien à voir avec la production humaine située avec un corps, pour autant elle est capable de l’imiter à partir des textes de l’apprentissage. Ce fonctionnement a pour conséquence directe de perdre les sources d’où sont extraits les voisinages repérés, ce qui pose un problème de fond pour la vérification du contenu produit. Aucune vérification de la véracité des propos n’est produite facilement. Il faut retrouver les sources et quand on demande au système de le faire, il peut les inventer !

Lorsque vous proposez une invite à ChatGPT, il va prédire l’entité suivante, puis la suivante et ainsi de suite. Un paramètre clé est celui de la « température » qui exprime le degré d’aléatoire dans le choix des entités. À une température élevée, le modèle est plus « créatif » car il peut générer des sorties plus diversifiées, tandis qu’à une température basse, le modèle tend à choisir les sorties les plus probables, ce qui rend le texte généré plus prévisible. Trois options de température sont proposées dans l’outil conversationnel Bing (GPT4) de Microsoft (plus précis, plus équilibré, plus créatif). Souvent, les hyperparamètres des systèmes ne sont pas dévoilés pour des raisons de cybersécurité ou de confidentialité comme c’est le cas dans ChatGPT… mais la température permet d’avoir des réponses différentes à la même question.

Il est ainsi facile d’imaginer certains des risques de l’IA générative pour les médias. D’autres apparaîtront certainement au fur et à mesure de leurs utilisations.

Il paraît urgent de trouver comment les minimiser en attendant la promulgation pour l’Union européenne d’un IA Act en se dotant de guides de bonnes pratiques. L’avis du CNPEN sur les IA génératives et les enjeux d’éthique comprend, lui, 10 préconisations pour la recherche et 12 pour la gouvernance. Voici quelques-uns des risques identifiés pour les médias :

Faire trop confiance aux dires de la machine sans recouper avec d’autres sources. Le croisement de plusieurs sources de données et la nécessité d’enquêter deviennent fondamentaux pour toutes les professions : journalistes, scientifiques, professeurs et autres. Il semble d’ailleurs fondamental d’enseigner la façon d’utiliser ces systèmes à l’école et à l’université et de cultiver l’art de débattre pour élaborer ses idées.

Comprendre que ChatGPT est construit avec des données majoritairement en anglais et que son influence culturelle peut-être importante.

Utiliser massivement ChatGPT de façon paresseuse dans les médias, en produisant énormément de nouvelles données artificielles non vérifiées sur Internet qui pourraient servir à entraîner de nouvelles IA. Ce serait dramatique qu’il n’y ait plus aucune garantie de vérité sur ces données reconstituées par la machine. Deux avocats américains se sont par exemple fait piéger en faisant référence au cours d’une procédure, sur les conseils de l’algorithme, à des jurisprudences qui n’existaient pas.

Remplacer certaines tâches dans de nombreux métiers autour des médias par des systèmes d’IA. Certains métiers vont disparaître, d’autres vont apparaître. Il faut créer des interfaces avec des mesures de confiance pour aider la coopération entre les humains et les systèmes d’IA.

Utiliser les systèmes d’IA et les démystifier devient une nécessité absolue tout en faisant attention de ne pas désapprendre et de pouvoir s’en passer.

Il est nécessaire de comprendre que ChatGPT fait de nombreuses erreurs, par exemple il n’a pas de notion d’histoire ni de compréhension de l’espace. Le diable est dans les détails mais également dans le choix des données utilisées pour créer le modèle. La loi sur l’IA réclame plus de transparence sur ces systèmes d’IA pour vérifier leur robustesse, leur non-manipulation et leur consommation énergétique.

Il faut vérifier que les données produites n’empiètent pas sur le droit d’auteur et que les données utilisées par le système sont correctement utilisées. Si des données « synthétiques » remplacent demain nos connaissances dans d’entraînement des futurs modèles de fondation, il sera de plus en plus difficile de démêler le vrai du faux.

Donner accès à des systèmes d’IA (par exemple Dall-E ou Stable Diffusion) qui peuvent être utilisés pour créer de l’hypertrucage (deepfake en anglais) pour produire des images. Le phénomène rappelle l’importance de vérifier non seulement la fiabilité des sources des articles, mais aussi des images et vidéos. Il est question de mettre des filigranes (ou watermarks) dans les textes, images ou vidéos produites pour savoir si elles ont été faites par des IA ou de labelliser les données « bio » (ou produites par des humains).

L’arrivée de ChatGPT a été un tsunami pour tout le monde. Il a bluffé experts comme non-experts par ses capacités de production de texte, de traduction et même de programmation informatique.

L’explication scientifique précise du phénomène d’« étincelle d’émergences » dans les modèles de fondation est un sujet de recherche actuel et dépend des données et des hyperparamètres des modèles. Il est important de développer massivement la recherche pluridisciplinaire sur les émergences et limites des IA génératives et sur les mesures à déployer pour les contrôler.

Enfin, if faut éduquer à l’école sur les risques et l’éthique tout autant que sur la programmation, et également former et démystifier les systèmes d’IA pour utiliser et innover de façon responsable en ayant conscience des conséquences éthiques, économiques, sociétales et du coût environnemental.

La France pourrait jouer un rôle majeur au sein de l’Europe avec l’ambition d’être un laboratoire de l’IA pour les médias en étudiant les enjeux éthiques et économiques au service du bien commun et des démocraties.

Société- La fin des médias avec l’intelligence artificielle ?

Société-La fin des médias avec l’intelligence artificielle ?

Recherche d’informations, production de contenu, traduction, détection de propos haineux… l’intelligence artificielle (IA) générative promet d’importants gains de productivité dans l’univers des médias. Les médias nous accompagnent au quotidien et sont un support à la démocratie : ils ont la liberté de montrer différents points de vue et idées, de dénoncer la corruption et les discriminations, mais également de montrer la cohésion sociale et culturelle.
Alors que le public se tourne vers les médias pour s’informer, se cultiver et se divertir, les médias n’échappent pas aux soucis économiques et à la rentabilité d’une industrie mesurée en termes d’audimat et de vente. Dans ce contexte, l’IA générative amène de nouveaux outils puissants et sera de plus en plus utilisée.

Laurence Devillers
Professeur en Intelligence Artificielle, Sorbonne Université dans The conversation

Un article intéressant mais qui n’assiste pas suffisamment sur l’actuelle très grande fragilité des médias. Une fragilité qui se traduit notamment par un introuvable équilibre financier qui favorise la médiocrité rédactionnelle. Et qui permet la mainmise des grands capitaines d’industrie sur l’information ! NDLR

Mais il faut crucialement rappeler que les IA génératives n’ont pas d’idées, et qu’elles reprennent des propos qui peuvent être agencés de façon aussi intéressante qu’absurde (on parle alors d’« hallucinations » des systèmes d’IA). Ces IA génératives ne savent pas ce qui est possible ou impossible, vrai ou faux, moral ou immoral.

Ainsi, le métier de journaliste doit rester central pour enquêter et raisonner sur les situations complexes de société et de géopolitique. Alors, comment les médias peuvent-ils exploiter les outils d’IA tout en évitant leurs écueils ?

Le Comité national pilote d’éthique du numérique (CNPEN) a rendu en juillet un avis général sur les enjeux d’éthique des IA génératives, que j’ai co-coordonné, au ministre chargé de la Transition numérique. Il précise notamment les risques de ces systèmes.

Les médias peuvent utiliser l’IA pour améliorer la qualité de l’information, lutter contre les fausses nouvelles, identifier le harcèlement et les incitations à la haine, mais aussi parce qu’elle peut permettre de faire avancer la connaissance et mieux comprendre des réalités complexes, comme le développement durable ou encore les flux migratoires.

Les IA génératives sont des outils fabuleux qui peuvent faire émerger des résultats que nous ne pourrions pas obtenir sans elles car elles calculent à des niveaux de représentation qui ne sont pas les nôtres, sur une quantité gigantesque de données et avec une rapidité qu’un cerveau ne sait pas traiter. Si on sait se doter de garde-fous, ce sont des systèmes qui vont nous faire gagner du temps de recherche d’information, de lecture et de production et qui vont nous permettre de lutter contre les stéréotypes et d’optimiser des processus.

Ces outils n’arrivent pas maintenant par hasard. Alors que nous sommes effectivement noyés sous un flot d’informations diffusées en continu par les chaînes classiques ou contenus accessibles sur Internet, des outils comme ChatGPT nous permettent de consulter et de produire des synthèses, programmes, poèmes, etc., à partir d’un ensemble d’informations gigantesques inaccessibles à un cerveau humain en temps humain. Ils peuvent donc être extrêmement utiles pour de nombreuses tâches mais aussi contribuer à un flux d’informations non sourcées. Il faut donc les apprivoiser et en comprendre le fonctionnement et les risques.

Les performances des IA génératives tiennent à la capacité d’apprentissage auto-supervisée (c’est-à-dire sans être guidée par une main humaine, ce qui est un concept différent de l’adaptation en temps réel) de leurs modèles internes, appelés « modèles de fondation », qui sont entraînés à partir d’énormes corpus de données constitués de milliards d’images, de textes ou de sons très souvent dans les cultures dominantes sur Internet, par exemple GPT3.5 de ChatGPT est nourri majoritairement de données en anglais. Les deux autres types d’apprentissage ont également été utilisés : avant sa mise à disposition fin 2022, ChatGPT a été optimisé grâce à un apprentissage supervisé puis grâce à un apprentissage par renforcement par des humains de façon à affiner les résultats et à éliminer les propos non souhaitables.

Cette optimisation par des humains a d’ailleurs été très critiquée. Comment sont-ils formés ? Qui sont ces « hommes du clic » sous-payés ? Ces propos « non souhaitables », en outre, ne sont pas décidés par un comité d’éthique ou le législateur, mais par l’entreprise seule.

Durant l’apprentissage des modèles de fondation sur des textes, le système apprend ce que l’on appelle des « vecteurs de plongements lexicaux » (de taille 512 dans GPT 3.5). C’est le système « transformers ». Le principe d’entraînement du modèle de fondation est fondé par l’hypothèse distributionnelle proposée par le linguiste américain John Ruppert Fith en 1957 : on ne peut connaître le sens d’un mot que par ses fréquentations (« You shall know a word by the company it keeps »).

Ces entités (« token » en anglais) font en moyenne quatre caractères dans GPT3.5. Elles peuvent n’être constituées que d’un seul et d’un blanc. Elles peuvent donc être des parties de mots ou des mots avec l’avantage de pouvoir combiner agilement ces entités pour recréer des mots et des phrases sans aucune connaissance linguistique (hormis celle implicite à l’enchaînement des mots), le désavantage étant évidemment d’être moins interprétable. Chaque entité est codée par un vecteur qui contient des informations sur tous les contextes où cette entité a été vue grâce à des mécanismes d’attention. Ainsi deux entités ayant le même voisinage seront considérées comme proches par le système d’IA.

Le système d’IA générative sur des textes apprend ainsi un modèle de production avec des mécanismes qui n’ont rien à voir avec la production humaine située avec un corps, pour autant elle est capable de l’imiter à partir des textes de l’apprentissage. Ce fonctionnement a pour conséquence directe de perdre les sources d’où sont extraits les voisinages repérés, ce qui pose un problème de fond pour la vérification du contenu produit. Aucune vérification de la véracité des propos n’est produite facilement. Il faut retrouver les sources et quand on demande au système de le faire, il peut les inventer !

Lorsque vous proposez une invite à ChatGPT, il va prédire l’entité suivante, puis la suivante et ainsi de suite. Un paramètre clé est celui de la « température » qui exprime le degré d’aléatoire dans le choix des entités. À une température élevée, le modèle est plus « créatif » car il peut générer des sorties plus diversifiées, tandis qu’à une température basse, le modèle tend à choisir les sorties les plus probables, ce qui rend le texte généré plus prévisible. Trois options de température sont proposées dans l’outil conversationnel Bing (GPT4) de Microsoft (plus précis, plus équilibré, plus créatif). Souvent, les hyperparamètres des systèmes ne sont pas dévoilés pour des raisons de cybersécurité ou de confidentialité comme c’est le cas dans ChatGPT… mais la température permet d’avoir des réponses différentes à la même question.

Il est ainsi facile d’imaginer certains des risques de l’IA générative pour les médias. D’autres apparaîtront certainement au fur et à mesure de leurs utilisations.

Il paraît urgent de trouver comment les minimiser en attendant la promulgation pour l’Union européenne d’un IA Act en se dotant de guides de bonnes pratiques. L’avis du CNPEN sur les IA génératives et les enjeux d’éthique comprend, lui, 10 préconisations pour la recherche et 12 pour la gouvernance. Voici quelques-uns des risques identifiés pour les médias :

Faire trop confiance aux dires de la machine sans recouper avec d’autres sources. Le croisement de plusieurs sources de données et la nécessité d’enquêter deviennent fondamentaux pour toutes les professions : journalistes, scientifiques, professeurs et autres. Il semble d’ailleurs fondamental d’enseigner la façon d’utiliser ces systèmes à l’école et à l’université et de cultiver l’art de débattre pour élaborer ses idées.

Comprendre que ChatGPT est construit avec des données majoritairement en anglais et que son influence culturelle peut-être importante.

Utiliser massivement ChatGPT de façon paresseuse dans les médias, en produisant énormément de nouvelles données artificielles non vérifiées sur Internet qui pourraient servir à entraîner de nouvelles IA. Ce serait dramatique qu’il n’y ait plus aucune garantie de vérité sur ces données reconstituées par la machine. Deux avocats américains se sont par exemple fait piéger en faisant référence au cours d’une procédure, sur les conseils de l’algorithme, à des jurisprudences qui n’existaient pas.

Remplacer certaines tâches dans de nombreux métiers autour des médias par des systèmes d’IA. Certains métiers vont disparaître, d’autres vont apparaître. Il faut créer des interfaces avec des mesures de confiance pour aider la coopération entre les humains et les systèmes d’IA.

Utiliser les systèmes d’IA et les démystifier devient une nécessité absolue tout en faisant attention de ne pas désapprendre et de pouvoir s’en passer.

Il est nécessaire de comprendre que ChatGPT fait de nombreuses erreurs, par exemple il n’a pas de notion d’histoire ni de compréhension de l’espace. Le diable est dans les détails mais également dans le choix des données utilisées pour créer le modèle. La loi sur l’IA réclame plus de transparence sur ces systèmes d’IA pour vérifier leur robustesse, leur non-manipulation et leur consommation énergétique.

Il faut vérifier que les données produites n’empiètent pas sur le droit d’auteur et que les données utilisées par le système sont correctement utilisées. Si des données « synthétiques » remplacent demain nos connaissances dans d’entraînement des futurs modèles de fondation, il sera de plus en plus difficile de démêler le vrai du faux.

Donner accès à des systèmes d’IA (par exemple Dall-E ou Stable Diffusion) qui peuvent être utilisés pour créer de l’hypertrucage (deepfake en anglais) pour produire des images. Le phénomène rappelle l’importance de vérifier non seulement la fiabilité des sources des articles, mais aussi des images et vidéos. Il est question de mettre des filigranes (ou watermarks) dans les textes, images ou vidéos produites pour savoir si elles ont été faites par des IA ou de labelliser les données « bio » (ou produites par des humains).

L’arrivée de ChatGPT a été un tsunami pour tout le monde. Il a bluffé experts comme non-experts par ses capacités de production de texte, de traduction et même de programmation informatique.

L’explication scientifique précise du phénomène d’« étincelle d’émergences » dans les modèles de fondation est un sujet de recherche actuel et dépend des données et des hyperparamètres des modèles. Il est important de développer massivement la recherche pluridisciplinaire sur les émergences et limites des IA génératives et sur les mesures à déployer pour les contrôler.

Enfin, if faut éduquer à l’école sur les risques et l’éthique tout autant que sur la programmation, et également former et démystifier les systèmes d’IA pour utiliser et innover de façon responsable en ayant conscience des conséquences éthiques, économiques, sociétales et du coût environnemental.

La France pourrait jouer un rôle majeur au sein de l’Europe avec l’ambition d’être un laboratoire de l’IA pour les médias en étudiant les enjeux éthiques et économiques au service du bien commun et des démocraties.

La fin des médias avec l’intelligence artificielle ?

La fin des médias avec l’intelligence artificielle ?

Recherche d’informations, production de contenu, traduction, détection de propos haineux… l’intelligence artificielle (IA) générative promet d’importants gains de productivité dans l’univers des médias. Les médias nous accompagnent au quotidien et sont un support à la démocratie : ils ont la liberté de montrer différents points de vue et idées, de dénoncer la corruption et les discriminations, mais également de montrer la cohésion sociale et culturelle.
Alors que le public se tourne vers les médias pour s’informer, se cultiver et se divertir, les médias n’échappent pas aux soucis économiques et à la rentabilité d’une industrie mesurée en termes d’audimat et de vente. Dans ce contexte, l’IA générative amène de nouveaux outils puissants et sera de plus en plus utilisée.

Laurence Devillers
Professeur en Intelligence Artificielle, Sorbonne Université dans The conversation

Mais il faut crucialement rappeler que les IA génératives n’ont pas d’idées, et qu’elles reprennent des propos qui peuvent être agencés de façon aussi intéressante qu’absurde (on parle alors d’« hallucinations » des systèmes d’IA). Ces IA génératives ne savent pas ce qui est possible ou impossible, vrai ou faux, moral ou immoral.

Ainsi, le métier de journaliste doit rester central pour enquêter et raisonner sur les situations complexes de société et de géopolitique. Alors, comment les médias peuvent-ils exploiter les outils d’IA tout en évitant leurs écueils ?

Le Comité national pilote d’éthique du numérique (CNPEN) a rendu en juillet un avis général sur les enjeux d’éthique des IA génératives, que j’ai co-coordonné, au ministre chargé de la Transition numérique. Il précise notamment les risques de ces systèmes.

Les médias peuvent utiliser l’IA pour améliorer la qualité de l’information, lutter contre les fausses nouvelles, identifier le harcèlement et les incitations à la haine, mais aussi parce qu’elle peut permettre de faire avancer la connaissance et mieux comprendre des réalités complexes, comme le développement durable ou encore les flux migratoires.

Les IA génératives sont des outils fabuleux qui peuvent faire émerger des résultats que nous ne pourrions pas obtenir sans elles car elles calculent à des niveaux de représentation qui ne sont pas les nôtres, sur une quantité gigantesque de données et avec une rapidité qu’un cerveau ne sait pas traiter. Si on sait se doter de garde-fous, ce sont des systèmes qui vont nous faire gagner du temps de recherche d’information, de lecture et de production et qui vont nous permettre de lutter contre les stéréotypes et d’optimiser des processus.

Ces outils n’arrivent pas maintenant par hasard. Alors que nous sommes effectivement noyés sous un flot d’informations diffusées en continu par les chaînes classiques ou contenus accessibles sur Internet, des outils comme ChatGPT nous permettent de consulter et de produire des synthèses, programmes, poèmes, etc., à partir d’un ensemble d’informations gigantesques inaccessibles à un cerveau humain en temps humain. Ils peuvent donc être extrêmement utiles pour de nombreuses tâches mais aussi contribuer à un flux d’informations non sourcées. Il faut donc les apprivoiser et en comprendre le fonctionnement et les risques.

Les performances des IA génératives tiennent à la capacité d’apprentissage auto-supervisée (c’est-à-dire sans être guidée par une main humaine, ce qui est un concept différent de l’adaptation en temps réel) de leurs modèles internes, appelés « modèles de fondation », qui sont entraînés à partir d’énormes corpus de données constitués de milliards d’images, de textes ou de sons très souvent dans les cultures dominantes sur Internet, par exemple GPT3.5 de ChatGPT est nourri majoritairement de données en anglais. Les deux autres types d’apprentissage ont également été utilisés : avant sa mise à disposition fin 2022, ChatGPT a été optimisé grâce à un apprentissage supervisé puis grâce à un apprentissage par renforcement par des humains de façon à affiner les résultats et à éliminer les propos non souhaitables.

Cette optimisation par des humains a d’ailleurs été très critiquée. Comment sont-ils formés ? Qui sont ces « hommes du clic » sous-payés ? Ces propos « non souhaitables », en outre, ne sont pas décidés par un comité d’éthique ou le législateur, mais par l’entreprise seule.

Durant l’apprentissage des modèles de fondation sur des textes, le système apprend ce que l’on appelle des « vecteurs de plongements lexicaux » (de taille 512 dans GPT 3.5). C’est le système « transformers ». Le principe d’entraînement du modèle de fondation est fondé par l’hypothèse distributionnelle proposée par le linguiste américain John Ruppert Fith en 1957 : on ne peut connaître le sens d’un mot que par ses fréquentations (« You shall know a word by the company it keeps »).

Ces entités (« token » en anglais) font en moyenne quatre caractères dans GPT3.5. Elles peuvent n’être constituées que d’un seul et d’un blanc. Elles peuvent donc être des parties de mots ou des mots avec l’avantage de pouvoir combiner agilement ces entités pour recréer des mots et des phrases sans aucune connaissance linguistique (hormis celle implicite à l’enchaînement des mots), le désavantage étant évidemment d’être moins interprétable. Chaque entité est codée par un vecteur qui contient des informations sur tous les contextes où cette entité a été vue grâce à des mécanismes d’attention. Ainsi deux entités ayant le même voisinage seront considérées comme proches par le système d’IA.

Le système d’IA générative sur des textes apprend ainsi un modèle de production avec des mécanismes qui n’ont rien à voir avec la production humaine située avec un corps, pour autant elle est capable de l’imiter à partir des textes de l’apprentissage. Ce fonctionnement a pour conséquence directe de perdre les sources d’où sont extraits les voisinages repérés, ce qui pose un problème de fond pour la vérification du contenu produit. Aucune vérification de la véracité des propos n’est produite facilement. Il faut retrouver les sources et quand on demande au système de le faire, il peut les inventer !

Lorsque vous proposez une invite à ChatGPT, il va prédire l’entité suivante, puis la suivante et ainsi de suite. Un paramètre clé est celui de la « température » qui exprime le degré d’aléatoire dans le choix des entités. À une température élevée, le modèle est plus « créatif » car il peut générer des sorties plus diversifiées, tandis qu’à une température basse, le modèle tend à choisir les sorties les plus probables, ce qui rend le texte généré plus prévisible. Trois options de température sont proposées dans l’outil conversationnel Bing (GPT4) de Microsoft (plus précis, plus équilibré, plus créatif). Souvent, les hyperparamètres des systèmes ne sont pas dévoilés pour des raisons de cybersécurité ou de confidentialité comme c’est le cas dans ChatGPT… mais la température permet d’avoir des réponses différentes à la même question.

Il est ainsi facile d’imaginer certains des risques de l’IA générative pour les médias. D’autres apparaîtront certainement au fur et à mesure de leurs utilisations.

Il paraît urgent de trouver comment les minimiser en attendant la promulgation pour l’Union européenne d’un IA Act en se dotant de guides de bonnes pratiques. L’avis du CNPEN sur les IA génératives et les enjeux d’éthique comprend, lui, 10 préconisations pour la recherche et 12 pour la gouvernance. Voici quelques-uns des risques identifiés pour les médias :

Faire trop confiance aux dires de la machine sans recouper avec d’autres sources. Le croisement de plusieurs sources de données et la nécessité d’enquêter deviennent fondamentaux pour toutes les professions : journalistes, scientifiques, professeurs et autres. Il semble d’ailleurs fondamental d’enseigner la façon d’utiliser ces systèmes à l’école et à l’université et de cultiver l’art de débattre pour élaborer ses idées.

Comprendre que ChatGPT est construit avec des données majoritairement en anglais et que son influence culturelle peut-être importante.

Utiliser massivement ChatGPT de façon paresseuse dans les médias, en produisant énormément de nouvelles données artificielles non vérifiées sur Internet qui pourraient servir à entraîner de nouvelles IA. Ce serait dramatique qu’il n’y ait plus aucune garantie de vérité sur ces données reconstituées par la machine. Deux avocats américains se sont par exemple fait piéger en faisant référence au cours d’une procédure, sur les conseils de l’algorithme, à des jurisprudences qui n’existaient pas.

Remplacer certaines tâches dans de nombreux métiers autour des médias par des systèmes d’IA. Certains métiers vont disparaître, d’autres vont apparaître. Il faut créer des interfaces avec des mesures de confiance pour aider la coopération entre les humains et les systèmes d’IA.

Utiliser les systèmes d’IA et les démystifier devient une nécessité absolue tout en faisant attention de ne pas désapprendre et de pouvoir s’en passer.

Il est nécessaire de comprendre que ChatGPT fait de nombreuses erreurs, par exemple il n’a pas de notion d’histoire ni de compréhension de l’espace. Le diable est dans les détails mais également dans le choix des données utilisées pour créer le modèle. La loi sur l’IA réclame plus de transparence sur ces systèmes d’IA pour vérifier leur robustesse, leur non-manipulation et leur consommation énergétique.

Il faut vérifier que les données produites n’empiètent pas sur le droit d’auteur et que les données utilisées par le système sont correctement utilisées. Si des données « synthétiques » remplacent demain nos connaissances dans d’entraînement des futurs modèles de fondation, il sera de plus en plus difficile de démêler le vrai du faux.

Donner accès à des systèmes d’IA (par exemple Dall-E ou Stable Diffusion) qui peuvent être utilisés pour créer de l’hypertrucage (deepfake en anglais) pour produire des images. Le phénomène rappelle l’importance de vérifier non seulement la fiabilité des sources des articles, mais aussi des images et vidéos. Il est question de mettre des filigranes (ou watermarks) dans les textes, images ou vidéos produites pour savoir si elles ont été faites par des IA ou de labelliser les données « bio » (ou produites par des humains).

L’arrivée de ChatGPT a été un tsunami pour tout le monde. Il a bluffé experts comme non-experts par ses capacités de production de texte, de traduction et même de programmation informatique.

L’explication scientifique précise du phénomène d’« étincelle d’émergences » dans les modèles de fondation est un sujet de recherche actuel et dépend des données et des hyperparamètres des modèles. Il est important de développer massivement la recherche pluridisciplinaire sur les émergences et limites des IA génératives et sur les mesures à déployer pour les contrôler.

Enfin, if faut éduquer à l’école sur les risques et l’éthique tout autant que sur la programmation, et également former et démystifier les systèmes d’IA pour utiliser et innover de façon responsable en ayant conscience des conséquences éthiques, économiques, sociétales et du coût environnemental.

La France pourrait jouer un rôle majeur au sein de l’Europe avec l’ambition d’être un laboratoire de l’IA pour les médias en étudiant les enjeux éthiques et économiques au service du bien commun et des démocraties.

Complémentarité de l’intelligence humaine et de l’intelligence artificielle ?

Complémentarité de l’intelligence humaine et de l’intelligence artificielle ?

Les technologies d’Intelligence Artificielle proposent des outils très performants, mais la qualité de leur emploi dépend de la personne qui les utilise. Par Emmanuel Olivier, directeur général et membre du directoire d’Esker.( dans La Tribune)

Le 30 novembre dernier, OpenAI lançait ChatGPT, la dernière version de son Intelligence Artificielle (IA) générative. En quelques jours à peine, cette révolution a provoqué un raz-de-marée médiatique riche d’enseignements sur le fonctionnement de l’IA. On parle, certes, d’un outil performant, mais on lui attribue des capacités quasi magiques de création suivies par une substitution massive des emplois existants. Qu’en est-il vraiment au quotidien dans les entreprises ?

La réalité est plus prosaïque, mais les performances de l’IA permettent des gains de productivité dont les entreprises auraient tort de se passer. Plusieurs concepts se cachent derrière le terme générique d’IA, qui existe en réalité depuis plus de 10 ans. En premier lieu vient le Machine Learning ou l’apprentissage automatique. On le retrouve à la base de nombreux processus, les entreprises font du Machine Learning sans le savoir.

Prenons l’exemple de la reconnaissance de caractères ou d’images dans un process de numérisation de commandes clients. Le système va extraire des données pertinentes (dont le numéro de commande, l’adresse de livraison, les quantités associées, les références, etc.) à partir d’e-mail, de PDF, d’images, voire de fax pour les injecter dans le système d’information. Parfois, il va se tromper, confondant une date avec le numéro d’un bon de commande ou vice-versa. L’intervention humaine permettra alors de rectifier l’erreur et le système, fort de son dispositif de Machine Learning, s’en souviendra pour la prochaine fois.
Ainsi, en analysant les corrections de l’utilisateur, l’algorithme s’ajuste automatiquement afin d’augmenter la précision du processus d’extraction au fil du temps. Plus les interactions entre l’IA et la supervision humaine sont nombreuses, plus elles permettent de converger vers une extraction parfaite et totalement automatique des données.

Le deuxième pilier de l’IA est le Deep Learning, qui consiste à apprendre à la machine à effectuer une tâche sans nécessairement coder un algorithme qui lui explique précisément comment faire. De la même manière que si vous montrez trois ou quatre arbres à un jeune enfant, il saura rapidement identifier un nouvel arbre, même s’il est différent des précédents. Pour une machine, la différence est considérable puisqu’il lui faut observer des dizaines de milliers d’arbres pour être aussi performante. Le Deep Learning nécessite donc énormément de données validées.

Cependant, cette technologie peut être utilisée pour trier des informations entrantes. Par exemple, dans un projet de dématérialisation de factures fournisseurs, vous établissez une adresse e-mail générique pour que vos fournisseurs vous envoient leur facture. À la longue, l’adresse dédiée à l’envoi des commandes par les clients se retrouve souvent polluée par des pubs, des réclamations, des demandes de devis… sources de confusion, de perte de temps et d’inefficacité.

Jusqu’à un passé récent, le seul moyen de s’en sortir était de requérir le service d’un humain en chair et en os pour vérifier chaque e-mail et réexpédier les requêtes vers le bon service, ou, simplement, supprimer les spams. Avec le Deep Learning, il devient possible d’automatiser ce processus et donc de se passer d’une intervention humaine pour une tâche pour le moins fastidieuse.

Détection de signaux faibles
Troisième pilier, les IA Générative, façon Chat GPT, permettent d’aider les responsables de relation client à générer, rapidement, des réponses pertinentes. En réalité, la plupart des questions se ressemblent : « Où se trouve ma commande ? » « Quand serai-je livré ? » « Avez-vous bien reçu mon mail ? » On peut utiliser ChatGPT pour comprendre la question et aller chercher dans les systèmes d’informations de l’entreprise les éléments de réponse appropriés, les récupérer et proposer une réponse écrite formatée au responsable du Service Client avant son envoi. Ces gains de temps sur des tâches administratives permettent d’allouer le temps des responsables à des tâches plus intéressantes et moins chronophages.

L’intérêt technique de ces outils capables de séduire les programmeurs et les technophiles ne doit pas faire oublier leur intérêt pratique pour les entreprises. Les réponses à ces deux questions doivent aiguiller leur réflexion : à quoi ça sert ? Pouvons-nous en profiter ?

Une des possibilités reconnues est la détection de signaux faibles pouvant avoir un impact important sur la rentabilité d’une entreprise. Dans la gestion du besoin en fonds de roulement, découvrir à temps de petites variations est très apprécié par les directions financières : des changements dans les délais de paiement d’un client, dans la dynamique de variation de ses commandes dans le temps (en diminution ou en forte hausse), le tout en fonction de sa note de crédit. Là encore, l’intervention humaine est primordiale.

Deux points clefs sont à retenir pour l’utilisation de l’IA dans les sociétés : tout d’abord, elle va fortement affecter leur environnement de travail ainsi que leur productivité. Ensuite, ce n’est qu’un outil dont la réussite est régie par les qualités de la personne qui l’emploie : avoir un pinceau et de la peinture ne suffit pas à reproduire le plafond de la chapelle Sixtine de Michel-Ange. Les fantasmes de l’élimination de l’espèce humaine à la faveur de ChatGPT peuvent produire de bons scénarios de films de science-fiction, mais la réalité est heureusement plus sereine.

L’intelligence artificielle : but ou moyen ?

L’intelligence artificielle : but ou moyen ?


Dans leur ouvrage, « L’intelligence artificielle n’est pas une question technologique » (Éditions de l’Aube), Laurent Bibard, responsable de la filière Management et philosophie de l’ESSEC, et Nicolas Sabouret, professeur à l’Université Paris-Saclay où il dirige la graduate school d’informatique et sciences du numérique, soulignent qu’« il n’y a pas de problème d’intelligence artificielle, il n’y a que le problème de nos attentes à l’égard de ce que nous avons nous-mêmes créé ». Démonstration avec un extrait sur The Conversation France.

Même si nous avons du mal à l’admettre, la tendance est plutôt technophile dans notre société. Malgré certaines résistances qui s’expriment à travers la demande de « moins de technologie » et « plus d’humain », la tendance générale est que la société se « technologise » de plus en plus, sans forcément réfléchir collectivement aux raisons pour lesquelles elle le fait. Et cela nous conduit à ce genre de situation où l’on renouvelle les machines très souvent et où l’on calcule à tout va, donc en générant énormément de pollution. […]

Il faut bien distinguer, dans ces outils de calcul qui coûtent très cher et qui polluent, d’une part, les calculs qui sont faits dans un but collectif de progrès pour la société – que ce soit par les chercheurs ou par des entreprises qui essayent de travailler pour le bien commun –, d’autre part, les usages individuels qui peuvent parfois relever de cet esclavage moderne.

La mode et la diffusion des photos de chatons sur les réseaux sociaux sont très coûteuses sur le plan écologique, pour un gain économique qui ne repose que sur les recettes publicitaires. Au contraire, lors de la pandémie de Covid-19, les centres de calcul ont permis de simuler et de comprendre les modes de diffusion de la maladie, de suivre l’évolution des variants, de manière indéniablement efficace.

la diffusion des photos de chatons sur les réseaux sociaux est très coûteuse sur le plan écologique, pour un gain économique qui ne repose que sur les recettes publicitaires. Shutterstock
Dans les deux cas (la publicité et la recherche sur le Covid-19), tout cela est rendu possible par les algorithmes d’intelligence artificielle (IA). Ce sont donc aussi ces algorithmes, dont nous critiquons l’usage sur les réseaux sociaux, qui nous ont permis de sortir de la pandémie en deux ans, avec un nombre de victimes qui, malgré, tout reste limité – dix fois moins, par exemple, que la grippe espagnole du début du XXe siècle. Grâce aux technologies, nous avons su relativement bien maîtriser une situation potentiellement catastrophique. Cela s’est fait avec ces mêmes centres de calcul très polluants […].

Il faut donc faire la différence entre la photo de chaton qu’on va mettre sur Internet et des technologies mises à disposition dans l’intérêt collectif du bien commun, pour problématiser la question du rapport aux technologies sur le plan directement de la philosophie morale et politique. Cela montre encore ici que, par elles-mêmes, les technologies ne posent pas de problème. C’est le rapport que nous entretenons avec elles qui pose problème, par rapport à nos attentes, par rapport à la conformation à des groupes, par rapport à la mode, etc.

On peut, comme on vient de le voir, problématiser la question sur le plan de la philosophie morale et politique, mais on peut aussi la problématiser sur le plan que l’on peut qualifier d’« épistémologique », c’est-à-dire qui concerne la solidité de nos savoirs. Il y a sur ce sujet une réflexion tout à fait fondamentale d’un philosophe peu connu qui s’appelle Jacob Klein. Il observe qu’à partir de la Renaissance, l’élaboration de la physique mathématique sur la base de l’algèbre conduit les sciences à prendre inévitablement pour but leurs propres méthodes. Il écrit à peu près ceci :

« Jamais les anciens n’auraient pris la méthode comme but. »

Il veut dire par là que l’élaboration des sciences modernes a comme adossement sous-jacent l’idée que la méthode est un but. L’idée que le mode de fonctionnement est le but, en quelque sorte, de la recherche. Et s’il y a du vrai dans ce qu’il dit, il est capital de savoir s’en dégager pour n’utiliser la recherche que comme un moyen d’un but autre que la recherche elle-même, qui n’est pas faite pour se servir elle-même, mais bien pour servir la vie en société, le bien commun.

Cela se transpose dans nos vies concrètes, dans la vie sociale, au travers de ce qu’on appelle en sociologie le fonctionnalisme. Le fonctionnalisme c’est une manière d’approcher les organisations qui identifient de manière très convaincante qu’une organisation risque toujours de se prendre pour son propre but.

Il y en a un exemple remarquable dans le tout début du film Vol au-dessus d’un nid de coucou de Miloš Forman, avec Jack Nicholson. La scène montrée par Forman au début du film est révélatrice de la difficulté que nous abordons ici. Elle a lieu à un moment où des patients dans un hôpital psychiatrique sont censés prendre du repos. Et l’on voit que le personnel de soins, très subtilement, au lieu d’apaiser les patients, les énerve. Ainsi, les soignants sont de nouveau utiles : on appelle même les brancardiers pour mettre Nicholson dans sa camisole de force.

Nous en rions car c’est un film, mais cela est malheureusement tragiquement vrai, et arrive plus que fréquemment tous contextes confondus : au lieu de faciliter le fonctionnement de la structure, de se mettre au service des usagers, les acteurs agissent de manière à rester utiles, c’est-à-dire à ce que leur fonctionnement soit confirmé dans sa pertinence. Autrement dit, on entretient le problème, parce qu’on en est la réponse. Et il se peut que le problème que l’on entretient ait perdu de sa pertinence, voire soit devenu caduc, n’ait aucun sens, voire n’en ait jamais eu…

Des distorsions des systèmes de cet ordre représentent un véritable problème dans notre monde. Et les technologies en sont un rouage de plus en plus central. Elles deviennent un but en soi pour améliorer les capacités de calcul des ordinateurs, de l’IA, etc., indépendamment de l’intérêt que cela puisse apporter aux humains, à la société, au bien commun.

Nous sommes donc, à nouveau, face à un problème fondamentalement humain. Une des manières intéressantes de le poser, c’est de dire que quand on se réfugie dans des théories des systèmes, en n’admettant pas qu’il y a une responsabilité des individus et donc en présupposant que les humains et les individus sont noyés dans les systèmes, on déresponsabilise tout le monde, en jouant de facto le jeu d’une humanité noyée dans les systèmes, dans tout système.

Les théories qui n’insistent que sur l’aspect systémique des fonctionnements contribuent à nos aliénations, au fait que nous devenons des rouages dans des machines. Nous devenons les moyens des machines parce que nous nous représentons que nous sommes dominés par les systèmes.

12345



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol