Archive pour le Tag 'l’intelligence'

L’intelligence artificielle : Danger pour l’écologie et la démocratie ?

L’intelligence artificielle : Danger pour l’écologie et la démocratie ?

Plus d’une vingtaine d’organisations réunies au sein de la coalition Hiatus, parmi lesquelles La Quadrature du Net et la Ligue des droits de l’homme, estiment, dans une tribune au « Monde », qu’il faut résister au déploiement massif de l’IA, au nom des droits humains, sociaux et environnementaux.

 

Tout concourt à ériger le déploiement massif de l’intelligence artificielle (IA) en priorité politique. Prolongeant les discours qui ont accompagné l’informatisation depuis plus d’un demi-siècle, les promesses abondent pour conférer à l’IA des vertus révolutionnaires et imposer l’idée que, moyennant la prise en compte de certains risques, elle serait nécessairement vecteur de progrès. C’est donc l’ensemble de la société qui est sommée de s’adapter pour se mettre à la page de ce nouveau mot d’ordre industriel et technocratique.

Partout dans les services publics, l’IA est ainsi conduite à proliférer au prix d’une dépendance technologique accrue. Partout dans les entreprises, les manageurs appellent à recourir à l’IA pour « optimiser » le travail. Partout dans les foyers, au nom de la commodité et d’une course insensée à la productivité, nous sommes poussés à l’adopter.

Pourtant, sans préjuger de certaines applications spécifiques et de la possibilité qu’elles puissent effectivement répondre à l’intérêt général, comment ignorer que ces innovations ont été rendues possible par une formidable accumulation de données, de capitaux et de ressources sous l’égide des multinationales de la tech et du complexe militaro-industriel ? Que pour être menées à bien, elles requièrent, notamment, de multiplier la puissance des puces graphiques et des centres de données, avec une intensification de l’extraction de matières premières, de l’usage des ressources en eau et en énergie ?

Des conséquences désastreuses

Comment ne pas voir qu’en tant que paradigme industriel, l’IA a d’ores et déjà des conséquences désastreuses ? Qu’en pratique, elle se traduit par l’intensification de l’exploitation des travailleurs et travailleuses qui participent au développement et à la maintenance de ses infrastructures, notamment dans les pays du Sud global où elle prolonge des dynamiques néocoloniales ? Qu’en aval, elle est le plus souvent imposée sans réelle prise en compte de ses impacts délétères sur les droits humains et l’exacerbation des discriminations .

L’intelligence artificielle au niveau de l’humain pour l’instant ?

L’intelligence artificielle au niveau de l’humain pour l’instant  ?

Le 20 décembre 2024, le système o3 d’OpenAI a obtenu 85 % au test de référence ARC-AGI, ce qui est nettement supérieur au meilleur résultat obtenu par l’IA précédente (55 %) et équivalent aux résultats humains moyens. o3 a également obtenu de bons résultats à un test de mathématiques très difficile. Créer une intelligence artificielle « générale » est l’objectif déclaré de tous les grands laboratoires de recherche sur l’IA. L’annonce récente d’OpenAI semble indiquer que l’entreprise vient d’accomplir une prouesse dans cette direction. (ndlt : L’abréviation francophone d’« intelligence artificielle générale » est « IAG » mais ce sigle est parfois utilisé pour parler d’intelligence artificielle générative, qui est une famille particulière de systèmes d’intelligence artificielle, exploitant notamment l’apprentissage profond, et dont ChatGPT est le membre le plus médiatique.Même si un certain scepticisme est de mise, de nombreux chercheurs et développeurs en IA ont le sentiment que les lignes sont en train de bouger : la possibilité d’une intelligence artificielle générale semble plus tangible, plus actuelle qu’ils et elles ne le pensaient jusqu’à présent. Qu’en est-il ? Tentons de décrypter cette annonce.

 

par , PhD Student, School of Computing, Australian National University

 , Research Fellow, Stanford Center for Responsible Quantum Technology, Stanford University dans The Conversation 

Pour comprendre ce que signifie le résultat obtenu par o3 d’OpenAI, il faut se pencher sur la nature du test ARC-AGI qu’o3 a passé.

Il s’agit d’un test évaluant la « sample efficiency » d’un système d’IA (ndlt : parfois traduit par « efficacité en données »), c’est-à-dire sa capacité à s’adapter une situation nouvelle, ou, en termes plus techniques, la capacité d’un modèle de machine learning à obtenir des bonnes performances avec un apprentissage basé sur peu de données.

En effet, l’apprentissage de ces modèles est normalement basé sur de très grands ensembles de données, ce qui les rend coûteux à entraîner. Un système d’IA comme ChatGPT (GPT-4) n’est pas très « efficace en données » : il a été entraîné sur des millions d’exemples de textes humains, d’où il a tiré des règles probabilistes qui lui dictent les suites les plus probables de mots. Cette méthode est efficace pour générer des textes généralistes ou d’autres tâches « courantes » ; mais dans le cas de tâches peu courantes ou plus spécialisées, le système est moins performant car il dispose de peu de données pour chacune de ces tâches.

Les systèmes d’IA comme ChatGPT sont très efficaces pour des tâches généralistes, comme les recettes de cuisine, mais ne sont pas adaptés aux situations spécialisées, faute de données pour les entraîner suffisamment. Bianca De Marchi/AAP

Tant que les systèmes d’IA ne pourront pas apprendre à partir d’un petit nombre d’exemples (d’un petit ensemble de données) — c’est-à-dire démontrer une certaine « efficacité en données » —, ils ne pourront pas s’adapter aux situations plus rares, ils ne seront utilisés que pour les tâches très répétitives et celles pour lesquelles un échec occasionnel est tolérable.

La capacité à résoudre avec précision des problèmes inconnus ou nouveaux à partir de peu de données s’appelle la « capacité de généralisation ». Elle est considérée comme un élément nécessaire, voire fondamental, de l’intelligence.

C’est pour cela que le test de référence ARC-AGI, qui évalue l’intelligence « générale », utilise de petits problèmes de grilles comme celui présenté ci-dessous. À partir d’un nombre très restreint d’exemples, la personne ou l’IA testée doit trouver le modèle qui transforme la grille de gauche en la grille de droite. C’est bien l’« efficacité en données » qui est évaluée ici.

Chaque exercice commence par fournir trois exemples, desquels il faut extraire des règles, qui « généralisent » les trois exemples… et permettent de résoudre le quatrième.

Cela ressemble beaucoup à des tests de QI.

Nous ne savons pas exactement comment OpenAI a procédé, mais les résultats mêmes du test suggèrent que le modèle o3 est très adaptable : à partir de quelques exemples seulement, il a trouvé des règles généralisables qui lui ont permis de résoudre les exercices.

Pour s’attaquer à ce type d’exercice, il faut trouver les règles nécessaires et suffisantes pour résoudre l’exercice, mais ne pas s’infliger de règles supplémentaires, qui seraient à la fois inutiles et contraignantes. On peut démontrer mathématiquement que ces règles minimales sont la clef pour maximiser sa capacité d’adaptation à de nouvelles situations.

Qu’entendons-nous par « règles minimales » ? La définition technique est compliquée, mais les règles minimales sont généralement celles qui peuvent être décrites dans des énoncés plus simples.

Dans l’exemple ci-dessus, la règle pourrait être exprimée ainsi : « Toute forme comportant une ligne saillante se déplacera jusqu’à l’extrémité de cette ligne et recouvrira toutes les autres formes avec lesquelles elle se chevauchera dans sa nouvelle position ».

Bien que nous ne sachions pas encore comment OpenAI est parvenu à ce résultat, il semble peu probable que les ingénieurs aient délibérément optimisé le système o3 pour trouver des règles minimales — mais o3 a bien dû trouver ces règles.

Nous savons qu’OpenAI a commencé par leur version générique du modèle o3 (qui diffère de la plupart des autres grands modèles de langage, car il peut passer plus de temps à « réfléchir » à des questions difficiles) et l’a ensuite entraîné spécifiquement pour passer le test ARC-AGI.

Le chercheur français en IA François Chollet, qui a conçu le test de référence (ndlt : et qui travaillait chez Google jusqu’à récemment), estime qu’o3 recherche différentes « chaînes de pensée » décrivant les étapes à suivre pour résoudre la tâche. (ndlt : Une « chaîne de pensée » est une stratégie exploitée en IA, qui mimique une stratégie humaine consistant à décomposer un problème complexe en petites unités plus simples, amenant pas à pas à une solution globale.)

o3 choisirait ensuite la « meilleure » chaîne de pensée en fonction d’une règle définie de façon relativement pragmatique et vague, dans une approche « heuristique ».

Cette stratégie ne serait pas très différente de celle utilisée par le système AlphaGo de Google pour chercher différentes séquences de mouvements possibles à même de battre le champion du monde de go en 2016.

 

On peut considérer ces chaînes de pensée comme des programmes qui sont adaptés aux exemples et permettent de les résoudre. Bien sûr, si o3 exploite bien une méthode similaire à celle utilisée dans AlphaGo, il a fallu fournir à o3 une heuristique, ou règle souple, pour lui permettre de déterminer quel programme était le meilleur. Car des milliers de programmes différents, apparemment aussi valables les uns que les autres, pourraient être générés pour tenter de résoudre les trois exemples. On pourrait imaginer une heuristique qui « sélectionne le programme minimal » ou bien qui « sélectionne le programme le plus simple ».

Toutefois, s’il s’agit d’un mécanisme similaire à celui d’AlphaGo, il suffit de demander à une IA de créer une heuristique. C’est ce qui s’est passé pour AlphaGo : Google a entraîné un modèle à évaluer différentes séquences de mouvements comme étant meilleures ou pires que d’autres.

La question qui se pose donc est la suivante : est-on vraiment plus proche de l’intelligence artificielle générale ? Si o3 fonctionne comme on vient de le décrire, le modèle sous-jacent n’est peut-être pas beaucoup plus performant que les modèles précédents.

Les concepts que le modèle apprend de données textuelles (ou plus généralement du langage humain) ne permettent peut-être pas davantage de généralisation qu’auparavant. Au lieu de cela, nous pourrions simplement être en présence d’une « chaîne de pensée » plus généralisable, découverte grâce aux étapes supplémentaires d’entraînement d’une heuristique spécialisée pour le test en question aujourd’hui.

On y verra plus clair, comme toujours, avec davantage de recul et d’expérience autour de o3.

En effet, on ignore presque tout au sujet de ce système : OpenAI a fait des présentations aux médias assez limitées, et les premiers tests ont été réservés à une poignée de chercheurs, de laboratoires et d’institutions spécialisées dans la sécurité de l’IA.

Pour évaluer le véritable potentiel d’o3, il va falloir un travail approfondi, notamment pour déterminer à quelle fréquence il échoue et réussit.

C’est seulement quand o3 sera réellement rendu public que nous saurons s’il est à peu près aussi adaptable qu’un humain moyen.

Si c’est le cas, il pourrait avoir un impact économique énorme et révolutionnaire, et ouvrir la voie à une nouvelle ère d’intelligence artificielle, capable de s’améliorer d’elle-même. Nous aurons besoin de nouveaux critères pour évaluer l’intelligence artificielle générale elle-même, et d’une réflexion sérieuse sur la manière dont elle devrait être gouvernée.

Si ce n’est pas le cas, o3 et son résultat au test ARC-AGI resteront un résultat impressionnant, mais nos vies quotidiennes resteront sensiblement les mêmes.

La fin du travail avec l’intelligence artificielle ?

La fin du travail avec l’intelligence artificielle ?

 

 

La montée en puissance de l’intelligence artificielle entraîne des révolutions technologiques qui donnent le tournis en Californie, à ses meilleurs élèves : les salariés de la tech, constate Corine Lesnes, dans sa chronique au « Monde » 

Au tournant des années 2010, l’avènement de la voiture sans chauffeur faisait les gros titres. Le phénomène était imminent. « Une réalité », annonçait le New York Times en mai 2012. Les sociologues prédisaient la « fin du travail » tel que la civilisation occidentale le concevait depuis la révolution industrielle, à la suite de l’économiste Jeremy Rifkin dont le livre de 1995, La Fin du travail (La Découverte, 1997), explorait les conséquences de l’automatisation sur le marché de l’emploi.

Rien d’aussi spectaculaire n’a immédiatement suivi. Pendant deux décennies, la voiture sans chauffeur est restée au stade d’expérimentation, pour ne pas dire de mirage. Le taux de chômage n’a pas explosé, au contraire. Nous nous sommes habitués aux effets de manche des ploutocrates de la tech : coloniser Mars, occuper le métavers… Au risque de se retrouver blasés, et de négliger de prendre acte des révolutions, bien réelles, qui sont désormais parmi nous.

Aujourd’hui, les taxis autonomes circulent dans cinq villes américaines, sans anicroche ni accident (mais pas encore par tous les temps). A San Francisco, les Waymo (voiture sans conducteur) de Google sont devenues une attraction touristique au même titre que les cable cars de la fin du XIXe siècle. Et chaque trajet urbain conduit par un chauffeur fantôme suscite le même ébahissement : « wow », comme disent les Américains.

Quant à la « fin du travail » traditionnel, celle-ci n’est plus une vue de l’esprit, mais un phénomène en voie de banalisation du fait de la fulgurante accélération de l’intelligence artificielle (IA). Faut-il s’en plaindre ? Les « techies » sont en première ligne, cette fois, de la « disruption » causée par leurs propres inventions. Depuis trois ans, les charrettes se succèdent dans le secteur des technologies : 165 000 licenciements en 2022 ; 264 000 en 2023, un record ; 141 000 encore cette année, entre janvier et le 11 octobre, émanant de 468 entreprises.

«L’intelligence artificielle va tuer l’homme 1.0»

«L’intelligence artificielle va tuer l’homme 1.0»

Laurent Alexandre,  chirurgien de formation, également diplômé de Science Po, de HEC et ancien élève de l’ENA, a fondé dans les années 1990 le site d’informations Doctissimo. Il publie ChatGPT va nous rendre immortels aux Éditions JC Lattès.  ( dans le Figaro)

 En quoi ChatGPT est en train de transformer le destin de l’humanité ?

Laurent ALEXANDRE - ChatGPT a lancé une course technologique mondiale qui conduit au dépassement de l’intelligence humaine par l’intelligence artificielle (IA) des décennies plus tôt que prévu. Pour Sam Altman, père de ChatGPT, l’IA devient le principal moteur de l’histoire. Le 13 mars 2024, Elon Musk a déclaré: «L’IA sera probablement plus intelligente que n’importe quel être…

 

Une vision à la fois scientifique mais aussi de sciences fiction parfois fantaisiste concernant la révolution cognitive.

D’après Laurent Alexandre, nous entrons dans un monde magique où nos désirs seront anticipés par les intelligences artificielles (IA) qui peupleront nos appareils connectés. Le développement de la réalité virtuelle va accentuer cette immersion dans un monde irréel et magique qui deviendra une drogue ultra-addictive. « Nous nous fixons un objectif : nous voulons attirer un milliard de personnes vers la réalité virtuelle », a déclaré Mark Zuckerberg, président de Facebook, à l’occasion de la présentation de son nouveau casque Oculus Go, le 11 octobre, à San José (Californie).
Les IA associées à la réalité virtuelle, même si elles ne seront pas dotées de consciences artificielles, pourront nous dire à tout moment ce qui est bon pour notre santé, ce qui maximisera notre jouissance, et nous indiquer ce que nous devons faire. Nous ferons tellement ­confiance à ces algorithmes que nous leur ­déléguerons la décision. Le vrai pouvoir sera ­concentré dans les mains d’une élite maîtresse des IA. Simultanément, la destruction de beaucoup de métiers créerait une énorme classe de personnes inutiles économiquement, et intellectuellement dépassées. Symptôme prémonitoire de cette évolution, en 2017, à la veille du tsunami de l’IA, 17 % des jeunes Français, entre 15 et 29 ans, sont déjà des NEETs (young people Not in Education, Employment, or Training, en français : jeunes qui ne sont ni scolarisés, ni en emploi, ni en formation). Ces citoyens confieront le sens de leur existence aux algorithmes.

Montée de l’ultra violence : la conséquence d’un effondrement des valeurs et de l’intelligence

Montée de l’ultra violence : la conséquence d’un effondrement des valeurs et de  l’intelligence

 

L’ultra violence caractérise un phénomène plus général qui affecte toute la société concernant le dépérissement des valeurs mais aussi de l’intelligence. Pour s’en persuader, il suffit d’observer le comportement de nombre de Français dans leur rapport aux autres. De plus en plus par exemple s’affranchissent de dire simplement  bonjour ou merci, ce qui ne constitue pas une infraction juridique mais témoigne de la dégradation de la vie sociétale dans le pays. Un phénomène qui touche plus particulièrement les générations les plus jeunes.

À cette perte des valeurs de civilité s’ajoute une dégradation générale moyenne de la culture et de l’intelligence comme en témoignent les résultats catastrophiques des élèves français comparés à ce de l’étranger.

Pour schématiser l’ignorance et la bêtise dominent les relations sociales à un moment ou au contraire la complexité de la société exigerait à la fois une meilleure formation, une plus grande intelligence et une plus grande humanité. Les replis sectaires sont le fait d’individus -en général idiots -perdus dans le monde moderne qui recherchent une réassurance identitaire dans le repli sectaire, velléitaire et souvent violent et cela parfois jusque dans le domaine privé.

Bref c’est la sauvagerie qui pourrait se substituer aux valeurs de tolérance nécessaires au fonctionnement d’une société. La violence est l’outil des abrutis pour contraindre par la force quand l’intelligence fait défaut.

Les responsabilités sont évidemment multiples. Elles commencent sans doute dans les familles, pour continuer à l’école est un peu partout dans la société où les concepts de respect, de bienveillance et d’ouverture sur l’autre s’affaiblissent progressivement au point de rendre possible les actes les plus ignobles y compris les tueries pour des divergences de points de vue.

Montée de l’ultra violence : la conséquence d’un effondrement des civilités et de l’intelligence

Montée de l’ultra violence : la conséquence d’un effondrement des civilités et de l’intelligence

 

L’ultra violence caractérise un phénomène plus général qui affecte toute la société concernant le dépérissement des valeurs mais aussi de l’intelligence. Pour s’en persuader, il suffit d’observer le comportement de nombre de Français dans leur rapport aux autres. De plus en plus par exemple s’affranchissent de dire simplement  bonjour ou merci, ce qui ne constitue pas une infraction juridique mais témoigne de la dégradation de la vie sociétale dans le pays. Un phénomène qui touche plus particulièrement les générations les plus jeunes.

À cette perte des valeurs de civilité s’ajoute une dégradation générale moyenne de la culture et de l’intelligence comme en témoignent les résultats catastrophiques des élèves français comparés à ce de l’étranger.

Pour schématiser l’ignorance et la bêtise dominent les relations sociales à un moment ou au contraire la complexité de la société exigerait à la fois une meilleure formation, une plus grande intelligence et une plus grande humanité. Les replis sectaires sont le fait d’individus -en général idiots -perdus dans le monde moderne qui recherchent une réassurance identitaire dans le repli sectaire, velléitaire et souvent violent et cela parfois jusque dans le domaine privé.

Bref c’est la sauvagerie qui pourrait se substituer aux valeurs de tolérance nécessaires au fonctionnement d’une société. La violence est l’outil des abrutis pour contraindre par la force quand l’intelligence fait défaut.

Les responsabilités sont évidemment multiples. Elles commencent sans doute dans les familles, pour continuer à l’école est un peu partout dans la société où les concepts de respect, de bienveillance et d’ouverture sur l’autre s’affaiblissent progressivement au point de rendre possible les actes les plus ignobles y compris les tueries pour de divergences de points de vue.

Elon Musk : Des implants cérébraux pour lutter contre l’intelligence artificielle

Elon Musk : Des implants cérébraux pour lutter contre l’intelligence artificielle

Elon Musk sans doute un ingénieur brillant et un grand homme d’affaires mais on peut s’inquiéter de sa proposition d’implanter des implants soi-disant pour lutter contre l’intelligence artificielle. Par ailleurs ses fondements idéologiques proche de Trump ne manquent pas d’interroger sans parler de ses folies d’envoyer du monde sur Mars pour fuir la terres polluées !

Elon Musk a annoncé lundi 29 janvier que la start-up Neuralink, dont il est cofondateur, a posé dimanche son premier implant cérébral sur un patient, une opération qui a déjà été réalisée à plusieurs reprises par d’autres sociétés et chercheurs. Située à Fremont (Californie), dans la banlieue de San Francisco, Neuralink avait obtenu en mai le feu vert de l’Agence américaine de régulation des médicaments et appareils médicaux, la FDA. Son implant, de la taille d’une pièce de monnaie, a déjà été placé dans le cerveau d’un macaque, qui a réussi à jouer au jeu vidéo «Pong» sans manette ni clavier. «Les premiers résultats montrent une activité neuronale prometteuse», a écrit Elon Musk sur X (ex-Twitter), au sujet de l’implant sur un patient.

Fondé en 2016, Neuralink est loin d’être la première à installer un implant cérébral, aussi appelé interface cerveau-machine (ICM), sur un humain. En septembre, l’entreprise néerlandaise Onward avait annoncé qu’elle testait le couplage d’un implant cérébral à un autre stimulant la moelle épinière, dans le but de permettre à un patient tétraplégique de retrouver de la mobilité. Dès 2019, des chercheurs de l’institut grenoblois Clinatec avaient présenté un implant permettant, une fois posé, à une personne tétraplégique d’animer un exosquelette et de remuer les bras ou de se déplacer.

Elon Musk ambitionne aussi de proposer son implant à tous, afin de permettre de mieux communiquer avec les ordinateurs et de contenir, selon lui, le «risque pour notre civilisation» que fait peser l’intelligence artificielle.

L’Intelligence artificielle générative

On définit l’intelligence artificielle comme la conception de programmes informatiques capables d’accomplir des tâches impliquant normalement l’intelligence humaine (tout ce qui se rapporte à la parole, à l’analyse d’images, à l’élaboration de stratégie dans des jeux, etc.).
Des progrès récents ont été faits dans la production de textes, d’images, de vidéos ou de musique. On parle alors d’intelligence artificielle générative (AIG) car les programmes informatiques liés (et les algorithmes, c’est-à-dire les suites d’instructions derrière les programmes) « génèrent » du texte, des images ou du son.

par Thierry Poibeau
DR CNRS, École normale supérieure (ENS) – PSL dans The Conversation

Il n’y a pas d’opposition stricte entre intelligence artificielle (IA) et intelligence artificielle générative (IAG) car il a existé des systèmes capables de produire du texte ou des images presque depuis les débuts de l’IA (ou, à tout le moins, des recherches sur ces thèmes). La nouveauté principale est la qualité, la diversité et plus globalement le réalisme des résultats obtenus avec les systèmes récents (textes pertinents et cohérents, images plus vraies que nature, etc.).

Des analyses de qualité et sans publicité, chaque jour dans vos mails.
Cette brusque amélioration est due à plusieurs éléments. Le premier point, essentiel, est l’accès à des ensembles de données gigantesques (des milliards de textes ou d’images, par exemple) qui permettent aux systèmes d’avoir des montagnes d’exemples pour produire de nouveaux textes ou images réalistes, sans être simplement des copies de données existantes.

Pour le reste, on dispose aujourd’hui, d’une part, de l’augmentation astronomique de la puissance de calcul des ordinateurs (grâce aux puces de type GPU, qui permettent de faire extrêmement rapidement les calculs à la base des techniques utilisées pour ce type de système), de l’autre de nouveaux algorithmes (dits d’apprentissage profond), qui permettent une analyse très fine des données observées, de les comparer et de les combiner pour produire des contenus nouveaux.

Ces systèmes peuvent ensuite être spécialisés par rapport à des tâches précises. Par exemple, un outil comme ChatGPT peut répondre de façon précise à des questions tout-venant : il s’agit donc toujours de générer du texte, mais de le faire de façon pertinente en fonction d’une question posée (ce qu’on appelle parfois le prompt). Le générateur de texte brut est le modèle GPT, et celui-ci est encapsulé dans un autre modèle gérant le dialogue, pour former l’application ChatGPT.

Le réalisme des résultats a impressionné ces dernières années. C’est aussi un des problèmes majeurs que posent ces techniques : à partir du moment où les textes, les images et les vidéos peuvent être confondus avec la réalité, l’intelligence artificielle générative (AGI) pose d’importantes questions pratiques et éthiques. Elle peut être une source majeure de désinformation (de production de fake news) par exemple.

Une solution parfois proposée est de marquer automatiquement (en anglais « watermark ») les textes ou les images produites par des IA, mais il y aura toujours des systèmes pouvant produire des sorties non estampillées. La régulation de ce type de systèmes est une question ouverte à l’heure actuelle.

Enfin, on entend aussi parler de beaucoup de types d’IA, qui peuvent se recouper ou non, comme l’IA prédictive ou l’IA créative. Le terme IA créative (qui recouvre, en gros, l’IAG) est à éviter car les IA ne font que modifier et recombiner des fragments (de texte ou d’image) existants. L’IA prédictive est une IA plus classique, visant à évaluer la probabilité qu’un événement se produise (un crime à tel endroit par exemple). S’il peut y avoir des similarités avec l’intelligence artificielle générative (AIG) au niveau des méthodes employées, la finalité des deux types de systèmes n’est généralement pas la même.

L’intelligence artificielle : pour quoi faire ?

L’intelligence artificielle : pour quoi faire ?

ChatGPT tient le devant de la scène depuis sa sortie du fait de ses fonctionnalités bluffantes, notamment pour dialoguer et répondre à des questions, même complexes, de façon naturelle et réaliste. Par Thierry Poibeau, École normale supérieure (ENS) – PSLAlors qu’on commence à avoir un peu de recul sur cet outil, des questions se posent : quelles sont les limites actuelles et futures de ChatGPT, et quels sont les marchés potentiels pour ce type de systèmes ?

ChatGPT est souvent décrit comme un futur concurrent de Google, voire comme un « Google killer » pour sa partie moteur de recherche : même si l’outil produit parfois des réponses baroques, voire carrément fausses, il répond de manière directe et ne propose pas simplement une liste ordonnée de documents, comme le moteur de recherche de Google.

Il y a là assurément un danger potentiel sérieux pour Google, qui pourrait menacer sa position de quasi-monopole sur les moteurs de recherche. Microsoft en particulier (principal investisseur dans OpenAI, qui a par ailleurs un accès privilégié à la technologie développée) travaille à intégrer ChatGPT à son moteur de recherche Bing, dans l’espoir de reprendre l’avantage sur Google.
Il y a toutefois plusieurs incertitudes concernant une telle perspective.

Les requêtes dans les moteurs de recherche sont généralement composées de quelques mots, voire d’un seul mot, comme un événement ou un nom de personnalité. ChatGPT suscite en ce moment la curiosité d’une population technophile, mais ceci est très différent de l’usage classique, grand public, d’un moteur de recherche.

On peut aussi imaginer ChatGPT accessible à travers une interface vocale, ce qui éviterait d’avoir à taper la requête. Mais les systèmes comme Alexa d’Amazon ont eu du mal à s’imposer, et restent confinés à des usages précis et limités (demander des horaires de cinéma, la météo…). Il y a 10 ans, Alexa était vu comme l’avenir de la société de distribution américaine, mais est aujourd’hui un peu à l’abandon, parce qu’Amazon n’a jamais réussi à monétiser son outil, c’est-à-dire à le rendre économiquement profitable.
ChatGPT peut-il réussir là où Alexa a en partie échoué ?

Bien sûr, l’avenir de ChatGPT ne devrait pas se résumer à la recherche d’information. Il existe une foule d’autres situations où on a besoin de produire du texte : production de lettres types, de résumés, de textes publicitaires…

ChatGPT est aussi un bon outil d’aide à l’écriture. On voit déjà différents usages : solliciter ChatGPT pour partir de quelques paragraphes qui peuvent susciter l’inspiration et éviter la peur de la page blanche ; voir quels points l’outil met en avant sur une question particulière (pour vérifier si ça correspond à ce que l’on aurait dit nous-mêmes ou non) ; demander des suggestions de plan sur une question particulière. ChatGPT n’est pas un outil magique et ne peut pas savoir ce que l’utilisateur a en tête, donc face à la rédaction d’un document complexe, il ne peut s’agir que d’une aide.
On peut évidemment imaginer des usages plus problématiques et de nombreux articles ont déjà été publiés dans la presse concernant par exemple l’usage de ChatGPT dans l’enseignement, avec des craintes, justifiées ou non. On peut ainsi imaginer des étudiants produisant des devoirs grâce à ChatGPT, mais aussi des enseignants utilisant l’outil pour rédiger leurs appréciations, ou des chercheurs produisant des articles scientifiques semi-automatiquement. Il y a beaucoup d’articles sur les étudiants dans la presse, mais ce ne seront pas les seuls à faire un usage éventuellement problématique de ce genre de technologie.

Il y a bien sûr lieu de se poser des questions, mais la technologie est là et ne va pas disparaître. Il semble donc primordial d’en parler, et de former les élèves et les étudiants à ces outils, pour expliquer leur intérêt et leurs limites, et discuter de la place qu’ils devraient avoir dans la formation.

Enfin, à l’extrême du spectre des usages problématiques, on pensera bien évidemment à la production de fake news : de fausses informations pouvant ensuite être disséminées en quantité industrielle.
Il ne faut pas exagérer ces dangers, mais ceux-ci sont réels. Même si des détecteurs de texte produits par ChatGPT commencent à apparaître, ceux-ci seront nécessairement imparfaits, car les textes produits sont trop divers et trop réalistes pour pouvoir être reconnus à 100 % par un système… à part par la société OpenAI elle-même, évidemment !
Les limites de ChatGPT : quand l’IA « hallucine »

La masse des interactions avec ChatGPT depuis son ouverture au grand public le 30 novembre a déjà permis d’identifier certaines de ses limites.
ChatGPT fournit en général des réponses correctes, souvent bluffantes… mais si on l’interroge sur des domaines qu’il ne maîtrise pas, voire si on invente une question en apparence sérieuse mais en fait absurde (par exemple sur des faits ou des personnes qui n’existent pas), le système produit une réponse en apparence tout aussi sérieuse, mais en fait complètement absurde ou inventée.
Les exemples sur Twitter sont légion : ChatGPT propose des références scientifiques qui n’existent pas, des explications fumeuses, voire une démonstration où est postulé que -4 = -5. Ceci serait une richesse, si ChatGPT était juste un outil destiné à produire des histoires, des pastiches ou des parodies.

Mais ce que le public attend, c’est avant tout des réponses avérées à des questions réelles, ou l’absence de réponse dans le cas contraire (si le système ne peut trouver la réponse, ou si la question est absurde). C’est la principale faiblesse de l’outil, et donc probablement aussi le principal obstacle pour en faire un concurrent du moteur de recherche de Google, comme on l’a déjà vu.
Pour cette raison, une conférence comme ICML (International Conference on Machine Learning) a déjà interdit aux chercheurs de soumettre des articles produits en partie avec ChatGPT. Stackoverflow, une plate-forme d’échanges entre développeurs informatiques, a aussi interdit les réponses générées par ChatGPT, ayant peur de se retrouver submergée par un flux de réponses générées automatiquement (et en partie fausses).

Ceci est dû au fait que le système n’a pas de « modèle de monde ». Autrement dit, il ne sait pas ce qui est vrai, il peut générer des absurdités, des fausses informations, inventer des choses de toute pièce avec l’aplomb d’un menteur professionnel. C’est ce que l’on appelle les « hallucinations », comme si ChatGPT voyait alors des éléments imaginaires (en fait, on ne peut pas vraiment dire que le système ment, dans la mesure où il n’a pas de modèle de vérité).
Ceci est surtout vrai quand la question elle-même n’est pas tournée vers la réalité, auquel cas le système se met à inventer : en ce sens, GPT n’est ni un journaliste, ni un savant, mais plutôt un raconteur d’histoires.

Il y a fort à parier qu’OpenAI essaie dans de futures versions de fournir un système qui évite d’affabuler quand le contexte ne s’y prête pas, grâce à une analyse fine de la question posée, ou l’ajout de connaissances validées (comme le font déjà Amazon avec Alexa ou Google avec son knowledge graph, qui est tout simplement une base de connaissances). Google, justement, à travers sa succursale Deepmind, travaille actuellement sur un modèle similaire à ChatGPT appelé Sparrow, en essayant de renforcer la fiabilité du système. Il est par exemple question que le système fournisse une liste de sources sur laquelle il s’appuie pour fournir une réponse.
Les enjeux pour demain

L’autre limite de ce système est qu’il repose sur des données (en gros, l’ensemble des textes disponibles sur Internet) à la mi-2021 et que ses connaissances ne peuvent pas être mises à jour en direct. C’est évidemment un problème, ChatGPT ne peut pas répondre de façon pertinente à des questions sur l’actualité, alors qu’il s’agit d’un aspect particulièrement important.
La mise à jour en continu du modèle est donc logiquement un des prochains buts d’OpenAI, qui n’en fait pas mystère. Réviser un modèle, le réentraîner « à partir de zéro » (from scratch) est un processus long et coûteux, qui peut mettre en jeu des milliers de GPU ou de TPU pendant plusieurs semaines ou plusieurs mois, ce qui n’est pas en phase avec la rapidité de l’actualité. La prochaine grande innovation consistera donc en des systèmes capables de se mettre à jour de manière plus localisée en temps réel (ou quasiment), et ceci est sans doute pour bientôt.

Mais le principal enjeu est évidemment celui de l’acceptabilité. On l’a vu : le débat est déjà lancé sur l’influence d’un tel système sur l’éducation. Plus globalement, si un système tel que ChatGPT est par exemple intégré à un logiciel comme Word, se posera aussi la question de qui contrôle ce qui est produit. La voie est étroite entre des systèmes d’IA pas assez contrôlés et capables de produire des contenus racistes ou homophobes, et des systèmes trop bridés qui interdiraient de produire certains contenus.

En conclusion, et comme dit l’adage populaire : il est difficile de faire des prévisions, surtout quand elles concernent l’avenir. Il y a de nombreuses inconnues autour de technologies de type ChatGPT : les perspectives de tels outils sont assez vertigineuses, susceptibles d’avoir un impact profond sur la société, mais en même temps leur potentiel réel et commercial devra passer l’épreuve du monde réel. Ce qui est certain, c’est que les bouleversements actuels devraient inciter au développement d’instituts (au sein des universités, mais aussi à travers des fondations ou des associations capables d’atteindre le grand public) permettant une réflexion large et ouverte sur ces technologies, impliquant tous les acteurs de la société, car c’est la société tout entière qui est déjà impactée, comme en témoigne l’intérêt actuel autour de ChatGPT.
_______
Par Thierry Poibeau, DR CNRS, École normale supérieure (ENS) – PSL
La version originale de cet article a été publiée sur The Conversation.

Un accord européen sur l’intelligence artificielle très vaseux

Un accord européen sur l’intelligence artificielle très vaseux

L’Union européenne aurait trouvé un « accord politique » en matière de développement de l’intelligence artificielle. Un accord très vaseux qui essaye de trouver un équilibre entre l’innovation et les dérives. La plus grande difficulté à réguler réside surtout dans le fait que l’intelligence artificielle n’est pas clairement identifiée et qu’on place sous cette définition un tas d’applications qui ressemblent un peu à une auberge espagnole. En outre, chaque jour ou presque apparaissent de nouveaux développements dont on mesure bien mal les conséquences économiques, sociales ou sociétales.

En fait on s’est mis d’accord sur un texte de nature politique très vague qui fixe de grands principes pour la protection des usagers ou de la société en général mais sans préciser la nature des applications, leurs effets, les conséquences et leurs sanctions.

Pour Thierry Breton, à l’origine de ce texte, le compromis est un grand pas en avant. « L’Union européenne devient le premier continent à fixer des règles claires pour l’utilisation de l’IA », s’est félicité le commissaire européen français, qui, le premier, avait présenté une ébauche de projet dès avril 2021. Un enthousiasme partagé par Roberta Metsola, qui n’a pas hésité à qualifier, également, « ce moment d ‘historique pour l’Europe numérique ». La présidente du Parlement a loué une législation « avant-gardiste, responsable, et globale qui fixe des standards mondiaux. »

Un des problèmes rencontré et qui va s’amplifier, c’est le fait que nombre d’applications de l’intelligence artificielle ignore les frontières. Exemple les grandes plates-formes notamment celle des réseaux sociaux mais bien d’autres.

D’un autre côté l’Europe ne peut continuer d’être mise à l’écart des grandes révolutions numériques dont elle a manqué le virage pourra être aujourd’hui sous domination notamment américaine et chinoise. Il faut donc autoriser la recherche, l’innovation le développement et en même temps protéger ce qu’on a du mal à identifier. Exemple l’apparition brutale de ChatGPT ou équivalent des grands du numérique.

Ce système comme ceux capables de créer des sons et des images a révélé la puissance de ces outils mais aussi les risques de dérives de ces technologies génératives. Les membres craignaient qu’une régulation excessive tue la progression de champions européens naissants, comme Aleph Alpha en Allemagne ou Mistral AI en France.

Le coeur du projet se veut une liste de règles aux seuls systèmes jugés à hauts risques dans des domaines sensibles comme l’éducation, le maintien de l’ordre etc. Mais, les interdictions sont rares, et sont relatives aux applications contraires aux valeurs européennes comme les systèmes de surveillance de masse utilisés en Chine, ou l’identification biométrique à distance des personnes dans les lieux publics.

Pour Daniel Friedlaender, le responsable Europe du CCIA, un des principaux lobbies du secteur, « la rapidité l’a emporté sur la qualité et les conséquences potentielles de ce texte sont potentiellement désastreuses pour l’économie européenne. » La législation européenne pourra infliger des amendes jusqu’à 7 % du Chiffre d’affaires, avec un plancher de 35 millions d’euros, pour les infractions les plus graves.

latribune.fr

L’éducation confrontée au biais de l’intelligence artificielle

L’éducation confrontée au biais de l’intelligence artificielle

Il est impératif que les établissements, dans l’enseignement scolaire comme dans le supérieur, encouragent une culture de responsabilité dans le développement de l’intelligence artificielle, prévient Anthony Hié, directeur de la transformation digitale du groupe d’enseignement supérieur Excelia, dans une tribune au « Monde ».

L’intelligence artificielle (IA) est certainement l’une des avancées technologiques les plus significatives de notre ère. Elle a révolutionné la manière dont nous interagissons avec la technologie, en influençant des domaines allant de la médecine à la finance, en passant par le divertissement et l’éducation.

Derrière l’omniprésence de l’IA, accentuée par l’arrivée des IA génératives [capables de générer des données], les biais de l’IA restent un défi majeur. Il est impératif que l’éducation, dans toutes ses dimensions, s’attaque à cette problématique de manière proactive et éclairée.

Les biais dans l’IA se forment au stade de l’entraînement des modèles. Si les données d’entraînement comportent des préjugés ou des discriminations, l’IA peut les reproduire sans discernement. Par exemple, les systèmes de reconnaissance faciale ont été accusés de présenter des taux d’erreur plus élevés pour les personnes de couleur, en partie à cause des ensembles de données biaisés utilisés pour les former. Cela souligne l’importance cruciale de s’attaquer à cette question.

Pour comprendre les biais de l’IA, il est essentiel de saisir comment ils émergent. Les modèles d’IA apprennent à partir de données réelles, qu’ils utilisent pour prendre des décisions ou faire des recommandations. Si ces données sont imprégnées de stéréotypes, d’injustices, ou de discriminations, l’IA peut reproduire ces mêmes problèmes. Par conséquent, il est essentiel de s’attaquer aux biais à la source, c’est-à-dire les données d’entraînement.

Le projet Gender Shades, lancé par le Massachusetts Institute of Technology, évalue la précision des logiciels de classification de genre alimentés par l’IA. Cette étude a révélé que les entreprises soumises à ces évaluations obtenaient des résultats de reconnaissance faciale nettement meilleurs pour les hommes que pour les femmes, avec une différence de 8,1 % à 20,6 % dans les taux d’erreur. Cette étude concernant l’examen du logiciel d’analyse faciale révèle également un taux d’erreur surprenant de 0,8 % pour les hommes à la peau claire et de 34,7 % pour les femmes à la peau foncée1.

Les conclusions du projet mettaient en évidence le potentiel d’abus de la technologie de l’analyse faciale, que ce soit aux mains de gouvernements autoritaires, d’individus malveillants ou d’entreprises opportunistes. En fin de compte, le projet soulignait la vulnérabilité des algorithmes à la corruption et à la partialité.

La suite est réservée à nos abonnés.
Déjà abonné ?
Se connecter

Les dangers de l’intelligence artificielle dans les systèmes d’armement nucléaire

Les dangers de l’intelligence artificielle dans les systèmes d’armement nucléaire

Ancienne ministre australienne du développement international. Melissa Parke, à la tête d’une ONG de lutte contre l’arme nucléaire, alerte dans une tribune au « Monde » sur les risques de déclenchement d’un conflit atomique du fait de l’utilisation de l’intelligence artificielle dans les processus de décision.

Ce n’est désormais plus de la science-fiction : une course a débuté autour de l’application de l’intelligence artificielle aux systèmes d’armements nucléaires – une évolution susceptible d’accentuer la probabilité d’une guerre nucléaire. Les gouvernements à travers le monde agissant toutefois pour que l’IA soit développée et appliquée de manière sûre, une opportunité d’atténuation de ce risque existe.

Mais pour que les dirigeants mondiaux la saisissent, il va néanmoins leur falloir admettre que la menace est sérieuse… Ces dernières semaines, le G7 a convenu du code de conduite du processus d’Hiroshima pour les organisations développant des systèmes d’IA avancés, afin de « promouvoir une IA sûre, sécurisée et fiable à travers le monde ».

Le président américain, Joe Biden, a pris un décret présidentiel établissant de nouvelles normes autour de la « sécurité » de l’IA. Le Royaume-Uni a également organisé le tout premier sommet sur la sécurité de l’IA, avec pour objectif de veiller à ce que cette technologie soit développée de manière « sûre et responsable ».

Mais aucune de ces initiatives n’est à la hauteur des risques soulevés par l’application de l’IA aux armes nucléaires. Le code de conduite du G7 et le décret présidentiel de Biden évoquent seulement brièvement la nécessité de protéger les populations contre les menaces chimiques, biologiques et nucléaires susceptibles de résulter de l’IA.

De même, bien qu’il ait expliqué qu’une compréhension commune des risques soulevés par l’IA avait émergé lors du sommet sur la sécurité de l’IA, le premier ministre britannique, Rishi Sunak, n’a mentionné nulle part la menace élevée …

L’intelligence artificielle va provoquer la fin des médias ?

L’intelligence artificielle va provoquer la fin des médias ?

Recherche d’informations, production de contenu, traduction, détection de propos haineux… l’intelligence artificielle (IA) générative promet d’importants gains de productivité dans l’univers des médias. Les médias nous accompagnent au quotidien et sont un support à la démocratie : ils ont la liberté de montrer différents points de vue et idées, de dénoncer la corruption et les discriminations, mais également de montrer la cohésion sociale et culturelle.
Alors que le public se tourne vers les médias pour s’informer, se cultiver et se divertir, les médias n’échappent pas aux soucis économiques et à la rentabilité d’une industrie mesurée en termes d’audimat et de vente. Dans ce contexte, l’IA générative amène de nouveaux outils puissants et sera de plus en plus utilisée.

Laurence Devillers
Professeur en Intelligence Artificielle, Sorbonne Université dans The conversation

Un article intéressant mais qui n’assiste pas suffisamment sur l’actuelle très grande fragilité des médias. Une fragilité qui se traduit notamment par un introuvable équilibre financier qui favorise la médiocrité rédactionnelle. Et qui permet la mainmise des grands capitaines d’industrie sur l’information ! NDLR

Mais il faut crucialement rappeler que les IA génératives n’ont pas d’idées, et qu’elles reprennent des propos qui peuvent être agencés de façon aussi intéressante qu’absurde (on parle alors d’« hallucinations » des systèmes d’IA). Ces IA génératives ne savent pas ce qui est possible ou impossible, vrai ou faux, moral ou immoral.

Ainsi, le métier de journaliste doit rester central pour enquêter et raisonner sur les situations complexes de société et de géopolitique. Alors, comment les médias peuvent-ils exploiter les outils d’IA tout en évitant leurs écueils ?

Le Comité national pilote d’éthique du numérique (CNPEN) a rendu en juillet un avis général sur les enjeux d’éthique des IA génératives, que j’ai co-coordonné, au ministre chargé de la Transition numérique. Il précise notamment les risques de ces systèmes.

Les médias peuvent utiliser l’IA pour améliorer la qualité de l’information, lutter contre les fausses nouvelles, identifier le harcèlement et les incitations à la haine, mais aussi parce qu’elle peut permettre de faire avancer la connaissance et mieux comprendre des réalités complexes, comme le développement durable ou encore les flux migratoires.

Les IA génératives sont des outils fabuleux qui peuvent faire émerger des résultats que nous ne pourrions pas obtenir sans elles car elles calculent à des niveaux de représentation qui ne sont pas les nôtres, sur une quantité gigantesque de données et avec une rapidité qu’un cerveau ne sait pas traiter. Si on sait se doter de garde-fous, ce sont des systèmes qui vont nous faire gagner du temps de recherche d’information, de lecture et de production et qui vont nous permettre de lutter contre les stéréotypes et d’optimiser des processus.

Ces outils n’arrivent pas maintenant par hasard. Alors que nous sommes effectivement noyés sous un flot d’informations diffusées en continu par les chaînes classiques ou contenus accessibles sur Internet, des outils comme ChatGPT nous permettent de consulter et de produire des synthèses, programmes, poèmes, etc., à partir d’un ensemble d’informations gigantesques inaccessibles à un cerveau humain en temps humain. Ils peuvent donc être extrêmement utiles pour de nombreuses tâches mais aussi contribuer à un flux d’informations non sourcées. Il faut donc les apprivoiser et en comprendre le fonctionnement et les risques.

Les performances des IA génératives tiennent à la capacité d’apprentissage auto-supervisée (c’est-à-dire sans être guidée par une main humaine, ce qui est un concept différent de l’adaptation en temps réel) de leurs modèles internes, appelés « modèles de fondation », qui sont entraînés à partir d’énormes corpus de données constitués de milliards d’images, de textes ou de sons très souvent dans les cultures dominantes sur Internet, par exemple GPT3.5 de ChatGPT est nourri majoritairement de données en anglais. Les deux autres types d’apprentissage ont également été utilisés : avant sa mise à disposition fin 2022, ChatGPT a été optimisé grâce à un apprentissage supervisé puis grâce à un apprentissage par renforcement par des humains de façon à affiner les résultats et à éliminer les propos non souhaitables.

Cette optimisation par des humains a d’ailleurs été très critiquée. Comment sont-ils formés ? Qui sont ces « hommes du clic » sous-payés ? Ces propos « non souhaitables », en outre, ne sont pas décidés par un comité d’éthique ou le législateur, mais par l’entreprise seule.

Durant l’apprentissage des modèles de fondation sur des textes, le système apprend ce que l’on appelle des « vecteurs de plongements lexicaux » (de taille 512 dans GPT 3.5). C’est le système « transformers ». Le principe d’entraînement du modèle de fondation est fondé par l’hypothèse distributionnelle proposée par le linguiste américain John Ruppert Fith en 1957 : on ne peut connaître le sens d’un mot que par ses fréquentations (« You shall know a word by the company it keeps »).

Ces entités (« token » en anglais) font en moyenne quatre caractères dans GPT3.5. Elles peuvent n’être constituées que d’un seul et d’un blanc. Elles peuvent donc être des parties de mots ou des mots avec l’avantage de pouvoir combiner agilement ces entités pour recréer des mots et des phrases sans aucune connaissance linguistique (hormis celle implicite à l’enchaînement des mots), le désavantage étant évidemment d’être moins interprétable. Chaque entité est codée par un vecteur qui contient des informations sur tous les contextes où cette entité a été vue grâce à des mécanismes d’attention. Ainsi deux entités ayant le même voisinage seront considérées comme proches par le système d’IA.

Le système d’IA générative sur des textes apprend ainsi un modèle de production avec des mécanismes qui n’ont rien à voir avec la production humaine située avec un corps, pour autant elle est capable de l’imiter à partir des textes de l’apprentissage. Ce fonctionnement a pour conséquence directe de perdre les sources d’où sont extraits les voisinages repérés, ce qui pose un problème de fond pour la vérification du contenu produit. Aucune vérification de la véracité des propos n’est produite facilement. Il faut retrouver les sources et quand on demande au système de le faire, il peut les inventer !

Lorsque vous proposez une invite à ChatGPT, il va prédire l’entité suivante, puis la suivante et ainsi de suite. Un paramètre clé est celui de la « température » qui exprime le degré d’aléatoire dans le choix des entités. À une température élevée, le modèle est plus « créatif » car il peut générer des sorties plus diversifiées, tandis qu’à une température basse, le modèle tend à choisir les sorties les plus probables, ce qui rend le texte généré plus prévisible. Trois options de température sont proposées dans l’outil conversationnel Bing (GPT4) de Microsoft (plus précis, plus équilibré, plus créatif). Souvent, les hyperparamètres des systèmes ne sont pas dévoilés pour des raisons de cybersécurité ou de confidentialité comme c’est le cas dans ChatGPT… mais la température permet d’avoir des réponses différentes à la même question.

Il est ainsi facile d’imaginer certains des risques de l’IA générative pour les médias. D’autres apparaîtront certainement au fur et à mesure de leurs utilisations.

Il paraît urgent de trouver comment les minimiser en attendant la promulgation pour l’Union européenne d’un IA Act en se dotant de guides de bonnes pratiques. L’avis du CNPEN sur les IA génératives et les enjeux d’éthique comprend, lui, 10 préconisations pour la recherche et 12 pour la gouvernance. Voici quelques-uns des risques identifiés pour les médias :

Faire trop confiance aux dires de la machine sans recouper avec d’autres sources. Le croisement de plusieurs sources de données et la nécessité d’enquêter deviennent fondamentaux pour toutes les professions : journalistes, scientifiques, professeurs et autres. Il semble d’ailleurs fondamental d’enseigner la façon d’utiliser ces systèmes à l’école et à l’université et de cultiver l’art de débattre pour élaborer ses idées.

Comprendre que ChatGPT est construit avec des données majoritairement en anglais et que son influence culturelle peut-être importante.

Utiliser massivement ChatGPT de façon paresseuse dans les médias, en produisant énormément de nouvelles données artificielles non vérifiées sur Internet qui pourraient servir à entraîner de nouvelles IA. Ce serait dramatique qu’il n’y ait plus aucune garantie de vérité sur ces données reconstituées par la machine. Deux avocats américains se sont par exemple fait piéger en faisant référence au cours d’une procédure, sur les conseils de l’algorithme, à des jurisprudences qui n’existaient pas.

Remplacer certaines tâches dans de nombreux métiers autour des médias par des systèmes d’IA. Certains métiers vont disparaître, d’autres vont apparaître. Il faut créer des interfaces avec des mesures de confiance pour aider la coopération entre les humains et les systèmes d’IA.

Utiliser les systèmes d’IA et les démystifier devient une nécessité absolue tout en faisant attention de ne pas désapprendre et de pouvoir s’en passer.

Il est nécessaire de comprendre que ChatGPT fait de nombreuses erreurs, par exemple il n’a pas de notion d’histoire ni de compréhension de l’espace. Le diable est dans les détails mais également dans le choix des données utilisées pour créer le modèle. La loi sur l’IA réclame plus de transparence sur ces systèmes d’IA pour vérifier leur robustesse, leur non-manipulation et leur consommation énergétique.

Il faut vérifier que les données produites n’empiètent pas sur le droit d’auteur et que les données utilisées par le système sont correctement utilisées. Si des données « synthétiques » remplacent demain nos connaissances dans d’entraînement des futurs modèles de fondation, il sera de plus en plus difficile de démêler le vrai du faux.

Donner accès à des systèmes d’IA (par exemple Dall-E ou Stable Diffusion) qui peuvent être utilisés pour créer de l’hypertrucage (deepfake en anglais) pour produire des images. Le phénomène rappelle l’importance de vérifier non seulement la fiabilité des sources des articles, mais aussi des images et vidéos. Il est question de mettre des filigranes (ou watermarks) dans les textes, images ou vidéos produites pour savoir si elles ont été faites par des IA ou de labelliser les données « bio » (ou produites par des humains).

L’arrivée de ChatGPT a été un tsunami pour tout le monde. Il a bluffé experts comme non-experts par ses capacités de production de texte, de traduction et même de programmation informatique.

L’explication scientifique précise du phénomène d’« étincelle d’émergences » dans les modèles de fondation est un sujet de recherche actuel et dépend des données et des hyperparamètres des modèles. Il est important de développer massivement la recherche pluridisciplinaire sur les émergences et limites des IA génératives et sur les mesures à déployer pour les contrôler.

Enfin, if faut éduquer à l’école sur les risques et l’éthique tout autant que sur la programmation, et également former et démystifier les systèmes d’IA pour utiliser et innover de façon responsable en ayant conscience des conséquences éthiques, économiques, sociétales et du coût environnemental.

La France pourrait jouer un rôle majeur au sein de l’Europe avec l’ambition d’être un laboratoire de l’IA pour les médias en étudiant les enjeux éthiques et économiques au service du bien commun et des démocraties.

Société- La fin des médias avec l’intelligence artificielle ?

Société-La fin des médias avec l’intelligence artificielle ?

Recherche d’informations, production de contenu, traduction, détection de propos haineux… l’intelligence artificielle (IA) générative promet d’importants gains de productivité dans l’univers des médias. Les médias nous accompagnent au quotidien et sont un support à la démocratie : ils ont la liberté de montrer différents points de vue et idées, de dénoncer la corruption et les discriminations, mais également de montrer la cohésion sociale et culturelle.
Alors que le public se tourne vers les médias pour s’informer, se cultiver et se divertir, les médias n’échappent pas aux soucis économiques et à la rentabilité d’une industrie mesurée en termes d’audimat et de vente. Dans ce contexte, l’IA générative amène de nouveaux outils puissants et sera de plus en plus utilisée.

Laurence Devillers
Professeur en Intelligence Artificielle, Sorbonne Université dans The conversation

Un article intéressant mais qui n’assiste pas suffisamment sur l’actuelle très grande fragilité des médias. Une fragilité qui se traduit notamment par un introuvable équilibre financier qui favorise la médiocrité rédactionnelle. Et qui permet la mainmise des grands capitaines d’industrie sur l’information ! NDLR

Mais il faut crucialement rappeler que les IA génératives n’ont pas d’idées, et qu’elles reprennent des propos qui peuvent être agencés de façon aussi intéressante qu’absurde (on parle alors d’« hallucinations » des systèmes d’IA). Ces IA génératives ne savent pas ce qui est possible ou impossible, vrai ou faux, moral ou immoral.

Ainsi, le métier de journaliste doit rester central pour enquêter et raisonner sur les situations complexes de société et de géopolitique. Alors, comment les médias peuvent-ils exploiter les outils d’IA tout en évitant leurs écueils ?

Le Comité national pilote d’éthique du numérique (CNPEN) a rendu en juillet un avis général sur les enjeux d’éthique des IA génératives, que j’ai co-coordonné, au ministre chargé de la Transition numérique. Il précise notamment les risques de ces systèmes.

Les médias peuvent utiliser l’IA pour améliorer la qualité de l’information, lutter contre les fausses nouvelles, identifier le harcèlement et les incitations à la haine, mais aussi parce qu’elle peut permettre de faire avancer la connaissance et mieux comprendre des réalités complexes, comme le développement durable ou encore les flux migratoires.

Les IA génératives sont des outils fabuleux qui peuvent faire émerger des résultats que nous ne pourrions pas obtenir sans elles car elles calculent à des niveaux de représentation qui ne sont pas les nôtres, sur une quantité gigantesque de données et avec une rapidité qu’un cerveau ne sait pas traiter. Si on sait se doter de garde-fous, ce sont des systèmes qui vont nous faire gagner du temps de recherche d’information, de lecture et de production et qui vont nous permettre de lutter contre les stéréotypes et d’optimiser des processus.

Ces outils n’arrivent pas maintenant par hasard. Alors que nous sommes effectivement noyés sous un flot d’informations diffusées en continu par les chaînes classiques ou contenus accessibles sur Internet, des outils comme ChatGPT nous permettent de consulter et de produire des synthèses, programmes, poèmes, etc., à partir d’un ensemble d’informations gigantesques inaccessibles à un cerveau humain en temps humain. Ils peuvent donc être extrêmement utiles pour de nombreuses tâches mais aussi contribuer à un flux d’informations non sourcées. Il faut donc les apprivoiser et en comprendre le fonctionnement et les risques.

Les performances des IA génératives tiennent à la capacité d’apprentissage auto-supervisée (c’est-à-dire sans être guidée par une main humaine, ce qui est un concept différent de l’adaptation en temps réel) de leurs modèles internes, appelés « modèles de fondation », qui sont entraînés à partir d’énormes corpus de données constitués de milliards d’images, de textes ou de sons très souvent dans les cultures dominantes sur Internet, par exemple GPT3.5 de ChatGPT est nourri majoritairement de données en anglais. Les deux autres types d’apprentissage ont également été utilisés : avant sa mise à disposition fin 2022, ChatGPT a été optimisé grâce à un apprentissage supervisé puis grâce à un apprentissage par renforcement par des humains de façon à affiner les résultats et à éliminer les propos non souhaitables.

Cette optimisation par des humains a d’ailleurs été très critiquée. Comment sont-ils formés ? Qui sont ces « hommes du clic » sous-payés ? Ces propos « non souhaitables », en outre, ne sont pas décidés par un comité d’éthique ou le législateur, mais par l’entreprise seule.

Durant l’apprentissage des modèles de fondation sur des textes, le système apprend ce que l’on appelle des « vecteurs de plongements lexicaux » (de taille 512 dans GPT 3.5). C’est le système « transformers ». Le principe d’entraînement du modèle de fondation est fondé par l’hypothèse distributionnelle proposée par le linguiste américain John Ruppert Fith en 1957 : on ne peut connaître le sens d’un mot que par ses fréquentations (« You shall know a word by the company it keeps »).

Ces entités (« token » en anglais) font en moyenne quatre caractères dans GPT3.5. Elles peuvent n’être constituées que d’un seul et d’un blanc. Elles peuvent donc être des parties de mots ou des mots avec l’avantage de pouvoir combiner agilement ces entités pour recréer des mots et des phrases sans aucune connaissance linguistique (hormis celle implicite à l’enchaînement des mots), le désavantage étant évidemment d’être moins interprétable. Chaque entité est codée par un vecteur qui contient des informations sur tous les contextes où cette entité a été vue grâce à des mécanismes d’attention. Ainsi deux entités ayant le même voisinage seront considérées comme proches par le système d’IA.

Le système d’IA générative sur des textes apprend ainsi un modèle de production avec des mécanismes qui n’ont rien à voir avec la production humaine située avec un corps, pour autant elle est capable de l’imiter à partir des textes de l’apprentissage. Ce fonctionnement a pour conséquence directe de perdre les sources d’où sont extraits les voisinages repérés, ce qui pose un problème de fond pour la vérification du contenu produit. Aucune vérification de la véracité des propos n’est produite facilement. Il faut retrouver les sources et quand on demande au système de le faire, il peut les inventer !

Lorsque vous proposez une invite à ChatGPT, il va prédire l’entité suivante, puis la suivante et ainsi de suite. Un paramètre clé est celui de la « température » qui exprime le degré d’aléatoire dans le choix des entités. À une température élevée, le modèle est plus « créatif » car il peut générer des sorties plus diversifiées, tandis qu’à une température basse, le modèle tend à choisir les sorties les plus probables, ce qui rend le texte généré plus prévisible. Trois options de température sont proposées dans l’outil conversationnel Bing (GPT4) de Microsoft (plus précis, plus équilibré, plus créatif). Souvent, les hyperparamètres des systèmes ne sont pas dévoilés pour des raisons de cybersécurité ou de confidentialité comme c’est le cas dans ChatGPT… mais la température permet d’avoir des réponses différentes à la même question.

Il est ainsi facile d’imaginer certains des risques de l’IA générative pour les médias. D’autres apparaîtront certainement au fur et à mesure de leurs utilisations.

Il paraît urgent de trouver comment les minimiser en attendant la promulgation pour l’Union européenne d’un IA Act en se dotant de guides de bonnes pratiques. L’avis du CNPEN sur les IA génératives et les enjeux d’éthique comprend, lui, 10 préconisations pour la recherche et 12 pour la gouvernance. Voici quelques-uns des risques identifiés pour les médias :

Faire trop confiance aux dires de la machine sans recouper avec d’autres sources. Le croisement de plusieurs sources de données et la nécessité d’enquêter deviennent fondamentaux pour toutes les professions : journalistes, scientifiques, professeurs et autres. Il semble d’ailleurs fondamental d’enseigner la façon d’utiliser ces systèmes à l’école et à l’université et de cultiver l’art de débattre pour élaborer ses idées.

Comprendre que ChatGPT est construit avec des données majoritairement en anglais et que son influence culturelle peut-être importante.

Utiliser massivement ChatGPT de façon paresseuse dans les médias, en produisant énormément de nouvelles données artificielles non vérifiées sur Internet qui pourraient servir à entraîner de nouvelles IA. Ce serait dramatique qu’il n’y ait plus aucune garantie de vérité sur ces données reconstituées par la machine. Deux avocats américains se sont par exemple fait piéger en faisant référence au cours d’une procédure, sur les conseils de l’algorithme, à des jurisprudences qui n’existaient pas.

Remplacer certaines tâches dans de nombreux métiers autour des médias par des systèmes d’IA. Certains métiers vont disparaître, d’autres vont apparaître. Il faut créer des interfaces avec des mesures de confiance pour aider la coopération entre les humains et les systèmes d’IA.

Utiliser les systèmes d’IA et les démystifier devient une nécessité absolue tout en faisant attention de ne pas désapprendre et de pouvoir s’en passer.

Il est nécessaire de comprendre que ChatGPT fait de nombreuses erreurs, par exemple il n’a pas de notion d’histoire ni de compréhension de l’espace. Le diable est dans les détails mais également dans le choix des données utilisées pour créer le modèle. La loi sur l’IA réclame plus de transparence sur ces systèmes d’IA pour vérifier leur robustesse, leur non-manipulation et leur consommation énergétique.

Il faut vérifier que les données produites n’empiètent pas sur le droit d’auteur et que les données utilisées par le système sont correctement utilisées. Si des données « synthétiques » remplacent demain nos connaissances dans d’entraînement des futurs modèles de fondation, il sera de plus en plus difficile de démêler le vrai du faux.

Donner accès à des systèmes d’IA (par exemple Dall-E ou Stable Diffusion) qui peuvent être utilisés pour créer de l’hypertrucage (deepfake en anglais) pour produire des images. Le phénomène rappelle l’importance de vérifier non seulement la fiabilité des sources des articles, mais aussi des images et vidéos. Il est question de mettre des filigranes (ou watermarks) dans les textes, images ou vidéos produites pour savoir si elles ont été faites par des IA ou de labelliser les données « bio » (ou produites par des humains).

L’arrivée de ChatGPT a été un tsunami pour tout le monde. Il a bluffé experts comme non-experts par ses capacités de production de texte, de traduction et même de programmation informatique.

L’explication scientifique précise du phénomène d’« étincelle d’émergences » dans les modèles de fondation est un sujet de recherche actuel et dépend des données et des hyperparamètres des modèles. Il est important de développer massivement la recherche pluridisciplinaire sur les émergences et limites des IA génératives et sur les mesures à déployer pour les contrôler.

Enfin, if faut éduquer à l’école sur les risques et l’éthique tout autant que sur la programmation, et également former et démystifier les systèmes d’IA pour utiliser et innover de façon responsable en ayant conscience des conséquences éthiques, économiques, sociétales et du coût environnemental.

La France pourrait jouer un rôle majeur au sein de l’Europe avec l’ambition d’être un laboratoire de l’IA pour les médias en étudiant les enjeux éthiques et économiques au service du bien commun et des démocraties.

La fin des médias avec l’intelligence artificielle ?

La fin des médias avec l’intelligence artificielle ?

Recherche d’informations, production de contenu, traduction, détection de propos haineux… l’intelligence artificielle (IA) générative promet d’importants gains de productivité dans l’univers des médias. Les médias nous accompagnent au quotidien et sont un support à la démocratie : ils ont la liberté de montrer différents points de vue et idées, de dénoncer la corruption et les discriminations, mais également de montrer la cohésion sociale et culturelle.
Alors que le public se tourne vers les médias pour s’informer, se cultiver et se divertir, les médias n’échappent pas aux soucis économiques et à la rentabilité d’une industrie mesurée en termes d’audimat et de vente. Dans ce contexte, l’IA générative amène de nouveaux outils puissants et sera de plus en plus utilisée.

Laurence Devillers
Professeur en Intelligence Artificielle, Sorbonne Université dans The conversation

Mais il faut crucialement rappeler que les IA génératives n’ont pas d’idées, et qu’elles reprennent des propos qui peuvent être agencés de façon aussi intéressante qu’absurde (on parle alors d’« hallucinations » des systèmes d’IA). Ces IA génératives ne savent pas ce qui est possible ou impossible, vrai ou faux, moral ou immoral.

Ainsi, le métier de journaliste doit rester central pour enquêter et raisonner sur les situations complexes de société et de géopolitique. Alors, comment les médias peuvent-ils exploiter les outils d’IA tout en évitant leurs écueils ?

Le Comité national pilote d’éthique du numérique (CNPEN) a rendu en juillet un avis général sur les enjeux d’éthique des IA génératives, que j’ai co-coordonné, au ministre chargé de la Transition numérique. Il précise notamment les risques de ces systèmes.

Les médias peuvent utiliser l’IA pour améliorer la qualité de l’information, lutter contre les fausses nouvelles, identifier le harcèlement et les incitations à la haine, mais aussi parce qu’elle peut permettre de faire avancer la connaissance et mieux comprendre des réalités complexes, comme le développement durable ou encore les flux migratoires.

Les IA génératives sont des outils fabuleux qui peuvent faire émerger des résultats que nous ne pourrions pas obtenir sans elles car elles calculent à des niveaux de représentation qui ne sont pas les nôtres, sur une quantité gigantesque de données et avec une rapidité qu’un cerveau ne sait pas traiter. Si on sait se doter de garde-fous, ce sont des systèmes qui vont nous faire gagner du temps de recherche d’information, de lecture et de production et qui vont nous permettre de lutter contre les stéréotypes et d’optimiser des processus.

Ces outils n’arrivent pas maintenant par hasard. Alors que nous sommes effectivement noyés sous un flot d’informations diffusées en continu par les chaînes classiques ou contenus accessibles sur Internet, des outils comme ChatGPT nous permettent de consulter et de produire des synthèses, programmes, poèmes, etc., à partir d’un ensemble d’informations gigantesques inaccessibles à un cerveau humain en temps humain. Ils peuvent donc être extrêmement utiles pour de nombreuses tâches mais aussi contribuer à un flux d’informations non sourcées. Il faut donc les apprivoiser et en comprendre le fonctionnement et les risques.

Les performances des IA génératives tiennent à la capacité d’apprentissage auto-supervisée (c’est-à-dire sans être guidée par une main humaine, ce qui est un concept différent de l’adaptation en temps réel) de leurs modèles internes, appelés « modèles de fondation », qui sont entraînés à partir d’énormes corpus de données constitués de milliards d’images, de textes ou de sons très souvent dans les cultures dominantes sur Internet, par exemple GPT3.5 de ChatGPT est nourri majoritairement de données en anglais. Les deux autres types d’apprentissage ont également été utilisés : avant sa mise à disposition fin 2022, ChatGPT a été optimisé grâce à un apprentissage supervisé puis grâce à un apprentissage par renforcement par des humains de façon à affiner les résultats et à éliminer les propos non souhaitables.

Cette optimisation par des humains a d’ailleurs été très critiquée. Comment sont-ils formés ? Qui sont ces « hommes du clic » sous-payés ? Ces propos « non souhaitables », en outre, ne sont pas décidés par un comité d’éthique ou le législateur, mais par l’entreprise seule.

Durant l’apprentissage des modèles de fondation sur des textes, le système apprend ce que l’on appelle des « vecteurs de plongements lexicaux » (de taille 512 dans GPT 3.5). C’est le système « transformers ». Le principe d’entraînement du modèle de fondation est fondé par l’hypothèse distributionnelle proposée par le linguiste américain John Ruppert Fith en 1957 : on ne peut connaître le sens d’un mot que par ses fréquentations (« You shall know a word by the company it keeps »).

Ces entités (« token » en anglais) font en moyenne quatre caractères dans GPT3.5. Elles peuvent n’être constituées que d’un seul et d’un blanc. Elles peuvent donc être des parties de mots ou des mots avec l’avantage de pouvoir combiner agilement ces entités pour recréer des mots et des phrases sans aucune connaissance linguistique (hormis celle implicite à l’enchaînement des mots), le désavantage étant évidemment d’être moins interprétable. Chaque entité est codée par un vecteur qui contient des informations sur tous les contextes où cette entité a été vue grâce à des mécanismes d’attention. Ainsi deux entités ayant le même voisinage seront considérées comme proches par le système d’IA.

Le système d’IA générative sur des textes apprend ainsi un modèle de production avec des mécanismes qui n’ont rien à voir avec la production humaine située avec un corps, pour autant elle est capable de l’imiter à partir des textes de l’apprentissage. Ce fonctionnement a pour conséquence directe de perdre les sources d’où sont extraits les voisinages repérés, ce qui pose un problème de fond pour la vérification du contenu produit. Aucune vérification de la véracité des propos n’est produite facilement. Il faut retrouver les sources et quand on demande au système de le faire, il peut les inventer !

Lorsque vous proposez une invite à ChatGPT, il va prédire l’entité suivante, puis la suivante et ainsi de suite. Un paramètre clé est celui de la « température » qui exprime le degré d’aléatoire dans le choix des entités. À une température élevée, le modèle est plus « créatif » car il peut générer des sorties plus diversifiées, tandis qu’à une température basse, le modèle tend à choisir les sorties les plus probables, ce qui rend le texte généré plus prévisible. Trois options de température sont proposées dans l’outil conversationnel Bing (GPT4) de Microsoft (plus précis, plus équilibré, plus créatif). Souvent, les hyperparamètres des systèmes ne sont pas dévoilés pour des raisons de cybersécurité ou de confidentialité comme c’est le cas dans ChatGPT… mais la température permet d’avoir des réponses différentes à la même question.

Il est ainsi facile d’imaginer certains des risques de l’IA générative pour les médias. D’autres apparaîtront certainement au fur et à mesure de leurs utilisations.

Il paraît urgent de trouver comment les minimiser en attendant la promulgation pour l’Union européenne d’un IA Act en se dotant de guides de bonnes pratiques. L’avis du CNPEN sur les IA génératives et les enjeux d’éthique comprend, lui, 10 préconisations pour la recherche et 12 pour la gouvernance. Voici quelques-uns des risques identifiés pour les médias :

Faire trop confiance aux dires de la machine sans recouper avec d’autres sources. Le croisement de plusieurs sources de données et la nécessité d’enquêter deviennent fondamentaux pour toutes les professions : journalistes, scientifiques, professeurs et autres. Il semble d’ailleurs fondamental d’enseigner la façon d’utiliser ces systèmes à l’école et à l’université et de cultiver l’art de débattre pour élaborer ses idées.

Comprendre que ChatGPT est construit avec des données majoritairement en anglais et que son influence culturelle peut-être importante.

Utiliser massivement ChatGPT de façon paresseuse dans les médias, en produisant énormément de nouvelles données artificielles non vérifiées sur Internet qui pourraient servir à entraîner de nouvelles IA. Ce serait dramatique qu’il n’y ait plus aucune garantie de vérité sur ces données reconstituées par la machine. Deux avocats américains se sont par exemple fait piéger en faisant référence au cours d’une procédure, sur les conseils de l’algorithme, à des jurisprudences qui n’existaient pas.

Remplacer certaines tâches dans de nombreux métiers autour des médias par des systèmes d’IA. Certains métiers vont disparaître, d’autres vont apparaître. Il faut créer des interfaces avec des mesures de confiance pour aider la coopération entre les humains et les systèmes d’IA.

Utiliser les systèmes d’IA et les démystifier devient une nécessité absolue tout en faisant attention de ne pas désapprendre et de pouvoir s’en passer.

Il est nécessaire de comprendre que ChatGPT fait de nombreuses erreurs, par exemple il n’a pas de notion d’histoire ni de compréhension de l’espace. Le diable est dans les détails mais également dans le choix des données utilisées pour créer le modèle. La loi sur l’IA réclame plus de transparence sur ces systèmes d’IA pour vérifier leur robustesse, leur non-manipulation et leur consommation énergétique.

Il faut vérifier que les données produites n’empiètent pas sur le droit d’auteur et que les données utilisées par le système sont correctement utilisées. Si des données « synthétiques » remplacent demain nos connaissances dans d’entraînement des futurs modèles de fondation, il sera de plus en plus difficile de démêler le vrai du faux.

Donner accès à des systèmes d’IA (par exemple Dall-E ou Stable Diffusion) qui peuvent être utilisés pour créer de l’hypertrucage (deepfake en anglais) pour produire des images. Le phénomène rappelle l’importance de vérifier non seulement la fiabilité des sources des articles, mais aussi des images et vidéos. Il est question de mettre des filigranes (ou watermarks) dans les textes, images ou vidéos produites pour savoir si elles ont été faites par des IA ou de labelliser les données « bio » (ou produites par des humains).

L’arrivée de ChatGPT a été un tsunami pour tout le monde. Il a bluffé experts comme non-experts par ses capacités de production de texte, de traduction et même de programmation informatique.

L’explication scientifique précise du phénomène d’« étincelle d’émergences » dans les modèles de fondation est un sujet de recherche actuel et dépend des données et des hyperparamètres des modèles. Il est important de développer massivement la recherche pluridisciplinaire sur les émergences et limites des IA génératives et sur les mesures à déployer pour les contrôler.

Enfin, if faut éduquer à l’école sur les risques et l’éthique tout autant que sur la programmation, et également former et démystifier les systèmes d’IA pour utiliser et innover de façon responsable en ayant conscience des conséquences éthiques, économiques, sociétales et du coût environnemental.

La France pourrait jouer un rôle majeur au sein de l’Europe avec l’ambition d’être un laboratoire de l’IA pour les médias en étudiant les enjeux éthiques et économiques au service du bien commun et des démocraties.

12345



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol