Archive pour le Tag 'artificielle'

Elon Musk : Des implants cérébraux pour lutter contre l’intelligence artificielle

Elon Musk : Des implants cérébraux pour lutter contre l’intelligence artificielle

Elon Musk sans doute un ingénieur brillant et un grand homme d’affaires mais on peut s’inquiéter de sa proposition d’implanter des implants soi-disant pour lutter contre l’intelligence artificielle. Par ailleurs ses fondements idéologiques proche de Trump ne manquent pas d’interroger sans parler de ses folies d’envoyer du monde sur Mars pour fuir la terres polluées !

Elon Musk a annoncé lundi 29 janvier que la start-up Neuralink, dont il est cofondateur, a posé dimanche son premier implant cérébral sur un patient, une opération qui a déjà été réalisée à plusieurs reprises par d’autres sociétés et chercheurs. Située à Fremont (Californie), dans la banlieue de San Francisco, Neuralink avait obtenu en mai le feu vert de l’Agence américaine de régulation des médicaments et appareils médicaux, la FDA. Son implant, de la taille d’une pièce de monnaie, a déjà été placé dans le cerveau d’un macaque, qui a réussi à jouer au jeu vidéo «Pong» sans manette ni clavier. «Les premiers résultats montrent une activité neuronale prometteuse», a écrit Elon Musk sur X (ex-Twitter), au sujet de l’implant sur un patient.

Fondé en 2016, Neuralink est loin d’être la première à installer un implant cérébral, aussi appelé interface cerveau-machine (ICM), sur un humain. En septembre, l’entreprise néerlandaise Onward avait annoncé qu’elle testait le couplage d’un implant cérébral à un autre stimulant la moelle épinière, dans le but de permettre à un patient tétraplégique de retrouver de la mobilité. Dès 2019, des chercheurs de l’institut grenoblois Clinatec avaient présenté un implant permettant, une fois posé, à une personne tétraplégique d’animer un exosquelette et de remuer les bras ou de se déplacer.

Elon Musk ambitionne aussi de proposer son implant à tous, afin de permettre de mieux communiquer avec les ordinateurs et de contenir, selon lui, le «risque pour notre civilisation» que fait peser l’intelligence artificielle.

L’Intelligence artificielle générative

On définit l’intelligence artificielle comme la conception de programmes informatiques capables d’accomplir des tâches impliquant normalement l’intelligence humaine (tout ce qui se rapporte à la parole, à l’analyse d’images, à l’élaboration de stratégie dans des jeux, etc.).
Des progrès récents ont été faits dans la production de textes, d’images, de vidéos ou de musique. On parle alors d’intelligence artificielle générative (AIG) car les programmes informatiques liés (et les algorithmes, c’est-à-dire les suites d’instructions derrière les programmes) « génèrent » du texte, des images ou du son.

par Thierry Poibeau
DR CNRS, École normale supérieure (ENS) – PSL dans The Conversation

Il n’y a pas d’opposition stricte entre intelligence artificielle (IA) et intelligence artificielle générative (IAG) car il a existé des systèmes capables de produire du texte ou des images presque depuis les débuts de l’IA (ou, à tout le moins, des recherches sur ces thèmes). La nouveauté principale est la qualité, la diversité et plus globalement le réalisme des résultats obtenus avec les systèmes récents (textes pertinents et cohérents, images plus vraies que nature, etc.).

Des analyses de qualité et sans publicité, chaque jour dans vos mails.
Cette brusque amélioration est due à plusieurs éléments. Le premier point, essentiel, est l’accès à des ensembles de données gigantesques (des milliards de textes ou d’images, par exemple) qui permettent aux systèmes d’avoir des montagnes d’exemples pour produire de nouveaux textes ou images réalistes, sans être simplement des copies de données existantes.

Pour le reste, on dispose aujourd’hui, d’une part, de l’augmentation astronomique de la puissance de calcul des ordinateurs (grâce aux puces de type GPU, qui permettent de faire extrêmement rapidement les calculs à la base des techniques utilisées pour ce type de système), de l’autre de nouveaux algorithmes (dits d’apprentissage profond), qui permettent une analyse très fine des données observées, de les comparer et de les combiner pour produire des contenus nouveaux.

Ces systèmes peuvent ensuite être spécialisés par rapport à des tâches précises. Par exemple, un outil comme ChatGPT peut répondre de façon précise à des questions tout-venant : il s’agit donc toujours de générer du texte, mais de le faire de façon pertinente en fonction d’une question posée (ce qu’on appelle parfois le prompt). Le générateur de texte brut est le modèle GPT, et celui-ci est encapsulé dans un autre modèle gérant le dialogue, pour former l’application ChatGPT.

Le réalisme des résultats a impressionné ces dernières années. C’est aussi un des problèmes majeurs que posent ces techniques : à partir du moment où les textes, les images et les vidéos peuvent être confondus avec la réalité, l’intelligence artificielle générative (AGI) pose d’importantes questions pratiques et éthiques. Elle peut être une source majeure de désinformation (de production de fake news) par exemple.

Une solution parfois proposée est de marquer automatiquement (en anglais « watermark ») les textes ou les images produites par des IA, mais il y aura toujours des systèmes pouvant produire des sorties non estampillées. La régulation de ce type de systèmes est une question ouverte à l’heure actuelle.

Enfin, on entend aussi parler de beaucoup de types d’IA, qui peuvent se recouper ou non, comme l’IA prédictive ou l’IA créative. Le terme IA créative (qui recouvre, en gros, l’IAG) est à éviter car les IA ne font que modifier et recombiner des fragments (de texte ou d’image) existants. L’IA prédictive est une IA plus classique, visant à évaluer la probabilité qu’un événement se produise (un crime à tel endroit par exemple). S’il peut y avoir des similarités avec l’intelligence artificielle générative (AIG) au niveau des méthodes employées, la finalité des deux types de systèmes n’est généralement pas la même.

Intelligence artificielle : Des conséquences pour 40 % des emplois (FMI) ?

Intelligence artificielle : Des conséquences pour 40 % des emplois (FMI) ?

Pour satisfaire à la mode sans doute, la directrice générale du fonds monétaire international a lâché ce chiffre de 40 % des emplois qui seront « concernés » par l’intelligence artificielle. Un chiffre lancé un peu par hasard. D’abord il faut s’entendre par le terme ‘concerné’. En effet d’une manière ou d’une autre, c’est plutôt 80 % des emplois qui seront touchés par l’évolution technologique et l’intelligence artificielle qui recouvre tellement d’applications. A priori on pourrait en effet penser que les emplois les moins qualifiés seront remplacés par des machines dites intelligentes. En réalité, c’est déjà le cas compris dans le secteur industriel. Mais d’autres emplois seront aussi impliqués dans le secteur industriel comme dans les services ou par parenthèse la complexité des procédures tue la compétitivité. En dépit de la numérisation l’économie brasse toujours autant de papier !

De toute manière la pénétration de l’intelligence artificielle est inéluctable, elle est déjà là comme assistante cognitive de l’humain dans nombre de métiers plus ou moins automatisés. « Dans le monde, 40% des emplois seront touchés » par le développement de l’intelligence artificielle, estime Kristalina Georgieva, directrice générale du Fonds monétaire international (FMI). « Et plus vous occupez un emploi qualifié, plus ce sera le cas. Ainsi pour les économies avancées, et certains pays émergents, 60% des emplois seront concernés ».

Elle a précisé que les impacts évoqués ne sont pas forcément négatifs, car cela peut aussi se traduire par « une hausse de vos revenus ».

Les données sont issues d’un rapport publié par le FMI avant les réunions du Forum économique mondial de Davos, qui débutent lundi dans la station alpine suisse.

Selon le rapport, l’IA pourrait accélérer les inégalités salariales, avec un effet négatif tout particulier sur les classes moyennes, alors que les salariés disposant d’ores et déjà de hauts revenus pourraient voir leur salaire « augmenter plus qu’à proportion » du gain de productivité que l’IA leur permettrait d’assurer.

« Il est certain qu’il y aura un impact mais il peut être différent, que cela entraîne la disparition de votre emploi ou au contraire son amélioration. Dès lors, que faire de ceux qui seront touchés et comment partager les gains de productivité, que peut-on faire pour être mieux préparés? », s’est interrogé Kristalina Georgieva.

Selon le rapport, Singapour, les Etats-Unis et le Canada sont les pays qui se sont le mieux préparés jusqu’ici à l’intégration de l’IA mais, comme le souligne la directrice générale du Fonds, « nous devons nous concentrer sur les pays à moindre revenus ».

« Nous devons aller vite, leur permettre de profiter des opportunités offertes par l’IA. La vraie question sera de mettre de côté les craintes liées à l’IA pour se concentrer sur comment en tirer le meilleur avantage pour tous », a insisté la patronne du FMI. D’autant que dans un contexte de ralentissement du rythme de la croissance mondiale, « nous avons terriblement besoin » d’éléments capables de relancer la productivité. « L’IA peut faire peur mais cela peut être également une immense opportunité pour tous », a conclu Kristalina Georgieva.

Intelligence artificielle ouverte à tous chez Microsoft

Intelligence artificielle ouverte à tous chez Microsoft

Microsoft lance une version grand public à 20 dollars par mois .
Premier outil d’IA générative déployé en masse par Microsoft, Copilot a le potentiel pour dépasser ChatGPT et ses 100 millions d’utilisateurs hebdomadaires, puisqu’il va pouvoir s’appuyer sur le réservoir de plus de 345 millions d’abonnés payants de la suite 365.

Copilot est lié à la suite 365 et dispose donc de tout un contexte spécifique lié aux différents documents présents sur le compte de l’utilisateur. En revanche, il nécessite l’abonnement au logiciel de Microsoft.

Avec cette nouvelle mise à jour, Microsoft permet aussi aux utilisateurs de Copilot d’intégrer (et bientôt, de créer) des « Copilot GPTs », autrement dit des versions spécifiques de l’assistant Par type d’activité ou de thème.

Par exemple, un GPT peut être dédié au sport, au voyage ou encore à la cuisine. Les utilisateurs se trouvent ainsi en face d’un interlocuteur plus expert, sans avoir à donner tout un contexte à leur assistant au moment de poser leur question. OpenAI a tout juste déployé ce système la semaine dernière, et voilà déjà son miroir chez Microsoft…

Avec sa puissance commercial, Microsoft pourrait étouffer OpenAI, dont il a enfin réussi à infiltrer la gouvernance suite à la crise Altman fin 2023.

Copilot 365 pourrait donc rapporter des dizaines de milliards de chiffre d’affaires par an supplémentaires à l’entreprise, et ce, même si elle ne convertit qu’une partie de sa clientèle.

Intelligence artificielle et mensonges

Intelligence artificielle et mensonges

« Humains, trop humains, ces systèmes ont nos vices et nos faiblesses ; rien d’étonnant puisque nous les avons créés. Aussi, ils sont programmés pour avoir toujours quelque chose à dire. Codés pour répondre. Alors que la véritable sagesse consiste bien souvent à dire “je ne sais pas”»

par Pierre Bentata est maître de conférences à la Faculté de Droit et de Science Politique d’Aix Marseille Université dans l’Opinion
( extrait)

En réalité, chaque fois qu’une requête porte sur un sujet dont la réponse n’est pas directement présente dans la base de données initiale, l’hallucination n’est pas loin. Ce n’est pas que l’IA soit calibrée pour mentir ou inventer des données. Il s’agit plutôt d’un effet secondaire de son mode de fonctionnement. Les systèmes de génération de contenus opèrent selon des règles de probabilités évaluant quelle lettre, phonème ou mot a le plus de chances d’apparaître à la suite d’un texte donné. Bien sûr, en amont, des experts vont vérifier qu’ils fournissent une réponse adéquate à un certain nombre de questions et les contraindre à revoir leurs calculs en cas de réponses inexactes. Mais cela n’empêche pas que, parfois, le résultat soit totalement faux. Plusieurs causes peuvent être à l’origine de cette erreur : les données initiales peuvent être de mauvaise qualité ou contradictoire – en aspirant une grande partie de ce qui est produit sur internet, il y a des chances que certains contenus soient faux –, le décodage des données peut être biaisé ou les calculs erronés, ce qui est inévitable avec des systèmes ayant plusieurs centaines de milliards de paramètres. Dès lors, il est possible qu’à la suite d’un texte donné, pour lequel l’information n’est pas directement disponible, le système de génération de contenus fournisse un mauvais mot puis, de proche en proche, aboutisse à une réponse totalement fausse.

Un cas illustre bien ce processus d’hallucination. En janvier dernier, David Smerdon, Grand Maître aux échecs et professeur d’économie, a demandé à ChatGPT quel était l’article le plus cité en sciences économiques. Ce dernier a produit la réponse suivante : Douglass North et Robert Thomas, « A Theory of Economic History », Journal of Economic History, 1969. En apparence, le résultat semble cohérent, le titre est pertinent, les auteurs existent et sont reconnus par la communauté scientifique et la revue est l’une des plus prestigieuses au monde. Sauf que cet article n’existe pas. Smerdon a alors tenté de comprendre comment ChatGPT avait pu créer de toutes pièces un tel résultat. Il s’avère que dans sa base de données, ChatGPT a sûrement des données concernant les mots les plus utilisés dans les titres d’articles de sciences économiques, et ces derniers sont bien Economic, Theory et History. A partir de cela, il a recherché dans sa base le nom des auteurs les plus souvent associés à ses termes, puis a examiné dans quelles revues ces derniers ont publié la majorité de leurs articles. Et voilà, le tour est joué !

Corrélations. Ainsi fonctionne l’IA : dès qu’il lui manque une information, elle estime des corrélations entre des données qu’elle possède et fabrique un nouveau contenu, souvent cohérent, mais pas nécessairement vrai. Comme l’ami qui, pour participer à la conversation, finit par inventer une histoire, l’IA construit du contenu pour entretenir le dialogue. Elle aussi ment pour avoir quelque chose à dire. Cela ne signifie pas qu’elle est inutile. Tout comme l’ami menteur n’en demeure pas moins un ami – il a sans doute d’autres qualités –, l’IA reste un excellent outil, à condition d’être appréhendée avec prudence, ce qui implique de l’interroger uniquement sur des sujets que l’on connaît déjà, et de vérifier toutes références à des données brutes, qu’il s’agisse de chiffres, de citations ou d’événements particuliers.

« Gardons l’acronyme mais substituons-lui un autre sens : ces systèmes ne sont pas des « Intelligences Artificielles » mais des “Interlocuteurs Affabulateurs”. Tant que nous en serons conscients, ces petites machines resteront de bons assistants »

A bien y réfléchir, que ces systèmes hallucinent devrait plutôt nous rassurer. Loin d’être les créatures omniscientes et omnipotentes qui font fantasmer les plus technophobes, ils se révèlent faillibles et cantonnés pour cette raison au rôle d’assistant ; assistant efficace certes, mais aussi un peu trop affable et désireux de nous plaire pour être tout à fait honnêtes. Car c’est bien de cela dont il est question. Humains, trop humains , ces systèmes ont nos vices et nos faiblesses ; rien d’étonnant puisque nous les avons créés. Aussi, ils sont programmés pour avoir toujours quelque chose à dire. Codés pour répondre. Alors que la véritable sagesse consiste bien souvent à dire « je ne sais pas », ces derniers en sont, par construction, tout à fait incapables. Et sans cette capacité à se taire, il n’est pas de réelle intelligence. Pas de découverte sans aveu préalable d’une ignorance ; pas d’apprentissage ni de production de connaissances nouvelles. De quoi éloigner un peu l’avènement d’une véritable IA.

Aussi, puisque le terme IA est désormais consacré, gardons l’acronyme mais substituons-lui un autre sens : ces systèmes ne sont pas des « Intelligences Artificielles » mais des « Interlocuteurs Affabulateurs ». Tant que nous en serons conscients, ces petites machines resteront de bons assistants.

Pierre Bentata est maître de conférences à la Faculté de Droit et de Science Politique d’Aix Marseille Université. Dans ses essais, il s’intéresse aux évolutions de la société à partir des crises économiques, politiques et technologiques qu’elle traverse.

L’intelligence artificielle : pour quoi faire ?

L’intelligence artificielle : pour quoi faire ?

ChatGPT tient le devant de la scène depuis sa sortie du fait de ses fonctionnalités bluffantes, notamment pour dialoguer et répondre à des questions, même complexes, de façon naturelle et réaliste. Par Thierry Poibeau, École normale supérieure (ENS) – PSLAlors qu’on commence à avoir un peu de recul sur cet outil, des questions se posent : quelles sont les limites actuelles et futures de ChatGPT, et quels sont les marchés potentiels pour ce type de systèmes ?

ChatGPT est souvent décrit comme un futur concurrent de Google, voire comme un « Google killer » pour sa partie moteur de recherche : même si l’outil produit parfois des réponses baroques, voire carrément fausses, il répond de manière directe et ne propose pas simplement une liste ordonnée de documents, comme le moteur de recherche de Google.

Il y a là assurément un danger potentiel sérieux pour Google, qui pourrait menacer sa position de quasi-monopole sur les moteurs de recherche. Microsoft en particulier (principal investisseur dans OpenAI, qui a par ailleurs un accès privilégié à la technologie développée) travaille à intégrer ChatGPT à son moteur de recherche Bing, dans l’espoir de reprendre l’avantage sur Google.
Il y a toutefois plusieurs incertitudes concernant une telle perspective.

Les requêtes dans les moteurs de recherche sont généralement composées de quelques mots, voire d’un seul mot, comme un événement ou un nom de personnalité. ChatGPT suscite en ce moment la curiosité d’une population technophile, mais ceci est très différent de l’usage classique, grand public, d’un moteur de recherche.

On peut aussi imaginer ChatGPT accessible à travers une interface vocale, ce qui éviterait d’avoir à taper la requête. Mais les systèmes comme Alexa d’Amazon ont eu du mal à s’imposer, et restent confinés à des usages précis et limités (demander des horaires de cinéma, la météo…). Il y a 10 ans, Alexa était vu comme l’avenir de la société de distribution américaine, mais est aujourd’hui un peu à l’abandon, parce qu’Amazon n’a jamais réussi à monétiser son outil, c’est-à-dire à le rendre économiquement profitable.
ChatGPT peut-il réussir là où Alexa a en partie échoué ?

Bien sûr, l’avenir de ChatGPT ne devrait pas se résumer à la recherche d’information. Il existe une foule d’autres situations où on a besoin de produire du texte : production de lettres types, de résumés, de textes publicitaires…

ChatGPT est aussi un bon outil d’aide à l’écriture. On voit déjà différents usages : solliciter ChatGPT pour partir de quelques paragraphes qui peuvent susciter l’inspiration et éviter la peur de la page blanche ; voir quels points l’outil met en avant sur une question particulière (pour vérifier si ça correspond à ce que l’on aurait dit nous-mêmes ou non) ; demander des suggestions de plan sur une question particulière. ChatGPT n’est pas un outil magique et ne peut pas savoir ce que l’utilisateur a en tête, donc face à la rédaction d’un document complexe, il ne peut s’agir que d’une aide.
On peut évidemment imaginer des usages plus problématiques et de nombreux articles ont déjà été publiés dans la presse concernant par exemple l’usage de ChatGPT dans l’enseignement, avec des craintes, justifiées ou non. On peut ainsi imaginer des étudiants produisant des devoirs grâce à ChatGPT, mais aussi des enseignants utilisant l’outil pour rédiger leurs appréciations, ou des chercheurs produisant des articles scientifiques semi-automatiquement. Il y a beaucoup d’articles sur les étudiants dans la presse, mais ce ne seront pas les seuls à faire un usage éventuellement problématique de ce genre de technologie.

Il y a bien sûr lieu de se poser des questions, mais la technologie est là et ne va pas disparaître. Il semble donc primordial d’en parler, et de former les élèves et les étudiants à ces outils, pour expliquer leur intérêt et leurs limites, et discuter de la place qu’ils devraient avoir dans la formation.

Enfin, à l’extrême du spectre des usages problématiques, on pensera bien évidemment à la production de fake news : de fausses informations pouvant ensuite être disséminées en quantité industrielle.
Il ne faut pas exagérer ces dangers, mais ceux-ci sont réels. Même si des détecteurs de texte produits par ChatGPT commencent à apparaître, ceux-ci seront nécessairement imparfaits, car les textes produits sont trop divers et trop réalistes pour pouvoir être reconnus à 100 % par un système… à part par la société OpenAI elle-même, évidemment !
Les limites de ChatGPT : quand l’IA « hallucine »

La masse des interactions avec ChatGPT depuis son ouverture au grand public le 30 novembre a déjà permis d’identifier certaines de ses limites.
ChatGPT fournit en général des réponses correctes, souvent bluffantes… mais si on l’interroge sur des domaines qu’il ne maîtrise pas, voire si on invente une question en apparence sérieuse mais en fait absurde (par exemple sur des faits ou des personnes qui n’existent pas), le système produit une réponse en apparence tout aussi sérieuse, mais en fait complètement absurde ou inventée.
Les exemples sur Twitter sont légion : ChatGPT propose des références scientifiques qui n’existent pas, des explications fumeuses, voire une démonstration où est postulé que -4 = -5. Ceci serait une richesse, si ChatGPT était juste un outil destiné à produire des histoires, des pastiches ou des parodies.

Mais ce que le public attend, c’est avant tout des réponses avérées à des questions réelles, ou l’absence de réponse dans le cas contraire (si le système ne peut trouver la réponse, ou si la question est absurde). C’est la principale faiblesse de l’outil, et donc probablement aussi le principal obstacle pour en faire un concurrent du moteur de recherche de Google, comme on l’a déjà vu.
Pour cette raison, une conférence comme ICML (International Conference on Machine Learning) a déjà interdit aux chercheurs de soumettre des articles produits en partie avec ChatGPT. Stackoverflow, une plate-forme d’échanges entre développeurs informatiques, a aussi interdit les réponses générées par ChatGPT, ayant peur de se retrouver submergée par un flux de réponses générées automatiquement (et en partie fausses).

Ceci est dû au fait que le système n’a pas de « modèle de monde ». Autrement dit, il ne sait pas ce qui est vrai, il peut générer des absurdités, des fausses informations, inventer des choses de toute pièce avec l’aplomb d’un menteur professionnel. C’est ce que l’on appelle les « hallucinations », comme si ChatGPT voyait alors des éléments imaginaires (en fait, on ne peut pas vraiment dire que le système ment, dans la mesure où il n’a pas de modèle de vérité).
Ceci est surtout vrai quand la question elle-même n’est pas tournée vers la réalité, auquel cas le système se met à inventer : en ce sens, GPT n’est ni un journaliste, ni un savant, mais plutôt un raconteur d’histoires.

Il y a fort à parier qu’OpenAI essaie dans de futures versions de fournir un système qui évite d’affabuler quand le contexte ne s’y prête pas, grâce à une analyse fine de la question posée, ou l’ajout de connaissances validées (comme le font déjà Amazon avec Alexa ou Google avec son knowledge graph, qui est tout simplement une base de connaissances). Google, justement, à travers sa succursale Deepmind, travaille actuellement sur un modèle similaire à ChatGPT appelé Sparrow, en essayant de renforcer la fiabilité du système. Il est par exemple question que le système fournisse une liste de sources sur laquelle il s’appuie pour fournir une réponse.
Les enjeux pour demain

L’autre limite de ce système est qu’il repose sur des données (en gros, l’ensemble des textes disponibles sur Internet) à la mi-2021 et que ses connaissances ne peuvent pas être mises à jour en direct. C’est évidemment un problème, ChatGPT ne peut pas répondre de façon pertinente à des questions sur l’actualité, alors qu’il s’agit d’un aspect particulièrement important.
La mise à jour en continu du modèle est donc logiquement un des prochains buts d’OpenAI, qui n’en fait pas mystère. Réviser un modèle, le réentraîner « à partir de zéro » (from scratch) est un processus long et coûteux, qui peut mettre en jeu des milliers de GPU ou de TPU pendant plusieurs semaines ou plusieurs mois, ce qui n’est pas en phase avec la rapidité de l’actualité. La prochaine grande innovation consistera donc en des systèmes capables de se mettre à jour de manière plus localisée en temps réel (ou quasiment), et ceci est sans doute pour bientôt.

Mais le principal enjeu est évidemment celui de l’acceptabilité. On l’a vu : le débat est déjà lancé sur l’influence d’un tel système sur l’éducation. Plus globalement, si un système tel que ChatGPT est par exemple intégré à un logiciel comme Word, se posera aussi la question de qui contrôle ce qui est produit. La voie est étroite entre des systèmes d’IA pas assez contrôlés et capables de produire des contenus racistes ou homophobes, et des systèmes trop bridés qui interdiraient de produire certains contenus.

En conclusion, et comme dit l’adage populaire : il est difficile de faire des prévisions, surtout quand elles concernent l’avenir. Il y a de nombreuses inconnues autour de technologies de type ChatGPT : les perspectives de tels outils sont assez vertigineuses, susceptibles d’avoir un impact profond sur la société, mais en même temps leur potentiel réel et commercial devra passer l’épreuve du monde réel. Ce qui est certain, c’est que les bouleversements actuels devraient inciter au développement d’instituts (au sein des universités, mais aussi à travers des fondations ou des associations capables d’atteindre le grand public) permettant une réflexion large et ouverte sur ces technologies, impliquant tous les acteurs de la société, car c’est la société tout entière qui est déjà impactée, comme en témoigne l’intérêt actuel autour de ChatGPT.
_______
Par Thierry Poibeau, DR CNRS, École normale supérieure (ENS) – PSL
La version originale de cet article a été publiée sur The Conversation.

Un accord européen sur l’intelligence artificielle très vaseux

Un accord européen sur l’intelligence artificielle très vaseux

L’Union européenne aurait trouvé un « accord politique » en matière de développement de l’intelligence artificielle. Un accord très vaseux qui essaye de trouver un équilibre entre l’innovation et les dérives. La plus grande difficulté à réguler réside surtout dans le fait que l’intelligence artificielle n’est pas clairement identifiée et qu’on place sous cette définition un tas d’applications qui ressemblent un peu à une auberge espagnole. En outre, chaque jour ou presque apparaissent de nouveaux développements dont on mesure bien mal les conséquences économiques, sociales ou sociétales.

En fait on s’est mis d’accord sur un texte de nature politique très vague qui fixe de grands principes pour la protection des usagers ou de la société en général mais sans préciser la nature des applications, leurs effets, les conséquences et leurs sanctions.

Pour Thierry Breton, à l’origine de ce texte, le compromis est un grand pas en avant. « L’Union européenne devient le premier continent à fixer des règles claires pour l’utilisation de l’IA », s’est félicité le commissaire européen français, qui, le premier, avait présenté une ébauche de projet dès avril 2021. Un enthousiasme partagé par Roberta Metsola, qui n’a pas hésité à qualifier, également, « ce moment d ‘historique pour l’Europe numérique ». La présidente du Parlement a loué une législation « avant-gardiste, responsable, et globale qui fixe des standards mondiaux. »

Un des problèmes rencontré et qui va s’amplifier, c’est le fait que nombre d’applications de l’intelligence artificielle ignore les frontières. Exemple les grandes plates-formes notamment celle des réseaux sociaux mais bien d’autres.

D’un autre côté l’Europe ne peut continuer d’être mise à l’écart des grandes révolutions numériques dont elle a manqué le virage pourra être aujourd’hui sous domination notamment américaine et chinoise. Il faut donc autoriser la recherche, l’innovation le développement et en même temps protéger ce qu’on a du mal à identifier. Exemple l’apparition brutale de ChatGPT ou équivalent des grands du numérique.

Ce système comme ceux capables de créer des sons et des images a révélé la puissance de ces outils mais aussi les risques de dérives de ces technologies génératives. Les membres craignaient qu’une régulation excessive tue la progression de champions européens naissants, comme Aleph Alpha en Allemagne ou Mistral AI en France.

Le coeur du projet se veut une liste de règles aux seuls systèmes jugés à hauts risques dans des domaines sensibles comme l’éducation, le maintien de l’ordre etc. Mais, les interdictions sont rares, et sont relatives aux applications contraires aux valeurs européennes comme les systèmes de surveillance de masse utilisés en Chine, ou l’identification biométrique à distance des personnes dans les lieux publics.

Pour Daniel Friedlaender, le responsable Europe du CCIA, un des principaux lobbies du secteur, « la rapidité l’a emporté sur la qualité et les conséquences potentielles de ce texte sont potentiellement désastreuses pour l’économie européenne. » La législation européenne pourra infliger des amendes jusqu’à 7 % du Chiffre d’affaires, avec un plancher de 35 millions d’euros, pour les infractions les plus graves.

latribune.fr

L’éducation confrontée au biais de l’intelligence artificielle

L’éducation confrontée au biais de l’intelligence artificielle

Il est impératif que les établissements, dans l’enseignement scolaire comme dans le supérieur, encouragent une culture de responsabilité dans le développement de l’intelligence artificielle, prévient Anthony Hié, directeur de la transformation digitale du groupe d’enseignement supérieur Excelia, dans une tribune au « Monde ».

L’intelligence artificielle (IA) est certainement l’une des avancées technologiques les plus significatives de notre ère. Elle a révolutionné la manière dont nous interagissons avec la technologie, en influençant des domaines allant de la médecine à la finance, en passant par le divertissement et l’éducation.

Derrière l’omniprésence de l’IA, accentuée par l’arrivée des IA génératives [capables de générer des données], les biais de l’IA restent un défi majeur. Il est impératif que l’éducation, dans toutes ses dimensions, s’attaque à cette problématique de manière proactive et éclairée.

Les biais dans l’IA se forment au stade de l’entraînement des modèles. Si les données d’entraînement comportent des préjugés ou des discriminations, l’IA peut les reproduire sans discernement. Par exemple, les systèmes de reconnaissance faciale ont été accusés de présenter des taux d’erreur plus élevés pour les personnes de couleur, en partie à cause des ensembles de données biaisés utilisés pour les former. Cela souligne l’importance cruciale de s’attaquer à cette question.

Pour comprendre les biais de l’IA, il est essentiel de saisir comment ils émergent. Les modèles d’IA apprennent à partir de données réelles, qu’ils utilisent pour prendre des décisions ou faire des recommandations. Si ces données sont imprégnées de stéréotypes, d’injustices, ou de discriminations, l’IA peut reproduire ces mêmes problèmes. Par conséquent, il est essentiel de s’attaquer aux biais à la source, c’est-à-dire les données d’entraînement.

Le projet Gender Shades, lancé par le Massachusetts Institute of Technology, évalue la précision des logiciels de classification de genre alimentés par l’IA. Cette étude a révélé que les entreprises soumises à ces évaluations obtenaient des résultats de reconnaissance faciale nettement meilleurs pour les hommes que pour les femmes, avec une différence de 8,1 % à 20,6 % dans les taux d’erreur. Cette étude concernant l’examen du logiciel d’analyse faciale révèle également un taux d’erreur surprenant de 0,8 % pour les hommes à la peau claire et de 34,7 % pour les femmes à la peau foncée1.

Les conclusions du projet mettaient en évidence le potentiel d’abus de la technologie de l’analyse faciale, que ce soit aux mains de gouvernements autoritaires, d’individus malveillants ou d’entreprises opportunistes. En fin de compte, le projet soulignait la vulnérabilité des algorithmes à la corruption et à la partialité.

La suite est réservée à nos abonnés.
Déjà abonné ?
Se connecter

Intelligence artificielle : en faire un progrès pour tous

Intelligence artificielle : en faire un progrès pour tous

Sommet mondial sur la sécurité de l’intelligence artificielle, décret Biden, comité d’experts de l’ONU : ces dernières semaines marquent un tournant dans l’histoire de l’IA, désormais un sujet majeur de souveraineté. Chaque grande puissance tente de prendre la tête de la course technologique, mais aussi de contribuer à une régulation mondiale. En effet, les impacts de l’IA sur l’emploi, la santé, l’éducation, la transition écologique et la société sont suffisamment massifs pour ne pas être ignorés des gouvernements et des citoyens. Aussi, il est urgent de travailler collectivement à une régulation de l’IA équilibrée entre l’innovation nécessaire au progrès économique, social et humain, et la protection contre des risques qui existent déjà. A cet égard, il est essentiel que la voix de l’Europe et de la France s’élèvent pour défendre les valeurs républicaines de liberté, d’égalité et de fraternité.

Par Emilie Sidiqian, directrice générale de Salesforce France

Dans ce contexte, les entreprises ont un rôle clé à jouer pour faire de l’IA un progrès pour tous. Plutôt que de se perdre dans des fantasmes de science-fiction, notre responsabilité consiste à développer des usages pour répondre aux inquiétudes qui traversent la société.

Aujourd’hui, 42% des salariés craignent que l’IA générative ne les remplace.Si rien ne permet d’affirmer que l’automatisation d’un grand nombre de tâches par l’IA entraînera la destruction d’emplois, nous devons démontrer que l’IA générative sera une source de progrès pour les employés.

Comment permettre à chacun de s’emparer de l’IA générative pour monter en compétence : avec l’éducation des jeunes et la formation des adultes est essentiel pour mieux appréhender l’IA. Comment conjuguer la diffusion de l’IA dans l’économie avec la création massive de nouveaux d’emplois : un objectif rassemblant le monde économique, le milieu associatif et les pouvoirs publics. Comment libérer les salariés des tâches chronophages pour apporter plus de valeur au client : voilà le chantier à ouvrir dès à présent.

L’autre inquiétude majeure concerne la confiance que l’on peut accorder à l’IA générative et à ce qu’elle produit. Alors que la désinformation sévit sur les réseaux sociaux, les « deep fakes» menacent la qualité du débat public, et in fine le bon fonctionnement démocratique.

Pourtant, des solutions existent. Elles reposent sur une combinaison de mesures techniques et réglementaires : sécurisation des données sources, détection automatisée des biais, modération renforcée des réseaux. Des mesures qui doivent favoriser l’usage éthique de l’IA, garantir la transparence des algorithmes, la gouvernance, la traçabilité et la confidentialité des données. Enfin, l’esprit critique et le bon sens devront présider aux usages de l’IA qui vont infuser notre quotidien. Depuis plus d’un siècle, les risques d’électrocution n’ont pas empêché de bénéficier des bienfaits de l’électricité. Il en sera de même pour l’IA.

A l’image de l’invention de l’écriture ou d’Internet, l’IA générative constitue une immense avancée de l’esprit humain. Ralentir ou brider son potentiel serait une erreur. Face aux défis immenses qui se présentent, nous devons stimuler l’ingéniosité humaine par la puissance des machines. A l’heure où les ressources se raréfient, il est essentiel de faciliter l’accès aux connaissances disponibles numériquement pour rendre intelligible et maîtrisable un monde toujours plus complexe. Saisissons l’opportunité offerte par l’intelligence artificielle pour renouer avec l’avenir !

Les dangers de l’intelligence artificielle dans les systèmes d’armement nucléaire

Les dangers de l’intelligence artificielle dans les systèmes d’armement nucléaire

Ancienne ministre australienne du développement international. Melissa Parke, à la tête d’une ONG de lutte contre l’arme nucléaire, alerte dans une tribune au « Monde » sur les risques de déclenchement d’un conflit atomique du fait de l’utilisation de l’intelligence artificielle dans les processus de décision.

Ce n’est désormais plus de la science-fiction : une course a débuté autour de l’application de l’intelligence artificielle aux systèmes d’armements nucléaires – une évolution susceptible d’accentuer la probabilité d’une guerre nucléaire. Les gouvernements à travers le monde agissant toutefois pour que l’IA soit développée et appliquée de manière sûre, une opportunité d’atténuation de ce risque existe.

Mais pour que les dirigeants mondiaux la saisissent, il va néanmoins leur falloir admettre que la menace est sérieuse… Ces dernières semaines, le G7 a convenu du code de conduite du processus d’Hiroshima pour les organisations développant des systèmes d’IA avancés, afin de « promouvoir une IA sûre, sécurisée et fiable à travers le monde ».

Le président américain, Joe Biden, a pris un décret présidentiel établissant de nouvelles normes autour de la « sécurité » de l’IA. Le Royaume-Uni a également organisé le tout premier sommet sur la sécurité de l’IA, avec pour objectif de veiller à ce que cette technologie soit développée de manière « sûre et responsable ».

Mais aucune de ces initiatives n’est à la hauteur des risques soulevés par l’application de l’IA aux armes nucléaires. Le code de conduite du G7 et le décret présidentiel de Biden évoquent seulement brièvement la nécessité de protéger les populations contre les menaces chimiques, biologiques et nucléaires susceptibles de résulter de l’IA.

De même, bien qu’il ait expliqué qu’une compréhension commune des risques soulevés par l’IA avait émergé lors du sommet sur la sécurité de l’IA, le premier ministre britannique, Rishi Sunak, n’a mentionné nulle part la menace élevée …

Sciences-Intelligence artificielle: La France parmi les leaders mondiaux !

Sciences-Intelligence artificielle: La France parmi les leaders mondiaux !

Xavier Niel, Free et Iliad, qui vient de lancer un fonds de recherche sur l’intelligence artificielle avec la CGM estime que la France seule peut figurer parmi les leaders mondiaux dans ce domaine. Une affirmation peut-être un peu présomptueuse si l’on prend l’exemple des grandes plates-formes dominées surtout par les Américains et les Chinois. Les plates-formes françaises sont complètement anecdotiques. Pire, les distributeurs des produits français utilisent le plus souvent les plates-formes étrangères comme Google pour vendre . L’initiative de Xavier Neil est intéressante mais il faut sans doute faire la part du marketing et de la recherche dans son interview à la « Tribune ». Enfin le montant de l’avertissement n’est peut-être pas à la hauteur de l’enjeu. Entre 2013 et 2022, les investissements des entreprises dans le secteur de l’intelligence artificielle ont fortement augmenté dans le monde, passant de 16 milliards de dollars en 2013 à plus de 175 milliards de dollars en 2022.

Iliad investit plus de 200 millions d’euros dans l’intelligence artificielle. Dans quel objectif ?

XAVIER NIEL- Quand éclate une révolution dans la tech, on souhaite naturellement en faire partie. Pour l’IA, deux éléments sont essentiels : la puissance de calcul et les chercheurs. Concernant le premier, Scaleway, le fournisseur de cloud et filiale du Groupe Iliad, a déjà acquis en septembre dernier auprès de NVIDIA, le champion mondial du calcul informatique, un supercalculateur : une plateforme spécifiquement dédiée aux applications de l’intelligence artificielle. C’est le cinquième plus grand au monde. Le plus puissant en dehors des États-Unis. Il est installé ici, à Paris. Sans volonté hégémonique. Simplement celle de faire émerger un écosystème.

Et du côté des chercheurs ?

Nous avons une chance inouïe en France. Celle de compter deux écoles – Polytechnique et l’ENS Paris-Saclay -, qui forment les meilleurs ingénieurs au monde dans ce domaine. Le revers de la médaille, c’est que ces talents exceptionnels quittent souvent leur pays pour aller ailleurs. Mon but consiste à les retenir ici. Ou à les inciter à revenir. Dans les deux cas, concevoir un écosystème complet était indispensable. Nous l’avons construit, en investissant massivement avec nos partenaires américains traditionnels, à hauteur de plusieurs dizaines de millions d’euros. Nous ne l’avions encore jamais fait. Ces investissements ont été réalisés dans des startups lancées par des Français. Mais aussi dans celles fondées par des entrepreneurs internationaux, qui choisissent la France précisément grâce à cet environnement que nous avons mis en place. La French Tech parvient désormais à boucler des levées de fonds sur des niveaux de valorisations inédits.

Intelligence artificielle: La France parmi les leaders mondiaux !

Intelligence artificielle: La France parmi les leaders mondiaux !

Xavier Niel, Free et Iliad, qui vient de lancer un fonds de recherche sur l’intelligence artificielle avec la CGM estime que la France seule peut figurer parmi les leaders mondiaux dans ce domaine. Une affirmation peut-être un peu présomptueuse si l’on prend l’exemple des grandes plates-formes dominées surtout par les Américains et les Chinois. Les plates-formes françaises sont complètement anecdotiques. Pire, les distributeurs des produits français utilisent le plus souvent les plates-formes étrangères comme Google pour vendre leurs produits. L’initiative de Xavier Neil est intéressante mais il faut sans doute faire la part du marketing et de la recherche dans son interview à la « Tribune ». Enfin le montant de l’avertissement n’est peut-être pas à la hauteur de l’enjeu. Entre 2013 et 2022, les investissements des entreprises dans le secteur de l’intelligence artificielle ont fortement augmenté dans le monde, passant de 16 milliards de dollars en 2013 à plus de 175 milliards de dollars en 2022.

Iliad investit plus de 200 millions d’euros dans l’intelligence artificielle. Dans quel objectif ?

XAVIER NIEL- Quand éclate une révolution dans la tech, on souhaite naturellement en faire partie. Pour l’IA, deux éléments sont essentiels : la puissance de calcul et les chercheurs. Concernant le premier, Scaleway, le fournisseur de cloud et filiale du Groupe Iliad, a déjà acquis en septembre dernier auprès de NVIDIA, le champion mondial du calcul informatique, un supercalculateur : une plateforme spécifiquement dédiée aux applications de l’intelligence artificielle. C’est le cinquième plus grand au monde. Le plus puissant en dehors des États-Unis. Il est installé ici, à Paris. Sans volonté hégémonique. Simplement celle de faire émerger un écosystème.

Et du côté des chercheurs ?

Nous avons une chance inouïe en France. Celle de compter deux écoles – Polytechnique et l’ENS Paris-Saclay -, qui forment les meilleurs ingénieurs au monde dans ce domaine. Le revers de la médaille, c’est que ces talents exceptionnels quittent souvent leur pays pour aller ailleurs. Mon but consiste à les retenir ici. Ou à les inciter à revenir. Dans les deux cas, concevoir un écosystème complet était indispensable. Nous l’avons construit, en investissant massivement avec nos partenaires américains traditionnels, à hauteur de plusieurs dizaines de millions d’euros. Nous ne l’avions encore jamais fait. Ces investissements ont été réalisés dans des startups lancées par des Français. Mais aussi dans celles fondées par des entrepreneurs internationaux, qui choisissent la France précisément grâce à cet environnement que nous avons mis en place. La French Tech parvient désormais à boucler des levées de fonds sur des niveaux de valorisations inédits.

L’intelligence artificielle va provoquer la fin des médias ?

L’intelligence artificielle va provoquer la fin des médias ?

Recherche d’informations, production de contenu, traduction, détection de propos haineux… l’intelligence artificielle (IA) générative promet d’importants gains de productivité dans l’univers des médias. Les médias nous accompagnent au quotidien et sont un support à la démocratie : ils ont la liberté de montrer différents points de vue et idées, de dénoncer la corruption et les discriminations, mais également de montrer la cohésion sociale et culturelle.
Alors que le public se tourne vers les médias pour s’informer, se cultiver et se divertir, les médias n’échappent pas aux soucis économiques et à la rentabilité d’une industrie mesurée en termes d’audimat et de vente. Dans ce contexte, l’IA générative amène de nouveaux outils puissants et sera de plus en plus utilisée.

Laurence Devillers
Professeur en Intelligence Artificielle, Sorbonne Université dans The conversation

Un article intéressant mais qui n’assiste pas suffisamment sur l’actuelle très grande fragilité des médias. Une fragilité qui se traduit notamment par un introuvable équilibre financier qui favorise la médiocrité rédactionnelle. Et qui permet la mainmise des grands capitaines d’industrie sur l’information ! NDLR

Mais il faut crucialement rappeler que les IA génératives n’ont pas d’idées, et qu’elles reprennent des propos qui peuvent être agencés de façon aussi intéressante qu’absurde (on parle alors d’« hallucinations » des systèmes d’IA). Ces IA génératives ne savent pas ce qui est possible ou impossible, vrai ou faux, moral ou immoral.

Ainsi, le métier de journaliste doit rester central pour enquêter et raisonner sur les situations complexes de société et de géopolitique. Alors, comment les médias peuvent-ils exploiter les outils d’IA tout en évitant leurs écueils ?

Le Comité national pilote d’éthique du numérique (CNPEN) a rendu en juillet un avis général sur les enjeux d’éthique des IA génératives, que j’ai co-coordonné, au ministre chargé de la Transition numérique. Il précise notamment les risques de ces systèmes.

Les médias peuvent utiliser l’IA pour améliorer la qualité de l’information, lutter contre les fausses nouvelles, identifier le harcèlement et les incitations à la haine, mais aussi parce qu’elle peut permettre de faire avancer la connaissance et mieux comprendre des réalités complexes, comme le développement durable ou encore les flux migratoires.

Les IA génératives sont des outils fabuleux qui peuvent faire émerger des résultats que nous ne pourrions pas obtenir sans elles car elles calculent à des niveaux de représentation qui ne sont pas les nôtres, sur une quantité gigantesque de données et avec une rapidité qu’un cerveau ne sait pas traiter. Si on sait se doter de garde-fous, ce sont des systèmes qui vont nous faire gagner du temps de recherche d’information, de lecture et de production et qui vont nous permettre de lutter contre les stéréotypes et d’optimiser des processus.

Ces outils n’arrivent pas maintenant par hasard. Alors que nous sommes effectivement noyés sous un flot d’informations diffusées en continu par les chaînes classiques ou contenus accessibles sur Internet, des outils comme ChatGPT nous permettent de consulter et de produire des synthèses, programmes, poèmes, etc., à partir d’un ensemble d’informations gigantesques inaccessibles à un cerveau humain en temps humain. Ils peuvent donc être extrêmement utiles pour de nombreuses tâches mais aussi contribuer à un flux d’informations non sourcées. Il faut donc les apprivoiser et en comprendre le fonctionnement et les risques.

Les performances des IA génératives tiennent à la capacité d’apprentissage auto-supervisée (c’est-à-dire sans être guidée par une main humaine, ce qui est un concept différent de l’adaptation en temps réel) de leurs modèles internes, appelés « modèles de fondation », qui sont entraînés à partir d’énormes corpus de données constitués de milliards d’images, de textes ou de sons très souvent dans les cultures dominantes sur Internet, par exemple GPT3.5 de ChatGPT est nourri majoritairement de données en anglais. Les deux autres types d’apprentissage ont également été utilisés : avant sa mise à disposition fin 2022, ChatGPT a été optimisé grâce à un apprentissage supervisé puis grâce à un apprentissage par renforcement par des humains de façon à affiner les résultats et à éliminer les propos non souhaitables.

Cette optimisation par des humains a d’ailleurs été très critiquée. Comment sont-ils formés ? Qui sont ces « hommes du clic » sous-payés ? Ces propos « non souhaitables », en outre, ne sont pas décidés par un comité d’éthique ou le législateur, mais par l’entreprise seule.

Durant l’apprentissage des modèles de fondation sur des textes, le système apprend ce que l’on appelle des « vecteurs de plongements lexicaux » (de taille 512 dans GPT 3.5). C’est le système « transformers ». Le principe d’entraînement du modèle de fondation est fondé par l’hypothèse distributionnelle proposée par le linguiste américain John Ruppert Fith en 1957 : on ne peut connaître le sens d’un mot que par ses fréquentations (« You shall know a word by the company it keeps »).

Ces entités (« token » en anglais) font en moyenne quatre caractères dans GPT3.5. Elles peuvent n’être constituées que d’un seul et d’un blanc. Elles peuvent donc être des parties de mots ou des mots avec l’avantage de pouvoir combiner agilement ces entités pour recréer des mots et des phrases sans aucune connaissance linguistique (hormis celle implicite à l’enchaînement des mots), le désavantage étant évidemment d’être moins interprétable. Chaque entité est codée par un vecteur qui contient des informations sur tous les contextes où cette entité a été vue grâce à des mécanismes d’attention. Ainsi deux entités ayant le même voisinage seront considérées comme proches par le système d’IA.

Le système d’IA générative sur des textes apprend ainsi un modèle de production avec des mécanismes qui n’ont rien à voir avec la production humaine située avec un corps, pour autant elle est capable de l’imiter à partir des textes de l’apprentissage. Ce fonctionnement a pour conséquence directe de perdre les sources d’où sont extraits les voisinages repérés, ce qui pose un problème de fond pour la vérification du contenu produit. Aucune vérification de la véracité des propos n’est produite facilement. Il faut retrouver les sources et quand on demande au système de le faire, il peut les inventer !

Lorsque vous proposez une invite à ChatGPT, il va prédire l’entité suivante, puis la suivante et ainsi de suite. Un paramètre clé est celui de la « température » qui exprime le degré d’aléatoire dans le choix des entités. À une température élevée, le modèle est plus « créatif » car il peut générer des sorties plus diversifiées, tandis qu’à une température basse, le modèle tend à choisir les sorties les plus probables, ce qui rend le texte généré plus prévisible. Trois options de température sont proposées dans l’outil conversationnel Bing (GPT4) de Microsoft (plus précis, plus équilibré, plus créatif). Souvent, les hyperparamètres des systèmes ne sont pas dévoilés pour des raisons de cybersécurité ou de confidentialité comme c’est le cas dans ChatGPT… mais la température permet d’avoir des réponses différentes à la même question.

Il est ainsi facile d’imaginer certains des risques de l’IA générative pour les médias. D’autres apparaîtront certainement au fur et à mesure de leurs utilisations.

Il paraît urgent de trouver comment les minimiser en attendant la promulgation pour l’Union européenne d’un IA Act en se dotant de guides de bonnes pratiques. L’avis du CNPEN sur les IA génératives et les enjeux d’éthique comprend, lui, 10 préconisations pour la recherche et 12 pour la gouvernance. Voici quelques-uns des risques identifiés pour les médias :

Faire trop confiance aux dires de la machine sans recouper avec d’autres sources. Le croisement de plusieurs sources de données et la nécessité d’enquêter deviennent fondamentaux pour toutes les professions : journalistes, scientifiques, professeurs et autres. Il semble d’ailleurs fondamental d’enseigner la façon d’utiliser ces systèmes à l’école et à l’université et de cultiver l’art de débattre pour élaborer ses idées.

Comprendre que ChatGPT est construit avec des données majoritairement en anglais et que son influence culturelle peut-être importante.

Utiliser massivement ChatGPT de façon paresseuse dans les médias, en produisant énormément de nouvelles données artificielles non vérifiées sur Internet qui pourraient servir à entraîner de nouvelles IA. Ce serait dramatique qu’il n’y ait plus aucune garantie de vérité sur ces données reconstituées par la machine. Deux avocats américains se sont par exemple fait piéger en faisant référence au cours d’une procédure, sur les conseils de l’algorithme, à des jurisprudences qui n’existaient pas.

Remplacer certaines tâches dans de nombreux métiers autour des médias par des systèmes d’IA. Certains métiers vont disparaître, d’autres vont apparaître. Il faut créer des interfaces avec des mesures de confiance pour aider la coopération entre les humains et les systèmes d’IA.

Utiliser les systèmes d’IA et les démystifier devient une nécessité absolue tout en faisant attention de ne pas désapprendre et de pouvoir s’en passer.

Il est nécessaire de comprendre que ChatGPT fait de nombreuses erreurs, par exemple il n’a pas de notion d’histoire ni de compréhension de l’espace. Le diable est dans les détails mais également dans le choix des données utilisées pour créer le modèle. La loi sur l’IA réclame plus de transparence sur ces systèmes d’IA pour vérifier leur robustesse, leur non-manipulation et leur consommation énergétique.

Il faut vérifier que les données produites n’empiètent pas sur le droit d’auteur et que les données utilisées par le système sont correctement utilisées. Si des données « synthétiques » remplacent demain nos connaissances dans d’entraînement des futurs modèles de fondation, il sera de plus en plus difficile de démêler le vrai du faux.

Donner accès à des systèmes d’IA (par exemple Dall-E ou Stable Diffusion) qui peuvent être utilisés pour créer de l’hypertrucage (deepfake en anglais) pour produire des images. Le phénomène rappelle l’importance de vérifier non seulement la fiabilité des sources des articles, mais aussi des images et vidéos. Il est question de mettre des filigranes (ou watermarks) dans les textes, images ou vidéos produites pour savoir si elles ont été faites par des IA ou de labelliser les données « bio » (ou produites par des humains).

L’arrivée de ChatGPT a été un tsunami pour tout le monde. Il a bluffé experts comme non-experts par ses capacités de production de texte, de traduction et même de programmation informatique.

L’explication scientifique précise du phénomène d’« étincelle d’émergences » dans les modèles de fondation est un sujet de recherche actuel et dépend des données et des hyperparamètres des modèles. Il est important de développer massivement la recherche pluridisciplinaire sur les émergences et limites des IA génératives et sur les mesures à déployer pour les contrôler.

Enfin, if faut éduquer à l’école sur les risques et l’éthique tout autant que sur la programmation, et également former et démystifier les systèmes d’IA pour utiliser et innover de façon responsable en ayant conscience des conséquences éthiques, économiques, sociétales et du coût environnemental.

La France pourrait jouer un rôle majeur au sein de l’Europe avec l’ambition d’être un laboratoire de l’IA pour les médias en étudiant les enjeux éthiques et économiques au service du bien commun et des démocraties.

Société- La fin des médias avec l’intelligence artificielle ?

Société-La fin des médias avec l’intelligence artificielle ?

Recherche d’informations, production de contenu, traduction, détection de propos haineux… l’intelligence artificielle (IA) générative promet d’importants gains de productivité dans l’univers des médias. Les médias nous accompagnent au quotidien et sont un support à la démocratie : ils ont la liberté de montrer différents points de vue et idées, de dénoncer la corruption et les discriminations, mais également de montrer la cohésion sociale et culturelle.
Alors que le public se tourne vers les médias pour s’informer, se cultiver et se divertir, les médias n’échappent pas aux soucis économiques et à la rentabilité d’une industrie mesurée en termes d’audimat et de vente. Dans ce contexte, l’IA générative amène de nouveaux outils puissants et sera de plus en plus utilisée.

Laurence Devillers
Professeur en Intelligence Artificielle, Sorbonne Université dans The conversation

Un article intéressant mais qui n’assiste pas suffisamment sur l’actuelle très grande fragilité des médias. Une fragilité qui se traduit notamment par un introuvable équilibre financier qui favorise la médiocrité rédactionnelle. Et qui permet la mainmise des grands capitaines d’industrie sur l’information ! NDLR

Mais il faut crucialement rappeler que les IA génératives n’ont pas d’idées, et qu’elles reprennent des propos qui peuvent être agencés de façon aussi intéressante qu’absurde (on parle alors d’« hallucinations » des systèmes d’IA). Ces IA génératives ne savent pas ce qui est possible ou impossible, vrai ou faux, moral ou immoral.

Ainsi, le métier de journaliste doit rester central pour enquêter et raisonner sur les situations complexes de société et de géopolitique. Alors, comment les médias peuvent-ils exploiter les outils d’IA tout en évitant leurs écueils ?

Le Comité national pilote d’éthique du numérique (CNPEN) a rendu en juillet un avis général sur les enjeux d’éthique des IA génératives, que j’ai co-coordonné, au ministre chargé de la Transition numérique. Il précise notamment les risques de ces systèmes.

Les médias peuvent utiliser l’IA pour améliorer la qualité de l’information, lutter contre les fausses nouvelles, identifier le harcèlement et les incitations à la haine, mais aussi parce qu’elle peut permettre de faire avancer la connaissance et mieux comprendre des réalités complexes, comme le développement durable ou encore les flux migratoires.

Les IA génératives sont des outils fabuleux qui peuvent faire émerger des résultats que nous ne pourrions pas obtenir sans elles car elles calculent à des niveaux de représentation qui ne sont pas les nôtres, sur une quantité gigantesque de données et avec une rapidité qu’un cerveau ne sait pas traiter. Si on sait se doter de garde-fous, ce sont des systèmes qui vont nous faire gagner du temps de recherche d’information, de lecture et de production et qui vont nous permettre de lutter contre les stéréotypes et d’optimiser des processus.

Ces outils n’arrivent pas maintenant par hasard. Alors que nous sommes effectivement noyés sous un flot d’informations diffusées en continu par les chaînes classiques ou contenus accessibles sur Internet, des outils comme ChatGPT nous permettent de consulter et de produire des synthèses, programmes, poèmes, etc., à partir d’un ensemble d’informations gigantesques inaccessibles à un cerveau humain en temps humain. Ils peuvent donc être extrêmement utiles pour de nombreuses tâches mais aussi contribuer à un flux d’informations non sourcées. Il faut donc les apprivoiser et en comprendre le fonctionnement et les risques.

Les performances des IA génératives tiennent à la capacité d’apprentissage auto-supervisée (c’est-à-dire sans être guidée par une main humaine, ce qui est un concept différent de l’adaptation en temps réel) de leurs modèles internes, appelés « modèles de fondation », qui sont entraînés à partir d’énormes corpus de données constitués de milliards d’images, de textes ou de sons très souvent dans les cultures dominantes sur Internet, par exemple GPT3.5 de ChatGPT est nourri majoritairement de données en anglais. Les deux autres types d’apprentissage ont également été utilisés : avant sa mise à disposition fin 2022, ChatGPT a été optimisé grâce à un apprentissage supervisé puis grâce à un apprentissage par renforcement par des humains de façon à affiner les résultats et à éliminer les propos non souhaitables.

Cette optimisation par des humains a d’ailleurs été très critiquée. Comment sont-ils formés ? Qui sont ces « hommes du clic » sous-payés ? Ces propos « non souhaitables », en outre, ne sont pas décidés par un comité d’éthique ou le législateur, mais par l’entreprise seule.

Durant l’apprentissage des modèles de fondation sur des textes, le système apprend ce que l’on appelle des « vecteurs de plongements lexicaux » (de taille 512 dans GPT 3.5). C’est le système « transformers ». Le principe d’entraînement du modèle de fondation est fondé par l’hypothèse distributionnelle proposée par le linguiste américain John Ruppert Fith en 1957 : on ne peut connaître le sens d’un mot que par ses fréquentations (« You shall know a word by the company it keeps »).

Ces entités (« token » en anglais) font en moyenne quatre caractères dans GPT3.5. Elles peuvent n’être constituées que d’un seul et d’un blanc. Elles peuvent donc être des parties de mots ou des mots avec l’avantage de pouvoir combiner agilement ces entités pour recréer des mots et des phrases sans aucune connaissance linguistique (hormis celle implicite à l’enchaînement des mots), le désavantage étant évidemment d’être moins interprétable. Chaque entité est codée par un vecteur qui contient des informations sur tous les contextes où cette entité a été vue grâce à des mécanismes d’attention. Ainsi deux entités ayant le même voisinage seront considérées comme proches par le système d’IA.

Le système d’IA générative sur des textes apprend ainsi un modèle de production avec des mécanismes qui n’ont rien à voir avec la production humaine située avec un corps, pour autant elle est capable de l’imiter à partir des textes de l’apprentissage. Ce fonctionnement a pour conséquence directe de perdre les sources d’où sont extraits les voisinages repérés, ce qui pose un problème de fond pour la vérification du contenu produit. Aucune vérification de la véracité des propos n’est produite facilement. Il faut retrouver les sources et quand on demande au système de le faire, il peut les inventer !

Lorsque vous proposez une invite à ChatGPT, il va prédire l’entité suivante, puis la suivante et ainsi de suite. Un paramètre clé est celui de la « température » qui exprime le degré d’aléatoire dans le choix des entités. À une température élevée, le modèle est plus « créatif » car il peut générer des sorties plus diversifiées, tandis qu’à une température basse, le modèle tend à choisir les sorties les plus probables, ce qui rend le texte généré plus prévisible. Trois options de température sont proposées dans l’outil conversationnel Bing (GPT4) de Microsoft (plus précis, plus équilibré, plus créatif). Souvent, les hyperparamètres des systèmes ne sont pas dévoilés pour des raisons de cybersécurité ou de confidentialité comme c’est le cas dans ChatGPT… mais la température permet d’avoir des réponses différentes à la même question.

Il est ainsi facile d’imaginer certains des risques de l’IA générative pour les médias. D’autres apparaîtront certainement au fur et à mesure de leurs utilisations.

Il paraît urgent de trouver comment les minimiser en attendant la promulgation pour l’Union européenne d’un IA Act en se dotant de guides de bonnes pratiques. L’avis du CNPEN sur les IA génératives et les enjeux d’éthique comprend, lui, 10 préconisations pour la recherche et 12 pour la gouvernance. Voici quelques-uns des risques identifiés pour les médias :

Faire trop confiance aux dires de la machine sans recouper avec d’autres sources. Le croisement de plusieurs sources de données et la nécessité d’enquêter deviennent fondamentaux pour toutes les professions : journalistes, scientifiques, professeurs et autres. Il semble d’ailleurs fondamental d’enseigner la façon d’utiliser ces systèmes à l’école et à l’université et de cultiver l’art de débattre pour élaborer ses idées.

Comprendre que ChatGPT est construit avec des données majoritairement en anglais et que son influence culturelle peut-être importante.

Utiliser massivement ChatGPT de façon paresseuse dans les médias, en produisant énormément de nouvelles données artificielles non vérifiées sur Internet qui pourraient servir à entraîner de nouvelles IA. Ce serait dramatique qu’il n’y ait plus aucune garantie de vérité sur ces données reconstituées par la machine. Deux avocats américains se sont par exemple fait piéger en faisant référence au cours d’une procédure, sur les conseils de l’algorithme, à des jurisprudences qui n’existaient pas.

Remplacer certaines tâches dans de nombreux métiers autour des médias par des systèmes d’IA. Certains métiers vont disparaître, d’autres vont apparaître. Il faut créer des interfaces avec des mesures de confiance pour aider la coopération entre les humains et les systèmes d’IA.

Utiliser les systèmes d’IA et les démystifier devient une nécessité absolue tout en faisant attention de ne pas désapprendre et de pouvoir s’en passer.

Il est nécessaire de comprendre que ChatGPT fait de nombreuses erreurs, par exemple il n’a pas de notion d’histoire ni de compréhension de l’espace. Le diable est dans les détails mais également dans le choix des données utilisées pour créer le modèle. La loi sur l’IA réclame plus de transparence sur ces systèmes d’IA pour vérifier leur robustesse, leur non-manipulation et leur consommation énergétique.

Il faut vérifier que les données produites n’empiètent pas sur le droit d’auteur et que les données utilisées par le système sont correctement utilisées. Si des données « synthétiques » remplacent demain nos connaissances dans d’entraînement des futurs modèles de fondation, il sera de plus en plus difficile de démêler le vrai du faux.

Donner accès à des systèmes d’IA (par exemple Dall-E ou Stable Diffusion) qui peuvent être utilisés pour créer de l’hypertrucage (deepfake en anglais) pour produire des images. Le phénomène rappelle l’importance de vérifier non seulement la fiabilité des sources des articles, mais aussi des images et vidéos. Il est question de mettre des filigranes (ou watermarks) dans les textes, images ou vidéos produites pour savoir si elles ont été faites par des IA ou de labelliser les données « bio » (ou produites par des humains).

L’arrivée de ChatGPT a été un tsunami pour tout le monde. Il a bluffé experts comme non-experts par ses capacités de production de texte, de traduction et même de programmation informatique.

L’explication scientifique précise du phénomène d’« étincelle d’émergences » dans les modèles de fondation est un sujet de recherche actuel et dépend des données et des hyperparamètres des modèles. Il est important de développer massivement la recherche pluridisciplinaire sur les émergences et limites des IA génératives et sur les mesures à déployer pour les contrôler.

Enfin, if faut éduquer à l’école sur les risques et l’éthique tout autant que sur la programmation, et également former et démystifier les systèmes d’IA pour utiliser et innover de façon responsable en ayant conscience des conséquences éthiques, économiques, sociétales et du coût environnemental.

La France pourrait jouer un rôle majeur au sein de l’Europe avec l’ambition d’être un laboratoire de l’IA pour les médias en étudiant les enjeux éthiques et économiques au service du bien commun et des démocraties.

La fin des médias avec l’intelligence artificielle ?

La fin des médias avec l’intelligence artificielle ?

Recherche d’informations, production de contenu, traduction, détection de propos haineux… l’intelligence artificielle (IA) générative promet d’importants gains de productivité dans l’univers des médias. Les médias nous accompagnent au quotidien et sont un support à la démocratie : ils ont la liberté de montrer différents points de vue et idées, de dénoncer la corruption et les discriminations, mais également de montrer la cohésion sociale et culturelle.
Alors que le public se tourne vers les médias pour s’informer, se cultiver et se divertir, les médias n’échappent pas aux soucis économiques et à la rentabilité d’une industrie mesurée en termes d’audimat et de vente. Dans ce contexte, l’IA générative amène de nouveaux outils puissants et sera de plus en plus utilisée.

Laurence Devillers
Professeur en Intelligence Artificielle, Sorbonne Université dans The conversation

Mais il faut crucialement rappeler que les IA génératives n’ont pas d’idées, et qu’elles reprennent des propos qui peuvent être agencés de façon aussi intéressante qu’absurde (on parle alors d’« hallucinations » des systèmes d’IA). Ces IA génératives ne savent pas ce qui est possible ou impossible, vrai ou faux, moral ou immoral.

Ainsi, le métier de journaliste doit rester central pour enquêter et raisonner sur les situations complexes de société et de géopolitique. Alors, comment les médias peuvent-ils exploiter les outils d’IA tout en évitant leurs écueils ?

Le Comité national pilote d’éthique du numérique (CNPEN) a rendu en juillet un avis général sur les enjeux d’éthique des IA génératives, que j’ai co-coordonné, au ministre chargé de la Transition numérique. Il précise notamment les risques de ces systèmes.

Les médias peuvent utiliser l’IA pour améliorer la qualité de l’information, lutter contre les fausses nouvelles, identifier le harcèlement et les incitations à la haine, mais aussi parce qu’elle peut permettre de faire avancer la connaissance et mieux comprendre des réalités complexes, comme le développement durable ou encore les flux migratoires.

Les IA génératives sont des outils fabuleux qui peuvent faire émerger des résultats que nous ne pourrions pas obtenir sans elles car elles calculent à des niveaux de représentation qui ne sont pas les nôtres, sur une quantité gigantesque de données et avec une rapidité qu’un cerveau ne sait pas traiter. Si on sait se doter de garde-fous, ce sont des systèmes qui vont nous faire gagner du temps de recherche d’information, de lecture et de production et qui vont nous permettre de lutter contre les stéréotypes et d’optimiser des processus.

Ces outils n’arrivent pas maintenant par hasard. Alors que nous sommes effectivement noyés sous un flot d’informations diffusées en continu par les chaînes classiques ou contenus accessibles sur Internet, des outils comme ChatGPT nous permettent de consulter et de produire des synthèses, programmes, poèmes, etc., à partir d’un ensemble d’informations gigantesques inaccessibles à un cerveau humain en temps humain. Ils peuvent donc être extrêmement utiles pour de nombreuses tâches mais aussi contribuer à un flux d’informations non sourcées. Il faut donc les apprivoiser et en comprendre le fonctionnement et les risques.

Les performances des IA génératives tiennent à la capacité d’apprentissage auto-supervisée (c’est-à-dire sans être guidée par une main humaine, ce qui est un concept différent de l’adaptation en temps réel) de leurs modèles internes, appelés « modèles de fondation », qui sont entraînés à partir d’énormes corpus de données constitués de milliards d’images, de textes ou de sons très souvent dans les cultures dominantes sur Internet, par exemple GPT3.5 de ChatGPT est nourri majoritairement de données en anglais. Les deux autres types d’apprentissage ont également été utilisés : avant sa mise à disposition fin 2022, ChatGPT a été optimisé grâce à un apprentissage supervisé puis grâce à un apprentissage par renforcement par des humains de façon à affiner les résultats et à éliminer les propos non souhaitables.

Cette optimisation par des humains a d’ailleurs été très critiquée. Comment sont-ils formés ? Qui sont ces « hommes du clic » sous-payés ? Ces propos « non souhaitables », en outre, ne sont pas décidés par un comité d’éthique ou le législateur, mais par l’entreprise seule.

Durant l’apprentissage des modèles de fondation sur des textes, le système apprend ce que l’on appelle des « vecteurs de plongements lexicaux » (de taille 512 dans GPT 3.5). C’est le système « transformers ». Le principe d’entraînement du modèle de fondation est fondé par l’hypothèse distributionnelle proposée par le linguiste américain John Ruppert Fith en 1957 : on ne peut connaître le sens d’un mot que par ses fréquentations (« You shall know a word by the company it keeps »).

Ces entités (« token » en anglais) font en moyenne quatre caractères dans GPT3.5. Elles peuvent n’être constituées que d’un seul et d’un blanc. Elles peuvent donc être des parties de mots ou des mots avec l’avantage de pouvoir combiner agilement ces entités pour recréer des mots et des phrases sans aucune connaissance linguistique (hormis celle implicite à l’enchaînement des mots), le désavantage étant évidemment d’être moins interprétable. Chaque entité est codée par un vecteur qui contient des informations sur tous les contextes où cette entité a été vue grâce à des mécanismes d’attention. Ainsi deux entités ayant le même voisinage seront considérées comme proches par le système d’IA.

Le système d’IA générative sur des textes apprend ainsi un modèle de production avec des mécanismes qui n’ont rien à voir avec la production humaine située avec un corps, pour autant elle est capable de l’imiter à partir des textes de l’apprentissage. Ce fonctionnement a pour conséquence directe de perdre les sources d’où sont extraits les voisinages repérés, ce qui pose un problème de fond pour la vérification du contenu produit. Aucune vérification de la véracité des propos n’est produite facilement. Il faut retrouver les sources et quand on demande au système de le faire, il peut les inventer !

Lorsque vous proposez une invite à ChatGPT, il va prédire l’entité suivante, puis la suivante et ainsi de suite. Un paramètre clé est celui de la « température » qui exprime le degré d’aléatoire dans le choix des entités. À une température élevée, le modèle est plus « créatif » car il peut générer des sorties plus diversifiées, tandis qu’à une température basse, le modèle tend à choisir les sorties les plus probables, ce qui rend le texte généré plus prévisible. Trois options de température sont proposées dans l’outil conversationnel Bing (GPT4) de Microsoft (plus précis, plus équilibré, plus créatif). Souvent, les hyperparamètres des systèmes ne sont pas dévoilés pour des raisons de cybersécurité ou de confidentialité comme c’est le cas dans ChatGPT… mais la température permet d’avoir des réponses différentes à la même question.

Il est ainsi facile d’imaginer certains des risques de l’IA générative pour les médias. D’autres apparaîtront certainement au fur et à mesure de leurs utilisations.

Il paraît urgent de trouver comment les minimiser en attendant la promulgation pour l’Union européenne d’un IA Act en se dotant de guides de bonnes pratiques. L’avis du CNPEN sur les IA génératives et les enjeux d’éthique comprend, lui, 10 préconisations pour la recherche et 12 pour la gouvernance. Voici quelques-uns des risques identifiés pour les médias :

Faire trop confiance aux dires de la machine sans recouper avec d’autres sources. Le croisement de plusieurs sources de données et la nécessité d’enquêter deviennent fondamentaux pour toutes les professions : journalistes, scientifiques, professeurs et autres. Il semble d’ailleurs fondamental d’enseigner la façon d’utiliser ces systèmes à l’école et à l’université et de cultiver l’art de débattre pour élaborer ses idées.

Comprendre que ChatGPT est construit avec des données majoritairement en anglais et que son influence culturelle peut-être importante.

Utiliser massivement ChatGPT de façon paresseuse dans les médias, en produisant énormément de nouvelles données artificielles non vérifiées sur Internet qui pourraient servir à entraîner de nouvelles IA. Ce serait dramatique qu’il n’y ait plus aucune garantie de vérité sur ces données reconstituées par la machine. Deux avocats américains se sont par exemple fait piéger en faisant référence au cours d’une procédure, sur les conseils de l’algorithme, à des jurisprudences qui n’existaient pas.

Remplacer certaines tâches dans de nombreux métiers autour des médias par des systèmes d’IA. Certains métiers vont disparaître, d’autres vont apparaître. Il faut créer des interfaces avec des mesures de confiance pour aider la coopération entre les humains et les systèmes d’IA.

Utiliser les systèmes d’IA et les démystifier devient une nécessité absolue tout en faisant attention de ne pas désapprendre et de pouvoir s’en passer.

Il est nécessaire de comprendre que ChatGPT fait de nombreuses erreurs, par exemple il n’a pas de notion d’histoire ni de compréhension de l’espace. Le diable est dans les détails mais également dans le choix des données utilisées pour créer le modèle. La loi sur l’IA réclame plus de transparence sur ces systèmes d’IA pour vérifier leur robustesse, leur non-manipulation et leur consommation énergétique.

Il faut vérifier que les données produites n’empiètent pas sur le droit d’auteur et que les données utilisées par le système sont correctement utilisées. Si des données « synthétiques » remplacent demain nos connaissances dans d’entraînement des futurs modèles de fondation, il sera de plus en plus difficile de démêler le vrai du faux.

Donner accès à des systèmes d’IA (par exemple Dall-E ou Stable Diffusion) qui peuvent être utilisés pour créer de l’hypertrucage (deepfake en anglais) pour produire des images. Le phénomène rappelle l’importance de vérifier non seulement la fiabilité des sources des articles, mais aussi des images et vidéos. Il est question de mettre des filigranes (ou watermarks) dans les textes, images ou vidéos produites pour savoir si elles ont été faites par des IA ou de labelliser les données « bio » (ou produites par des humains).

L’arrivée de ChatGPT a été un tsunami pour tout le monde. Il a bluffé experts comme non-experts par ses capacités de production de texte, de traduction et même de programmation informatique.

L’explication scientifique précise du phénomène d’« étincelle d’émergences » dans les modèles de fondation est un sujet de recherche actuel et dépend des données et des hyperparamètres des modèles. Il est important de développer massivement la recherche pluridisciplinaire sur les émergences et limites des IA génératives et sur les mesures à déployer pour les contrôler.

Enfin, if faut éduquer à l’école sur les risques et l’éthique tout autant que sur la programmation, et également former et démystifier les systèmes d’IA pour utiliser et innover de façon responsable en ayant conscience des conséquences éthiques, économiques, sociétales et du coût environnemental.

La France pourrait jouer un rôle majeur au sein de l’Europe avec l’ambition d’être un laboratoire de l’IA pour les médias en étudiant les enjeux éthiques et économiques au service du bien commun et des démocraties.

12345...12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol