Archive pour le Tag 'l’IA'

« Les Prophètes de l’IA » contestés

« Les Prophètes de l’IA » contestés

Le journaliste Thibault Prévost affirme que les d’IA génératives ne sont pas fiables (et ne le seront sans doute jamais), nuisent à la planète, alimentent une probable bulle financière et perpétuent les biais sexistes et racistes.

Par Olivier Clairouin dans Le Monde

Dans Les Prophètes de l’IA (Lux, 216 pages, 18 euros), le journaliste Thibault Prévost promène son scalpel à la surface du phénomène médiatique planétaire qu’est devenue l’intelligence artificielle (IA) pour en extraire les ressorts économiques et idéologiques. Son ambition est de répondre à un apparent paradoxe : alors que les entreprises de la Silicon Valley ont toujours soutenu que leurs produits étaient bénéfiques pour l’humanité, pourquoi nous intiment-elles désormais de craindre l’IA comme le jugement dernier ?

Transhumanisme du Suédois Nick Bostrom, altruisme efficace de l’Australien Peter Singer, long-termisme de l’Ecossais William MacAskill, mais aussi « technoféodalisme », « accélérationnisme efficace », « lumières noires »… La multiplication des notions citées dans cet essai très référencé a de quoi donner le tournis, comme le reconnaît l’auteur. Nul besoin, cependant, de forger de nouveaux concepts, comme le font certains essais technocritiques à la mode : tout est déjà là, en germe depuis longtemps, et nourrit ce qu’Emile Torres considère comme « le système de croyance séculaire le plus dangereux de la planète » : une obsession des pontes de la Silicon Valley pour l’avenir de l’humanité qui s’est infiltrée jusque dans les gouvernements et les universités. Avenir dont eux seuls, bien sûr, détiendraient la clé.

Sciences et société : « L’IA va tuer l’école ! »

Sciences: « L’IA va tuer l’école ! »

 Bientôt, je serai un jeune juriste prêt à entrer dans un monde du travail radicalement transformé. Alors que je termine mes études, une question m’obsède : que restera-t-il à faire dans un monde où l’IA surpassera bientôt les meilleurs experts ?
Par Alexandre Tsicopoulos, étudiant en droit dans La Tribune

Elon Musk lui-même a prédit qu’en 2028, l’IA dépassera l’intelligence cumulée des 8 milliards d’humains. Dario Amodei, le créateur d’Anthropic et principal concurrent d’OpenAI, résume cette révolution : « L’IA sera prochainement plus intelligente que les prix Nobel. Nous aurons une nation de génie concentrée dans un data center. »  Les modèles comme GPT-4 ou Claude 3.5 surpassent les étudiants dans la plupart des tests académiques. Avec un QI de 120, GPT-4 est déjà plus intelligent que 90 % des Français et cette IA gagne chaque mois 2 points de QI. Pourtant, l’école s’obstine à former aux métiers d’hier, rendant les connaissances obsolètes avant même la remise des diplômes. La supériorité de GPT-4 sur les médecins est troublante. Une étude de l’université de Stanford montre que l’IA obtient 90 % de bons diagnostics médicaux, tandis que les médecins plafonnent à 74 %. L’arrivée au pouvoir du couple Donald Trump-Elon Musk va encore accélérer cette cavalcade technologique.

Face à la certitude d’un dépassement imminent de l’intelligence humaine par l’IA, l’école telle que je l’ai connue doit se réinventer. Mes compétences, que je pensais uniques, peuvent désormais être automatisées. Institution ancestrale, l’école peine à réduire les inégalités intellectuelles et à adapter la nouvelle génération à un monde dominé par l’IA. En effet, elle n’a pas d’impact significatif sur les capacités intellectuelles des élèves, qui restent hélas majoritairement déterminées par des facteurs génétiques. Dans une économie de la connaissance, où l’intelligence est la clé de tous les pouvoirs, les différences cognitives expliquent l’essentiel des disparités de réussite entre les individus.

À l’heure des cerveaux en silicium, l’urgence est d’éviter la dystopie décrite par Yuval Harari : un monde scindé entre des dieux maîtrisant l’IA et des inutiles laissés pour compte. Les résultats de l’étude sur le revenu universel financée par Sam Altman, le patron d’OpenAI, renforcent cette inquiétude. Cette expérimentation menée dans l’espoir de trouver une solution face à l’automatisation de nombreux métiers a donné des résultats angoissants : le revenu universel augmente quatre choses : la consommation d’antidépresseurs, d’hypnotiques, d’anxiolytiques et d’alcool. Cet échec cinglant nous oblige à explorer de nouvelles pistes. La seule issue résidera dans l’augmentation des capacités cognitives humaines.

De Gaulle écrivait en 1934 : « Derrière chaque victoire d’Alexandre le Grand, il y a toujours Aristote », pour souligner l’influence majeure du philosophe grec sur son illustre élève. Demain, chaque élève sera accompagné par un « Aristote numérique » capable de personnaliser l’éducation selon ses aptitudes neurobiologiques. Mais cela ne suffira pas. L’école du futur devra augmenter les cerveaux biologiques grâce aux NBIC (nanotechnologies, biotechnologies, informatique et sciences cognitives).
La neuroaugmentation est désormais incontournable pour rester compétitif dans un monde ultra complexe façonné par l’IA. Aux États-Unis, la start-up Heliospect Genomics propose des tests génétiques permettant aux parents de sélectionner leurs embryons les plus susceptibles de développer un haut quotient intellectuel. Une majorité des Chinois et 38 % des Américains souhaitent augmenter le QI de leurs bébés grâce à ces technologies. Avec les implants intracérébraux Neuralink, Elon Musk explore une autre voie pour augmenter l’intelligence humaine. Après la sortie de GPT-4, il s’était lamenté : « Que restera-t-il à faire pour nous, les humains ? Nous ferions mieux de passer à autre chose avec Neuralink ! » Elon Musk affirme qu’il implantera Neuralink dans le cerveau de ses propres enfants puisque « la révolution de l’IA rend le cerveau humain obsolète. »
L’homme le plus riche du monde a promis que les implants Neuralink coûteront bientôt le prix d’une Apple Watch et seront implantés par ses robots neurochirurgiens en 10 minutes. En tant que futur professionnel, je fais partie de l’une des dernières générations de « bébés-loterie », où nos capacités intellectuelles dépendent du hasard génétique. Dans un monde où certains choisiront d’améliorer leur intelligence, vais-je pouvoir rester compétitif ? Que deviendra un juriste qui refuse ces technologies, alors que d’autres embrassent cette révolution ? Cependant, une question reste centrale : serons-nous prêts à accepter cette transformation sans sacrifier l’humanité qui définit notre essence ?

La révolution éducative ne se limitera pas à la transmission des savoirs. L’éducation deviendra une institution médico-technologique, mobilisant neurosciences et bio-ingénierie pour optimiser l’apprentissage et remodeler les capacités cognitives. L’enjeu ne sera plus seulement de rivaliser avec les machines, mais de s’unir avec elles. Dans cette symbiose Homme-IA construite par la Silicon Valley, seuls les esprits augmentés pourront véritablement prospérer et s’épanouir.

Pour moi, jeune étudiant en droit, cette transition vers un monde où la fabrication de l’intelligence sera mécanisée n’est pas seulement un défi technologique ou professionnel. C’est une remise en question existentielle. Dans un monde où l’intelligence sera produite industriellement, il faudra redéfinir ce que signifie être humain. Ce sera peut-être la principale mission de l’école du futur.

« Faibles compétences de l’intervieweur »: juge l’IA d’Elon Musk

« Faibles compétences de l’intervieweur »: juge  l’IA d’Elon Musk 

 Dans la nuit du 12 au 13 août, Elon Musk a invité Donald Trump pour un live sur le réseau social dont il est propriétaire, X (anciennement Twitter), multipliant les approximations.
Une « incapacité à contrôler la conversation », même, selon l’intelligence artificielle du milliardaire, Grok, qui a été lancée au printemps 2024 en Europe. Celle-ci propose en effet des résumés des publications d’utilisateurs en tendance sur la plateforme depuis mai dernier, et le moins que l’on puisse dire, c’est qu’elle n’y va pas de main morte au sujet de son créateur.
 Pour Grok, qui vient donc résumer l’ensemble les avis des utilisateurs au sujet de cet entretien, Elon Musk est « un mauvais intervieweur » qui « manque d’engagement » et qui a de « faibles compétences en communication ». Selon Grok, il y a « des commentaires sur ses capacités à parler en public, » notamment certains suggérant « qu’il est l’un des pires qu’ils aient entendus ».

 

 

Santé-L’IA au service du diagnostic

Santé-L’IA au service du diagnostic

 Une simple prise de sang, et l’ADN d’une tumeur est capté, permettant un diagnostic nouveau des cellules tumorales qui circulent dans le sang. Ainsi pourrons-nous bientôt remplacer la biopsie par une prise de sang, afin d’identifier les patients susceptibles de bénéficier de traitements ciblés contre différents cancers ? La « biopsie liquide » est l’un des nombreux symboles des perspectives que nous ouvre l’intelligence artificielle (IA). Par Reda Guiha, Président de Pfizer France (*) dans la  » Tribune »

Tout l’écosystème de la santé vit là une vraie révolution ! Une révolution des données, poussée par la complexité de l’IA ; une révolution de capacité, aussi, puisque les données existantes se complètent d’une infinité de données synthétiques que le secteur doit apprendre à structurer et à appréhender en restant uni. Et, enfin, une (r)évolution dans le rapport des Français à la science, puisque ces progrès doivent aller de pair avec une acceptabilité et une implication nouvelle de la société.

Un chiffre, récemment mis en avant par le sociologue des sciences Michel Dubois, témoigne selon moi d’une véritable ambivalence. À l’approche des années 1980, la science était vue par une majorité des Français comme un vecteur évident de progrès social. Aujourd’hui, 60 % des Français pensent que le progrès scientifique apporte à l’humanité « autant de bien que de mal » ou « plus de mal que de bien ». Malgré tout, ils sont 8 sur 10 à toujours penser qu’une affirmation validée scientifiquement a plus de valeur.

« Nous devons comprendre que la véritable démarche scientifique repose sur le questionnement. Tout scientifique, tout chercheur, accepte la part de doute. »

Comment analyser ces chiffres-symboles des amours contrariées entre les Français et la science ? L’épidémie de COVID-19 a indéniablement modifié le rapport des Français à la science. Nous sommes passés en quelques mois seulement d’une science du résultat (stabilisée, validée par des pairs, sourcée dans les revues scientifiques) à une « course à la publication » qui a renversé la table, démultiplié les opinions scientifiques et bouleversé leur compréhension par le grand public. Les réseaux sociaux, l’infobésité, les fake news, ont augmenté ce questionnement de la vérité, et parfois désinformé, renforçant ainsi les critiques vis-à-vis des institutions et entreprises qui font et sont la science d’aujourd’hui.

Selon moi, nous manquons aujourd’hui d’un récit scientifique, et nous devons comprendre que la véritable démarche scientifique repose sur le questionnement. Tout scientifique, tout chercheur, accepte la part de doute. Il n’y a pas de réflexion scientifique sans doute au préalable. On fait de la recherche parce qu’on sait ce qu’on ne sait pas ; on se pose des questions. La culture du doute est un moteur de progrès scientifique et le meilleur moyen de progresser dans la compréhension des maladies, dans la réponse qu’on peut leur adresser. Et l’accélération de la recherche que l’on vit cette dernière décennie augmente le champ des questions.

Dans cette période de bouleversement technologique, les scientifiques, la rigueur et la reproductibilité qu’impliquent leurs méthodes, sont les derniers remparts et les garde-fous de l’éthique scientifique. Se reposer sur eux permet de comprendre, de démystifier la science, ses innovations médicales, pour rassurer et pour embarquer la population.

La pédagogie est la clef d’une meilleure compréhension du potentiel que représentent les grandes innovations technologiques et scientifiques telles que l’intelligence artificielle, la biopsie liquide ou même les thérapies géniques. Innover sans risque est un souhait vain !

Sans elle, comprendre l’intérêt universel de la science sur la santé du patient, à l’heure des réseaux sociaux et du rush scientifique, paraît impossible. Sans elle, reconnaître que l’innovation de rupture est un bouleversement cognitif pour les citoyens, paraît impossible ! La pédagogie permet d’emmener le public à se projeter dans l’innovation avec assurance et d’offrir le « pourquoi » qui, selon Nietzsche, permet de « vivre avec n’importe quel comment. »

Seule une coordination des acteurs de tout type – pouvoirs publics, associations de patients, scientifiques, professionnels de santé, industriels -, à travers des campagnes de sensibilisation communes par exemple, rendra cette politique de la culture scientifique envisageable.

L’enjeu n’est pas d’être consensuel, mais de rendre crédible la parole des personnes compétentes.

____

(*) Reda Guiha est le Country President de Pfizer France depuis le 1 er  septembre 2022.
Pharmacien de formation, Reda Guiha a travaillé dans différents pays dont l’Egypte,
le Royaume-Uni, l’Italie, les Etats-Unis et la France. Il a rejoint Pfizer en 2003, et
occupé de nombreuses fonctions en tant que directeur de la Division Oncologie puis
Specialty Care, basée en France. Il a également été président de la division Vaccins
pour les marchés internationaux développés (IDM). Avant de prendre la présidence
de Pfizer France, il présidait la franchise Maladies Rares pour la région IDM, avec
la responsabilité de 57 pays.
Reda Guiha est membre des Conseils d’Administration de l’AGIPHARM et du LEEM.
Il est également membre actif de la Conférence des dirigeants français d’entreprises
étrangères et du Cercle des Présidents.

Risque de l’IA : Une question de méthode et de démocratisation

Risque de l’IA : Une question de méthode et de démocratisation 

.L’intelligence artificielle a imposé le lexique de la peur. On parle d’invasion de robots venus remplacer les travailleuses et les travailleurs, de rupture technologique et de saut dans l’inconnu. En réalité, la création de la valeur reste absolument identique dans sa méthode depuis Socrate : il faut résoudre des problèmes ! Par Hadj Khelil, fondateur d’Hyko.ai* ( dans  » La Tribune)

Pour y parvenir, il faut d’abord connaître ses problèmes. Savoir les identifier nécessite de construire un pont, un lien entre l’énoncé et le vrai problème, le besoin non pourvu. Cette qualité de problématisation rend possible l’accès à une boite à outils dont la taille varie en fonction des âges. Si l’IA est une révolution de la caisse à outils, elle ne le sera jamais pour ce qui est du talent de problématisation.

Edgar Morin nous a montré la voie, la seconde vague de l’esprit français de Descartes : il nous faut avoir plus de méthode. Comme disait Einstein, il faut rester plus de temps avec les problèmes. Il avait prédit qu’un jour les machines répondraient à toutes les questions, mais nous prévenait déjà qu’elles ne pourraient jamais poser les meilleures questions.

Cette méthode de problématisation, cette gymnastique intellectuelle, c’est un monopole humain, un bastion qu’il faut encourager, former, valoriser. C’est sur celle-ci que nous devons nous appuyer pour dompter l’IA et la mettre au service du plus grand nombre à travers la résolution des grands problèmes de l’humanité. L’ordinateur quantique tant attendu, combiné à la magie de l’IA, pourraient être déterminants dans la réalisation des objectifs de développement durable, plutôt que servir la grande course à la profitabilité et compromettre les souverainetés des humains qui n’auraient pas livré les bons combats.

Le paradoxe veut que l’IA fasse son entrée fracassante dans un monde où les citoyens vont de plus en plus mal. C’est l’aboutissement de la prise de pouvoir des machines, accélérée par la compétition devenue mondialisée et omniprésente, après une phase, aujourd’hui révolue, de croissance effrénée où chacun a vu son temps libre, sa richesse, sa santé et ses libertés croitre.

Le prix à payer pour cette croissance inédite de richesses fut la spécialisation des tâches, censées répondre à des problèmes que l’on a fini par oublier avec la vague d’industrialisation, de normalisation, de standardisation, au nom de l’obsession à la productivité. Ne demeure que la hiérarchie sociale qui en découle, les dividendes sans cesse plus importants (un domaine où notre pays excelle encore) et finalement la conversion des travailleurs en robots. Ils ne comprennent plus à quel problème correspond les tâches qu’ils répètent. Savez-vous quel problème vous réglez dans la vie, et dans le monde ? Même des grands patrons et des dirigeants politiques ne le savent plus vraiment.

Ce n’est pas qu’ils soient stupides mais ils ne sont juste plus habitués à penser en termes de problèmes à résoudre et ont poussé une armée de cadres condamnés aux bullshit jobs à lubrifier les humains robotisés en leur parlant de devoir, puis de sens et enfin de mission. Mais après avoir délocalisé les emplois, le rêve du grand capital est de remplacer l’Homme par une machine sans état d’âme, dans une destruction créatrice qui laisserait des milliards d’entre nous sur le carreau (ces fameux cadres en premier lieu).

Je pense que la solution réside dans le problème, comme toujours. Si l’IA était démocratisée au maximum, elle pourrait répondre à la quête de sens et d’impact des citoyens du monde. S’ils peuvent (encore) répondre aux défis de l’époque et améliorer le monde pour les générations futures, car l’IA va pouvoir accélérer la transition environnementale, la démocratie participative et tout le reste, sans exception.

Puisque personne ne peut arrêter le progrès, il est de notre devoir de protéger les citoyens des tsunamis technologiques qui se profilent en leur offrant des outils pour en tirer profit. Cet outil surpuissant présente de multiples dangers, oui, mais il peut être un outil de libération, d’émancipation et de créativité qui redistribuera les cartes d’un monde devenu trop injuste pour tenir debout et pour vivre ensemble.

C’est pour cela que nous avons développé un outil de prototypage d’applications d’IA sur-mesure, en quelques minutes et sans connaissance informatique. La majeure partie de la valeur, du temps et de l’impact perdus se jouent dans cette phase de prototypage où l’IA permet des économies et un partage des connaissances, des possibles qui progressent à une vitesse délirante.

Cette révolution peut cesser de donner le pouvoir aux tenants de la technologie et le rendre à ceux qui détiennent légitimement le savoir et le savoir-faire, ceux qui connaissent les vrais problèmes et veulent les résoudre pour le bien de tous. Pour cela, il ne tient qu’à nous de la démocratiser en y prenant part, en en profitant pour réactiver ce qu’il y a de plus précieux, commun et humain en nous et dont l’épuisement menace les institutions et les organisations partout dans le monde : notre capacité à raisonner.

La délicieuse ironie de la vie a opéré un formidable retournement, dont elle a le secret, propulsant ainsi les fortunés d’autrefois dans l’enfer des autres. À nous maintenant de travailler au prochain retournement en faisant en sorte qu’il aboutisse à la situation la plus juste possible. Nous croyons fermement que l’IA, à la condition que nous réussissions à embarquer le plus d’humains possible dans l’arche, est une véritable opportunité d’imaginer et de concevoir un monde plus juste articulé sur les savoirs, les compétences, les intuitions de citoyens qui auront dompté l’IA.

_______

(*) Hadj Khelil a fondé le data lab BIG mama en 2014. il a lancé en 2024 Hyko.ai.

l’IA : Pour détecter des cancers

l’IA : Pour détecter les cancers

Des chercheurs ont conçu un algorithme d’apprentissage capable de trouver l’origine de cellules cancéreuses qui se sont propagées dans le corps alors qu’on ne connaissait pas la tumeur de départ. De quoi mieux cibler les traitements pour les patients.

Dans le traitement anticancéreux, le choix des solutions thérapeutiques dépend en grande partie de l’origine de la première tumeur, c’est-à-dire de l’organe initialement atteint. Or, pour certains cancers détectés à un stade avancé, ce point de départ est parfois impossible à identifier étant donné que leurs cellules tumorales se sont déjà disséminées dans le corps et ont produit des métastases. Ces cancers dont l’origine reste un mystère, appelés cancers de primitif inconnu (CPI) par les spécialistes, touchent chaque année 7000 patients en France. Pour ces derniers, les options de traitement sont rarement optimales.

Tout l’enjeu actuel consiste à développer des outils capables d’identifier le cancer primitif afin que ces patients puissent bénéficier d’un traitement plus spécifique de leur maladie.

Effets de L’IA générative : positifs sur la croissance ?

Effets de L’IA générative :  positifs sur la croissance ?

Une annonce tout à fait hypothétique : la quantification de l’effet positif de l’intelligence artificielle sur l’économie. D’après un rapport officiel diffusé par l’Elysée, l’intelligence artificielle pourrait générer des gains de croissance de 10 à 15 % d’ici une vingtaine d’années. Des chiffres très discutables. La première raison c’est qu’on mélange l’intelligence artificielle générative des autres formes d’intelligence artificielle qui déjà automatise les processus de production et de distribution. D’une certaine manière, l’intelligence artificielle est mise à toutes les sauces sans doute par effet de mode. Ce qui est sûr, c’est que l’intelligence artificielle tout court va continuer de se développer et est déjà largement à l’œuvre.Il faudra toutefois faire le moment venu un bilan pertinent des pertes et des créations d’emplois notamment dans les services qui seront largement affectés.Essayer de quantifier les effets de l’intelligence artificielle sur la croissance relève de la recherche dans le marc de café. On pourrait tout aussi bien annoncer que l’intelligence artificielle va détruire 100 milliards s ou au contraire augmenter de à 600 milliards le PIB.

Ce qu’on peut dire avec une certaine certitude c’est que l’intelligence artificielle va continuer de pénétrer l’économie et qu’il faut continuer de s’y préparer avec la formation et les investissements. Tout le reste relève de la spéculation

D’après l’Élysée, le rapport du comité interministériel sur l’intelligence artificielle générative prévoit un effet positif de l’IA sur l’économie française dès 2030, avec une hausse de PIB entre 250 milliards d’euros et 400 milliards. Ce texte sera rendu public demain, à la suite d’une remise officielle au président Emmanuel Macron.

Co-directeur du comité avec la chercheuse Anne Bouverot, l’économiste Philippe Aghion va présenter dans le rapport des « chiffres inédits sur le potentiel de création de valeur de l’IA », dixit l’Elysée. Le constat y serait au beau fixe : les effets positifs de l’IA générative sur l’emploi devraient largement dépasser les effets négatifs. Tout un chapitre est d’ailleurs dédié à la thématique « IA créatrice ou destructrice d’emploi ». « Le rapport évoque une hausse du PIB potentielle de 250 à 400 milliards d’euros grâce à l’IA à l’horizon 2030 », chiffre la présidence. Pour rappel, le PIB se situait à 2.640 milliards d’euros en 2022.

 

 

 

L’IA générative : Un effet positif sur la croissance ?

L’IA générative : Un effet positif sur la croissance ?

Une annonce tout à fait hypothétique : la quantification de l’effet positif de l’intelligence artificielle sur l’économie. D’après un rapport officiel, l’intelligence artificielle pourrait générer des gains de croissance de 10 à 15 % d’ici une vingtaine d’années. Des chiffres très discutables. La première raison c’est qu’on mélange l’intelligence artificielle générative des autres formes d’intelligence artificielle qui déjà automatise les processus de production et de distribution. D’une certaine manière, l’intelligence artificielle émise à toutes les sauces sans doute par effet de mode. Ce qui est sûr, c’est que l’intelligence artificielle tout court va continuer de se développer et est déjà largement à l’œuvre.Il faudra toutefois faire le moment venu un bilan pertinent des pertes et des créations d’emplois notamment dans les services qui seront largement affectés.

Essayer de quantifier les effets de l’intelligence artificielle sur la croissance relève de la recherche dans le marc de café. On pourrait tout aussi bien annoncer que l’intelligence artificielle va détruire 100 milliards s ou au contraire augmenter de à 600 milliards le PIB.

Ce qu’on peut dire avec une certaine certitude c’est que l’intelligence artificielle va continuer de pénétrer l’économie et qu’il faut continuer de s’y préparer avec la formation et les investissements. Tout le reste relève de la spéculation

D’après l’Élysée, le rapport du comité interministériel sur l’intelligence artificielle générative prévoit un effet positif de l’IA sur l’économie française dès 2030, avec une hausse de PIB entre 250 milliards d’euros et 400 milliards. Ce texte sera rendu public demain, à la suite d’une remise officielle au président Emmanuel Macron.

Co-directeur du comité avec la chercheuse Anne Bouverot, l’économiste Philippe Aghion va présenter dans le rapport des « chiffres inédits sur le potentiel de création de valeur de l’IA », dixit l’Elysée. Le constat y serait au beau fixe : les effets positifs de l’IA générative sur l’emploi devraient largement dépasser les effets négatifs. Tout un chapitre est d’ailleurs dédié à la thématique « IA créatrice ou destructrice d’emploi ». « Le rapport évoque une hausse du PIB potentielle de 250 à 400 milliards d’euros grâce à l’IA à l’horizon 2030 », chiffre la présidence. Pour rappel, le PIB se situait à 2.640 milliards d’euros en 2022.

 

 

 

L’IA générative et désinformation

L’IA générative et désinformation

 

Les progrès récents de l’intelligence artificielle générative (ces outils qui permettent de produire du texte, du son, des images ou des vidéos de manière complètement automatique) font craindre un regain de fausses informations. Cette crainte est exacerbée par le fait que de très nombreuses élections vont avoir lieu dans les mois à venir, à commencer par les élections européennes. Qu’en est-il vraiment ?

Par   DR CNRS, École normale supérieure (ENS) – PSL

Il faut déjà observer que, même si l’idée que l’IA générative est une source de danger en matière de désinformation est largement répandue, le point de vue opposé existe aussi. Ainsi, pour les chercheurs Simon, Altay et Mercier, l’arrivée des systèmes génératifs ne change pas fondamentalement la donne, ni sur le plan qualitatif, ni sur le plan quantitatif.

Ils remarquent que les sources d’information traditionnelles continuent d’occuper le haut du pavé (la grande majorité des gens s’informent à travers les médias traditionnels, qui gardent un pouvoir d’influence supérieur). Le public qui s’informe à partir de médias alternatifs et qui « consomme » des fausses informations est, selon eux, déjà abreuvé de telles sources et ne recherche pas tant une information précise que des informations qui confirment leurs idées (fondées sur une méfiance généralisée vis-à-vis des politiques et des médias).

Leur étude contredit le point de vue courant, voyant dans l’IA une source de danger majeure pour la démocratie. Elle repose sur des enquêtes qui montrent effectivement le poids de l’idéologie en matière de consommation d’information (on est orienté en fonction de son idéologie quand on s’informe, et un biais classique consiste à vouloir confirmer ce que l’on croit, quand plusieurs interprétations d’un événement sont possibles).

Il semble que l’augmentation des capacités de production de texte ne soit pas l’élément essentiel : c’est la capacité à diffuser l’information qui joue un rôle majeur. C’est aussi vrai pour les images et les vidéos, mais l’IA générative semble quand même ici créer une vraie rupture. La prise en main d’un outil comme Photoshop est longue et complexe ; à l’inverse, des outils d’IA comme Dall-e et Midjourney pour l’image, ou Sora pour la vidéo, permettent de générer des contenus réalistes à partir de quelques mots clés seulement, et on connaît le poids de l’image dans l’information. La possibilité de créer automatiquement de fausses vidéos avec la voix, et même le mouvement des lèvres rendu de façon hyper réaliste, crée aussi un état de fait nouveau, qui n’était pas imaginable il y a encore quelques mois.

Notons enfin que les outils de détection de documents générés par IA sont très imparfaits et aucune solution ne permet à l’heure actuelle de déterminer à 100 % si un document est d’origine humaine ou non. Le marquage automatique (watermarking, code indétectable à l’œil nu, mais indiquant qu’un document a été généré par une IA) pourra aider, mais il y aura bien évidemment toujours des groupes capables de produire des fichiers sans marquage, à côté des grosses plates-formes ayant pignon sur rue (il s’agit de procédés qui ne sont pas encore mis en œuvre à large échelle, mais qui pourraient l’être avec l’évolution de la législation).

Mais, au-delà, l’argumentaire montre surtout que ce n’est pas l’IA le point essentiel dans ce problème, mais une question avant tout humaine et sociale. La consommation de fausses informations est souvent motivée par des sentiments d’opposition envers les institutions et les corps sociaux établis, perçus comme ayant failli dans leur mission. La crise du Covid en a fourni une illustration récente, avec l’émergence rapide de figures très médiatisées, en opposition frontale et systématique avec les mesures proposées, et très soutenues par leurs supporters sur les médias sociaux.

Pour de nombreux individus, la propagation et la consommation de fausses informations sont un moyen de remettre en question l’autorité et de s’opposer au statu quo. En ralliant ceux qui partagent des points de vue similaires, la diffusion de fausses informations peut également servir à créer un sentiment d’appartenance et de solidarité au sein de groupes qui s’opposent au pouvoir en place. Dans ce contexte, la désinformation devient un outil pour la construction de communautés unies par des valeurs ou des objectifs communs, renforçant ainsi leur cohésion et leur résilience face aux structures de pouvoir établies. Cette dynamique entraîne donc une polarisation accrue et des divisions au sein de la société, c’est même un objectif quasi revendiqué de certains émetteurs de fausses informations, qui ne s’en cachent pas.

La propagation de la désinformation est donc favorisée par les « fractures de la société » où les divisions sociales, politiques et économiques sont prononcées (phénomène largement étudié par Jérôme Fourquet ; Ipsos mène aussi régulièrement des enquêtes sur ce thème).

Dans ces contextes, les individus peuvent être plus enclins à croire et à propager des théories du complot, des rumeurs et des fausses informations qui correspondent à leurs préjugés, à leurs craintes ou à leurs frustrations. Une société fragmentée est caractérisée par un manque de confiance mutuelle et une polarisation croissante, ce qui crée un terrain fertile pour la propagation de la désinformation. La cohésion sociale et la confiance mutuelle jouent un rôle crucial dans la prévention de la propagation de la désinformation et dans le maintien de la santé démocratique d’une société.

Le facteur humain est enfin important dans la production de fausses informations. Les « bots » automatiques produisant en masse du texte ont une influence quasi nulle (sinon pour noyer l’information au sein d’une masse de textes). On sous-estime souvent le facteur humain, qui reste indispensable pour produire de contenu qui aura un impact, même pour de fausses informations. La découverte encore récente de réseaux efficaces, mais usant de méthodes relativement rudimentaires en est la preuve.

Le problème de la désinformation dépasse donc largement le cadre de l’IA générative ou même celui de quelques individus isolés. Il est largement alimenté par des organisations puissantes, souvent dotées de ressources quasi étatiques, qui déploient des moyens importants pour propager de fausses informations à grande échelle (par exemple l’Internet Research Agency basée à Saint-Pétersbourg).

Ces organisations mettent en place des réseaux comprenant des sites web, une forte présence sur les réseaux sociaux, des bots automatisés, mais impliquent aussi des individus réels, soudoyés ou non, chargés de relayer ces informations trompeuses (on voit donc ainsi que le réseau de propagation de l’information a autant sinon plus d’importance que la production de contenu en elle-même). Cette stratégie de désinformation vise à influencer l’opinion publique, à semer la confusion et à manipuler les processus démocratiques, mettant ainsi en péril la confiance dans les institutions et la crédibilité des élections.

Pour contrer efficacement ce phénomène, il est crucial de prendre des mesures à la fois techniques, politiques et sociales pour identifier, contrer et sensibiliser le public à la désinformation orchestrée à grande échelle. Les plates-formes en ligne sont particulièrement sollicitées.

La stratégie de propagation de fausses nouvelles poursuit un double objectif, ce qui représente un double écueil pour les institutions établies. En effet, en diffusant des informations erronées, non seulement on pollue le débat public en semant la confusion et en brouillant les pistes de la vérité, mais on nourrit également un climat général de méfiance envers toute forme d’autorité et d’information « officielle ». Les autorités en place, déjà sujettes à un fort discrédit et perçues comme étant en situation de faiblesse, peinent à réagir de manière efficace face à cette prolifération de désinformation. Le doute généralisé quant à leur capacité à agir avec transparence et impartialité renforce l’impression que leurs actions pourraient être motivées par des intérêts cachés. Ainsi, les institutions en place se retrouvent prises au piège d’un cercle vicieux où leur crédibilité est constamment remise en question, les rendant d’autant plus vulnérables face aux attaques orchestrées par ceux qui cherchent à déstabiliser l’ordre établi.

L’enjeu est donc de protéger la liberté d’opinion et la liberté d’information, tout en luttant contre la propagation de fausses informations qui peuvent nuire au fonctionnement démocratique. Cette frontière entre ces principes fondamentaux est souvent difficile à tracer, et les autorités doivent jongler avec ces enjeux complexes. Dans certains cas jugés flagrants, des mesures ont été prises pour contrer les tentatives de manipulation de l’opinion publique et de déstabilisation des processus démocratiques. Des chaînes de télévision comme RT, soupçonnées d’être sous l’influence russe, ont été fermées. Des personnalités politiques ont été interrogées en raison de soupçons de corruption et d’influence étrangère. De même, les réseaux sociaux sont étroitement surveillés, et des comptes ou des réseaux liés à des puissances étrangères ont été fermés. Ces mesures visent à protéger l’intégrité des processus démocratiques et à préserver la confiance du public dans les institutions, tout en préservant les principes fondamentaux de liberté et de pluralisme. Cependant, trouver un équilibre juste entre la protection contre la désinformation et le respect des libertés individuelles demeure un défi constant dans les sociétés démocratiques.

L’IA générative et la désinformation

L’IA générative et la  désinformation  

Les progrès récents de l’intelligence artificielle générative (ces outils qui permettent de produire du texte, du son, des images ou des vidéos de manière complètement automatique) font craindre un regain de fausses informations. Cette crainte est exacerbée par le fait que de très nombreuses élections vont avoir lieu dans les mois à venir, à commencer par les élections européennes. Qu’en est-il vraiment ?

 

par

Thierry Poibeau, École normale supérieure (ENS) – PSL dans The Conversation 

Il faut déjà observer que, même si l’idée que l’IA générative est une source de danger en matière de désinformation est largement répandue, le point de vue opposé existe aussi. Ainsi, pour les chercheurs Simon, Altay et Mercier, l’arrivée des systèmes génératifs ne change pas fondamentalement la donne, ni sur le plan qualitatif, ni sur le plan quantitatif.

Ils remarquent que les sources d’information traditionnelles continuent d’occuper le haut du pavé (la grande majorité des gens s’informent à travers les médias traditionnels, qui gardent un pouvoir d’influence supérieur). Le public qui s’informe à partir de médias alternatifs et qui « consomme » des fausses informations est, selon eux, déjà abreuvé de telles sources et ne recherche pas tant une information précise que des informations qui confirment leurs idées (fondée sur une méfiance généralisée vis-à-vis des politiques et des médias).

Leur étude contredit le point de vue courant, voyant dans l’IA une source de danger majeure pour la démocratie. Elle repose sur des enquêtes qui montrent effectivement le poids de l’idéologie en matière de consommation d’information (on est orienté en fonction de son idéologie quand on s’informe, et un biais classique consiste à vouloir confirmer ce que l’on croit, quand plusieurs interprétations d’un événement sont possibles).

Il semble que l’augmentation des capacités de production de texte ne soit pas l’élément essentiel : c’est la capacité à diffuser l’information qui joue un rôle majeur. C’est aussi vrai pour les images et les vidéos, mais l’IA générative semble quand même ici créer une vraie rupture. La prise en main d’un outil comme Photoshop est longue et complexe ; à l’inverse, des outils d’IA comme Dall-e et Midjourney pour l’image, ou Sora pour la vidéo, permettent de générer des contenus réalistes à partir de quelques mots clés seulement, et on connaît le poids de l’image dans l’information. La possibilité de créer automatiquement de fausses vidéos avec la voix, et même le mouvement des lèvres rendu de façon hyper réaliste, crée aussi un état de fait nouveau, qui n’était pas imaginable il y a encore quelques mois.

Notons enfin que les outils de détection de documents généras par IA sont très imparfaits et aucune solution ne permet à l’heure actuelle de déterminer à 100 % si un document est d’origine humaine ou non. Le marquage automatique (watermarking, code indétectable à l’œil nu, mais indiquant qu’un document a été généré par une IA) pourra aider, mais il y aura bien évidemment toujours des groupes capables de produire des fichiers sans marquage, à côté des grosses plates-formes ayant pignon sur rue (il s’agit de procédés qui ne sont pas encore mis en œuvre à large échelle, mais qui pourraient l’être avec l’évolution de la législation).

Mais, au-delà, l’argumentaire montre surtout que ce n’est pas l’IA le point essentiel dans ce problème, mais une question avant tout humaine et sociale. La consommation de fausses informations est souvent motivée par des sentiments d’opposition envers les institutions et les corps sociaux établis, perçus comme ayant failli dans leur mission. La crise du Covid en a fourni une illustration récente, avec l’émergence rapide de figures très médiatisées, en opposition frontale et systématique avec les mesures proposées, et très soutenues par leurs supporters sur les médias sociaux.

Pour de nombreux individus, la propagation et la consommation de fausses informations sont un moyen de remettre en question l’autorité et de s’opposer au statu quo. En ralliant ceux qui partagent des points de vue similaires, la diffusion de fausses informations peut également servir à créer un sentiment d’appartenance et de solidarité au sein de groupes qui s’opposent au pouvoir en place. Dans ce contexte, la désinformation devient un outil pour la construction de communautés unies par des valeurs ou des objectifs communs, renforçant ainsi leur cohésion et leur résilience face aux structures de pouvoir établies. Cette dynamique entraîne donc une polarisation accrue et des divisions au sein de la société, c’est même un objectif quasi revendiqué de certains émetteurs de fausses informations, qui ne s’en cachent pas.

La propagation de la désinformation est donc favorisée par les « factures de la société » où les divisions sociales, politiques et économiques sont prononcées (phénomène largement étudié par Jérôme Fourquet ; Ipsos mène aussi régulièrement des enquêtes sur ce thème).

Dans ces contextes, les individus peuvent être plus enclins à croire et à propager des théories du complot, des rumeurs et des fausses informations qui correspondent à leurs préjugés, à leurs craintes ou à leurs frustrations. Une société fragmentée est caractérisée par un manque de confiance mutuelle et une polarisation croissante, ce qui crée un terrain fertile pour la propagation de la désinformation. La cohésion sociale et la confiance mutuelle jouent un rôle crucial dans la prévention de la propagation de la désinformation et dans le maintien de la santé démocratique d’une société.

Le facteur humain est enfin important dans la production de fausses informations. Les « bots » automatiques produisant en masse du texte ont une influence quasi nulle (sinon pour noyer l’information au sein d’une masse de textes). On sous-estime souvent le facteur humain, qui reste indispensable pour produire de contenu qui aura un impact, même pour de fausses informations. La découverte encore récente de réseaux efficaces, mais usant de méthodes relativement rudimentaires en est la preuve.

Le problème de la désinformation dépasse donc largement le cadre de l’IA générative ou même celui de quelques individus isolés. Il est largement alimenté par des organisations puissantes, souvent dotées de ressources quasi étatiques, qui déploient des moyens importants pour propager de fausses informations à grande échelle (par exemple l’Internet Research Agency basée à Saint-Pétersbourg).

Ces organisations mettent en place des réseaux comprenant des sites web, une forte présence sur les réseaux sociaux, des bots automatisés, mais impliquent aussi des individus réels, soudoyés ou non, chargés de relayer ces informations trompeuses (on voit donc ainsi que le réseau de propagation de l’information a autant sinon plus d’importance que la production de contenu en elle-même). Cette stratégie de désinformation vise à influencer l’opinion publique, à semer la confusion et à manipuler les processus démocratiques, mettant ainsi en péril la confiance dans les institutions et la crédibilité des élections.

Pour contrer efficacement ce phénomène, il est crucial de prendre des mesures à la fois techniques, politiques et sociales pour identifier, contrer et sensibiliser le public à la désinformation orchestrée à grande échelle. Les plates-formes en ligne sont particulièrement sollicitées.

La stratégie de propagation de fausses nouvelles poursuit un double objectif, ce qui représente un double écueil pour les institutions établies. En effet, en diffusant des informations erronées, non seulement on pollue le débat public en semant la confusion et en brouillant les pistes de la vérité, mais on nourrit également un climat général de méfiance envers toute forme d’autorité et d’information « officielle ». Les autorités en place, déjà sujettes à un fort discrédit et perçues comme étant en situation de faiblesse, peinent à réagir de manière efficace face à cette prolifération de désinformation. Le doute généralisé quant à leur capacité à agir avec transparence et impartialité renforce l’impression que leurs actions pourraient être motivées par des intérêts cachés. Ainsi, les institutions en place se retrouvent prises au piège d’un cercle vicieux où leur crédibilité est constamment remise en question, les rendant d’autant plus vulnérables face aux attaques orchestrées par ceux qui cherchent à déstabiliser l’ordre établi.

L’enjeu est donc de protéger la liberté d’opinion et la liberté d’information, tout en luttant contre la propagation de fausses informations qui peuvent nuire au fonctionnement démocratique. Cette frontière entre ces principes fondamentaux est souvent difficile à tracer, et les autorités doivent jongler avec ces enjeux complexes. Dans certains cas jugés flagrants, des mesures ont été prises pour contrer les tentatives de manipulation de l’opinion publique et de déstabilisation des processus démocratiques. Des chaînes de télévision comme RT, soupçonnées d’être sous l’influence russe, ont été fermées. Des personnalités politiques ont été interrogées en raison de soupçons de corruption et d’influence étrangère. De même, les réseaux sociaux sont étroitement surveillés, et des comptes ou des réseaux liés à des puissances étrangères ont été fermés. Ces mesures visent à protéger l’intégrité des processus démocratiques et à préserver la confiance du public dans les institutions, tout en préservant les principes fondamentaux de liberté et de pluralisme. Cependant, trouver un équilibre juste entre la protection contre la désinformation et le respect des libertés individuelles demeure un défi constant dans les sociétés démocratiques.

 

Société- L’IA générative : danger civilisationnel

Société- L’IA générative : danger civilisationnel (Eric Sadin, philosophe)

Face au constat d’une régulation qui n’est « pas à la hauteur des enjeux » pour nous protéger des dérives des technologies, le philosophe Éric Sadin appelle les citoyens à s’unir pour refuser l’IA générative, perçue comme un « danger civilisationnel ».(Interview dans « La tribune »)

Dans votre nouveau livre, La Vie spectrale, vous qualifiez l’irruption de l’IA générative de « séisme planétaire » et de « mutation civilisationnelle ». A ce point ?

ERIC SADIN – Nous avons affaire à une bascule anthropologique. Depuis une quinzaine d’années, l’intelligence artificielle était essentiellement une puissance organisationnelle de pans toujours plus étendus des affaires humaines. Depuis l’arrivée de ChatGPT, il y a un an, un nouveau palier a été franchi, que j’appelle le « tournant intellectuel et créatif des IA ». Il faut prendre la mesure de ce qu’il se passe. En créant elles-mêmes des contenus à partir de simples instructions appelées des « prompts », les IA génératives assurent désormais des tâches qui jusque-là mobilisaient nos facultés intellectuelles et créatives, en maîtrisant le langage et en produisant des images et des sons. Soit des productions symboliques qui nous caractérisent en propre. En cela, il s’agit d’une mutation culturelle et civilisationnelle majeure. Or, elle est présentée sous les oripeaux d’un simple outil de productivité, comme quelque chose de « cool » et d’utile. Sauf qu’au-delà d’un rapport strictement utilitariste à ces technologies, nous ne savons pas envisager l’étendue des conséquences civilisationnelles qui pointent. Saisissons-nous, par exemple, que nos enfants nous diront bientôt : « Pourquoi aller à l’école, apprendre la grammaire, lire des œuvres, si un système produit du texte d’une simple commande de notre part ? »

Les gains de productivité et la simplification de certaines tâches permises par les IA génératives cachent-ils leur véritable nature ?

Oui. L’utilitarisme et la quête éperdue de productivité à l’œuvre depuis plus d’un siècle dans nos sociétés, ont abouti à ce qu’on accueille avec enthousiasme, voire admiration, un outil qui nous amène au fur et à mesure à renoncer à nos facultés humaines les plus fondamentales.

Je pense que les démocraties se seraient honorées à fixer d’entrée de jeu une ligne rouge. Dire « non, l’IA générative va trop loin ». La première réaction de l’Italie a par ailleurs été d’interdire ChatGPT, mais pour des seules raisons de protection de données personnelles, et aucunement en raison de l’ampleur des effets annoncés sur nos sociétés.

Rapidement, les sceptiques sont vite rentrés dans le rang car il y a aujourd’hui un biais dans notre conception du monde, qui est la place occupée par l’industrie du numérique. L’innovation, le franchissement de nouvelles frontières technologiques, représentent l’horizon lumineux de notre temps. L’idéologie de la Silicon Valley et sa doxa techno-solutionniste, empêchent de penser que ce qui est technologiquement possible n’est pas forcément souhaitable. À cet égard, un tabou est à l’œuvre : celui d’interdire, de dire non à des systèmes qui font offense à ce qui nous constitue en propre et qui bafouent nos principes les plus fondamentaux.

N‘est-ce pas le rôle de la régulation d’empêcher les dérives de la technologie et de limiter ses usages ?

La régulation n’est en aucune manière à la hauteur des enjeux. Elle donne l’illusion de détenir un pouvoir contraignant sur les grandes entreprises qui imposent ces outils. Sauf qu’en réalité, son but consiste avant tout à ne pas entraver le développement technologique, entendu comme le cours inéluctable de l’Histoire et porteur de gisements intarissables de richesses. Réguler, aujourd’hui, c’est installer quelques garde-fous de pure circonstance, tels les fameux biais de l’IA par exemple, qui ne représentent que des enjeux secondaires. Car une fois la question des biais réglée, ce sera alors la porte ouverte à l’automatisation croissante des affaires humaines. L’éthique, c’est le grand bla-bla de la bonne conscience. Quand les gourous de l’industrie numérique, ou les ingénieurs de l’IA, alertent sur les dangers de systèmes qu’ils ont eux-mêmes créés pour leur propre profit, c’est risible. Qu’ont produit tous ces discours sur l’éthique ces quinze dernières années ? Rien de tangible, sinon l’illusion de témoigner de vigilance aux yeux du monde.

Car, à vrai dire, les termes de la régulation sont mal posés. Toujours selon l’équation avantages/risques. Celle-ci suppose que si l’on se penche sur les prétendus risques, alors ce sera ensuite le meilleur des mondes. La seule équation qui vaille est celle-ci : là où nous avons la main et là où nous n’avons pas la main. Or, avec la prolifération et la sophistication des IA, nous avons de moins en moins la main. Il s’agit là d’une question politico-juridique décisive et qui devrait pleinement nous mobiliser. Il est temps de passer de l’éthique à la morale, c’est-à-dire de travailler à une prise en compte du droit naturel. Soit les principes fondamentaux qui nous animent : la défense et la célébration de la dignité, de l’intégrité et de la liberté humaines, de l’expression de nos facultés, de l’intelligence, et du génie qui est logé en chacun d’entre nous. Autant de valeurs appelées à être mises en péril par les IA génératives. Aujourd’hui, nous vivons sous le règne du droit positif, c’est-à-dire que le droit, tel qu’envisagé par le législateur, ne tient compte que d’une seule perspective : le primat économique.

Vous dénonciez dès 2016, dans l’un de vos précédents ouvrages, ce que vous appeliez « la silicolonisation du monde ». L’IA générative, c’est l’étape d’après du techno-libéralisme venu de la Silicon Valley ?

Absolument. C’est la dernière frontière de l’automatisation sans cesse intensifiée du cours du monde. Ces IA génératives, comme Bing de Microsoft ou Bard de Google, produisent en outre un langage personnalisé, destiné à orienter nos comportements à des fins marchandes. Voit-on le projet de société ? Adosser continuellement notre quotidien au régime privé, tout en aggravant l’usage des écrans ! Quid de la gigantesque consommation énergétique qui découle de ces pratiques ? À cet égard, on ne peut pas affirmer ne plus prendre l’avion, par exemple, et utiliser ChatGPT. Car la conscience ne se divise pas !

Le paradoxe, c’est que les régulateurs et les mondes économique et politique embrassent ce processus d’automatisation alors qu’il porte en lui-même la destruction du tissu social. Par crainte de rater le virage, perçu comme indispensable, de l’IA générative, et sous prétexte que les États-Unis et la Chine s’y sont lancés à pleine vitesse, on est aveugles au fait que quantité de métiers à haute compétence cognitive sont mis en péril. La liste est longue : avocats, comptables, ressources humaines, métiers de la finance, développeurs, traducteurs, journalistes, photographes… Aujourd’hui, on se rassure en se disant que les IA manquent de fiabilité, font des hallucinations, manquent de transparence. Mais demain ? Nous allons vers des super-assistants personnels qui vont assurer un nombre sans cesse croissant de tâches cognitives à notre place.

On peut très bien imaginer que dans quelques années, au nom d’un ratio avantages/inconvénients favorable, notamment dans les déserts médicaux, l’OMS valide le principe qu’en première consultation, des IA remplacent des médecins généralistes en se basant sur des capteurs, notre dossier médical, la reconnaissance faciale etc.

Un ouragan va frapper les métiers à haute compétence cognitive, intellectuelle et créative. Or, ceux-ci sont vecteurs de sociabilité, de reconnaissance de soi, de plaisir à la tâche. Le travail représente le socle de notre vitalité, mais aussi de la paix sociale. Comment peut-on accepter que l’industrie du numérique, guidée par ses seuls intérêts, produise ainsi un tel séisme sur des activités humaines dans ce qu’elles ont de très nobles ?

Aux Etats-Unis, encadrer l’utilisation de l’IA par les studios d’Hollywood et protéger le travail des scénaristes et des acteurs, a été l’une des principales revendications de la grève historique de plus de 100 jours qui vient de se terminer. C’est cette forme de réveil que vous prônez ?

Ce mouvement donne de l’espoir et devrait nous inspirer. Les scénaristes et les acteurs ont perçu les dangers de l’IA générative et ont bien compris que la quête du profit des grandes plateformes comme Netflix ne pouvait aboutir qu’à une précarisation, voire à la disparition de leur métier. Ce fut un acte fort, car vu que la régulation se montre déficiente, les scénaristes ont décidé de faire jurisprudence en mettant sur la table les vrais sujets dont le régulateur n’a pas su se saisir. Et ils ont obtenu gain de cause. Pour ne pas assister passivement à la disparition de métiers à forte implication intellectuelle et créative, je pense que la meilleure stratégie serait de s’unir par corporation et ce, à l’échelle globale.

Hollywood a pavé le chemin de la mobilisation qui doit être menée. En outre, émerge un monde où on ne sait plus distinguer une photo d’actualité d’une production d’une IA. Ce qui ouvre grand la porte à la désinformation et tue le travail des photographes. La guerre Israël/Hamas en est déjà un exemple navrant. Il est temps de saisir – au-delà de notre penchant à l’utilitarisme et d’un court-termisme très coupables – l’étendue des gigantesques conséquences culturelles et civilisationnelles qui s’annoncent du fait de la généralisation des IA génératives. Et cela appelle nécessairement mobilisation et émergence de contre-pouvoirs à toutes les échelles de la société.

En quoi jugez-vous la destruction des métiers par l’IA générative différente des autres vagues de destructions de métiers liées à l’arrivée de nouvelles technologies depuis la révolution industrielle ?

Depuis la révolution industrielle au XVIIIème siècle, il s’est opéré un mouvement progressif de substitution de l’action humaine au profit de la machine. Deux siècles plus tard, au tournant des années 1980, ce processus connut un moment d’acmé lors de la robotisation des entreprises, particulièrement dans l’industrie automobile. Mais c’était généralement des métiers à haute pénibilité qui étaient concernés, ceux qui entraînaient des troubles musculo-squelettiques, des corps broyés, des travailleurs lessivés au moment de prendre leur retraite… On peut donc considérer que dans ces domaines, le processus d’automatisation recouvrait une dimension vertueuse.

Ce qui est à l’œuvre depuis une dizaine d’années et qui est amené à se renforcer à l’avenir, est différent. Les métiers visés sont ceux qui mobilisent nos facultés intellectuelles, pour lesquels il a fallu de longues études avant de les exercer. En outre, ils créent de l’estime de soi, de la reconnaissance par autrui et de la sociabilité. Est assénée la fable de la « complémentarité homme/machine ». La personne qui a inventé cette notion mérite le prix Nobel de la novlangue, car nous sommes arrivés au bout du concept de la destruction créatrice de Schumpeter, selon lequel la technologie créée autant voire davantage d’emplois qu’elle n’en détruit en premier lieu. Cette théorie trouve ses limites avec l’IA générative, car jamais dans l’Histoire une technologie n’a menacé autant d’emplois différents d’un coup.

Ne basculez-vous pas dans la peur de l’IA dite générale, c’est-à-dire capable de tout faire mieux que l’homme ?

L’enjeu qui, actuellement, nous fait face, concerne surtout l’énorme capacité de progression des IA génératives, et donc la puissance de son impact sur le travail, le tissu social et nos capacités intellectuelles et créatives. En cela, il nous revient, en ce moment de bascule, et de haute gravité, de nous demander ce que c’est qu’être humain. Quels sont au juste nos pouvoirs d’action et d’inventivité, à une époque où des technologies sont en mesure de prendre le relais – de façon infiniment plus rapide et prétendument plus fiable – de la quasi-totalité de nos facultés cognitives ? Que nous reste-t-il dans un monde où ce qui nous constitue en propre et, au premier chef, l’usage du langage, est appelé à être toujours plus assuré par des intelligences artificielles ? L’être humain se sublime dans la contrainte et l’effort, mais prendra-t-on encore la peine d’apprendre des langues, de se confronter à l’autre, quand l’IA nous promet de tout nous apporter sur un plateau ? Notre malheur, c’est qu’on est incapables d’avoir une vision des choses au-delà de notre présent immédiat. Or, je vous le dis : le sempiternel primat économique et le court-termisme nous mènent au désert de nous-mêmes.

L’IA générative : danger civilisationnel (Eric Sadin, philosophe)

L’IA générative : danger civilisationnel (Eric Sadin, philosophe)

Face au constat d’une régulation qui n’est « pas à la hauteur des enjeux » pour nous protéger des dérives des technologies, le philosophe Éric Sadin appelle les citoyens à s’unir pour refuser l’IA générative, perçue comme un « danger civilisationnel ».(Interview dans « La tribune »)

Dans votre nouveau livre, La Vie spectrale, vous qualifiez l’irruption de l’IA générative de « séisme planétaire » et de « mutation civilisationnelle ». A ce point ?

ERIC SADIN – Nous avons affaire à une bascule anthropologique. Depuis une quinzaine d’années, l’intelligence artificielle était essentiellement une puissance organisationnelle de pans toujours plus étendus des affaires humaines. Depuis l’arrivée de ChatGPT, il y a un an, un nouveau palier a été franchi, que j’appelle le « tournant intellectuel et créatif des IA ». Il faut prendre la mesure de ce qu’il se passe. En créant elles-mêmes des contenus à partir de simples instructions appelées des « prompts », les IA génératives assurent désormais des tâches qui jusque-là mobilisaient nos facultés intellectuelles et créatives, en maîtrisant le langage et en produisant des images et des sons. Soit des productions symboliques qui nous caractérisent en propre. En cela, il s’agit d’une mutation culturelle et civilisationnelle majeure. Or, elle est présentée sous les oripeaux d’un simple outil de productivité, comme quelque chose de « cool » et d’utile. Sauf qu’au-delà d’un rapport strictement utilitariste à ces technologies, nous ne savons pas envisager l’étendue des conséquences civilisationnelles qui pointent. Saisissons-nous, par exemple, que nos enfants nous diront bientôt : « Pourquoi aller à l’école, apprendre la grammaire, lire des œuvres, si un système produit du texte d’une simple commande de notre part ? »

Les gains de productivité et la simplification de certaines tâches permises par les IA génératives cachent-ils leur véritable nature ?

Oui. L’utilitarisme et la quête éperdue de productivité à l’œuvre depuis plus d’un siècle dans nos sociétés, ont abouti à ce qu’on accueille avec enthousiasme, voire admiration, un outil qui nous amène au fur et à mesure à renoncer à nos facultés humaines les plus fondamentales.

Je pense que les démocraties se seraient honorées à fixer d’entrée de jeu une ligne rouge. Dire « non, l’IA générative va trop loin ». La première réaction de l’Italie a par ailleurs été d’interdire ChatGPT, mais pour des seules raisons de protection de données personnelles, et aucunement en raison de l’ampleur des effets annoncés sur nos sociétés.

Rapidement, les sceptiques sont vite rentrés dans le rang car il y a aujourd’hui un biais dans notre conception du monde, qui est la place occupée par l’industrie du numérique. L’innovation, le franchissement de nouvelles frontières technologiques, représentent l’horizon lumineux de notre temps. L’idéologie de la Silicon Valley et sa doxa techno-solutionniste, empêchent de penser que ce qui est technologiquement possible n’est pas forcément souhaitable. À cet égard, un tabou est à l’œuvre : celui d’interdire, de dire non à des systèmes qui font offense à ce qui nous constitue en propre et qui bafouent nos principes les plus fondamentaux.

N‘est-ce pas le rôle de la régulation d’empêcher les dérives de la technologie et de limiter ses usages ?

La régulation n’est en aucune manière à la hauteur des enjeux. Elle donne l’illusion de détenir un pouvoir contraignant sur les grandes entreprises qui imposent ces outils. Sauf qu’en réalité, son but consiste avant tout à ne pas entraver le développement technologique, entendu comme le cours inéluctable de l’Histoire et porteur de gisements intarissables de richesses. Réguler, aujourd’hui, c’est installer quelques garde-fous de pure circonstance, tels les fameux biais de l’IA par exemple, qui ne représentent que des enjeux secondaires. Car une fois la question des biais réglée, ce sera alors la porte ouverte à l’automatisation croissante des affaires humaines. L’éthique, c’est le grand bla-bla de la bonne conscience. Quand les gourous de l’industrie numérique, ou les ingénieurs de l’IA, alertent sur les dangers de systèmes qu’ils ont eux-mêmes créés pour leur propre profit, c’est risible. Qu’ont produit tous ces discours sur l’éthique ces quinze dernières années ? Rien de tangible, sinon l’illusion de témoigner de vigilance aux yeux du monde.

Car, à vrai dire, les termes de la régulation sont mal posés. Toujours selon l’équation avantages/risques. Celle-ci suppose que si l’on se penche sur les prétendus risques, alors ce sera ensuite le meilleur des mondes. La seule équation qui vaille est celle-ci : là où nous avons la main et là où nous n’avons pas la main. Or, avec la prolifération et la sophistication des IA, nous avons de moins en moins la main. Il s’agit là d’une question politico-juridique décisive et qui devrait pleinement nous mobiliser. Il est temps de passer de l’éthique à la morale, c’est-à-dire de travailler à une prise en compte du droit naturel. Soit les principes fondamentaux qui nous animent : la défense et la célébration de la dignité, de l’intégrité et de la liberté humaines, de l’expression de nos facultés, de l’intelligence, et du génie qui est logé en chacun d’entre nous. Autant de valeurs appelées à être mises en péril par les IA génératives. Aujourd’hui, nous vivons sous le règne du droit positif, c’est-à-dire que le droit, tel qu’envisagé par le législateur, ne tient compte que d’une seule perspective : le primat économique.

Vous dénonciez dès 2016, dans l’un de vos précédents ouvrages, ce que vous appeliez « la silicolonisation du monde ». L’IA générative, c’est l’étape d’après du techno-libéralisme venu de la Silicon Valley ?

Absolument. C’est la dernière frontière de l’automatisation sans cesse intensifiée du cours du monde. Ces IA génératives, comme Bing de Microsoft ou Bard de Google, produisent en outre un langage personnalisé, destiné à orienter nos comportements à des fins marchandes. Voit-on le projet de société ? Adosser continuellement notre quotidien au régime privé, tout en aggravant l’usage des écrans ! Quid de la gigantesque consommation énergétique qui découle de ces pratiques ? À cet égard, on ne peut pas affirmer ne plus prendre l’avion, par exemple, et utiliser ChatGPT. Car la conscience ne se divise pas !

Le paradoxe, c’est que les régulateurs et les mondes économique et politique embrassent ce processus d’automatisation alors qu’il porte en lui-même la destruction du tissu social. Par crainte de rater le virage, perçu comme indispensable, de l’IA générative, et sous prétexte que les États-Unis et la Chine s’y sont lancés à pleine vitesse, on est aveugles au fait que quantité de métiers à haute compétence cognitive sont mis en péril. La liste est longue : avocats, comptables, ressources humaines, métiers de la finance, développeurs, traducteurs, journalistes, photographes… Aujourd’hui, on se rassure en se disant que les IA manquent de fiabilité, font des hallucinations, manquent de transparence. Mais demain ? Nous allons vers des super-assistants personnels qui vont assurer un nombre sans cesse croissant de tâches cognitives à notre place.

On peut très bien imaginer que dans quelques années, au nom d’un ratio avantages/inconvénients favorable, notamment dans les déserts médicaux, l’OMS valide le principe qu’en première consultation, des IA remplacent des médecins généralistes en se basant sur des capteurs, notre dossier médical, la reconnaissance faciale etc.

Un ouragan va frapper les métiers à haute compétence cognitive, intellectuelle et créative. Or, ceux-ci sont vecteurs de sociabilité, de reconnaissance de soi, de plaisir à la tâche. Le travail représente le socle de notre vitalité, mais aussi de la paix sociale. Comment peut-on accepter que l’industrie du numérique, guidée par ses seuls intérêts, produise ainsi un tel séisme sur des activités humaines dans ce qu’elles ont de très nobles ?

Aux Etats-Unis, encadrer l’utilisation de l’IA par les studios d’Hollywood et protéger le travail des scénaristes et des acteurs, a été l’une des principales revendications de la grève historique de plus de 100 jours qui vient de se terminer. C’est cette forme de réveil que vous prônez ?

Ce mouvement donne de l’espoir et devrait nous inspirer. Les scénaristes et les acteurs ont perçu les dangers de l’IA générative et ont bien compris que la quête du profit des grandes plateformes comme Netflix ne pouvait aboutir qu’à une précarisation, voire à la disparition de leur métier. Ce fut un acte fort, car vu que la régulation se montre déficiente, les scénaristes ont décidé de faire jurisprudence en mettant sur la table les vrais sujets dont le régulateur n’a pas su se saisir. Et ils ont obtenu gain de cause. Pour ne pas assister passivement à la disparition de métiers à forte implication intellectuelle et créative, je pense que la meilleure stratégie serait de s’unir par corporation et ce, à l’échelle globale.

Hollywood a pavé le chemin de la mobilisation qui doit être menée. En outre, émerge un monde où on ne sait plus distinguer une photo d’actualité d’une production d’une IA. Ce qui ouvre grand la porte à la désinformation et tue le travail des photographes. La guerre Israël/Hamas en est déjà un exemple navrant. Il est temps de saisir – au-delà de notre penchant à l’utilitarisme et d’un court-termisme très coupables – l’étendue des gigantesques conséquences culturelles et civilisationnelles qui s’annoncent du fait de la généralisation des IA génératives. Et cela appelle nécessairement mobilisation et émergence de contre-pouvoirs à toutes les échelles de la société.

En quoi jugez-vous la destruction des métiers par l’IA générative différente des autres vagues de destructions de métiers liées à l’arrivée de nouvelles technologies depuis la révolution industrielle ?

Depuis la révolution industrielle au XVIIIème siècle, il s’est opéré un mouvement progressif de substitution de l’action humaine au profit de la machine. Deux siècles plus tard, au tournant des années 1980, ce processus connut un moment d’acmé lors de la robotisation des entreprises, particulièrement dans l’industrie automobile. Mais c’était généralement des métiers à haute pénibilité qui étaient concernés, ceux qui entraînaient des troubles musculo-squelettiques, des corps broyés, des travailleurs lessivés au moment de prendre leur retraite… On peut donc considérer que dans ces domaines, le processus d’automatisation recouvrait une dimension vertueuse.

Ce qui est à l’œuvre depuis une dizaine d’années et qui est amené à se renforcer à l’avenir, est différent. Les métiers visés sont ceux qui mobilisent nos facultés intellectuelles, pour lesquels il a fallu de longues études avant de les exercer. En outre, ils créent de l’estime de soi, de la reconnaissance par autrui et de la sociabilité. Est assénée la fable de la « complémentarité homme/machine ». La personne qui a inventé cette notion mérite le prix Nobel de la novlangue, car nous sommes arrivés au bout du concept de la destruction créatrice de Schumpeter, selon lequel la technologie créée autant voire davantage d’emplois qu’elle n’en détruit en premier lieu. Cette théorie trouve ses limites avec l’IA générative, car jamais dans l’Histoire une technologie n’a menacé autant d’emplois différents d’un coup.

Ne basculez-vous pas dans la peur de l’IA dite générale, c’est-à-dire capable de tout faire mieux que l’homme ?

L’enjeu qui, actuellement, nous fait face, concerne surtout l’énorme capacité de progression des IA génératives, et donc la puissance de son impact sur le travail, le tissu social et nos capacités intellectuelles et créatives. En cela, il nous revient, en ce moment de bascule, et de haute gravité, de nous demander ce que c’est qu’être humain. Quels sont au juste nos pouvoirs d’action et d’inventivité, à une époque où des technologies sont en mesure de prendre le relais – de façon infiniment plus rapide et prétendument plus fiable – de la quasi-totalité de nos facultés cognitives ? Que nous reste-t-il dans un monde où ce qui nous constitue en propre et, au premier chef, l’usage du langage, est appelé à être toujours plus assuré par des intelligences artificielles ? L’être humain se sublime dans la contrainte et l’effort, mais prendra-t-on encore la peine d’apprendre des langues, de se confronter à l’autre, quand l’IA nous promet de tout nous apporter sur un plateau ? Notre malheur, c’est qu’on est incapables d’avoir une vision des choses au-delà de notre présent immédiat. Or, je vous le dis : le sempiternel primat économique et le court-termisme nous mènent au désert de nous-mêmes.

L’IA générative : défi pour l’Europe

L’IA générative : défi pour l’Europe

Le vieux Continent ne devrait pas se perdre dans les critiques des technologies émergentes comme ChatGPT, ni dans les inquiétudes démesurées comme le remplacement des humains par les automates.

Par Camille Fumard, auteur, et Luc Julia, spécialiste mondial de l’intelligence artificielle et actuel directeur scientifique de Renault. dans la Tribune

Ces derniers mois, la Silicon Valley semblait avoir perdu de sa superbe. Nous avions déjà imaginé la fin de l’idéologie californienne hybridant la culture hippies/yuppies mais aussi la fin d’un lieu « où les grandes idées rencontrent l’argent intelligent », comme aime à le décrire Bill Draper, de la famille Draper, l’une des plus connues dans le domaine du capital-risque mondial. Nous portions alors notre regard vers d’autres contrées telles que la Silicon Wadi (en Israël) ou encore Shenzhen (en Chine). La Silicon Valley, dernier lieu, peut-être, du thymos (l’amour-propre) occidental dont la foi profonde est placée dans le potentiel émancipateur de la technologie, tombait alors en disgrâce. Échec du métaverse, fraude hallucinante de FTX pour les cryptomonnaies, effondrement et faillites bancaires avec notamment la banque régionale des startups, la Silicon Valley Bank…

Et, pourtant ! La Silicon Valley en a vu d’autres et n’en est pas à sa première tempête. De la « dot-com bubble » en passant par la bulle des CleanTech de 2008, elle incarne aussi cette patrie de l’échec, véritable cimetière des innovations. C’est ce lieu des rêveries vulnérables où l’échec représente un passage presque obligé pour réussir. L’esprit de conquête, en référence à la conquête de l’ouest, n’a donc jamais quitté son théâtre de jeu. On le voit récemment avec l’intelligence artificielle (IA) générative. Cette dernière percée technologique des grands modèles linguistiques LLM (s’entraînant sur des trillions de mots) a pris d’assaut l’industrie entraînant une véritable euphorie chez les entrepreneurs et startupers mais aussi les capital-risqueurs. Ce marché devrait atteindre 1.304 milliards de dollars d’ici 2032, selon Bloomberg Intelligence.

La technologie de l’IA générative permet en effet des expériences comme l’écriture d’une semaine de code en quelques secondes ou la génération de conversations textuelles qui semblent encore plus empathiques que celles que nous avons avec les humains. Autrefois associée à l’or, au pétrole, puis au silicium, ou encore à Internet, et aujourd’hui à l’IA générative, la foi profonde dans le potentiel émancipateur de la technologie bat toujours son plein. Finalement, seuls les succès, ceux qui ont un impact énorme sur le réseau, sont retenus. Et, l’IA générative a déjà changé les plans d’affaires des concurrents et des investisseurs.

A cet égard, le vieux Continent ne devrait pas se perdre dans les critiques des technologies émergentes comme ChatGPT, ni dans les inquiétudes démesurées comme le remplacement des humains par les automates dans le monde du travail. Nous avons déjà connu deux cycles de panique liés au chômage dû à la technologie : la panique de l’externalisation dans les années 2000 et la panique de l’automatisation dans les années 2010 comme l’écrit Marc Andreessen, cofondateur et associé général de la société de capital-risque Andreessen

Horowitz, dans son texte « Pourquoi l’IA sauvera le monde ». Non, la technique appelle plutôt à être rationnel. Al Gore dans son célèbre discours de 1993 sur l’expansion d’un réseau informatique national l’avait, par exemple, déjà compris en posant l’expression des « autoroutes de l’information » en opposition à la vision utopique du cyberespace des années 90. L’IA générative n’en est qu’à ses débuts. Elle va traverser des étapes, des étapes toujours domptées par des ingénieurs et architectes du numérique, mais elle façonnera tous les aspects de nos vies. On devrait voir arriver des avancées comme le perfectionnement de la mémoire des LLMs avec des fenêtres contextuelles plus larges ou encore en matière d’interactivité avec l’intégration de modèles multimodaux permettant d’aller au-delà du langage. Ainsi, selon la courbe de Gartner, l’IA générative, qui traverse à une vitesse encore jamais vue la fameuse « Hype Cycle », devrait rapidement atteindre la phase de développement éclairé puis celle de d’adoption progressive.

Démythifier l’IA générative et son fonctionnement, c’est peut-être là que tout se joue aujourd’hui, surtout pour une Europe qui tend à freiner la technologie plutôt que ses usages (l’IA ACT étant le dernier exemple en date). Nous parlons encore de ces dispositifs comme d’un éther conscient qui nous entoure alors que les générations doivent comprendre que nous parlons en réalité de quelque chose que l’homme conçoit, fabrique et contrôle. Le vrai combat à mener pour l’avenir est la lutte contre l’ignorance et l’absence d’une solide compréhension citoyenne du fonctionnement de la tech. En effet, pour que la génération future puisse saisir pleinement les opportunités offertes par l’IA générative et relever les défis qu’elle présente, nous devons agir maintenant. L’IA Literacy, terme dérivé de la littératie numérique qui désigne la capacité d’un individu à comprendre et utiliser l’information au moyen des technologies, est l’une des clés essentielles pour affronter le monde du travail de demain, être un consommateur avisé et un citoyen responsable.

Nous devons donc initier d’urgence un vaste programme d’IA Literacy qui vise à inscrire dans les écoles, à l’université et dans les entreprises des programmes pour apprendre à connaître l’IA, ses aspects techniques, la façon dont elle perçoit le monde, collecte et traite les données. Ce vaste chantier éducatif permettra de former une génération éclairée capable de tempérer la perception souvent inexacte selon laquelle l’IA est une force infaillible et omnisciente mais aussi d’éclairer nos décisions. Une visée qui va d’ailleurs de pair avec un cadre réglementaire pour la gestion des risques liés à l’IA, un « code de conduite » international attaché à de grands principes généraux. « Le génie de l’IA est sorti de la bouteille », explique Cynthia Breazeal, professeur d’arts et de sciences des médias au Massachusetts Institute of Technology. Il ne s’agit pas seulement du domaine de l’informatique et du codage. Cela touche tous les aspects de la société. Savoir solliciter l’outil change la donne et offre des repères pour éviter d’être trompé ou lésé par un programme informatique. Les étudiants devront s’entraîner à obtenir les bonnes informations, à générer les bons prompts mais aussi à détecter les failles ou les biais induits par les machines, de la même manière que les générations précédentes ont appris le système de catalogue pour naviguer dans la bibliothèque.

En saisissant l’importance de l’IA literacy, nous pourrons enfin opérer un glissement sémantique pour parler « d’intelligence augmentée » en lieu et place « d’intelligence artificielle », sans perdre de vue que l’outil technique est là pour d’abord optimiser l’intelligence humaine. Espérons que le nouveau ministre de l’Éducation nationale, Gabriel Attal, et le ministre délégué de la Transition numérique, Jean-Noël Barrot, vont se charger de ce vaste chantier.

Société- l’IA , menace pour l’espèce humaine ?

Société- l’IA , menace pour l’espèce humaine ?

Le développement de l’IA représente une menace de taille pour l’espèce humaine, analyse l’auteur de La Guerre des intelligences (voir résumé) à l’heure de ChatGPT *. Il est urgent, explique-t-il dans le Figaro, de réfléchir à ses conséquences politiques et aux moyens de cohabiter avec elle.

L’arrivée de ChatGPT a relancé le débat sur l’intelligence artificielle générale : de quoi s’agit-il ?

Laurent ALEXANDRE. – Il existe deux types d’IA qui préoccupent les chercheurs. D’abord, l’intelligence artificielle générale, qui serait légèrement supérieure à l’homme dans tous les domaines cognitifs. Ensuite, la super-intelligence artificielle, l’ASI en anglais, qui pourrait être des milliers, voire des millions, de fois supérieure à la totalité des cerveaux sur ­terre.

Faut-il croire à son émergence ou s’agit-il en réalité d’un fantasme ?

Sam Altman, le patron de ChatGPT, a écrit le mois dernier qu’il est convaincu que la super-intelligence artificielle sera là avant 2030. Il n’y a pas de certitude que nous y parviendrons, mais je constate qu’il y a de plus en plus de chercheurs, une grande majorité, même, qui sont aujourd’hui convaincus que l’IA nous dépassera dans tous les domaines.

La Guerre des intelligences -résumé ( de likedin)

Les inégalités de QI sont majoritairement génétiques (de naissance) et globalement héréditaires même si le mode de vie (malbouffe, sous-stimulation…) accentue cet état de fait. De fait, les inégalités de QI se creusent.

Après une période d’augmentation générale du QI (due à une meilleure hygiène de vie), l’effet Flynn s’est tari en occident, entrainant une baisse du QI moyen, car les personnes au meilleur QI font moins d’enfants et les personnes de faibles QI en font plus et les stimulent moins.

En Asie, l’effet Flynn bat son plein : le QI connaît une forte augmentation pour des raisons environnementales (fin de la malnutrition, éducation…).

L’Afrique devrait connaître à son tour une explosion du QI dans les prochaines décennies.

L’éducation est clef : on en est encore à l’âge de pierre. Il n’y a pas d’évaluation des méthodes (cf les débats stériles entre méthode globale et syllabique alors qu’aucune étude sérieuse n’a jamais été menée sur le sujet), process de transmission inchangé depuis des siècles/millénaires (cours magistral de groupe). Grâce aux neurosciences on va vraiment comprendre comment le cerveau apprend / les cerveaux apprennent.

On pourra alors vraiment faire de la pédagogie efficace et individualisée.

Après le QI, le QCIA

Mais au-delà du QI, le vrai enjeu va être le QCIA (quotient de compatibilité avec l’IA) car l’IA arrive à grands pas.

Aujourd’hui, on n’en est qu’aux balbutiements (l’IA est encore faible, il n’existe pas encore d’IA « forte », consciente d’elle-même) mais les développements sont extrêmement rapides.

Les nouvelles IA sont auto-apprenantes (deep-learning) et deviennent des boîtes noires. On ne sait pas vraiment comment elles fonctionnent car elles évoluent d’elles-mêmes en apprenant. Cela les différentie fondamentalement des algorithmes qui sont pré-programmés par quelqu’un, donc auditables.

Les IA apprennent grâce à la masse des données (textes, vidéos, photos, données de navigation…) dont on les nourrit.

Ce n’est pas un hasard si Google et FB sont des créateurs d’IA : avec les datas dont ils disposent, ils peuvent nourrir les IA.

L’Europe en protégeant les données utilisateurs fait prendre un retard à l’IA européenne vs la Chine ou les US.

Les IA vont rapidement remplacer le travail intellectuel (avocat, médecin…) car la masse de données qu’elles possèdent est phénoménale (ex : des millions de clichés radiologiques, des milliards de datas de santé…) et cela permet de réaliser des corrélations impossibles à un humain.

Paradoxalement, les métiers manuels diversifiés seront les derniers remplacés car un robot multitâche coûte plus cher qu’un programme informatique (le radiologue sera remplacé avant l’aide-soignante).

La fin du travail est annoncée par beaucoup, mais cette peur méconnait l’inventivité humaine : de nouveaux métiers vont apparaître autour de l’IA (comme les datascientistes, les développeurs web ou les spécialistes du retargeting n’existaient pas il y a 20 ans). Par nature, on ne peut pas prévoir ce que seront ces jobs, mais ils existeront comme après chaque révolution industrielle. Ce qu’on peut imaginer et que ces futurs emplois seront étroitement liés à l’IA, il est donc essentiel que notre intelligence soit compatible, d’où l’importance du QCIA.

L’IA est pour le court terme une formidable opportunité (elle va résoudre de nombreux problèmes bien mieux que les humains, surtout dans la santé). Le problème est qu’on ne sait pas comment elle va évoluer. Une IA forte (ie avec conscience) peut devenir dangereuse pour l’homme et comme elle sera dupliquée / répartie (via Internet) dans tous les objets connectés, elle sera difficile à tuer en cas de besoin.

Comment l’IA avec conscience se comportera-t-elle avec nous ? Cela est très difficile à prévoir.

Quel avenir pour l’humanité ?

Assez vite, l’homme va être dépassé par l’IA, alors comment rester dans la course et ne pas être asservi ?

- l’eugénisme : les humains mieux sélectionnés in-vitro seront plus intelligents et en meilleure santé (cf Bienvenue à Gattaca). Cela pose évidemment de nombreux problèmes éthiques mais les réponses à ces problèmes seront différentes selon les pays et la Chine et les US sont plus permissifs. Cependant, cette évolution sera lente alors que l’IA évolue en permanence : les humains risquent de rester à la traîne de l’IA. Enfin, maîtriser la conception des enfants doit interroger sur la capacité de survie de l’espèce humaine en tant que telle. Le hasard de la génétique (mutations non prévues) est en effet le moyen trouvé par la vie pour s’adapter, sur le long terme, à un environnement lui-même en évolution permanente (principe de l’évolution).

- l’hybridation : cette solution prônée par Elon Musk consiste à se mettre des implants cérébraux qui vont booster notre cerveau. Si l’idée est très enthousiasmante (maîtriser la connaissance sans effort ni délai), le vrai risque est la manipulation : qui produit les contenus ? seront-ils orientés ? quid du brain washing ? que se passe-t-il si nous sommes hackés ? Ces implants seraient-ils le cheval de Troie d’une véritable dictature de la pensée encore plus aboutie que 1984 ? En effet, si on peut injecter des informations directement dans notre cerveau, il sera possible également de lire nos pensées. Que reste-t-il de nous si nous n’avons même plus de refuge de notre cerveau pour penser en toute liberté ? Quel usage un gouvernement pourrait-il faire de ces informations, qui ne soit pas totalitaire ?

- projeter nos esprits dans des corps robots : la victoire ultime sur la mort. Sans corps, nous sommes immortels. Mais que restera-t-il de nous quand nous serons fusionnés avec l’IA et que la mortalité n’existera plus alors qu’elle est l’essence même de l’homme et vraisemblablement l’origine de son désir créatif ?

Le problème de toutes ces évolutions c’est qu’elles ont des effets bénéfiques individuels indéniables à court terme (moins de maladies, meilleur QI…), mais à la fois vont créer des inégalités temporaires (seuls les riches pourront au début s’offrir cela) et impliquent des changements pour l’humanité toute entière.

Dès lors que les effets bénéfiques sont importants, il sera impossible d’enrayer le développement des IA dans tous les aspects de nos vies. En effet, quel parent pourrait refuser de faire soigner son enfant par une IA plutôt qu’un médecin, si ses chances de survie sont décuplées ? Quel homme politique pourrait assumer de faire prendre à son pays un retard si énorme en terme de santé publique ?

Mais si les humains sont connectés à des implants, l’IA sera certainement dedans. Serons-nous encore des humains ? Comment ne pas être asservis par l’IA si celle-ci est déjà dans nos cerveaux ?

Les technobéats ne réfléchissent pas à plusieurs générations, trop enthousiastes de voir où leur création les mènera. Quant aux politiques ils sont complètement largués et ne comprennent rien à la technologie. De toute manière, ils ne savent pas penser à plus de deux ans.

Au final, l’IA se développe sans maîtrise, car personne ne pense ni ne parle pour l’humanité.

(A ce sujet, je recommande l’essai d’Edmund Burke « Réflexion sur la Révolution de France » qui explique sa pensée, le « conservatisme », et sa vision de la société comme un contrat entre les vivants, mais également entre les vivants, les morts et les futures générations. Il y a certainement des idées pour nourrir le débat.)

Dans tous les cas, la bataille sera gagnée par les tenants de l’hybridation (transhumanistes) car ceux qui s’hybrideront (et ils le feront même si la réglementation le leur interdit) deviendront super-intelligents et deviendront donc de-facto les leaders. Ceux qui refuseront l’hybridation seront à la traîne.

Face à une IA galopante et à l’hybridation, le rôle de l’école va changer. Notre valeur sera dans ce qui fait notre humanité puisque la connaissance sera injectable à la demande sans effort. Donc il faudra former davantage à l’esprit critique, la réflexion, la créativité. L’homme a cet avantage sur la machine de faire des erreurs et c’est des erreurs que viennent des découvertes.

Société-La fin de homme face à l’IA ?

Société-La fin de homme face à l’IA ?

Le développement de l’IA représente une menace de taille pour l’espèce humaine, analyse l’auteur de La Guerre des intelligences (voir résumé) à l’heure de ChatGPT *. Il est urgent, explique-t-il dans le Figaro, de réfléchir à ses conséquences politiques et aux moyens de cohabiter avec elle.

L’arrivée de ChatGPT a relancé le débat sur l’intelligence artificielle générale : de quoi s’agit-il ?

Laurent ALEXANDRE. – Il existe deux types d’IA qui préoccupent les chercheurs. D’abord, l’intelligence artificielle générale, qui serait légèrement supérieure à l’homme dans tous les domaines cognitifs. Ensuite, la super-intelligence artificielle, l’ASI en anglais, qui pourrait être des milliers, voire des millions, de fois supérieure à la totalité des cerveaux sur ­terre.

Faut-il croire à son émergence ou s’agit-il en réalité d’un fantasme ?

Sam Altman, le patron de ChatGPT, a écrit le mois dernier qu’il est convaincu que la super-intelligence artificielle sera là avant 2030. Il n’y a pas de certitude que nous y parviendrons, mais je constate qu’il y a de plus en plus de chercheurs, une grande majorité, même, qui sont aujourd’hui convaincus que l’IA nous dépassera dans tous les domaines.

La Guerre des intelligences -résumé ( de likedin)

Les inégalités de QI sont majoritairement génétiques (de naissance) et globalement héréditaires même si le mode de vie (malbouffe, sous-stimulation…) accentue cet état de fait. De fait, les inégalités de QI se creusent.

Après une période d’augmentation générale du QI (due à une meilleure hygiène de vie), l’effet Flynn s’est tari en occident, entrainant une baisse du QI moyen, car les personnes au meilleur QI font moins d’enfants et les personnes de faibles QI en font plus et les stimulent moins.

En Asie, l’effet Flynn bat son plein : le QI connaît une forte augmentation pour des raisons environnementales (fin de la malnutrition, éducation…).

L’Afrique devrait connaître à son tour une explosion du QI dans les prochaines décennies.

L’éducation est clef : on en est encore à l’âge de pierre. Il n’y a pas d’évaluation des méthodes (cf les débats stériles entre méthode globale et syllabique alors qu’aucune étude sérieuse n’a jamais été menée sur le sujet), process de transmission inchangé depuis des siècles/millénaires (cours magistral de groupe). Grâce aux neurosciences on va vraiment comprendre comment le cerveau apprend / les cerveaux apprennent.

On pourra alors vraiment faire de la pédagogie efficace et individualisée.

Après le QI, le QCIA

Mais au-delà du QI, le vrai enjeu va être le QCIA (quotient de compatibilité avec l’IA) car l’IA arrive à grands pas.

Aujourd’hui, on n’en est qu’aux balbutiements (l’IA est encore faible, il n’existe pas encore d’IA « forte », consciente d’elle-même) mais les développements sont extrêmement rapides.

Les nouvelles IA sont auto-apprenantes (deep-learning) et deviennent des boîtes noires. On ne sait pas vraiment comment elles fonctionnent car elles évoluent d’elles-mêmes en apprenant. Cela les différentie fondamentalement des algorithmes qui sont pré-programmés par quelqu’un, donc auditables.

Les IA apprennent grâce à la masse des données (textes, vidéos, photos, données de navigation…) dont on les nourrit.

Ce n’est pas un hasard si Google et FB sont des créateurs d’IA : avec les datas dont ils disposent, ils peuvent nourrir les IA.

L’Europe en protégeant les données utilisateurs fait prendre un retard à l’IA européenne vs la Chine ou les US.

Les IA vont rapidement remplacer le travail intellectuel (avocat, médecin…) car la masse de données qu’elles possèdent est phénoménale (ex : des millions de clichés radiologiques, des milliards de datas de santé…) et cela permet de réaliser des corrélations impossibles à un humain.

Paradoxalement, les métiers manuels diversifiés seront les derniers remplacés car un robot multitâche coûte plus cher qu’un programme informatique (le radiologue sera remplacé avant l’aide-soignante).

La fin du travail est annoncée par beaucoup, mais cette peur méconnait l’inventivité humaine : de nouveaux métiers vont apparaître autour de l’IA (comme les datascientistes, les développeurs web ou les spécialistes du retargeting n’existaient pas il y a 20 ans). Par nature, on ne peut pas prévoir ce que seront ces jobs, mais ils existeront comme après chaque révolution industrielle. Ce qu’on peut imaginer et que ces futurs emplois seront étroitement liés à l’IA, il est donc essentiel que notre intelligence soit compatible, d’où l’importance du QCIA.

L’IA est pour le court terme une formidable opportunité (elle va résoudre de nombreux problèmes bien mieux que les humains, surtout dans la santé). Le problème est qu’on ne sait pas comment elle va évoluer. Une IA forte (ie avec conscience) peut devenir dangereuse pour l’homme et comme elle sera dupliquée / répartie (via Internet) dans tous les objets connectés, elle sera difficile à tuer en cas de besoin.

Comment l’IA avec conscience se comportera-t-elle avec nous ? Cela est très difficile à prévoir.

Quel avenir pour l’humanité ?

Assez vite, l’homme va être dépassé par l’IA, alors comment rester dans la course et ne pas être asservi ?

- l’eugénisme : les humains mieux sélectionnés in-vitro seront plus intelligents et en meilleure santé (cf Bienvenue à Gattaca). Cela pose évidemment de nombreux problèmes éthiques mais les réponses à ces problèmes seront différentes selon les pays et la Chine et les US sont plus permissifs. Cependant, cette évolution sera lente alors que l’IA évolue en permanence : les humains risquent de rester à la traîne de l’IA. Enfin, maîtriser la conception des enfants doit interroger sur la capacité de survie de l’espèce humaine en tant que telle. Le hasard de la génétique (mutations non prévues) est en effet le moyen trouvé par la vie pour s’adapter, sur le long terme, à un environnement lui-même en évolution permanente (principe de l’évolution).

- l’hybridation : cette solution prônée par Elon Musk consiste à se mettre des implants cérébraux qui vont booster notre cerveau. Si l’idée est très enthousiasmante (maîtriser la connaissance sans effort ni délai), le vrai risque est la manipulation : qui produit les contenus ? seront-ils orientés ? quid du brain washing ? que se passe-t-il si nous sommes hackés ? Ces implants seraient-ils le cheval de Troie d’une véritable dictature de la pensée encore plus aboutie que 1984 ? En effet, si on peut injecter des informations directement dans notre cerveau, il sera possible également de lire nos pensées. Que reste-t-il de nous si nous n’avons même plus de refuge de notre cerveau pour penser en toute liberté ? Quel usage un gouvernement pourrait-il faire de ces informations, qui ne soit pas totalitaire ?

- projeter nos esprits dans des corps robots : la victoire ultime sur la mort. Sans corps, nous sommes immortels. Mais que restera-t-il de nous quand nous serons fusionnés avec l’IA et que la mortalité n’existera plus alors qu’elle est l’essence même de l’homme et vraisemblablement l’origine de son désir créatif ?

Le problème de toutes ces évolutions c’est qu’elles ont des effets bénéfiques individuels indéniables à court terme (moins de maladies, meilleur QI…), mais à la fois vont créer des inégalités temporaires (seuls les riches pourront au début s’offrir cela) et impliquent des changements pour l’humanité toute entière.

Dès lors que les effets bénéfiques sont importants, il sera impossible d’enrayer le développement des IA dans tous les aspects de nos vies. En effet, quel parent pourrait refuser de faire soigner son enfant par une IA plutôt qu’un médecin, si ses chances de survie sont décuplées ? Quel homme politique pourrait assumer de faire prendre à son pays un retard si énorme en terme de santé publique ?

Mais si les humains sont connectés à des implants, l’IA sera certainement dedans. Serons-nous encore des humains ? Comment ne pas être asservis par l’IA si celle-ci est déjà dans nos cerveaux ?

Les technobéats ne réfléchissent pas à plusieurs générations, trop enthousiastes de voir où leur création les mènera. Quant aux politiques ils sont complètement largués et ne comprennent rien à la technologie. De toute manière, ils ne savent pas penser à plus de deux ans.

Au final, l’IA se développe sans maîtrise, car personne ne pense ni ne parle pour l’humanité.

(A ce sujet, je recommande l’essai d’Edmund Burke « Réflexion sur la Révolution de France » qui explique sa pensée, le « conservatisme », et sa vision de la société comme un contrat entre les vivants, mais également entre les vivants, les morts et les futures générations. Il y a certainement des idées pour nourrir le débat.)

Dans tous les cas, la bataille sera gagnée par les tenants de l’hybridation (transhumanistes) car ceux qui s’hybrideront (et ils le feront même si la réglementation le leur interdit) deviendront super-intelligents et deviendront donc de-facto les leaders. Ceux qui refuseront l’hybridation seront à la traîne.

Face à une IA galopante et à l’hybridation, le rôle de l’école va changer. Notre valeur sera dans ce qui fait notre humanité puisque la connaissance sera injectable à la demande sans effort. Donc il faudra former davantage à l’esprit critique, la réflexion, la créativité. L’homme a cet avantage sur la machine de faire des erreurs et c’est des erreurs que viennent des découvertes.

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol