Archive pour le Tag 'l’IA'

L’IA , nouveau média ?

L’IA , nouveau média ?

Après la radio, la télévision et Internet, l’intelligence artificielle s’impose comme un nouveau média. Cette révolution transforme radicalement notre rapport à l’information et redéfinit les règles du jeu économique pour les créateurs de contenu. Par Primavera de Filippi, Directrice de la Recherche chez Alien Intelligence (*)
dans La Tribune

L’évolution des médias suit une logique implacable : donner toujours plus d’autonomie aux consommateurs. La radiodiffusion imposait une communication descendante ridige (one to many), où chaînes de télévision et stations de radio dictaient le tempo. Internet a démocratisé les échanges avec les réseaux sociaux et blogs, permettant une communication horizontale décentralisée (many to many). Aujourd’hui, l’intelligence artificielle franchit une nouvelle étape : la personnalisation de masse, où chaque utilisateur reçoit un contenu sur-mesure.

L’innovation majeure de l’IA réside dans sa capacité à découpler le fond de la forme. Un même traité philosophique peut être reformulé en un article académique, un guide illustré, un dialogue interactif ou un podcast — chaque version préservant l’essence du contenu original tout en s’adaptant aux préférences du public. Cette flexibilité permet de combler les fossés culturels et générationnels : la littérature classique peut atteindre les jeunes audiences via des formats interactifs, et la recherche scientifique devient accessible au grand public via des podcasts, infographies ou dialogues animés.

Les créateurs peuvent désormais se concentrer sur leur valeur ajoutée — l’innovation conceptuelle, le jugement éthique, l’expression émotionnelle — en déléguant à l’IA l’adaptation formelle. Cette division du travail créatif libère les talents des contraintes techniques d’exécution et de diffusion. L’audience interpelle désormais directement l’IA pour obtenir des contenus personnalisés en temps réel. Ces contenus ne sont ni issus exclusivement de la créativité humaine, ni de la simple automatisation technologique : ils représentent une nouvelle forme hybride de production culturelle.

Le défi du modèle économique

Mais cette révolution soulève des questions cruciales qui rappellent les premiers temps du piratage numérique. L’entraînement actuel des IA, basé sur l’extraction de contenus sans autorisation ni compensation, menace l’écosystème créatif fondé sur un système de droits d’auteur qui a du mal à s’adapter à ce nouveau paradigme. Dans une ère où les contenus peuvent être indéfiniment agrégés et désagrégés, reformulés et réutilisés, comment attribuer une œuvre générée à partir des contributions de millions d’auteurs ? Comment garantir la provenance et l’authenticité des données quand les mêmes idées peuvent se manifester sous d’innombrables formes ? Enfin, en ce qui concerne la rémunération : comment garantir que les créateurs soient justement récompensés quand leurs travaux sont ingérés, transformés et réutilisés à une échelle sans précédent ? Sans mécanismes de redistribution équitable, les créateurs risquent de perdre leur incitation à produire les contenus nécessaires au fonctionnement même de ces systèmes.

L’enjeu n’est pas de résister à cette transformation, mais de la guider vers un modèle viable. L’histoire d’Internet nous éclaire sur la solution. Face au piratage musical, l’industrie n’a pas trouvé son salut dans la répression, mais dans l’innovation commerciale avec l’arrivée des plateformes de streaming. En transformant la propriété en accès et les achats en abonnements, Spotify et Netflix ont créé une nouvelle source de revenus passifs pour les créateurs avec une offre plus attractive que le piratage.

Un modèle similaire émerge dans le domaine de l’IA générative. Plutôt que de vendre leurs bases de données pour l’entraînement, les créateurs peuvent proposer leurs œuvres sous forme de flux continus, rémunérés à l’usage, qui vont enrichir les capacités de l’IA en temps réel. Les partenariats d’OpenAI avec des éditeurs comme Associated Press ou Le Monde, ou encore ceux de Mistral avec l’Agence France-Presse, préfigurent cette évolution vers une compensation directement liée à l’utilisation effective des contenus.

Construire l’écosystème de demain
Cette mutation exige de développer rapidement des infrastructures permettant un partage sécurisé des données, une attribution transparente et une compensation équitable. L’enjeu dépasse la simple innovation technologique : il s’agit de construire l’écosystème culturel de demain, où la valeur est redistribuée à ceux qui créent des contenus de qualité plutôt qu’à ceux qui se contentent de les agréger.

L’IA comme média n’est plus une perspective d’avenir, mais une réalité présente. Le défi consiste maintenant à transformer cette disruption en opportunité durable pour l’ensemble de la chaîne créative. L’avenir de la culture numérique se joue aujourd’hui dans notre capacité à inventer ces nouveaux modèles économiques.

_____

(*) Primavera de Filippi est directrice de recherche au CNRS à Paris, associée à la faculté du Berkman-Klein Center for Internet & Society à Harvard, et directrice de la recherche chez Alien, une entreprise française qui développe une infrastructure de streaming des données (« data streaming ») pour enrichir les systèmes d’IA générative, de façon juridique et éthique. Ses recherches portent sur les défis et les opportunités juridiques de la technologie blockchain et de l’intelligence artificielle. Elle est co-auteure du livre « Blockchain and the Law », publié en 2018 par Harvard University Press, et de « Blockchain Governance », publié en 2024 par MIT Press. Membre fondateur du Global Future Council on Blockchain Technologies du Forum économique mondial, elle est la fondatrice et la coordinatrice de l’Internet Governance Forum’s dynamic coalitions on Blockchain Technology de l’ONU (COALA).

Sciences- « Démythifier l’IA »

Sciences- « Démythifier l’IA »

Ni intelligente, ni créative, l’IA n’en reste pas moins un outil très puissant qui prend une place croissante dans nos vies. Il est urgent de comprendre les forces et les faiblesses de ces technologies. Par Philippe Boyer, directeur relations institutionnelles et innovation à Covivio. dans La Tribune

Les professeurs qui corrigeront des épreuves de philosophie qui se sont déroulées en début de semaine devraient se lancer un pari : estimer le nombre de fois où les termes « IA générative », « Chat GPT » et autres acronymes à consonnances technologiques (GenAI…) seront présents dans les copies des élèves de la filière générale qui auront choisi le sujet : « Notre avenir dépend-il de la technique ? ». Aux côtés de développements savants sur le fait que la technique nous a donné l’espoir de pouvoir mieux contrôler l’avenir (thèse), tout en insistant sur le fait que cette même technique menace par ailleurs d’échapper à notre contrôle (antithèse), on pourrait imaginer que la synthèse porte sur le fait de savoir si nous pouvons encore décider de ce qui sera développé demain…

Vaste sujet qui nécessite, pour y répondre, d’avoir les idées claires sur ces technologies et en particulier sur les IA génératives qui envahissent les discours. Là n’est pas le plus facile car entre propos apocalyptiques des uns et approximations des autres, fleurissent d’innombrables idées fausses, contrevérités et autres mensonges qui ne font que brouiller les cartes. Pour se recentrer, rien de vaut le regard précis et affuté d’un incontestable et légitime spécialiste du sujet, en l’occurrence celui d’un scientifique et ingénieur, inventeur de l’assistant vocal SIRI, excusez du peu… Dans « IA génératives, pas créatives », Luc Julia fait œuvre de salut public. Sa thèse ? Ni plus ni moins que de déconstruire les idées reçues les plus répandues, à commencer par celle selon laquelle les IA génératives seraient créatives.

Dès l’avant-propos, l’auteur n’y va pas par quatre chemins : « l’intelligence artificielle n’existe pas !» Sa formule est ensuite nuancée en rappelant trois choses : la première c’est que le terme « intelligence  » draine de nombreux fantasmes anthropomorphiques en faisant croire que ces systèmes penseraient comme des humains. Nous en sommes loin. La deuxième, c’est qu’en anglais, le terme « intelligence » présente plusieurs significations dont la notion « d’information », celle par exemple que l’on retrouve dans l’acronyme de l’agence étatsunienne « CIA ». Vu sous cet angle, dire qu’une technologie est « intelligente » signifie qu’elle sait certes mieux qu’un humain organiser de l’information – l’IA ne remplace pas l’humain, mais l’augmente – mais certainement pas de réfléchir comme peuvent le faire les humains, et encore moins être créatif. Et Luc Julia d’enfoncer le clou : « Quand les savants réunis à Dartmouth aux Etats-Unis en 1956 ont choisi le terme IA, ils pensaient à information mais, malgré eux, le public a retenu le sens smartness et les fantasmes ont commencé. » Enfin, et c’est le troisième aspect, il n’existe pas une seule mais plusieurs intelligences artificielles. Dès les premiers chapitres, le cadre est posé : Luc Julia assume et revendique ce rôle d’iconoclaste : au sens étymologique, il est ce briseur de miroirs.

Mythes à déconstruire
Parmi les milles morceaux de ce miroir, sept d’entre eux sont méthodiquement décortiqués par l’auteur, à commencer par le mythe (tenace) que ces machines seraient « créatives ». La réponse est cinglante : une IA n’est en rien créative et cela pour au moins 2 raisons : d’abord, car elle ne fait que «moyenner » des données qu’elle extraie de modèles et qu’ensuite, elle ne peut rien faire sans que nous, les humains, lui fournissions des instructions (prompt). Deuxième mythe : l’IA « comprendrait », voire saurait « raisonner ». Là encore, et par tentation anthropomorphique, nous nous plaisons à croire que la machine serait presque notre égal lorsqu’il s’agit de répondre à des problématiques complexes. Mais « réaliser des tâches complexes » n’a rien à voir avec le fait d’être « intelligent ». L’IA n’est pas « intelligente » car elle ne sait pas s’adapter. On se fait berner car on associe langage à intelligence humaine. Certes, l’IA « nous parle » via notre langage comme vecteur mais dans les faits, elle ne comprend rien à ce qu’elle « dit ».

L’IA, boîte noire inexplicable et imprévisible ?
Souvent entouré de mystère sur ce qui se cacherait vraiment « sous le capot » de ces IA du fait de la quantité de données et d’algorithmes à l’œuvre, Luc Julia prend un malin plaisir à déconstruire l’idée selon laquelle ces IA seraient des « boîtes noires », technologies totalement opaques et impénétrables. Là encore, et derrière ce terme volontairement inquiétant faisant clairement allusion à l’univers de la surveillance, voire à celui des catastrophes aériennes, l’auteur tord le cou à ce mythe en précisant qu’il n’y a ni boîte noire ni inexplicabilité ; tout au plus des concepteurs d’IA qui, en humains qu’ils sont, peuvent faire des erreurs de programmation. Et d’en conclure qu’il sera toujours possible de créer une IA pour contrôler les actions réalisées par une autre IA. Vision un brin fractale de cette technologie.

Route pavée d’obstacles
Au titre des autres mythes technologiques que ce livre s’emploie à remettre en perspective, figurent ceux qui attisent inutilement les peurs (« L’IA va tous nous tuer » ou « détruire tous les emplois ») ou s’appliquent à faire passer les humains pour une espèce déclassée (« L’IA peut tout apprendre » ou « L’IA est bienveillante »). Au final, ce deuxième ouvrage de Luc Julia sur ce sujet, après « L’intelligence artificielle n’existe pas » paru en 2019, fait œuvre de pédagogie en s’appliquant à rappeler que si cette technologie est assez extraordinaire pour transformer certains aspects de nos sociétés dont notre rapport à l’information, à la création et à l’énergie, il n’empêche que la route vers ce monde baignée d’IA est semée d’obstacles. Le premier d’entre eux c’est évidemment le fait que l’IA générative et ses data centers spécialisés demeurent des gouffres à eau et à électricité. Un seul exemple pour s’en convaincre : si Chat GPT devait avoir le même nombre de requêtes moyennes quotidiennes que celles de Google (8,5 milliards), sur une année, cela demanderait 1241 TWh. Dit autrement, cette puissance électrique requise nécessiterait de tripler la capacité actuelle des data centers. Certes l’IA nous permettra de plus en plus déléguer les tâches ingrates et rébarbatives et de nous concentrer sur des tâches plus intéressantes, mais à quel prix tout cela doit-il se faire ? On le comprend, la création de futures IA plus frugales est une priorité.

Quelles IA pour demain ?
A l’heure où la course aux IA bat son plein avec pour but ultime de créer une intelligence au moins aussi performante que celle des humains (sur ce sujet on se reportera aux dernières déclarations de Yann Le Cun, Chief AI Scientist de Meta, qui précise que le lancement de V-JEPA 2 permettra à une IA capable de comprendre le monde réel), les IA, et singulièrement les IA génératives, sont et restent une technologie à la fois fascinante mais inquiétante, une technologie à double tranchant, capable du meilleur comme du pire dès lors que ceux qui les conçoivent et les utilisent se prennent pour des démiurges. L’un des sujets du BAC philo de l’année prochaine est tout trouvé : « L’avenir de l’Hommes peut-il se construire avec ou sans IA ? ». Vous avez quatre heures !

_______

« IA génératives, pas créatives / L’intelligence artificielle n’existe (toujours) pas » par Luc Julia, mai 2025, Cherche Midi éditeur, 250 pages

Transition énergétique: Le rôle indispensable de l’IA ?

Transition énergétique: Le rôle indispensable de l’IA ?

En 2024, les énergies décarbonées dépassent les 40 % de la production d’électricité, tandis que le pétrole recule sous les 30 % de la consommation globale. Pourtant, les émissions de CO₂ continuent d’augmenter. Cette contradiction souligne un enjeu central : la croissance de la demande mondiale d’électricité. L’IA, à la fois source de consommation (via les data centers) et levier d’optimisation, pourrait devenir un acteur clé. Par Oliver Sartor, Chef Economiste chez Voltalis (*)
Oliver Sartor
dans La Tribune

Dans un monde où les informations contradictoires se bousculent au gré des communiqués, il est souvent difficile de se faire une idée précise de l’efficacité de la transition énergétique en cours. Ainsi, alors que pour la première fois depuis 50 ans, le pétrole a représenté l’an dernier moins de 30 % de la consommation mondiale d’énergie et que les énergies décarbonées dépassent désormais les 40 % de la production d’électricité, les émissions de gaz à effet de serre, elles, ont encore progressé de 0,8 % en 2024.

Cette apparente contradiction vient du fait que, même si les productions d’énergie décarbonées ont crû de manière exponentielle, la consommation globale d’énergie dans le monde — en particulier d’électricité — a jusqu’à ce jour augmenté davantage. D’où cette interrogation récurrente autour d’un possible « piège de la surcroissance de la consommation » : serons-nous capables de satisfaire cette demande massive d’électricité avec le seul développement de nombreuses sources d’énergies propres, ou devrons-nous continuer à être dépendant des centrales au charbon et au gaz ?

Paradoxe que semble confirmer un rapport récent de l’Agence Internationale de l’Énergie qui analyse les impacts de l’activité de l’Intelligence artificielle sur nos systèmes énergétiques. La consommation mondiale d’électricité liée aux data centers devrait plus que doubler d’ici 2030 pour atteindre 945 TWh, soit une augmentation équivalente à l’actuelle consommation électrique de l’Allemagne ! Et tripler d’ici 2035, pour atteindre +1200 TWh, soit cette fois la consommation d’électricité de l’Inde…

À première vue, ces niveaux de croissance imposent des défis colossaux aux pays qui, comme les États-Unis, souhaitent héberger une partie disproportionnée des data centers sur leur territoire. Mais une lecture plus nuancée de la problématique est toutefois possible, et ce à deux niveaux.

Premièrement, il faut remettre en perspective la consommation d’énergie de l’IA : la demande globale d’électricité plafonnait en 2023 autour de 30 000 TWh. Dans un scénario vraisemblable où celle-ci augmenterait de 800 TWh d’ici 2035, la croissance liée à la seule activité de l’Intelligence artificielle ne représenterait que 2,7 % d’augmentation de la demande mondiale. Le défi n’est donc pas insurmontable pour la transition énergétique globale.

Deuxièmement, la demande d’électricité que génère l’IA en tant que telle n’est pas le problème majeur. Le vrai sujet c’est l’impact des véhicules électriques, du chauffage et de la climatisation, et des autres usages domestiques qui vont non seulement augmenter la demande en électricité, mais également la faire fluctuer de manière beaucoup plus intense au sein de nos réseaux de transmission et de distribution. À cela s’ajoute le fait que nos systèmes électriques vont également être soumis à l’intermittence des énergies renouvelables, au fait que celles-ci vont produire parfois trop, parfois pas assez, en fonction de l’heure, du jour, de la semaine ou du mois.

L’enjeu majeur de la transition énergétique est donc de réussir à « piloter » la demande d’électricité pour l’orienter aux bons moments : au maximum quand l’énergie est disponible et au minimum quand le soleil et le vent produisent quelques mois.

On ne peut toutefois pas demander aux consommateurs d’être constamment réactifs aux aléas météorologiques. C’est là qu’intervient tout le potentiel de l’Intelligence artificielle, elle permet un pilotage autonome et dynamique de tous ces nouveaux équipements électriques, en fonction des besoins précis du système.

Désormais, différents facteurs se conjuguent pour allier de multiples technologies digitales au sein d’une même plateforme de pilotage : la réduction du coût des capteurs intelligents, les avancées techniques de l’internet of things (IoT) qui permet le contrôle et le pilotage automatique des appareils, et le cloud computing utilisant des algorithmes ultrapuissants capables d’ajuster la puissance électrique en temps réel, de manière très flexible, sans affecter le confort du consommateur.

Climatiseurs, pompes à chaleur, radiateurs, ballons d’eau chaude, voitures électriques ou encore batteries, vont devenir ainsi de véritables petites « centrales électriques virtuelles » pour piloter la demande à grande échelle. Grâce à l’apport des algorithmes, elles pourront ainsi soulager le réseau électrique lors des phases de pics de consommation — ce qui évitera d’avoir à relancer de polluantes et couteuses centrales à charbon ou à gaz — mais également prendre le relai le moment venu pour alimenter le réseau quand la production des renouvelables diminuera.

L’ultime ironie c’est que si l’Intelligence artificielle va peser sur la demande mondiale d’électricité via ses data centers, elle va surtout grandement contribuer à l’alléger en multipliant les solutions digitales qui soulageront la consommation. C’est de loin ce qui parait le plus prometteur aujourd’hui.

_______

(*) Oliver Sartor est économiste en chef chez Voltalis. Fort de 15 ans d’expérience dans la transition vers les énergies propres, il a notamment travaillé comme membre de groupes de réflexion, consultant et dans le secteur financier. Il possède une expertise en matière de gestion de la demande, de marchés de l’électricité, d’industrie et de commerce à bilan carbone neutre, de marchés de l’énergie et du carbone, et de politique climatique de l’UE.

Oliver Sartor

L’IA, test pour l’industrie européenne

 L’IA,  test pour l’industrie  européenne

L’intelligence artificielle est mise en avant lors de sommets et salons, mais la politique industrielle européenne ne s’est toujours pas mise à la hauteur du défi. Or, la domination américaine et chinoise dans l’IA révèle l’insouciance de l’Europe face aux risques, et son inconscience des enjeux économiques et géopolitiques qui se jouent. Il est urgent d’agir, à commencer par un Small Business Act européen. Par Quentin Adam, CEO de Clever Cloud. (dans La Tribune)

Le rapport Draghi, publié en septembre 2024, met en évidence une réalité inquiétante : l’Europe est en train de décrocher. L’écart de productivité avec les États-Unis est passé de 15 % en 2002 à 30 % en 2023. Ce n’est plus un simple retard, c’est une descente programmée vers l’insignifiance technologique.

Pendant que nous débattons et tergiversons, la prédominance américaine dans l’IA se renforce avec des projets comme Stargate et les avancées d’OpenAI, Google et les autres GAFAM. Par ailleurs, la Chine prouve avec DeepSeek sa capacité à proposer des alternatives compétitives avec des budgets asymétriques. Ces avancées ne sont pas neutres : elles imposent des narratifs étatiques et des biais culturels propres aux pays qui les développent.

L’Europe ne peut plus se contenter d’être un simple spectateur passif de cette dynamique. Des initiatives comme Mistral AI montrent que l’Europe peut encore jouer un rôle majeur. Mistral aurait pu rester une entreprise 100 % française et européenne, mais faute de soutien adéquat, elle a dû se tourner vers des capitaux américains. Ce n’est pas une fatalité, c’est un signal d’alarme. Nous avons la responsabilité de conserver nos talents, nos technologies et notre souveraineté sur le territoire européen.

Il est urgent de prendre conscience que nous avons les clés de notre avenir. Une solution simple et efficace existe : un Small Business Act européen. Il s’agirait d’obliger les grandes entreprises et les administrations publiques à réserver un pourcentage significatif de leurs commandes aux PME technologiques européennes. C’est la seule solution pour faire croître les entreprises.

L’ambition n’est pas simplement de conserver des emplois, mais bien d’en créer de nouveaux et de structurer un écosystème économique durable. Nous avons besoin d’entreprises dirigées par des leaders technologiques, des ingénieurs formés qui comprennent profondément les enjeux du secteur. Les succès comme Mistral AI prouvent qu’il faut des ingénieurs à la tête de nos entreprises, tout comme c’est le cas pour la totalité des GAFAM ou encore pour des entreprises chinoises comme DeepSeek. Cela doit changer, et c’est simple à mettre en place via les fonds de fonds de Bpifrance.

Il est temps d’arrêter d’investir uniquement dans des gestionnaires et de financer ceux qui savent construire. Par ailleurs, cette révolution technologique ne doit pas se limiter aux seules entreprises de la tech. Nous devons irriguer l’ensemble du tissu économique en intégrant ces technologies dans l’industrie traditionnelle, l’agriculture, la logistique et l’ensemble des secteurs productifs. L’IA et les infrastructures numériques doivent être utilisées pour rendre plus performantes toutes nos entreprises, et pas seulement celles de la tech. L’objectif n’est pas seulement de créer quelques champions visibles, mais bien de moderniser tout le socle économique français et européen.

L’Europe est au pied du mur. L’opportunité de nous ressaisir est encore là, mais nous avons atteint un point de non-retour. Si nous ne nous réveillons pas maintenant, nous perdrons à jamais notre place dans l’économie numérique mondiale.

The Law of Accelerating Returns, théorisée par Ray Kurzweil, explique que les avancées technologiques s’accélèrent de façon exponentielle à mesure que de nouvelles briques sont développées. Cela signifie que même en ayant pris du retard, il est possible de rebâtir un écosystème numérique en s’appuyant sur les progrès récents, à condition d’investir stratégiquement.

Ainsi, nous devons mettre en place un plan ambitieux basé sur :

  • l’investissement massif dans les technologies stratégiques (cloud, IA, infrastructures numériques).
  • l’alignement des politiques industrielles, commerciales et concurrentielles pour favoriser nos entreprises.
  • le soutien actif aux talents techniques et la valorisation de nos ingénieurs.

Il faut également combattre les narratifs défaitistes. Lorsque le directeur de Bpifrance déclare que la France ne pourra jamais rivaliser avec les géants américains, il nourrit une culture de l’indigence, et un défaitisme d’état. C’est une erreur stratégique. L’Europe a tout pour réussir, et il est impératif de déconstruire ces discours qui nous enferment dans l’inaction.

Cela doit s’accompagner de la création d’un ministère régalien du numérique. Ce ministère, qui pourrait être échafaudé par le haut Commissariat au Plan nouvellement nommé, doit devenir un pilier stratégique de notre politique industrielle, au coté des efforts structurants de Bpifrance. C’est un impératif, pas un luxe.

Le numérique n’est pas un secteur parmi d’autres, c’est l’infrastructure du XXIᵉ siècle. Il est temps d’arrêter de croire que le numérique est un simple monde virtuel à la Matrix, une affaire de geeks. Nous sommes dans une guerre industrielle et économique. Soit nous nous réveillons, soit nous disparaissons.

Nous avons les talents, les ressources et la capacité d’innovation. Il ne manque qu’une volonté politique forte pour structurer un écosystème numérique souverain et performant. L’Europe peut encore faire le choix de la puissance numérique. Mais ce choix ne pourra être effectif qu’avec une transformation radicale de notre approche industrielle et politique. Il est temps d’un vrai wake-up moment.

L’IA, Un système aussi d’exploitation global ?

L’IA, Un système aussi d’exploitation global ?

Un collectif, parmi lesquelles Amnesty International et la Ligue des droits de l’homme, recommande, dans une tribune au « Monde », de placer les droits humains et la justice environnementale au cœur de la régulation de l’intelligence artificielle.

L’intelligence artificielle (IA) connaît un développement foudroyant, et nos dirigeants ne semblent pas pressés de réfléchir aux enjeux humains, sociaux et environnementaux de ces nouvelles technologies, uniquement vues sous le prisme de la croissance, des gains de productivité et des profits. L’IA telle qu’elle est développée perpétue cependant les discriminations, aggrave les inégalités, détruit la planète et alimente un système d’exploitation global. Parce que ces constats ne figureront pas au programme officiel du Sommet mondial sur l’IA [qui se tient à Paris les 10 et 11 février], nous, organisations de la société civile, vous les rappelons ici.

Se concentrer uniquement sur d’éventuels futurs risques existentiels à venir de l’IA est un leurre : ces technologies ont déjà des effets très concrets pour les populations les plus vulnérables et les plus discriminées et portent largement atteinte aux droits humains. En s’appuyant sur des bases de données biaisées et en intégrant les préjugés de ses concepteurs, l’IA perpétue les stéréotypes, renforce les inégalités sociales et limite l’accès aux ressources et opportunités. A cela s’ajoute le fait que le déploiement de ces systèmes d’IA s’inscrit dans le contexte des structures discriminatoires et inégalitaires qui existent dans les sociétés du monde entier. Le recours à ces technologies, souvent sur fond de politiques d’austérité, amplifie les discriminations dans l’accès à la santé, à l’emploi, aux services publics ou aux prestations sociales. En témoignent les scandales ayant éclaté ces dernières années : biais sexistes et racistes des algorithmes de santé, algorithme des services de l’emploi autrichien qui refuse d’orienter les femmes vers le secteur informatique, profilage et discrimination des usagers de la Caisse nationale des allocations familiales en France, au Danemark ou aux Pays-Bas.

L’IA chinoise Deepseek Interdite en Italie

L’IA chinoise Deepseek Interdite en Italie

En attendant des éclaircissements, l’Italie interdit l’intelligence artificielle chinoise  » Deepseek ». Le gendarme italien des données estime en effet que «les données de millions d’Italiens sont en danger» et a exigé de DeepSeek des clarifications sur la nature des données personnelles collectées, leurs finalités ainsi que leur éventuel stockage sur des serveurs situés en Chine. En 2023, l’autorité italienne avait également suspendu les activités de l’IA américaine ChatGPT avant qu’il ne se conforme à la réglementation européenne.

« Les Prophètes de l’IA » contestés

« Les Prophètes de l’IA » contestés

Le journaliste Thibault Prévost affirme que les d’IA génératives ne sont pas fiables (et ne le seront sans doute jamais), nuisent à la planète, alimentent une probable bulle financière et perpétuent les biais sexistes et racistes.

Par Olivier Clairouin dans Le Monde

Dans Les Prophètes de l’IA (Lux, 216 pages, 18 euros), le journaliste Thibault Prévost promène son scalpel à la surface du phénomène médiatique planétaire qu’est devenue l’intelligence artificielle (IA) pour en extraire les ressorts économiques et idéologiques. Son ambition est de répondre à un apparent paradoxe : alors que les entreprises de la Silicon Valley ont toujours soutenu que leurs produits étaient bénéfiques pour l’humanité, pourquoi nous intiment-elles désormais de craindre l’IA comme le jugement dernier ?

Transhumanisme du Suédois Nick Bostrom, altruisme efficace de l’Australien Peter Singer, long-termisme de l’Ecossais William MacAskill, mais aussi « technoféodalisme », « accélérationnisme efficace », « lumières noires »… La multiplication des notions citées dans cet essai très référencé a de quoi donner le tournis, comme le reconnaît l’auteur. Nul besoin, cependant, de forger de nouveaux concepts, comme le font certains essais technocritiques à la mode : tout est déjà là, en germe depuis longtemps, et nourrit ce qu’Emile Torres considère comme « le système de croyance séculaire le plus dangereux de la planète » : une obsession des pontes de la Silicon Valley pour l’avenir de l’humanité qui s’est infiltrée jusque dans les gouvernements et les universités. Avenir dont eux seuls, bien sûr, détiendraient la clé.

Sciences et société : « L’IA va tuer l’école ! »

Sciences: « L’IA va tuer l’école ! »

 Bientôt, je serai un jeune juriste prêt à entrer dans un monde du travail radicalement transformé. Alors que je termine mes études, une question m’obsède : que restera-t-il à faire dans un monde où l’IA surpassera bientôt les meilleurs experts ?
Par Alexandre Tsicopoulos, étudiant en droit dans La Tribune

Elon Musk lui-même a prédit qu’en 2028, l’IA dépassera l’intelligence cumulée des 8 milliards d’humains. Dario Amodei, le créateur d’Anthropic et principal concurrent d’OpenAI, résume cette révolution : « L’IA sera prochainement plus intelligente que les prix Nobel. Nous aurons une nation de génie concentrée dans un data center. »  Les modèles comme GPT-4 ou Claude 3.5 surpassent les étudiants dans la plupart des tests académiques. Avec un QI de 120, GPT-4 est déjà plus intelligent que 90 % des Français et cette IA gagne chaque mois 2 points de QI. Pourtant, l’école s’obstine à former aux métiers d’hier, rendant les connaissances obsolètes avant même la remise des diplômes. La supériorité de GPT-4 sur les médecins est troublante. Une étude de l’université de Stanford montre que l’IA obtient 90 % de bons diagnostics médicaux, tandis que les médecins plafonnent à 74 %. L’arrivée au pouvoir du couple Donald Trump-Elon Musk va encore accélérer cette cavalcade technologique.

Face à la certitude d’un dépassement imminent de l’intelligence humaine par l’IA, l’école telle que je l’ai connue doit se réinventer. Mes compétences, que je pensais uniques, peuvent désormais être automatisées. Institution ancestrale, l’école peine à réduire les inégalités intellectuelles et à adapter la nouvelle génération à un monde dominé par l’IA. En effet, elle n’a pas d’impact significatif sur les capacités intellectuelles des élèves, qui restent hélas majoritairement déterminées par des facteurs génétiques. Dans une économie de la connaissance, où l’intelligence est la clé de tous les pouvoirs, les différences cognitives expliquent l’essentiel des disparités de réussite entre les individus.

À l’heure des cerveaux en silicium, l’urgence est d’éviter la dystopie décrite par Yuval Harari : un monde scindé entre des dieux maîtrisant l’IA et des inutiles laissés pour compte. Les résultats de l’étude sur le revenu universel financée par Sam Altman, le patron d’OpenAI, renforcent cette inquiétude. Cette expérimentation menée dans l’espoir de trouver une solution face à l’automatisation de nombreux métiers a donné des résultats angoissants : le revenu universel augmente quatre choses : la consommation d’antidépresseurs, d’hypnotiques, d’anxiolytiques et d’alcool. Cet échec cinglant nous oblige à explorer de nouvelles pistes. La seule issue résidera dans l’augmentation des capacités cognitives humaines.

De Gaulle écrivait en 1934 : « Derrière chaque victoire d’Alexandre le Grand, il y a toujours Aristote », pour souligner l’influence majeure du philosophe grec sur son illustre élève. Demain, chaque élève sera accompagné par un « Aristote numérique » capable de personnaliser l’éducation selon ses aptitudes neurobiologiques. Mais cela ne suffira pas. L’école du futur devra augmenter les cerveaux biologiques grâce aux NBIC (nanotechnologies, biotechnologies, informatique et sciences cognitives).
La neuroaugmentation est désormais incontournable pour rester compétitif dans un monde ultra complexe façonné par l’IA. Aux États-Unis, la start-up Heliospect Genomics propose des tests génétiques permettant aux parents de sélectionner leurs embryons les plus susceptibles de développer un haut quotient intellectuel. Une majorité des Chinois et 38 % des Américains souhaitent augmenter le QI de leurs bébés grâce à ces technologies. Avec les implants intracérébraux Neuralink, Elon Musk explore une autre voie pour augmenter l’intelligence humaine. Après la sortie de GPT-4, il s’était lamenté : « Que restera-t-il à faire pour nous, les humains ? Nous ferions mieux de passer à autre chose avec Neuralink ! » Elon Musk affirme qu’il implantera Neuralink dans le cerveau de ses propres enfants puisque « la révolution de l’IA rend le cerveau humain obsolète. »
L’homme le plus riche du monde a promis que les implants Neuralink coûteront bientôt le prix d’une Apple Watch et seront implantés par ses robots neurochirurgiens en 10 minutes. En tant que futur professionnel, je fais partie de l’une des dernières générations de « bébés-loterie », où nos capacités intellectuelles dépendent du hasard génétique. Dans un monde où certains choisiront d’améliorer leur intelligence, vais-je pouvoir rester compétitif ? Que deviendra un juriste qui refuse ces technologies, alors que d’autres embrassent cette révolution ? Cependant, une question reste centrale : serons-nous prêts à accepter cette transformation sans sacrifier l’humanité qui définit notre essence ?

La révolution éducative ne se limitera pas à la transmission des savoirs. L’éducation deviendra une institution médico-technologique, mobilisant neurosciences et bio-ingénierie pour optimiser l’apprentissage et remodeler les capacités cognitives. L’enjeu ne sera plus seulement de rivaliser avec les machines, mais de s’unir avec elles. Dans cette symbiose Homme-IA construite par la Silicon Valley, seuls les esprits augmentés pourront véritablement prospérer et s’épanouir.

Pour moi, jeune étudiant en droit, cette transition vers un monde où la fabrication de l’intelligence sera mécanisée n’est pas seulement un défi technologique ou professionnel. C’est une remise en question existentielle. Dans un monde où l’intelligence sera produite industriellement, il faudra redéfinir ce que signifie être humain. Ce sera peut-être la principale mission de l’école du futur.

« Faibles compétences de l’intervieweur »: juge l’IA d’Elon Musk

« Faibles compétences de l’intervieweur »: juge  l’IA d’Elon Musk 

 Dans la nuit du 12 au 13 août, Elon Musk a invité Donald Trump pour un live sur le réseau social dont il est propriétaire, X (anciennement Twitter), multipliant les approximations.
Une « incapacité à contrôler la conversation », même, selon l’intelligence artificielle du milliardaire, Grok, qui a été lancée au printemps 2024 en Europe. Celle-ci propose en effet des résumés des publications d’utilisateurs en tendance sur la plateforme depuis mai dernier, et le moins que l’on puisse dire, c’est qu’elle n’y va pas de main morte au sujet de son créateur.
 Pour Grok, qui vient donc résumer l’ensemble les avis des utilisateurs au sujet de cet entretien, Elon Musk est « un mauvais intervieweur » qui « manque d’engagement » et qui a de « faibles compétences en communication ». Selon Grok, il y a « des commentaires sur ses capacités à parler en public, » notamment certains suggérant « qu’il est l’un des pires qu’ils aient entendus ».

 

 

Santé-L’IA au service du diagnostic

Santé-L’IA au service du diagnostic

 Une simple prise de sang, et l’ADN d’une tumeur est capté, permettant un diagnostic nouveau des cellules tumorales qui circulent dans le sang. Ainsi pourrons-nous bientôt remplacer la biopsie par une prise de sang, afin d’identifier les patients susceptibles de bénéficier de traitements ciblés contre différents cancers ? La « biopsie liquide » est l’un des nombreux symboles des perspectives que nous ouvre l’intelligence artificielle (IA). Par Reda Guiha, Président de Pfizer France (*) dans la  » Tribune »

Tout l’écosystème de la santé vit là une vraie révolution ! Une révolution des données, poussée par la complexité de l’IA ; une révolution de capacité, aussi, puisque les données existantes se complètent d’une infinité de données synthétiques que le secteur doit apprendre à structurer et à appréhender en restant uni. Et, enfin, une (r)évolution dans le rapport des Français à la science, puisque ces progrès doivent aller de pair avec une acceptabilité et une implication nouvelle de la société.

Un chiffre, récemment mis en avant par le sociologue des sciences Michel Dubois, témoigne selon moi d’une véritable ambivalence. À l’approche des années 1980, la science était vue par une majorité des Français comme un vecteur évident de progrès social. Aujourd’hui, 60 % des Français pensent que le progrès scientifique apporte à l’humanité « autant de bien que de mal » ou « plus de mal que de bien ». Malgré tout, ils sont 8 sur 10 à toujours penser qu’une affirmation validée scientifiquement a plus de valeur.

« Nous devons comprendre que la véritable démarche scientifique repose sur le questionnement. Tout scientifique, tout chercheur, accepte la part de doute. »

Comment analyser ces chiffres-symboles des amours contrariées entre les Français et la science ? L’épidémie de COVID-19 a indéniablement modifié le rapport des Français à la science. Nous sommes passés en quelques mois seulement d’une science du résultat (stabilisée, validée par des pairs, sourcée dans les revues scientifiques) à une « course à la publication » qui a renversé la table, démultiplié les opinions scientifiques et bouleversé leur compréhension par le grand public. Les réseaux sociaux, l’infobésité, les fake news, ont augmenté ce questionnement de la vérité, et parfois désinformé, renforçant ainsi les critiques vis-à-vis des institutions et entreprises qui font et sont la science d’aujourd’hui.

Selon moi, nous manquons aujourd’hui d’un récit scientifique, et nous devons comprendre que la véritable démarche scientifique repose sur le questionnement. Tout scientifique, tout chercheur, accepte la part de doute. Il n’y a pas de réflexion scientifique sans doute au préalable. On fait de la recherche parce qu’on sait ce qu’on ne sait pas ; on se pose des questions. La culture du doute est un moteur de progrès scientifique et le meilleur moyen de progresser dans la compréhension des maladies, dans la réponse qu’on peut leur adresser. Et l’accélération de la recherche que l’on vit cette dernière décennie augmente le champ des questions.

Dans cette période de bouleversement technologique, les scientifiques, la rigueur et la reproductibilité qu’impliquent leurs méthodes, sont les derniers remparts et les garde-fous de l’éthique scientifique. Se reposer sur eux permet de comprendre, de démystifier la science, ses innovations médicales, pour rassurer et pour embarquer la population.

La pédagogie est la clef d’une meilleure compréhension du potentiel que représentent les grandes innovations technologiques et scientifiques telles que l’intelligence artificielle, la biopsie liquide ou même les thérapies géniques. Innover sans risque est un souhait vain !

Sans elle, comprendre l’intérêt universel de la science sur la santé du patient, à l’heure des réseaux sociaux et du rush scientifique, paraît impossible. Sans elle, reconnaître que l’innovation de rupture est un bouleversement cognitif pour les citoyens, paraît impossible ! La pédagogie permet d’emmener le public à se projeter dans l’innovation avec assurance et d’offrir le « pourquoi » qui, selon Nietzsche, permet de « vivre avec n’importe quel comment. »

Seule une coordination des acteurs de tout type – pouvoirs publics, associations de patients, scientifiques, professionnels de santé, industriels -, à travers des campagnes de sensibilisation communes par exemple, rendra cette politique de la culture scientifique envisageable.

L’enjeu n’est pas d’être consensuel, mais de rendre crédible la parole des personnes compétentes.

____

(*) Reda Guiha est le Country President de Pfizer France depuis le 1 er  septembre 2022.
Pharmacien de formation, Reda Guiha a travaillé dans différents pays dont l’Egypte,
le Royaume-Uni, l’Italie, les Etats-Unis et la France. Il a rejoint Pfizer en 2003, et
occupé de nombreuses fonctions en tant que directeur de la Division Oncologie puis
Specialty Care, basée en France. Il a également été président de la division Vaccins
pour les marchés internationaux développés (IDM). Avant de prendre la présidence
de Pfizer France, il présidait la franchise Maladies Rares pour la région IDM, avec
la responsabilité de 57 pays.
Reda Guiha est membre des Conseils d’Administration de l’AGIPHARM et du LEEM.
Il est également membre actif de la Conférence des dirigeants français d’entreprises
étrangères et du Cercle des Présidents.

Risque de l’IA : Une question de méthode et de démocratisation

Risque de l’IA : Une question de méthode et de démocratisation 

.L’intelligence artificielle a imposé le lexique de la peur. On parle d’invasion de robots venus remplacer les travailleuses et les travailleurs, de rupture technologique et de saut dans l’inconnu. En réalité, la création de la valeur reste absolument identique dans sa méthode depuis Socrate : il faut résoudre des problèmes ! Par Hadj Khelil, fondateur d’Hyko.ai* ( dans  » La Tribune)

Pour y parvenir, il faut d’abord connaître ses problèmes. Savoir les identifier nécessite de construire un pont, un lien entre l’énoncé et le vrai problème, le besoin non pourvu. Cette qualité de problématisation rend possible l’accès à une boite à outils dont la taille varie en fonction des âges. Si l’IA est une révolution de la caisse à outils, elle ne le sera jamais pour ce qui est du talent de problématisation.

Edgar Morin nous a montré la voie, la seconde vague de l’esprit français de Descartes : il nous faut avoir plus de méthode. Comme disait Einstein, il faut rester plus de temps avec les problèmes. Il avait prédit qu’un jour les machines répondraient à toutes les questions, mais nous prévenait déjà qu’elles ne pourraient jamais poser les meilleures questions.

Cette méthode de problématisation, cette gymnastique intellectuelle, c’est un monopole humain, un bastion qu’il faut encourager, former, valoriser. C’est sur celle-ci que nous devons nous appuyer pour dompter l’IA et la mettre au service du plus grand nombre à travers la résolution des grands problèmes de l’humanité. L’ordinateur quantique tant attendu, combiné à la magie de l’IA, pourraient être déterminants dans la réalisation des objectifs de développement durable, plutôt que servir la grande course à la profitabilité et compromettre les souverainetés des humains qui n’auraient pas livré les bons combats.

Le paradoxe veut que l’IA fasse son entrée fracassante dans un monde où les citoyens vont de plus en plus mal. C’est l’aboutissement de la prise de pouvoir des machines, accélérée par la compétition devenue mondialisée et omniprésente, après une phase, aujourd’hui révolue, de croissance effrénée où chacun a vu son temps libre, sa richesse, sa santé et ses libertés croitre.

Le prix à payer pour cette croissance inédite de richesses fut la spécialisation des tâches, censées répondre à des problèmes que l’on a fini par oublier avec la vague d’industrialisation, de normalisation, de standardisation, au nom de l’obsession à la productivité. Ne demeure que la hiérarchie sociale qui en découle, les dividendes sans cesse plus importants (un domaine où notre pays excelle encore) et finalement la conversion des travailleurs en robots. Ils ne comprennent plus à quel problème correspond les tâches qu’ils répètent. Savez-vous quel problème vous réglez dans la vie, et dans le monde ? Même des grands patrons et des dirigeants politiques ne le savent plus vraiment.

Ce n’est pas qu’ils soient stupides mais ils ne sont juste plus habitués à penser en termes de problèmes à résoudre et ont poussé une armée de cadres condamnés aux bullshit jobs à lubrifier les humains robotisés en leur parlant de devoir, puis de sens et enfin de mission. Mais après avoir délocalisé les emplois, le rêve du grand capital est de remplacer l’Homme par une machine sans état d’âme, dans une destruction créatrice qui laisserait des milliards d’entre nous sur le carreau (ces fameux cadres en premier lieu).

Je pense que la solution réside dans le problème, comme toujours. Si l’IA était démocratisée au maximum, elle pourrait répondre à la quête de sens et d’impact des citoyens du monde. S’ils peuvent (encore) répondre aux défis de l’époque et améliorer le monde pour les générations futures, car l’IA va pouvoir accélérer la transition environnementale, la démocratie participative et tout le reste, sans exception.

Puisque personne ne peut arrêter le progrès, il est de notre devoir de protéger les citoyens des tsunamis technologiques qui se profilent en leur offrant des outils pour en tirer profit. Cet outil surpuissant présente de multiples dangers, oui, mais il peut être un outil de libération, d’émancipation et de créativité qui redistribuera les cartes d’un monde devenu trop injuste pour tenir debout et pour vivre ensemble.

C’est pour cela que nous avons développé un outil de prototypage d’applications d’IA sur-mesure, en quelques minutes et sans connaissance informatique. La majeure partie de la valeur, du temps et de l’impact perdus se jouent dans cette phase de prototypage où l’IA permet des économies et un partage des connaissances, des possibles qui progressent à une vitesse délirante.

Cette révolution peut cesser de donner le pouvoir aux tenants de la technologie et le rendre à ceux qui détiennent légitimement le savoir et le savoir-faire, ceux qui connaissent les vrais problèmes et veulent les résoudre pour le bien de tous. Pour cela, il ne tient qu’à nous de la démocratiser en y prenant part, en en profitant pour réactiver ce qu’il y a de plus précieux, commun et humain en nous et dont l’épuisement menace les institutions et les organisations partout dans le monde : notre capacité à raisonner.

La délicieuse ironie de la vie a opéré un formidable retournement, dont elle a le secret, propulsant ainsi les fortunés d’autrefois dans l’enfer des autres. À nous maintenant de travailler au prochain retournement en faisant en sorte qu’il aboutisse à la situation la plus juste possible. Nous croyons fermement que l’IA, à la condition que nous réussissions à embarquer le plus d’humains possible dans l’arche, est une véritable opportunité d’imaginer et de concevoir un monde plus juste articulé sur les savoirs, les compétences, les intuitions de citoyens qui auront dompté l’IA.

_______

(*) Hadj Khelil a fondé le data lab BIG mama en 2014. il a lancé en 2024 Hyko.ai.

l’IA : Pour détecter des cancers

l’IA : Pour détecter les cancers

Des chercheurs ont conçu un algorithme d’apprentissage capable de trouver l’origine de cellules cancéreuses qui se sont propagées dans le corps alors qu’on ne connaissait pas la tumeur de départ. De quoi mieux cibler les traitements pour les patients.

Dans le traitement anticancéreux, le choix des solutions thérapeutiques dépend en grande partie de l’origine de la première tumeur, c’est-à-dire de l’organe initialement atteint. Or, pour certains cancers détectés à un stade avancé, ce point de départ est parfois impossible à identifier étant donné que leurs cellules tumorales se sont déjà disséminées dans le corps et ont produit des métastases. Ces cancers dont l’origine reste un mystère, appelés cancers de primitif inconnu (CPI) par les spécialistes, touchent chaque année 7000 patients en France. Pour ces derniers, les options de traitement sont rarement optimales.

Tout l’enjeu actuel consiste à développer des outils capables d’identifier le cancer primitif afin que ces patients puissent bénéficier d’un traitement plus spécifique de leur maladie.

Effets de L’IA générative : positifs sur la croissance ?

Effets de L’IA générative :  positifs sur la croissance ?

Une annonce tout à fait hypothétique : la quantification de l’effet positif de l’intelligence artificielle sur l’économie. D’après un rapport officiel diffusé par l’Elysée, l’intelligence artificielle pourrait générer des gains de croissance de 10 à 15 % d’ici une vingtaine d’années. Des chiffres très discutables. La première raison c’est qu’on mélange l’intelligence artificielle générative des autres formes d’intelligence artificielle qui déjà automatise les processus de production et de distribution. D’une certaine manière, l’intelligence artificielle est mise à toutes les sauces sans doute par effet de mode. Ce qui est sûr, c’est que l’intelligence artificielle tout court va continuer de se développer et est déjà largement à l’œuvre.Il faudra toutefois faire le moment venu un bilan pertinent des pertes et des créations d’emplois notamment dans les services qui seront largement affectés.Essayer de quantifier les effets de l’intelligence artificielle sur la croissance relève de la recherche dans le marc de café. On pourrait tout aussi bien annoncer que l’intelligence artificielle va détruire 100 milliards s ou au contraire augmenter de à 600 milliards le PIB.

Ce qu’on peut dire avec une certaine certitude c’est que l’intelligence artificielle va continuer de pénétrer l’économie et qu’il faut continuer de s’y préparer avec la formation et les investissements. Tout le reste relève de la spéculation

D’après l’Élysée, le rapport du comité interministériel sur l’intelligence artificielle générative prévoit un effet positif de l’IA sur l’économie française dès 2030, avec une hausse de PIB entre 250 milliards d’euros et 400 milliards. Ce texte sera rendu public demain, à la suite d’une remise officielle au président Emmanuel Macron.

Co-directeur du comité avec la chercheuse Anne Bouverot, l’économiste Philippe Aghion va présenter dans le rapport des « chiffres inédits sur le potentiel de création de valeur de l’IA », dixit l’Elysée. Le constat y serait au beau fixe : les effets positifs de l’IA générative sur l’emploi devraient largement dépasser les effets négatifs. Tout un chapitre est d’ailleurs dédié à la thématique « IA créatrice ou destructrice d’emploi ». « Le rapport évoque une hausse du PIB potentielle de 250 à 400 milliards d’euros grâce à l’IA à l’horizon 2030 », chiffre la présidence. Pour rappel, le PIB se situait à 2.640 milliards d’euros en 2022.

 

 

 

L’IA générative : Un effet positif sur la croissance ?

L’IA générative : Un effet positif sur la croissance ?

Une annonce tout à fait hypothétique : la quantification de l’effet positif de l’intelligence artificielle sur l’économie. D’après un rapport officiel, l’intelligence artificielle pourrait générer des gains de croissance de 10 à 15 % d’ici une vingtaine d’années. Des chiffres très discutables. La première raison c’est qu’on mélange l’intelligence artificielle générative des autres formes d’intelligence artificielle qui déjà automatise les processus de production et de distribution. D’une certaine manière, l’intelligence artificielle émise à toutes les sauces sans doute par effet de mode. Ce qui est sûr, c’est que l’intelligence artificielle tout court va continuer de se développer et est déjà largement à l’œuvre.Il faudra toutefois faire le moment venu un bilan pertinent des pertes et des créations d’emplois notamment dans les services qui seront largement affectés.

Essayer de quantifier les effets de l’intelligence artificielle sur la croissance relève de la recherche dans le marc de café. On pourrait tout aussi bien annoncer que l’intelligence artificielle va détruire 100 milliards s ou au contraire augmenter de à 600 milliards le PIB.

Ce qu’on peut dire avec une certaine certitude c’est que l’intelligence artificielle va continuer de pénétrer l’économie et qu’il faut continuer de s’y préparer avec la formation et les investissements. Tout le reste relève de la spéculation

D’après l’Élysée, le rapport du comité interministériel sur l’intelligence artificielle générative prévoit un effet positif de l’IA sur l’économie française dès 2030, avec une hausse de PIB entre 250 milliards d’euros et 400 milliards. Ce texte sera rendu public demain, à la suite d’une remise officielle au président Emmanuel Macron.

Co-directeur du comité avec la chercheuse Anne Bouverot, l’économiste Philippe Aghion va présenter dans le rapport des « chiffres inédits sur le potentiel de création de valeur de l’IA », dixit l’Elysée. Le constat y serait au beau fixe : les effets positifs de l’IA générative sur l’emploi devraient largement dépasser les effets négatifs. Tout un chapitre est d’ailleurs dédié à la thématique « IA créatrice ou destructrice d’emploi ». « Le rapport évoque une hausse du PIB potentielle de 250 à 400 milliards d’euros grâce à l’IA à l’horizon 2030 », chiffre la présidence. Pour rappel, le PIB se situait à 2.640 milliards d’euros en 2022.

 

 

 

L’IA générative et désinformation

L’IA générative et désinformation

 

Les progrès récents de l’intelligence artificielle générative (ces outils qui permettent de produire du texte, du son, des images ou des vidéos de manière complètement automatique) font craindre un regain de fausses informations. Cette crainte est exacerbée par le fait que de très nombreuses élections vont avoir lieu dans les mois à venir, à commencer par les élections européennes. Qu’en est-il vraiment ?

Par   DR CNRS, École normale supérieure (ENS) – PSL

Il faut déjà observer que, même si l’idée que l’IA générative est une source de danger en matière de désinformation est largement répandue, le point de vue opposé existe aussi. Ainsi, pour les chercheurs Simon, Altay et Mercier, l’arrivée des systèmes génératifs ne change pas fondamentalement la donne, ni sur le plan qualitatif, ni sur le plan quantitatif.

Ils remarquent que les sources d’information traditionnelles continuent d’occuper le haut du pavé (la grande majorité des gens s’informent à travers les médias traditionnels, qui gardent un pouvoir d’influence supérieur). Le public qui s’informe à partir de médias alternatifs et qui « consomme » des fausses informations est, selon eux, déjà abreuvé de telles sources et ne recherche pas tant une information précise que des informations qui confirment leurs idées (fondées sur une méfiance généralisée vis-à-vis des politiques et des médias).

Leur étude contredit le point de vue courant, voyant dans l’IA une source de danger majeure pour la démocratie. Elle repose sur des enquêtes qui montrent effectivement le poids de l’idéologie en matière de consommation d’information (on est orienté en fonction de son idéologie quand on s’informe, et un biais classique consiste à vouloir confirmer ce que l’on croit, quand plusieurs interprétations d’un événement sont possibles).

Il semble que l’augmentation des capacités de production de texte ne soit pas l’élément essentiel : c’est la capacité à diffuser l’information qui joue un rôle majeur. C’est aussi vrai pour les images et les vidéos, mais l’IA générative semble quand même ici créer une vraie rupture. La prise en main d’un outil comme Photoshop est longue et complexe ; à l’inverse, des outils d’IA comme Dall-e et Midjourney pour l’image, ou Sora pour la vidéo, permettent de générer des contenus réalistes à partir de quelques mots clés seulement, et on connaît le poids de l’image dans l’information. La possibilité de créer automatiquement de fausses vidéos avec la voix, et même le mouvement des lèvres rendu de façon hyper réaliste, crée aussi un état de fait nouveau, qui n’était pas imaginable il y a encore quelques mois.

Notons enfin que les outils de détection de documents générés par IA sont très imparfaits et aucune solution ne permet à l’heure actuelle de déterminer à 100 % si un document est d’origine humaine ou non. Le marquage automatique (watermarking, code indétectable à l’œil nu, mais indiquant qu’un document a été généré par une IA) pourra aider, mais il y aura bien évidemment toujours des groupes capables de produire des fichiers sans marquage, à côté des grosses plates-formes ayant pignon sur rue (il s’agit de procédés qui ne sont pas encore mis en œuvre à large échelle, mais qui pourraient l’être avec l’évolution de la législation).

Mais, au-delà, l’argumentaire montre surtout que ce n’est pas l’IA le point essentiel dans ce problème, mais une question avant tout humaine et sociale. La consommation de fausses informations est souvent motivée par des sentiments d’opposition envers les institutions et les corps sociaux établis, perçus comme ayant failli dans leur mission. La crise du Covid en a fourni une illustration récente, avec l’émergence rapide de figures très médiatisées, en opposition frontale et systématique avec les mesures proposées, et très soutenues par leurs supporters sur les médias sociaux.

Pour de nombreux individus, la propagation et la consommation de fausses informations sont un moyen de remettre en question l’autorité et de s’opposer au statu quo. En ralliant ceux qui partagent des points de vue similaires, la diffusion de fausses informations peut également servir à créer un sentiment d’appartenance et de solidarité au sein de groupes qui s’opposent au pouvoir en place. Dans ce contexte, la désinformation devient un outil pour la construction de communautés unies par des valeurs ou des objectifs communs, renforçant ainsi leur cohésion et leur résilience face aux structures de pouvoir établies. Cette dynamique entraîne donc une polarisation accrue et des divisions au sein de la société, c’est même un objectif quasi revendiqué de certains émetteurs de fausses informations, qui ne s’en cachent pas.

La propagation de la désinformation est donc favorisée par les « fractures de la société » où les divisions sociales, politiques et économiques sont prononcées (phénomène largement étudié par Jérôme Fourquet ; Ipsos mène aussi régulièrement des enquêtes sur ce thème).

Dans ces contextes, les individus peuvent être plus enclins à croire et à propager des théories du complot, des rumeurs et des fausses informations qui correspondent à leurs préjugés, à leurs craintes ou à leurs frustrations. Une société fragmentée est caractérisée par un manque de confiance mutuelle et une polarisation croissante, ce qui crée un terrain fertile pour la propagation de la désinformation. La cohésion sociale et la confiance mutuelle jouent un rôle crucial dans la prévention de la propagation de la désinformation et dans le maintien de la santé démocratique d’une société.

Le facteur humain est enfin important dans la production de fausses informations. Les « bots » automatiques produisant en masse du texte ont une influence quasi nulle (sinon pour noyer l’information au sein d’une masse de textes). On sous-estime souvent le facteur humain, qui reste indispensable pour produire de contenu qui aura un impact, même pour de fausses informations. La découverte encore récente de réseaux efficaces, mais usant de méthodes relativement rudimentaires en est la preuve.

Le problème de la désinformation dépasse donc largement le cadre de l’IA générative ou même celui de quelques individus isolés. Il est largement alimenté par des organisations puissantes, souvent dotées de ressources quasi étatiques, qui déploient des moyens importants pour propager de fausses informations à grande échelle (par exemple l’Internet Research Agency basée à Saint-Pétersbourg).

Ces organisations mettent en place des réseaux comprenant des sites web, une forte présence sur les réseaux sociaux, des bots automatisés, mais impliquent aussi des individus réels, soudoyés ou non, chargés de relayer ces informations trompeuses (on voit donc ainsi que le réseau de propagation de l’information a autant sinon plus d’importance que la production de contenu en elle-même). Cette stratégie de désinformation vise à influencer l’opinion publique, à semer la confusion et à manipuler les processus démocratiques, mettant ainsi en péril la confiance dans les institutions et la crédibilité des élections.

Pour contrer efficacement ce phénomène, il est crucial de prendre des mesures à la fois techniques, politiques et sociales pour identifier, contrer et sensibiliser le public à la désinformation orchestrée à grande échelle. Les plates-formes en ligne sont particulièrement sollicitées.

La stratégie de propagation de fausses nouvelles poursuit un double objectif, ce qui représente un double écueil pour les institutions établies. En effet, en diffusant des informations erronées, non seulement on pollue le débat public en semant la confusion et en brouillant les pistes de la vérité, mais on nourrit également un climat général de méfiance envers toute forme d’autorité et d’information « officielle ». Les autorités en place, déjà sujettes à un fort discrédit et perçues comme étant en situation de faiblesse, peinent à réagir de manière efficace face à cette prolifération de désinformation. Le doute généralisé quant à leur capacité à agir avec transparence et impartialité renforce l’impression que leurs actions pourraient être motivées par des intérêts cachés. Ainsi, les institutions en place se retrouvent prises au piège d’un cercle vicieux où leur crédibilité est constamment remise en question, les rendant d’autant plus vulnérables face aux attaques orchestrées par ceux qui cherchent à déstabiliser l’ordre établi.

L’enjeu est donc de protéger la liberté d’opinion et la liberté d’information, tout en luttant contre la propagation de fausses informations qui peuvent nuire au fonctionnement démocratique. Cette frontière entre ces principes fondamentaux est souvent difficile à tracer, et les autorités doivent jongler avec ces enjeux complexes. Dans certains cas jugés flagrants, des mesures ont été prises pour contrer les tentatives de manipulation de l’opinion publique et de déstabilisation des processus démocratiques. Des chaînes de télévision comme RT, soupçonnées d’être sous l’influence russe, ont été fermées. Des personnalités politiques ont été interrogées en raison de soupçons de corruption et d’influence étrangère. De même, les réseaux sociaux sont étroitement surveillés, et des comptes ou des réseaux liés à des puissances étrangères ont été fermés. Ces mesures visent à protéger l’intégrité des processus démocratiques et à préserver la confiance du public dans les institutions, tout en préservant les principes fondamentaux de liberté et de pluralisme. Cependant, trouver un équilibre juste entre la protection contre la désinformation et le respect des libertés individuelles demeure un défi constant dans les sociétés démocratiques.

123



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol