Intelligence artificielle : une régulation nécessaire pour la protection de la démocratie
Par Julie Martinez, rapporteure générale de la Commission France Positive dans la tribune
Nous sommes aujourd’hui à un moment charnière de notre histoire pour au moins deux raisons. La première concerne le bouleversement disruptif généré par la découverte du grand public de ChatGPT, chatbot conçu par la société américaine OpenAI. Alors que l’IA se développe à une vitesse fulgurante, elle impacte soudainement notre manière de communiquer et de prendre des décisions quotidiennes, y compris politiques (1).
La seconde raison est plus latente, elle couve en effet depuis quelques décennies, et concerne l’affaiblissement certain de notre modèle démocratique aux yeux des citoyens. L’évolution politique des dernières décennies exprime avec force les errances de notre démocratie libérale et la nécessité de renforcer notre vigilance collective pour la préserver des menaces qui l’affaiblissent, parmi lesquelles la désinformation. Sans nier les dangers liés à l’IA, que nous devons résoudre et encadrer urgemment, cette technologie pourrait être un allié solide des gouvernements dans la résolution de la crise démocratique que nous traversons aujourd’hui.
L’IA est actuellement un danger réel en matière de désinformation
Pour contrer des développements jugés trop rapides et dangereux pour l’humanité, un groupe de chercheurs en IA, dont font partie Stephen Hawking et Elon Musk, a lancé une pétition le mois dernier visant à obtenir une pause dans le développement de cette technologie (2). Ils appelaient à une réglementation internationale stricte pour encadrer le développement de l’IA, à la fois pour empêcher ses conséquences néfastes et favoriser son utilisation positive pour le bien de l’humanité.
Ces risques sont en effet majeurs (3), a fortiori dans un contexte d’affaiblissement de notre système démocratique, renforcé par la désinformation – ces fameuses « fake news » qui circulent déjà avec force en ligne. Comme l’a récemment souligné le Global Risks Report (4), la désinformation est devenue une menace majeure pour la stabilité politique et la confiance dans les institutions. Les réseaux sociaux et médias en ligne sont particulièrement vulnérables à ces manipulations, étant conçus pour maximiser l’engagement des utilisateurs en leur présentant des contenus viraux, susceptibles de les intéresser, indépendamment de leur véracité. Dans ce contexte, la désinformation est devenue une arme redoutable pour influencer l’opinion publique et perturber les processus démocratiques.
L’IA aggrave considérablement ces risques, en facilitant la génération automatisée de contenus falsifiés, de plus en plus sophistiqués. Les récents progrès dans le domaine des GAN (5) ont permis de créer des images et des vidéos hyper-réalistes, semant la confusion dans l’opinion publique, tel que l’illustre la génération d’une fausse photographie d’Emmanuel Macron devant des poubelles en feux pendant les dernières manifestations contre la réforme des retraites (6).
Pour protéger nos démocraties contre les conséquences désastreuses de la désinformation renforcée par l’IA, des mesures règlementaires doivent être prises urgemment – et les gouvernements dans le monde planchent déjà sur le sujet. Ces mesures juridiques, souvent ex-ante, apparaissent déjà comme trop tardives au regard des récents développements disruptifs de l’IA et mettent en évidence le décalage entre la législation et les avancées technologiques.
Orienter l’IA pour soigner notre démocratie
Dans notre quête pour réglementer l’IA, nous ne devons pas oublier l’alliée solide qu’elle peut être demain. L’avenir de notre démocratie dépend de la manière dont nous investirons collectivement aujourd’hui dans les « bonnes » finalités qu’elle doit poursuivre, en allant au-delà des quelques initiatives règlementaires internationales en cours qui visent souvent à limiter les effets négatifs générés par l’IA. Comme toute technologie, elle n’est en effet qu’un médium, puissant, permettant d’atteindre des finalités qui, elles, doivent être repensées. Plus particulièrement, il faudra augmenter nos efforts de recherche en civic tech démocratique, continuer d’inciter les plateformes en ligne à améliorer leurs politiques de lutte contre la désinformation et les citoyens à développer leur esprit critique et leur capacité à évaluer les sources d’information. Ces défis relevés, l’IA pourra contribuer à soigner notre démocratie du grand mal du siècle.
L’exemple de Taiwan est à cet égard particulièrement significatif. En recourant à l’IA pour lutter contre la désinformation, Taiwan est devenu l’un des gouvernements les plus avancés dans la mise en place de mécanismes numériques de protection de la démocratie. Face à une campagne de désinformation massive en 2018 menée par la Chine, visant à influencer les élections locales, le Commandement des forces d’information, de communication et d’électronique a été renforcé par des procédés utilisant de puissants algorithmes, permettant l’analyse en temps réel et la détection de fausses informations en ligne. Le système est également capable de prédire les sujets qui pourraient faire l’objet d’une désinformation dans l’avenir (7).
Rien n’est plus fragile que la démocratie. Des menaces similaires existent déjà sur notre territoire et nécessitent une action rapide et décisive de la part de nos gouvernements pour soigner notre mal démocratique, y compris par l’IA.
______
(1) Avertissant sur le tsunami technologique qui s’apprêtait à déferler sur le monde, Sam Altman – CEO d’OpenAI, concluait dès 2021 une de ses tribunes de la façon suivante : « Les changements à venir sont imparables. Si nous les accueillons et les planifions, nous pouvons les utiliser pour créer une société beaucoup plus juste, plus heureuse et plus prospère. L’avenir peut être d’une grandeur presque inimaginable. » (Traduction proposée par l’auteur). Sam Altman, Moore’s Law for Everything, 16 Mars 2021
(2) Future of Life Institute, Pause Giant AI Experiments: An Open Letter, 22 Mars 2023
(3) O’Neil, C. Weapons of math destruction: How big data increases inequality and threatens democracy. Broadway Books, 2016
(4) Forum Economique Mondial, The Global Risks Report 2022, 17e Edition
(5) En francais, les réseaux antagonistes génératifs. Il s’agit d’une classe d’algorithmes d’apprentissage non supervisé.
(6) Si elles peuvent paraitre absurdes pour une partie de la population, ces images (- et bien d’autres !) ont un véritable impact et ont fait le tour du monde. Ces risques sont d’autant plus préoccupants que la confiance dans les institutions et les médias traditionnels est en déclin dans le monde.
(7) L’IA y est aussi utilisée pour renforcer la participation citoyenne grâce à une plateforme en ligne permettant aux citoyens de proposer des idées de politiques publiques et de voter pour celles qu’ils jugent les plus pertinentes. Les données collectées sont ensuite analysées par l’IA pour évaluer les opinions et décisions des citoyens, qui sont ensuite prises en compte dans le processus décisionnel gouvernemental.
0 Réponses à “Intelligence artificielle : une régulation nécessaire pour la protection de la démocratie”