L’IA générative et la désinformation
Les progrès récents de l’intelligence artificielle générative (ces outils qui permettent de produire du texte, du son, des images ou des vidéos de manière complètement automatique) font craindre un regain de fausses informations. Cette crainte est exacerbée par le fait que de très nombreuses élections vont avoir lieu dans les mois à venir, à commencer par les élections européennes. Qu’en est-il vraiment ?
par
Il faut déjà observer que, même si l’idée que l’IA générative est une source de danger en matière de désinformation est largement répandue, le point de vue opposé existe aussi. Ainsi, pour les chercheurs Simon, Altay et Mercier, l’arrivée des systèmes génératifs ne change pas fondamentalement la donne, ni sur le plan qualitatif, ni sur le plan quantitatif.
Ils remarquent que les sources d’information traditionnelles continuent d’occuper le haut du pavé (la grande majorité des gens s’informent à travers les médias traditionnels, qui gardent un pouvoir d’influence supérieur). Le public qui s’informe à partir de médias alternatifs et qui « consomme » des fausses informations est, selon eux, déjà abreuvé de telles sources et ne recherche pas tant une information précise que des informations qui confirment leurs idées (fondée sur une méfiance généralisée vis-à-vis des politiques et des médias).
Leur étude contredit le point de vue courant, voyant dans l’IA une source de danger majeure pour la démocratie. Elle repose sur des enquêtes qui montrent effectivement le poids de l’idéologie en matière de consommation d’information (on est orienté en fonction de son idéologie quand on s’informe, et un biais classique consiste à vouloir confirmer ce que l’on croit, quand plusieurs interprétations d’un événement sont possibles).
Il semble que l’augmentation des capacités de production de texte ne soit pas l’élément essentiel : c’est la capacité à diffuser l’information qui joue un rôle majeur. C’est aussi vrai pour les images et les vidéos, mais l’IA générative semble quand même ici créer une vraie rupture. La prise en main d’un outil comme Photoshop est longue et complexe ; à l’inverse, des outils d’IA comme Dall-e et Midjourney pour l’image, ou Sora pour la vidéo, permettent de générer des contenus réalistes à partir de quelques mots clés seulement, et on connaît le poids de l’image dans l’information. La possibilité de créer automatiquement de fausses vidéos avec la voix, et même le mouvement des lèvres rendu de façon hyper réaliste, crée aussi un état de fait nouveau, qui n’était pas imaginable il y a encore quelques mois.
Notons enfin que les outils de détection de documents généras par IA sont très imparfaits et aucune solution ne permet à l’heure actuelle de déterminer à 100 % si un document est d’origine humaine ou non. Le marquage automatique (watermarking, code indétectable à l’œil nu, mais indiquant qu’un document a été généré par une IA) pourra aider, mais il y aura bien évidemment toujours des groupes capables de produire des fichiers sans marquage, à côté des grosses plates-formes ayant pignon sur rue (il s’agit de procédés qui ne sont pas encore mis en œuvre à large échelle, mais qui pourraient l’être avec l’évolution de la législation).
Mais, au-delà, l’argumentaire montre surtout que ce n’est pas l’IA le point essentiel dans ce problème, mais une question avant tout humaine et sociale. La consommation de fausses informations est souvent motivée par des sentiments d’opposition envers les institutions et les corps sociaux établis, perçus comme ayant failli dans leur mission. La crise du Covid en a fourni une illustration récente, avec l’émergence rapide de figures très médiatisées, en opposition frontale et systématique avec les mesures proposées, et très soutenues par leurs supporters sur les médias sociaux.
Pour de nombreux individus, la propagation et la consommation de fausses informations sont un moyen de remettre en question l’autorité et de s’opposer au statu quo. En ralliant ceux qui partagent des points de vue similaires, la diffusion de fausses informations peut également servir à créer un sentiment d’appartenance et de solidarité au sein de groupes qui s’opposent au pouvoir en place. Dans ce contexte, la désinformation devient un outil pour la construction de communautés unies par des valeurs ou des objectifs communs, renforçant ainsi leur cohésion et leur résilience face aux structures de pouvoir établies. Cette dynamique entraîne donc une polarisation accrue et des divisions au sein de la société, c’est même un objectif quasi revendiqué de certains émetteurs de fausses informations, qui ne s’en cachent pas.
La propagation de la désinformation est donc favorisée par les « factures de la société » où les divisions sociales, politiques et économiques sont prononcées (phénomène largement étudié par Jérôme Fourquet ; Ipsos mène aussi régulièrement des enquêtes sur ce thème).
Dans ces contextes, les individus peuvent être plus enclins à croire et à propager des théories du complot, des rumeurs et des fausses informations qui correspondent à leurs préjugés, à leurs craintes ou à leurs frustrations. Une société fragmentée est caractérisée par un manque de confiance mutuelle et une polarisation croissante, ce qui crée un terrain fertile pour la propagation de la désinformation. La cohésion sociale et la confiance mutuelle jouent un rôle crucial dans la prévention de la propagation de la désinformation et dans le maintien de la santé démocratique d’une société.
Le facteur humain est enfin important dans la production de fausses informations. Les « bots » automatiques produisant en masse du texte ont une influence quasi nulle (sinon pour noyer l’information au sein d’une masse de textes). On sous-estime souvent le facteur humain, qui reste indispensable pour produire de contenu qui aura un impact, même pour de fausses informations. La découverte encore récente de réseaux efficaces, mais usant de méthodes relativement rudimentaires en est la preuve.
Le problème de la désinformation dépasse donc largement le cadre de l’IA générative ou même celui de quelques individus isolés. Il est largement alimenté par des organisations puissantes, souvent dotées de ressources quasi étatiques, qui déploient des moyens importants pour propager de fausses informations à grande échelle (par exemple l’Internet Research Agency basée à Saint-Pétersbourg).
Ces organisations mettent en place des réseaux comprenant des sites web, une forte présence sur les réseaux sociaux, des bots automatisés, mais impliquent aussi des individus réels, soudoyés ou non, chargés de relayer ces informations trompeuses (on voit donc ainsi que le réseau de propagation de l’information a autant sinon plus d’importance que la production de contenu en elle-même). Cette stratégie de désinformation vise à influencer l’opinion publique, à semer la confusion et à manipuler les processus démocratiques, mettant ainsi en péril la confiance dans les institutions et la crédibilité des élections.
Pour contrer efficacement ce phénomène, il est crucial de prendre des mesures à la fois techniques, politiques et sociales pour identifier, contrer et sensibiliser le public à la désinformation orchestrée à grande échelle. Les plates-formes en ligne sont particulièrement sollicitées.
La stratégie de propagation de fausses nouvelles poursuit un double objectif, ce qui représente un double écueil pour les institutions établies. En effet, en diffusant des informations erronées, non seulement on pollue le débat public en semant la confusion et en brouillant les pistes de la vérité, mais on nourrit également un climat général de méfiance envers toute forme d’autorité et d’information « officielle ». Les autorités en place, déjà sujettes à un fort discrédit et perçues comme étant en situation de faiblesse, peinent à réagir de manière efficace face à cette prolifération de désinformation. Le doute généralisé quant à leur capacité à agir avec transparence et impartialité renforce l’impression que leurs actions pourraient être motivées par des intérêts cachés. Ainsi, les institutions en place se retrouvent prises au piège d’un cercle vicieux où leur crédibilité est constamment remise en question, les rendant d’autant plus vulnérables face aux attaques orchestrées par ceux qui cherchent à déstabiliser l’ordre établi.
L’enjeu est donc de protéger la liberté d’opinion et la liberté d’information, tout en luttant contre la propagation de fausses informations qui peuvent nuire au fonctionnement démocratique. Cette frontière entre ces principes fondamentaux est souvent difficile à tracer, et les autorités doivent jongler avec ces enjeux complexes. Dans certains cas jugés flagrants, des mesures ont été prises pour contrer les tentatives de manipulation de l’opinion publique et de déstabilisation des processus démocratiques. Des chaînes de télévision comme RT, soupçonnées d’être sous l’influence russe, ont été fermées. Des personnalités politiques ont été interrogées en raison de soupçons de corruption et d’influence étrangère. De même, les réseaux sociaux sont étroitement surveillés, et des comptes ou des réseaux liés à des puissances étrangères ont été fermés. Ces mesures visent à protéger l’intégrité des processus démocratiques et à préserver la confiance du public dans les institutions, tout en préservant les principes fondamentaux de liberté et de pluralisme. Cependant, trouver un équilibre juste entre la protection contre la désinformation et le respect des libertés individuelles demeure un défi constant dans les sociétés démocratiques.