Archive pour le Tag 'désinformation'

Musk et X au Brésil: un enjeu de désinformation

Musk et X au Brésil: un  enjeu de désinformation

 

Après des semaines de bataille judiciaire médiatique, Elon Musk, propriétaire du réseau social X (ex Twitter), a annoncé, fin septembre, qu’il se conformait aux demandes du juge Moraes lui demandant de bannir certains comptes de la communauté d’extrême droite du pays. Cet épisode soulève d’importantes questions sur la régulation des plateformes, la lutte contre la désinformation et la liberté d’expression.Il ne faut pas se laisser distraire par les piques et les fanfaronnades qui émaillent la querelle opposant publiquement l’homme le plus riche du monde et un juge opiniâtre de la Cour suprême du Brésil. Elon Musk, le propriétaire milliardaire du réseau social X, a publié nombre de messages méprisants adressés à Alexandre de Moraes, qu’il qualifie de « dictateur » et de « Dark Vador brésilien » sur la plateforme dont le juge a interdit l’accès dans le cadre d’une longue campagne contre la désinformation.  Mais en tant que spécialiste du droit numérique brésilien, j’y vois davantage qu’une simple querelle personnelle teintée d’amertume. La bataille juridique qui oppose X et la Cour suprême brésilienne soulève d’importantes questions sur la régulation des plateformes et la manière de lutter contre la désinformation, tout en préservant la liberté d’expression. Ces débats, qui dépassent largement ce cas précis, font rage dans le monde entier.

 

par 

Research associate, University of Virginia dans The Conversation 

L’antagonisme entre Musk et de Moraes a atteint son paroxysme au mois d’août, mais la bataille couvait depuis des années.

En 2014, le Brésil a adopté la Déclaration des droits sur Internet (« Marco Civil da Internet »). Cette loi, qui bénéficiait d’un soutien bipartisan, définissait les principes de la protection de la vie privée et de la liberté d’expression des internautes, et instaurait des sanctions pour les plateformes qui enfreignent les règles.

Cette mesure comportait un système de « notification judiciaire et de désactivation » dans lequel les plateformes n’étaient tenues responsables des contenus nuisibles générés par les utilisateurs que dans le cas où elles ne les supprimaient pas après en avoir été informées par une ordonnance judiciaire spécifique.

Cette méthode tentait à la fois de défendre la liberté d’expression et de s’assurer que les contenus illégaux et préjudiciables étaient supprimés. Elle permettait d’éviter que les plateformes, les applications de messagerie et les forums en ligne soient automatiquement tenues responsables des publications des internautes, tout en donnant la possibilité aux tribunaux d’intervenir si nécessaire.

Mais la loi de 2014 n’allait pas jusqu’à établir des règles détaillées de modération des contenus. Par conséquent, les plateformes telles que Facebook et X étaient en grande partie responsables de les mettre en œuvre.

L’aggravation de la désinformation ces dernières années, en particulier lors des élections présidentielles brésiliennes de 2022, a mis en évidence les limites de cette approche.

À l’époque, le chef de l’État, le démagogue d’extrême droite Jair Bolsonaro, et ses partisans ont été accusés de se servir des réseaux sociaux, dont X, pour diffuser des mensonges, semer le doute sur l’intégrité du système électoral brésilien et encourager les actions violentes. Quand Bolsonaro a été défait aux urnes par le politicien de gauche Luiz Inácio Lula da Silva, une campagne en ligne de négationnisme électoral a pris de l’ampleur, dont la prise d’assaut du Congrès, de la Cour suprême et du palais présidentiel par les partisans de Bolsonaro, le 8 janvier 2023, a été le point culminant, dans des circonstances similaires à l’assaut du Capitole, aux États-Unis, deux ans plus tôt.

En réponse aux campagnes de désinformation et à ces émeutes, la Cour suprême a diligenté deux enquêtes, sur les milices numériques et sur les manœuvres antidémocratiques, visant les groupes impliqués dans le complot.

Dans le cadre de ces enquêtes, la Cour suprême a demandé aux réseaux sociaux, comme Facebook, Instagram et X, de lui communiquer les adresses IP et de suspendre les comptes des personnes liées à ces activités illégales.

Mais Elon Musk, qui se qualifie lui-même de « fondamentaliste de la liberté d’expression », était entre-temps devenu propriétaire de X, et promettait de soutenir la liberté d’expression, rétablir les comptes exclus et réduire considérablement la politique de modération des contenus de sa plateforme.

Depuis, Elon Musk n’a cessé de défier ouvertement les arrêts de la Cour suprême. En avril 2024, l’équipe des « affaires gouvernementales internationales » de X a commencé à rendre publiques des informations sur ce qu’elle qualifiait de requêtes « illégales » de la Cour suprême.

La querelle s’est intensifiée fin août, quand le représentant de X au Brésil a démissionné et que Musk a refusé de lui trouver un successeur, une décision que le juge de Moraes a interprétée comme une tentative de se soustraire à la loi. Le 31 août, il a donc ordonné l’interdiction de la plateforme.

Cette décision s’accompagnait de lourdes sanctions destinées aux Brésiliens tentés de contourner l’interdiction. Toute personne utilisant des réseaux privés virtuels (VPN) pour accéder à X s’exposait ainsi à des amendes quotidiennes de près de 9 000 dollars américains, davantage que le revenu annuel moyen de nombreux Brésiliens. Ces décisions ont été confirmées le 2 septembre par cinq juges de la Cour suprême. Mais l’assemblée plénière des 11 membres de la Cour suprême doivent réexaminer le dossier et sont susceptible d’infirmer cette partie de la décision du juge de Moraes, alors que beaucoup dénoncent les excès de l’institution judiciaire.

L’affaire X contre la Cour suprême du Brésil a été profondément politisée. Le 7 septembre, des milliers de partisans de Bolsonaro ont participé à une manifestation « en faveur de la liberté d’expression » qui prenait pour cibles le gouvernement de Lula et la Cour suprême. Pour l’opposition et les factions de droite, la suspension de la plateforme est devenue le « symbole de l’ingérence excessive de l’État ».

Cette rhétorique contraste fortement avec les efforts, pourtant plus mesurés et consultatifs, visant à réguler les plateformes, depuis la Déclaration des droits sur Internet il y a plus de dix ans. Elle témoigne aussi du difficile équilibre entre liberté d’expression et lutte contre la désinformation, dans un environnement profondément divisé, un problème auquel le Brésil n’est bien évidemment pas le seul à être confronté.

Dans la lutte contre la désinformation en ligne au Brésil, et la volonté de tenir les plateformes responsables des contenus préjudiciables, les tensions politiques qui entourent l’interdiction d’X n’augurent rien de bon.

Un « projet de loi sur la désinformation » a été soumis au congrès en 2020. Il vise à créer des mécanismes de surveillance et à assurer une meilleure transparence en matière de publicités à caractère politique et de modération des contenus.

Mais en dépit de ses intentions louables, et d’une approche très mesurée d’« autorégulation », la dernière version de ce projet de loi a été retoquée après trois ans de débat.

Cela fait suite à une campagne menée par des responsables politiques de droite et des lobbyistes des géants du numérique, qui qualifient ce projet de « loi de censure », arguant qu’elle porterait atteinte à la liberté d’expression et entraverait les débats politiques. Le sort de ce projet de loi semble donc incertain.

Entre-temps, le 23 août, la Cour suprême a annoncé qu’elle examinerait deux passages clés de la Déclaration des droits sur Internet, dans le cadre d’un réexamen qui interviendra en novembre.

Le premier concerne la lenteur du processus de notification judiciaire et de désactivation qui, pour ses détracteurs, permet aux plateformes de ne pas mettre en œuvre des mécanismes de modération de contenus plus efficaces. Les partisans de la loi soutiennent, à l’inverse, que le contrôle exercé par l’institution judiciaire est indispensable pour empêcher les plateformes de supprimer arbitrairement des contenus, ce qui pourrait conduire à instaurer une forme de censure.

Le second concerne les sanctions potentielles évoquées dans la Déclaration des droits sur Internet pour les entreprises qui ne respectent pas les règles. La question est de savoir si les sanctions actuelles, et notamment les suspensions de service, sont proportionnelles et constitutionnelles. Les critiques soutiennent que la suspension totale d’une plate-forme constitue une violation de la liberté d’expression et du droit à l’information des internautes, tandis que ses partisans insistent sur le fait qu’il s’agit d’un outil nécessaire pour faire respecter la loi brésilienne et préserver la souveraineté.

Le sort du projet de loi sur la désinformation et de son réexamen par la Cour suprême pourrait engendrer de nouvelles normes juridiques pour les plateformes au Brésil, afin de savoir jusqu’où le pays peut aller pour contraindre les entreprises numériques mondiales à lutter contre la désinformation.

Même si la Cour suprême n’a pas directement lié ce réexamen au différend en cours avec X, le conflit avec Elon Musk sert bel et bien de toile de fond politique aux débats sur l’orientation de l’expérience brésilienne en matière de régulation des plateformes. Les retombées de cette querelle en apparence personnelle pourraient avoir, en la matière, des conséquences majeures pour le Brésil et, potentiellement, pour d’autres pays.

Intelligence artificielle générative et désinformation

Intelligence artificielle générative et désinformation

Les progrès récents de l’intelligence artificielle générative (ces outils qui permettent de produire du texte, du son, des images ou des vidéos de manière complètement automatique) font craindre un regain de fausses informations. Cette crainte est exacerbée par le fait que de très nombreuses élections vont avoir lieu dans les mois à venir, à commencer par les élections européennes. Qu’en est-il vraiment ?

Par   DR CNRS, École normale supérieure (ENS) – PSL

Il faut déjà observer que, même si l’idée que l’IA générative est une source de danger en matière de désinformation est largement répandue, le point de vue opposé existe aussi. Ainsi, pour les chercheurs Simon, Altay et Mercier, l’arrivée des systèmes génératifs ne change pas fondamentalement la donne, ni sur le plan qualitatif, ni sur le plan quantitatif.

Ils remarquent que les sources d’information traditionnelles continuent d’occuper le haut du pavé (la grande majorité des gens s’informent à travers les médias traditionnels, qui gardent un pouvoir d’influence supérieur). Le public qui s’informe à partir de médias alternatifs et qui « consomme » des fausses informations est, selon eux, déjà abreuvé de telles sources et ne recherche pas tant une information précise que des informations qui confirment leurs idées (fondées sur une méfiance généralisée vis-à-vis des politiques et des médias).

Leur étude contredit le point de vue courant, voyant dans l’IA une source de danger majeure pour la démocratie. Elle repose sur des enquêtes qui montrent effectivement le poids de l’idéologie en matière de consommation d’information (on est orienté en fonction de son idéologie quand on s’informe, et un biais classique consiste à vouloir confirmer ce que l’on croit, quand plusieurs interprétations d’un événement sont possibles).

Il semble que l’augmentation des capacités de production de texte ne soit pas l’élément essentiel : c’est la capacité à diffuser l’information qui joue un rôle majeur. C’est aussi vrai pour les images et les vidéos, mais l’IA générative semble quand même ici créer une vraie rupture. La prise en main d’un outil comme Photoshop est longue et complexe ; à l’inverse, des outils d’IA comme Dall-e et Midjourney pour l’image, ou Sora pour la vidéo, permettent de générer des contenus réalistes à partir de quelques mots clés seulement, et on connaît le poids de l’image dans l’information. La possibilité de créer automatiquement de fausses vidéos avec la voix, et même le mouvement des lèvres rendu de façon hyper réaliste, crée aussi un état de fait nouveau, qui n’était pas imaginable il y a encore quelques mois.

Notons enfin que les outils de détection de documents générés par IA sont très imparfaits et aucune solution ne permet à l’heure actuelle de déterminer à 100 % si un document est d’origine humaine ou non. Le marquage automatique (watermarking, code indétectable à l’œil nu, mais indiquant qu’un document a été généré par une IA) pourra aider, mais il y aura bien évidemment toujours des groupes capables de produire des fichiers sans marquage, à côté des grosses plates-formes ayant pignon sur rue (il s’agit de procédés qui ne sont pas encore mis en œuvre à large échelle, mais qui pourraient l’être avec l’évolution de la législation).

Mais, au-delà, l’argumentaire montre surtout que ce n’est pas l’IA le point essentiel dans ce problème, mais une question avant tout humaine et sociale. La consommation de fausses informations est souvent motivée par des sentiments d’opposition envers les institutions et les corps sociaux établis, perçus comme ayant failli dans leur mission. La crise du Covid en a fourni une illustration récente, avec l’émergence rapide de figures très médiatisées, en opposition frontale et systématique avec les mesures proposées, et très soutenues par leurs supporters sur les médias sociaux.

Pour de nombreux individus, la propagation et la consommation de fausses informations sont un moyen de remettre en question l’autorité et de s’opposer au statu quo. En ralliant ceux qui partagent des points de vue similaires, la diffusion de fausses informations peut également servir à créer un sentiment d’appartenance et de solidarité au sein de groupes qui s’opposent au pouvoir en place. Dans ce contexte, la désinformation devient un outil pour la construction de communautés unies par des valeurs ou des objectifs communs, renforçant ainsi leur cohésion et leur résilience face aux structures de pouvoir établies. Cette dynamique entraîne donc une polarisation accrue et des divisions au sein de la société, c’est même un objectif quasi revendiqué de certains émetteurs de fausses informations, qui ne s’en cachent pas.

La propagation de la désinformation est donc favorisée par les « fractures de la société » où les divisions sociales, politiques et économiques sont prononcées (phénomène largement étudié par Jérôme Fourquet ; Ipsos mène aussi régulièrement des enquêtes sur ce thème).

Dans ces contextes, les individus peuvent être plus enclins à croire et à propager des théories du complot, des rumeurs et des fausses informations qui correspondent à leurs préjugés, à leurs craintes ou à leurs frustrations. Une société fragmentée est caractérisée par un manque de confiance mutuelle et une polarisation croissante, ce qui crée un terrain fertile pour la propagation de la désinformation. La cohésion sociale et la confiance mutuelle jouent un rôle crucial dans la prévention de la propagation de la désinformation et dans le maintien de la santé démocratique d’une société.

Le facteur humain est enfin important dans la production de fausses informations. Les « bots » automatiques produisant en masse du texte ont une influence quasi nulle (sinon pour noyer l’information au sein d’une masse de textes). On sous-estime souvent le facteur humain, qui reste indispensable pour produire de contenu qui aura un impact, même pour de fausses informations. La découverte encore récente de réseaux efficaces, mais usant de méthodes relativement rudimentaires en est la preuve.

Le problème de la désinformation dépasse donc largement le cadre de l’IA générative ou même celui de quelques individus isolés. Il est largement alimenté par des organisations puissantes, souvent dotées de ressources quasi étatiques, qui déploient des moyens importants pour propager de fausses informations à grande échelle (par exemple l’Internet Research Agency basée à Saint-Pétersbourg).

Ces organisations mettent en place des réseaux comprenant des sites web, une forte présence sur les réseaux sociaux, des bots automatisés, mais impliquent aussi des individus réels, soudoyés ou non, chargés de relayer ces informations trompeuses (on voit donc ainsi que le réseau de propagation de l’information a autant sinon plus d’importance que la production de contenu en elle-même). Cette stratégie de désinformation vise à influencer l’opinion publique, à semer la confusion et à manipuler les processus démocratiques, mettant ainsi en péril la confiance dans les institutions et la crédibilité des élections.

Pour contrer efficacement ce phénomène, il est crucial de prendre des mesures à la fois techniques, politiques et sociales pour identifier, contrer et sensibiliser le public à la désinformation orchestrée à grande échelle. Les plates-formes en ligne sont particulièrement sollicitées.

La stratégie de propagation de fausses nouvelles poursuit un double objectif, ce qui représente un double écueil pour les institutions établies. En effet, en diffusant des informations erronées, non seulement on pollue le débat public en semant la confusion et en brouillant les pistes de la vérité, mais on nourrit également un climat général de méfiance envers toute forme d’autorité et d’information « officielle ». Les autorités en place, déjà sujettes à un fort discrédit et perçues comme étant en situation de faiblesse, peinent à réagir de manière efficace face à cette prolifération de désinformation. Le doute généralisé quant à leur capacité à agir avec transparence et impartialité renforce l’impression que leurs actions pourraient être motivées par des intérêts cachés. Ainsi, les institutions en place se retrouvent prises au piège d’un cercle vicieux où leur crédibilité est constamment remise en question, les rendant d’autant plus vulnérables face aux attaques orchestrées par ceux qui cherchent à déstabiliser l’ordre établi.

L’enjeu est donc de protéger la liberté d’opinion et la liberté d’information, tout en luttant contre la propagation de fausses informations qui peuvent nuire au fonctionnement démocratique. Cette frontière entre ces principes fondamentaux est souvent difficile à tracer, et les autorités doivent jongler avec ces enjeux complexes. Dans certains cas jugés flagrants, des mesures ont été prises pour contrer les tentatives de manipulation de l’opinion publique et de déstabilisation des processus démocratiques. Des chaînes de télévision comme RT, soupçonnées d’être sous l’influence russe, ont été fermées. Des personnalités politiques ont été interrogées en raison de soupçons de corruption et d’influence étrangère. De même, les réseaux sociaux sont étroitement surveillés, et des comptes ou des réseaux liés à des puissances étrangères ont été fermés. Ces mesures visent à protéger l’intégrité des processus démocratiques et à préserver la confiance du public dans les institutions, tout en préservant les principes fondamentaux de liberté et de pluralisme. Cependant, trouver un équilibre juste entre la protection contre la désinformation et le respect des libertés individuelles demeure un défi constant dans les sociétés démocratiques.

La désinformation dans le conflit Israël-Hamas

La  désinformation dans le  conflit Israël-Hamas

Comment, dans nos sociétés de consommation hyperconnectées, manifester pacifiquement son désaccord, voire son opposition à la politique de tel ou tel Etat ou telle ou telle entreprise multinationale ? Pour certains, c’est le choix du boycott qui s’impose. Le consommateur devient ainsi un « consomm’acteur », dont les actes d’achats reflètent les opinions personnelles. Voici donc que ressurgissent, à l’ère des réseaux sociaux et des opinions clivées qui font leur succès, et alors que s’aggrave, au Moyen-Orient, le conflit le plus globalisant qui soit, les appels à boycotter Israël et ses soutiens, réels ou supposés.

Par Jean Lévy, ancien élève de l’ENA, diplomate, ancien ambassadeur de France dans La Tribune

  Ses défenseurs le savent : pour être pacifique, le boycott n’en demeure pas moins une « arme » efficace – et qui ne date pas d’hier. En 1933, les Juifs du monde entier sont ainsi appelés à boycotter les produits de l’Allemagne nazie. Dans les années 1960 et au-delà se répand un appel à boycotter les produits venus d’Afrique du Sud alors sous le régime de l’apartheid. Enfin, depuis 2005 sévit le mouvement dit « boycott désinvestissement sanctions » (BDS), qui s’oppose à la politique de l’État d’Israël vis-à-vis du peuple palestinien et à la colonisation des territoires palestiniens occupés depuis 1967.

Rien de nouveau sous le soleil. Le boycott a été utilisé par les pays arabes bien avant la création, en 1948, de l’État d’Israël, quand dans les années 1920 puis à l’aube de la Seconde Guerre mondiale le leadership arabe de la Palestine mandataire a appelé au boycott des Juifs de Palestine. Depuis longtemps, dans les pays arabes, le rejet de certains produits étrangers, ou de certaines marques « mondiales », procède d’une forme d’ethnocentrisme ou de préférence religieuse : on boycotte tel soda pour lui préférer sa déclinaison « nationale », ou telle origine parce que celle-ci est associée, comme dans le cas des produits danois en 2005, à une polémique liée aux caricatures de Mahomet.

Les attaques terroristes du 7 octobre, et la sanglante réponse militaire d’Israël, ont donné une tout autre dimension à ce mouvement de boycott d’Israël dans le monde arabe. Chauffés à blanc par le déluge d’images insoutenables qui, sur les réseaux sociaux, leur parviennent de l’enfer qu’est devenue la bande de Gaza, les populations arabes et les internautes soutiens de la Palestine relaient, depuis quelques semaines, des appels à boycotter certains produits, ou encore certaines grandes enseignes internationales présentées, à tort ou à raison, comme pro-israéliennes.

Le mouvement est porté par une jeunesse informée et façonnée par les nouvelles technologies – on se souvient que les « printemps arabes » étaient, déjà, intensifiés par les réseaux sociaux encore balbutiants. Des sites, extensions ou applications mobiles ont été conçus pour aider les consommateurs à reconnaître, pour mieux les boycotter, les produits supposément pro-israéliens – une classification que l’on devine pour le moins hasardeuse, car englobant souvent, par exemple, l’ensemble des marques occidentales originaires de pays supportant plus ou moins officiellement la politique de l’État d’Israël. Du Maroc au Koweït, en passant par la Jordanie ou l’Egypte, le slogan « Avez-vous tué un Palestinien aujourd’hui ? » (en consommant des marques soutenant supposément la politique d’Israël) résonne dans la conscience de bien des consommateurs.

Il ne nous appartient pas de juger ici du bien-fondé de la décision personnelle de boycotter. A condition que ce choix repose sur des informations fiables et vérifiées. Ce qui est loin d’être systématiquement le cas, comme en témoigne l’explosion, depuis le 7 octobre, d’informations fallacieuses visant, sur les réseaux sociaux, à mettre à l’index telle ou telle entreprise accusée de soutenir la politique d’Israël.

Les exemples sont légion : Zara, sous le feu des critiques après une campagne de publicité soupçonnée – à tort, puisqu’antérieure au 7 octobre – d’ironiser sur le sort des Palestiniens de Gaza ; Puma, dont la décision de ne plus sponsoriser l’équipe israélienne de football a, sortie de son contexte, été instrumentalisée par la campagne BDS (Boycott, Désinvestissement et Sanctions) qui l’a indument présentée comme une « victoire » ; Starbucks, dont le dévissage du cours en Bourse a, ici aussi à tort, été attribué au soutien – fictif – de la multinationale du café à Israël. Mais l’exemple le plus édifiant est sans doute celui de Carrefour, victime d’une campagne de dénigrement après la diffusion, sur Instagram, d’une photo d’un employé offrant des denrées alimentaires aux soldats de Tsahal.

Cette campagne mérite qu’on s’y arrête, non seulement parce qu’elle concerne un groupe français, mais aussi parce qu’elle est emblématique de la manière dont une image (non truquée) peut mener à une interprétation erronée. Il s’agissait, en réalité, de l’acte isolé d’un salarié d’un franchisé de Carrefour en Israël. Un acte qui n’a pas été autorisé par le groupe français, et qui ne représente pas sa politique – d’autant que Carrefour est présent dans de nombreux pays arabes. Contrairement à ce qu’affirme la campagne BDS, Carrefour n’a aucun magasin en Cisjordanie (comme en atteste la liste dressée par les Nations Unies). C’est son prestataire, Electra Ltd /Yenot Bitan, qui opère dans les colonies, sous les marques Mega et Mehadrin (aucun lien avec Carrefour). Une absence de Carrefour en Cisjordanie par ailleurs reconnue par le camp pro-palestinien lui-même, et critiquée comme telle par la presse… israélienne.

Bien malgré lui, le groupe français se retrouve donc mis à l’index tant par les défenseurs d’Israël que par ses adversaires. Absurde et antinomique, cette situation doit inciter les consommateurs responsables que nous sommes à un devoir de prudence vis-à-vis des « story telling » des réseaux sociaux, et singulièrement lorsque le contexte est celui d’un conflit aussi violent et globalisant que celui de la guerre entre Israël et le Hamas. Libre à chacun de boycotter, mais à la condition d’avoir pris le temps de vérifier les informations sur lesquelles un tel acte se fonde.

 

L’IA générative et désinformation

L’IA générative et désinformation

 

Les progrès récents de l’intelligence artificielle générative (ces outils qui permettent de produire du texte, du son, des images ou des vidéos de manière complètement automatique) font craindre un regain de fausses informations. Cette crainte est exacerbée par le fait que de très nombreuses élections vont avoir lieu dans les mois à venir, à commencer par les élections européennes. Qu’en est-il vraiment ?

Par   DR CNRS, École normale supérieure (ENS) – PSL

Il faut déjà observer que, même si l’idée que l’IA générative est une source de danger en matière de désinformation est largement répandue, le point de vue opposé existe aussi. Ainsi, pour les chercheurs Simon, Altay et Mercier, l’arrivée des systèmes génératifs ne change pas fondamentalement la donne, ni sur le plan qualitatif, ni sur le plan quantitatif.

Ils remarquent que les sources d’information traditionnelles continuent d’occuper le haut du pavé (la grande majorité des gens s’informent à travers les médias traditionnels, qui gardent un pouvoir d’influence supérieur). Le public qui s’informe à partir de médias alternatifs et qui « consomme » des fausses informations est, selon eux, déjà abreuvé de telles sources et ne recherche pas tant une information précise que des informations qui confirment leurs idées (fondées sur une méfiance généralisée vis-à-vis des politiques et des médias).

Leur étude contredit le point de vue courant, voyant dans l’IA une source de danger majeure pour la démocratie. Elle repose sur des enquêtes qui montrent effectivement le poids de l’idéologie en matière de consommation d’information (on est orienté en fonction de son idéologie quand on s’informe, et un biais classique consiste à vouloir confirmer ce que l’on croit, quand plusieurs interprétations d’un événement sont possibles).

Il semble que l’augmentation des capacités de production de texte ne soit pas l’élément essentiel : c’est la capacité à diffuser l’information qui joue un rôle majeur. C’est aussi vrai pour les images et les vidéos, mais l’IA générative semble quand même ici créer une vraie rupture. La prise en main d’un outil comme Photoshop est longue et complexe ; à l’inverse, des outils d’IA comme Dall-e et Midjourney pour l’image, ou Sora pour la vidéo, permettent de générer des contenus réalistes à partir de quelques mots clés seulement, et on connaît le poids de l’image dans l’information. La possibilité de créer automatiquement de fausses vidéos avec la voix, et même le mouvement des lèvres rendu de façon hyper réaliste, crée aussi un état de fait nouveau, qui n’était pas imaginable il y a encore quelques mois.

Notons enfin que les outils de détection de documents générés par IA sont très imparfaits et aucune solution ne permet à l’heure actuelle de déterminer à 100 % si un document est d’origine humaine ou non. Le marquage automatique (watermarking, code indétectable à l’œil nu, mais indiquant qu’un document a été généré par une IA) pourra aider, mais il y aura bien évidemment toujours des groupes capables de produire des fichiers sans marquage, à côté des grosses plates-formes ayant pignon sur rue (il s’agit de procédés qui ne sont pas encore mis en œuvre à large échelle, mais qui pourraient l’être avec l’évolution de la législation).

Mais, au-delà, l’argumentaire montre surtout que ce n’est pas l’IA le point essentiel dans ce problème, mais une question avant tout humaine et sociale. La consommation de fausses informations est souvent motivée par des sentiments d’opposition envers les institutions et les corps sociaux établis, perçus comme ayant failli dans leur mission. La crise du Covid en a fourni une illustration récente, avec l’émergence rapide de figures très médiatisées, en opposition frontale et systématique avec les mesures proposées, et très soutenues par leurs supporters sur les médias sociaux.

Pour de nombreux individus, la propagation et la consommation de fausses informations sont un moyen de remettre en question l’autorité et de s’opposer au statu quo. En ralliant ceux qui partagent des points de vue similaires, la diffusion de fausses informations peut également servir à créer un sentiment d’appartenance et de solidarité au sein de groupes qui s’opposent au pouvoir en place. Dans ce contexte, la désinformation devient un outil pour la construction de communautés unies par des valeurs ou des objectifs communs, renforçant ainsi leur cohésion et leur résilience face aux structures de pouvoir établies. Cette dynamique entraîne donc une polarisation accrue et des divisions au sein de la société, c’est même un objectif quasi revendiqué de certains émetteurs de fausses informations, qui ne s’en cachent pas.

La propagation de la désinformation est donc favorisée par les « fractures de la société » où les divisions sociales, politiques et économiques sont prononcées (phénomène largement étudié par Jérôme Fourquet ; Ipsos mène aussi régulièrement des enquêtes sur ce thème).

Dans ces contextes, les individus peuvent être plus enclins à croire et à propager des théories du complot, des rumeurs et des fausses informations qui correspondent à leurs préjugés, à leurs craintes ou à leurs frustrations. Une société fragmentée est caractérisée par un manque de confiance mutuelle et une polarisation croissante, ce qui crée un terrain fertile pour la propagation de la désinformation. La cohésion sociale et la confiance mutuelle jouent un rôle crucial dans la prévention de la propagation de la désinformation et dans le maintien de la santé démocratique d’une société.

Le facteur humain est enfin important dans la production de fausses informations. Les « bots » automatiques produisant en masse du texte ont une influence quasi nulle (sinon pour noyer l’information au sein d’une masse de textes). On sous-estime souvent le facteur humain, qui reste indispensable pour produire de contenu qui aura un impact, même pour de fausses informations. La découverte encore récente de réseaux efficaces, mais usant de méthodes relativement rudimentaires en est la preuve.

Le problème de la désinformation dépasse donc largement le cadre de l’IA générative ou même celui de quelques individus isolés. Il est largement alimenté par des organisations puissantes, souvent dotées de ressources quasi étatiques, qui déploient des moyens importants pour propager de fausses informations à grande échelle (par exemple l’Internet Research Agency basée à Saint-Pétersbourg).

Ces organisations mettent en place des réseaux comprenant des sites web, une forte présence sur les réseaux sociaux, des bots automatisés, mais impliquent aussi des individus réels, soudoyés ou non, chargés de relayer ces informations trompeuses (on voit donc ainsi que le réseau de propagation de l’information a autant sinon plus d’importance que la production de contenu en elle-même). Cette stratégie de désinformation vise à influencer l’opinion publique, à semer la confusion et à manipuler les processus démocratiques, mettant ainsi en péril la confiance dans les institutions et la crédibilité des élections.

Pour contrer efficacement ce phénomène, il est crucial de prendre des mesures à la fois techniques, politiques et sociales pour identifier, contrer et sensibiliser le public à la désinformation orchestrée à grande échelle. Les plates-formes en ligne sont particulièrement sollicitées.

La stratégie de propagation de fausses nouvelles poursuit un double objectif, ce qui représente un double écueil pour les institutions établies. En effet, en diffusant des informations erronées, non seulement on pollue le débat public en semant la confusion et en brouillant les pistes de la vérité, mais on nourrit également un climat général de méfiance envers toute forme d’autorité et d’information « officielle ». Les autorités en place, déjà sujettes à un fort discrédit et perçues comme étant en situation de faiblesse, peinent à réagir de manière efficace face à cette prolifération de désinformation. Le doute généralisé quant à leur capacité à agir avec transparence et impartialité renforce l’impression que leurs actions pourraient être motivées par des intérêts cachés. Ainsi, les institutions en place se retrouvent prises au piège d’un cercle vicieux où leur crédibilité est constamment remise en question, les rendant d’autant plus vulnérables face aux attaques orchestrées par ceux qui cherchent à déstabiliser l’ordre établi.

L’enjeu est donc de protéger la liberté d’opinion et la liberté d’information, tout en luttant contre la propagation de fausses informations qui peuvent nuire au fonctionnement démocratique. Cette frontière entre ces principes fondamentaux est souvent difficile à tracer, et les autorités doivent jongler avec ces enjeux complexes. Dans certains cas jugés flagrants, des mesures ont été prises pour contrer les tentatives de manipulation de l’opinion publique et de déstabilisation des processus démocratiques. Des chaînes de télévision comme RT, soupçonnées d’être sous l’influence russe, ont été fermées. Des personnalités politiques ont été interrogées en raison de soupçons de corruption et d’influence étrangère. De même, les réseaux sociaux sont étroitement surveillés, et des comptes ou des réseaux liés à des puissances étrangères ont été fermés. Ces mesures visent à protéger l’intégrité des processus démocratiques et à préserver la confiance du public dans les institutions, tout en préservant les principes fondamentaux de liberté et de pluralisme. Cependant, trouver un équilibre juste entre la protection contre la désinformation et le respect des libertés individuelles demeure un défi constant dans les sociétés démocratiques.

L’IA générative et la désinformation

L’IA générative et la  désinformation  

Les progrès récents de l’intelligence artificielle générative (ces outils qui permettent de produire du texte, du son, des images ou des vidéos de manière complètement automatique) font craindre un regain de fausses informations. Cette crainte est exacerbée par le fait que de très nombreuses élections vont avoir lieu dans les mois à venir, à commencer par les élections européennes. Qu’en est-il vraiment ?

 

par

Thierry Poibeau, École normale supérieure (ENS) – PSL dans The Conversation 

Il faut déjà observer que, même si l’idée que l’IA générative est une source de danger en matière de désinformation est largement répandue, le point de vue opposé existe aussi. Ainsi, pour les chercheurs Simon, Altay et Mercier, l’arrivée des systèmes génératifs ne change pas fondamentalement la donne, ni sur le plan qualitatif, ni sur le plan quantitatif.

Ils remarquent que les sources d’information traditionnelles continuent d’occuper le haut du pavé (la grande majorité des gens s’informent à travers les médias traditionnels, qui gardent un pouvoir d’influence supérieur). Le public qui s’informe à partir de médias alternatifs et qui « consomme » des fausses informations est, selon eux, déjà abreuvé de telles sources et ne recherche pas tant une information précise que des informations qui confirment leurs idées (fondée sur une méfiance généralisée vis-à-vis des politiques et des médias).

Leur étude contredit le point de vue courant, voyant dans l’IA une source de danger majeure pour la démocratie. Elle repose sur des enquêtes qui montrent effectivement le poids de l’idéologie en matière de consommation d’information (on est orienté en fonction de son idéologie quand on s’informe, et un biais classique consiste à vouloir confirmer ce que l’on croit, quand plusieurs interprétations d’un événement sont possibles).

Il semble que l’augmentation des capacités de production de texte ne soit pas l’élément essentiel : c’est la capacité à diffuser l’information qui joue un rôle majeur. C’est aussi vrai pour les images et les vidéos, mais l’IA générative semble quand même ici créer une vraie rupture. La prise en main d’un outil comme Photoshop est longue et complexe ; à l’inverse, des outils d’IA comme Dall-e et Midjourney pour l’image, ou Sora pour la vidéo, permettent de générer des contenus réalistes à partir de quelques mots clés seulement, et on connaît le poids de l’image dans l’information. La possibilité de créer automatiquement de fausses vidéos avec la voix, et même le mouvement des lèvres rendu de façon hyper réaliste, crée aussi un état de fait nouveau, qui n’était pas imaginable il y a encore quelques mois.

Notons enfin que les outils de détection de documents généras par IA sont très imparfaits et aucune solution ne permet à l’heure actuelle de déterminer à 100 % si un document est d’origine humaine ou non. Le marquage automatique (watermarking, code indétectable à l’œil nu, mais indiquant qu’un document a été généré par une IA) pourra aider, mais il y aura bien évidemment toujours des groupes capables de produire des fichiers sans marquage, à côté des grosses plates-formes ayant pignon sur rue (il s’agit de procédés qui ne sont pas encore mis en œuvre à large échelle, mais qui pourraient l’être avec l’évolution de la législation).

Mais, au-delà, l’argumentaire montre surtout que ce n’est pas l’IA le point essentiel dans ce problème, mais une question avant tout humaine et sociale. La consommation de fausses informations est souvent motivée par des sentiments d’opposition envers les institutions et les corps sociaux établis, perçus comme ayant failli dans leur mission. La crise du Covid en a fourni une illustration récente, avec l’émergence rapide de figures très médiatisées, en opposition frontale et systématique avec les mesures proposées, et très soutenues par leurs supporters sur les médias sociaux.

Pour de nombreux individus, la propagation et la consommation de fausses informations sont un moyen de remettre en question l’autorité et de s’opposer au statu quo. En ralliant ceux qui partagent des points de vue similaires, la diffusion de fausses informations peut également servir à créer un sentiment d’appartenance et de solidarité au sein de groupes qui s’opposent au pouvoir en place. Dans ce contexte, la désinformation devient un outil pour la construction de communautés unies par des valeurs ou des objectifs communs, renforçant ainsi leur cohésion et leur résilience face aux structures de pouvoir établies. Cette dynamique entraîne donc une polarisation accrue et des divisions au sein de la société, c’est même un objectif quasi revendiqué de certains émetteurs de fausses informations, qui ne s’en cachent pas.

La propagation de la désinformation est donc favorisée par les « factures de la société » où les divisions sociales, politiques et économiques sont prononcées (phénomène largement étudié par Jérôme Fourquet ; Ipsos mène aussi régulièrement des enquêtes sur ce thème).

Dans ces contextes, les individus peuvent être plus enclins à croire et à propager des théories du complot, des rumeurs et des fausses informations qui correspondent à leurs préjugés, à leurs craintes ou à leurs frustrations. Une société fragmentée est caractérisée par un manque de confiance mutuelle et une polarisation croissante, ce qui crée un terrain fertile pour la propagation de la désinformation. La cohésion sociale et la confiance mutuelle jouent un rôle crucial dans la prévention de la propagation de la désinformation et dans le maintien de la santé démocratique d’une société.

Le facteur humain est enfin important dans la production de fausses informations. Les « bots » automatiques produisant en masse du texte ont une influence quasi nulle (sinon pour noyer l’information au sein d’une masse de textes). On sous-estime souvent le facteur humain, qui reste indispensable pour produire de contenu qui aura un impact, même pour de fausses informations. La découverte encore récente de réseaux efficaces, mais usant de méthodes relativement rudimentaires en est la preuve.

Le problème de la désinformation dépasse donc largement le cadre de l’IA générative ou même celui de quelques individus isolés. Il est largement alimenté par des organisations puissantes, souvent dotées de ressources quasi étatiques, qui déploient des moyens importants pour propager de fausses informations à grande échelle (par exemple l’Internet Research Agency basée à Saint-Pétersbourg).

Ces organisations mettent en place des réseaux comprenant des sites web, une forte présence sur les réseaux sociaux, des bots automatisés, mais impliquent aussi des individus réels, soudoyés ou non, chargés de relayer ces informations trompeuses (on voit donc ainsi que le réseau de propagation de l’information a autant sinon plus d’importance que la production de contenu en elle-même). Cette stratégie de désinformation vise à influencer l’opinion publique, à semer la confusion et à manipuler les processus démocratiques, mettant ainsi en péril la confiance dans les institutions et la crédibilité des élections.

Pour contrer efficacement ce phénomène, il est crucial de prendre des mesures à la fois techniques, politiques et sociales pour identifier, contrer et sensibiliser le public à la désinformation orchestrée à grande échelle. Les plates-formes en ligne sont particulièrement sollicitées.

La stratégie de propagation de fausses nouvelles poursuit un double objectif, ce qui représente un double écueil pour les institutions établies. En effet, en diffusant des informations erronées, non seulement on pollue le débat public en semant la confusion et en brouillant les pistes de la vérité, mais on nourrit également un climat général de méfiance envers toute forme d’autorité et d’information « officielle ». Les autorités en place, déjà sujettes à un fort discrédit et perçues comme étant en situation de faiblesse, peinent à réagir de manière efficace face à cette prolifération de désinformation. Le doute généralisé quant à leur capacité à agir avec transparence et impartialité renforce l’impression que leurs actions pourraient être motivées par des intérêts cachés. Ainsi, les institutions en place se retrouvent prises au piège d’un cercle vicieux où leur crédibilité est constamment remise en question, les rendant d’autant plus vulnérables face aux attaques orchestrées par ceux qui cherchent à déstabiliser l’ordre établi.

L’enjeu est donc de protéger la liberté d’opinion et la liberté d’information, tout en luttant contre la propagation de fausses informations qui peuvent nuire au fonctionnement démocratique. Cette frontière entre ces principes fondamentaux est souvent difficile à tracer, et les autorités doivent jongler avec ces enjeux complexes. Dans certains cas jugés flagrants, des mesures ont été prises pour contrer les tentatives de manipulation de l’opinion publique et de déstabilisation des processus démocratiques. Des chaînes de télévision comme RT, soupçonnées d’être sous l’influence russe, ont été fermées. Des personnalités politiques ont été interrogées en raison de soupçons de corruption et d’influence étrangère. De même, les réseaux sociaux sont étroitement surveillés, et des comptes ou des réseaux liés à des puissances étrangères ont été fermés. Ces mesures visent à protéger l’intégrité des processus démocratiques et à préserver la confiance du public dans les institutions, tout en préservant les principes fondamentaux de liberté et de pluralisme. Cependant, trouver un équilibre juste entre la protection contre la désinformation et le respect des libertés individuelles demeure un défi constant dans les sociétés démocratiques.

 

Société-L’intox ou « Sharp power » et désinformation : arme destruction des démocraties

Société-L’intox ou « Sharp power » et désinformation : arme destruction des démocraties

Par Véronique Chabourine, membre du bureau de l’association pour une Renaissance européenne Paris, déléguée chargée de la communication. dans la Tribune.

En 2021, l’institut pour la diplomatie culturelle publie un rapport intitulé Sharp power and Democratic Resilience selon lequel de nombreux pays et en particulier les régimes autoritaires utilisent le Sharp power pour influencer les démocraties libérales. Paradoxalement, ces régimes autoritaires cultivent souvent assez bien leur soft power, comme l’exprime l’exemple de la Chine. Le sharp power est le résultat de l’interaction de multiples facteurs économiques, technologiques, politiques et sociaux.

La législation et la régulation ne suffisent pas. En avril dernier était présentée en conseil des ministres la loi de programmation militaire qui prévoit d’augmenter entre 2024 et 2030 de 4 milliards le budget cyber. Au même moment, Thierry Breton, annonçait le projet Cyber shield, qui est une infrastructure à la fois civile et militaire pensée pour mieux détecter les cyberattaques en amont. Depuis 2009, les États-Unis ont une structure similaire ; le commandement de la défense (USCYBERCOM) et la Cybersecurity Infrastructure Security Agency (CISA).

La mise en application des régulations est difficile car l’espace numérique ne connaît pas de frontière. La législation est différente pour chaque pays et la régulation peut être perçue comme une atteinte à la liberté d’expression. Le pouvoir arbitraire des entreprises technologiques est confronté sur des marchés étrangers à des régimes autoritaires et à des choix entre opportunités économiques et pressions politiques – comme l’exemple de Midjourney censurant la création d’image du président chinois ou l’exemple depuis le 27 octobre 2022 du rachat de Twitter par Elon Musk qui a permis à beaucoup de comptes de désinformation de réintégrer la plateforme et bénéficier de la certification payante de X, contrairement à certains comptes de fact checking qui eux, l’ont perdu en ne souscrivant pas à l’abonnement. Une question demeure : faut-il laisser le rôle de censeur à des entreprises privées ?

La cyber sécurité et la désinformation nécessitent une approche multifacette ; comme les exemples de l’Estonie, la Finlande et Singapour qui ont mis en place des mesures de sécurité techniques, juridiques et éducatives ainsi que des programmes de sensibilisation et de coopération internationale le démontrent.

L’éducation et la sensibilisation sont des piliers de la lutte contre la désinformation et de la protection de nos démocraties libérales. En France, les programmes d’éducation au média et à l’information (EMI) sont obligatoires. Former à l’école est essentiel mais si l’on veut lutter efficacement, il faut sensibiliser aussi tous les publics à la désinformation.

Pour 78% des Français, on peut parler d’une hygiène informationnelle insuffisante ; incarnée par manque de discernement quant à la source et à la fiabilité de l’information. En cela, les entreprises, les médias et les associations peuvent se faire relais de campagne de sensibilisation et d’éducation.

Le soft power et la diplomatie publique doivent aussi jouer un rôle important – Comme de renforcer la coopération internationale afin de continuer à faire pression sur les acteurs responsables de la désinformation – et de renforcer la pensée critique, la vérification des faits, et sensibiliser sur les enjeux de société par le cinéma et les séries.

Quelle part possède la fiction dans ce que nous vivons ? N’a-t-on pas vu des zadistes récemment en France masqués et en combinaison faisant écho au succès mondial Netflix La Casa del Papel ? Au-delà de la responsabilité qui leur incombe, les plateformes et le cinéma qui produisent de plus en plus de films sur ces sujets répondront de manière pertinente aux demandes du public sur les enjeux de société.

La collaboration multi-acteurs est indispensable, incarnée par des mesures politiques, économiques, sociales et culturelles et soutenues par l’engagement de la société civile, des médias et des institutions démocratiques.

_____

(*) Mouvement terroriste palestinien créée en 1987.

L’intox ou « Sharp power » : arme destruction des démocraties

L’intox ou « Sharp power » et désinformation : arme destruction des démocraties

Par Véronique Chabourine, membre du bureau de l’association pour une Renaissance européenne Paris, déléguée chargée de la communication. dans la Tribune.

En 2021, l’institut pour la diplomatie culturelle publie un rapport intitulé Sharp power and Democratic Resilience selon lequel de nombreux pays et en particulier les régimes autoritaires utilisent le Sharp power pour influencer les démocraties libérales. Paradoxalement, ces régimes autoritaires cultivent souvent assez bien leur soft power, comme l’exprime l’exemple de la Chine. Le sharp power est le résultat de l’interaction de multiples facteurs économiques, technologiques, politiques et sociaux.

La législation et la régulation ne suffisent pas. En avril dernier était présentée en conseil des ministres la loi de programmation militaire qui prévoit d’augmenter entre 2024 et 2030 de 4 milliards le budget cyber. Au même moment, Thierry Breton, annonçait le projet Cyber shield, qui est une infrastructure à la fois civile et militaire pensée pour mieux détecter les cyberattaques en amont. Depuis 2009, les États-Unis ont une structure similaire ; le commandement de la défense (USCYBERCOM) et la Cybersecurity Infrastructure Security Agency (CISA).

La mise en application des régulations est difficile car l’espace numérique ne connaît pas de frontière. La législation est différente pour chaque pays et la régulation peut être perçue comme une atteinte à la liberté d’expression. Le pouvoir arbitraire des entreprises technologiques est confronté sur des marchés étrangers à des régimes autoritaires et à des choix entre opportunités économiques et pressions politiques – comme l’exemple de Midjourney censurant la création d’image du président chinois ou l’exemple depuis le 27 octobre 2022 du rachat de Twitter par Elon Musk qui a permis à beaucoup de comptes de désinformation de réintégrer la plateforme et bénéficier de la certification payante de X, contrairement à certains comptes de fact checking qui eux, l’ont perdu en ne souscrivant pas à l’abonnement. Une question demeure : faut-il laisser le rôle de censeur à des entreprises privées ?

La cyber sécurité et la désinformation nécessitent une approche multifacette ; comme les exemples de l’Estonie, la Finlande et Singapour qui ont mis en place des mesures de sécurité techniques, juridiques et éducatives ainsi que des programmes de sensibilisation et de coopération internationale le démontrent.

L’éducation et la sensibilisation sont des piliers de la lutte contre la désinformation et de la protection de nos démocraties libérales. En France, les programmes d’éducation au média et à l’information (EMI) sont obligatoires. Former à l’école est essentiel mais si l’on veut lutter efficacement, il faut sensibiliser aussi tous les publics à la désinformation.

Pour 78% des Français, on peut parler d’une hygiène informationnelle insuffisante ; incarnée par manque de discernement quant à la source et à la fiabilité de l’information. En cela, les entreprises, les médias et les associations peuvent se faire relais de campagne de sensibilisation et d’éducation.

Le soft power et la diplomatie publique doivent aussi jouer un rôle important – Comme de renforcer la coopération internationale afin de continuer à faire pression sur les acteurs responsables de la désinformation – et de renforcer la pensée critique, la vérification des faits, et sensibiliser sur les enjeux de société par le cinéma et les séries.

Quelle part possède la fiction dans ce que nous vivons ? N’a-t-on pas vu des zadistes récemment en France masqués et en combinaison faisant écho au succès mondial Netflix La Casa del Papel ? Au-delà de la responsabilité qui leur incombe, les plateformes et le cinéma qui produisent de plus en plus de films sur ces sujets répondront de manière pertinente aux demandes du public sur les enjeux de société.

La collaboration multi-acteurs est indispensable, incarnée par des mesures politiques, économiques, sociales et culturelles et soutenues par l’engagement de la société civile, des médias et des institutions démocratiques.

_____

(*) Mouvement terroriste palestinien créée en 1987.

Désinformation : TikTok, le Réseau des jeunes naïfs

Désinformation : TikTok, le Réseau des jeunes naïfs

Le régulateur français rappelle la nécessité d’une modération des réseaux, cependant ilobserve une amélioration de la quantité d’informations déclarées » par les plateformes sur la lutte contre les fausses informations.Un problème particulier se pose pour le réseau chinois TikTok.

Le réseau chinois progresse de manière exponentielle surtout chez les jeunes qui sans doute sous-estiment l’enjeu politique pour la Chine d’une désinformation. Au-delà de l’aspect commercial, l’objectif de la Chine est en effet de peser sur la formation de l’opinion publique occidentale. Pour cela, le réseau multiplie les fake-news dans tous les domaines.

L’Autorité publique française de régulation de la communication audiovisuelle et numérique (Arcom) , lors d’un point presse a rappelé les réseaux sociaux à leurs obligations . Même s’il est soumis pour la première année « à ce régime », le réseau social chinois a « pris une place incroyable à une vitesse fulgurante », notamment auprès des jeunes, a-t-il souligné. D’où un « décalage très clair » entre son audience (plus de 9 millions de visiteurs uniques par jour en septembre en France, selon Médiamétrie) et sa déclaration à l’Arcom « particulièrement imprécise ».

TikTok omet notamment « plusieurs enjeux centraux (étapes de l’instruction d’un signalement, fonctionnement des outils de modération, pratiques de manipulation identifiées sur le service, etc.) » et ne fournit pas d’éléments chiffrés relatifs à la France. L’Arcom souligne en outre la « mise en œuvre sélective » par le réseau social de sa politique d’étiquetage des « médias contrôlés par un Etat », le compte de China Global Television Network Europe n’étant pas identifié comme tel.

Les jeunes sont particulièrement sensibles aux nouveautés dans les réseaux sociaux et le réseau chinois est actuellement particulièrement à la mode. Or aucun réseau social, aucun site n’est réellement neutre et le concept d’indépendance est évidemment relatif voire complètement falsifié quand il s’agit notamment d’un réseau chinois.

La désinformation impose une réponse de transparence

La désinformation impose une réponse de transparence

Erwann Menthéour et Emmanuel Rivière estime dans l’Opinion que «Lutter contre la désinformation suppose de se plier à un devoir de transparence, de toujours agir conformément à ce que l’on serait capable d’assumer publiquement »

 

 

Selon un sondage Eurobaromètre de la Commission européenne récemment paru, 68 % des Français (et 51 % des Européens pour l’ensemble des vingt-sept pays de l’Union européenne) estiment avoir été confrontés à de la désinformation sur Internet. La fabrication et la circulation de fausses nouvelles, la prolifération de théories complotistes et les dangers que leur capacité de séduction fait peser sur la démocratie sont légitimement une préoccupation majeure des pouvoirs publics comme des médias.

Les parades sont de diverses natures : responsabilisation des plates-formes numériques, pénalisation de la diffusion de fausses nouvelles, fact checking, production et promotion d’un contre-discours, etc. Une autre manière de lutter contre la désinformation et ses dangers consiste à prendre la mesure de l’exigence qu’elle impose à tous ceux qui veulent mener ce combat : une exigence de vérité.

Les théories du complot sont d’autant plus efficaces quand elles parviennent à construire le récit conspirationniste autour d’un fait réel. Pour cette raison, la moindre faille est exploitable chez ceux que visent les complotistes, et tout petit arrangement avec la vérité, tout mensonge par omission, toute tentative de travestissement, voire de simplification d’une réalité embarrassante sont pour la désinformation un terreau extrêmement fertile.

Or la probabilité que soient mis à jour des faits que les pouvoirs, quels qu’ils soient, préféreraient dissimuler, est plus élevée que jamais. Et les opinions publiques le pardonnent de moins en moins. Ceux qui en 2016 voyaient en Donald Trump un candidat dont le principal défaut était son rapport très personnel avec la réalité ont pu lire dans son élection le démenti de l’attachement des citoyens à la vérité. Mais il se trouve que la faille était encore plus importante, dans l’opinion, du côté d’Hillary Clinton.

La réalité impose parfois des défis titanesques qui désemparent les responsables politiques les plus chevronnés, qui les déstabilisent au point de les conduire à un tel sentiment d’impuissance que le reconnaître les désavouerait, pensent-ils, aux yeux du peuple

Impératif. Une étude comparative menée juste avant l’élection de 2016 sur les qualités et défauts de l’une et de l’autre montrait que la candidate démocrate se voyait bien plus fortement et spontanément reprochée d’être secrète, accusation qui a beaucoup contribué au succès de son adversaire. Lutter contre la désinformation supposerait donc aussi, et peut-être avant tout, de se plier à un devoir de transparence, d’acquiescer à un impératif consistant à toujours agir conformément à ce que l’on serait capable d’assumer publiquement. Cette injonction peut sembler naïve, louable, évidente, dangereuse, ou un peu tout ça à la fois. Ce qui est sûr c’est qu’un tel objectif se heurte à plusieurs difficultés, de trois ordres.

La première est que l’idée de transparence est loin d’être consubstantielle à l’exercice du pouvoir. L’idée qu’il existe une raison d’Etat distincte de la raison du commun a longtemps prévalu. Du fait à la fois de la désidéologisation du débat politique et de l’abandon de la lutte des classes, notre modèle représentatif a conduit à faire de la compétence un critère aussi important que les valeurs ou la représentation d’intérêts partagés, dans le choix de délégués. Les titulaires de charges et de mandats sont supposés mieux maîtriser la complexité des enjeux, et disposer d’une forme d’exclusivité de cette capacité. Cette capacité est de plus en plus remise en cause, et l’une des leçons de la crise Covid-19 montre que les citoyens non seulement attendent l’exposition de cette complexité, mais apprécient que des dirigeants admettent ne pas tout savoir.

L’autre obstacle à l’exercice de la transparence tient précisément aux succès manifestes du complotisme et de la désinformation. Face à tant de mauvaise foi dans l’intention de nuire, il ne va pas de soi de faire toute la lumière sur des décisions qui sont souvent des arbitrages compliqués entre des intérêts divergents. Souvent la crainte l’emporte de voir la sincérité déformée et exploitée. A l’impératif moral de transparence s’opposerait le pragmatisme de la prudence.

Ce débat est difficile à trancher, mais pour s’en tenir au raisonnement bénéfices-risques, nous voulons ouvrir l’hypothèse, confortée par le sentiment que la maîtrise de l’information est de plus en plus un leurre, selon laquelle la transparence sur les intentions offrirait moins de billes aux complotistes que les tentatives de dissimulation, et davantage de gages à ceux qui s’alarment de la désinformation et veulent s’en défendre.

Universel. Ces derniers restent, ne l’oublions pas, la majorité. Gardons également à l’esprit, comme le rappelle le philosophe Frédéric Midal dans une interview publiée dans le premier numéro du magazine Mentors, que « quelqu’un qui croit à une théorie complotiste est quelqu’un qui souffre et [...] qui tente de se débrouiller avec le côté irrationnel du discours social et politique actuel dans lequel on ne nous parle pas ». Parler au nom de l’universel à l’universel, en omettant – volontairement ou non – de s’adresser en toute transparence aux êtres humains dans la singularité de leur existence, amène ceux qui exercent le pouvoir à se couper des bases et se tromper de combat. En précipitant leur propre défaite.

La troisième raison pour laquelle le pari de la vérité est un choix ardu est que les défis qui se présentent à ceux qui exercent les responsabilités sont particulièrement impressionnants, voire effrayants : à bien des égards, la séquence pandémique de ces derniers mois a matérialisé de manière concrète et parfois même sidérante combien l’exercice du pouvoir pouvait se révéler périlleux, voire quasiment insurmontable devant une situation inédite. Elle a illustré ce qu’est véritablement un arbitrage qui est la clef de voûte de la fonction politique.

Oui, gouverner, c’est arbitrer. Si celui-ci se résumait naïvement à faire un choix entre une bonne et une mauvaise solution, l’art de gouverner deviendrait en conséquence à la portée d’un enfant. Or, comme nous l’avons vécu une année durant, que ce soit au niveau national ou mondial, aucun choix, aucune solution, aucune intervention divine ne s’est révélée capable d’éradiquer ce virus qui continue de mobiliser les plus grands cerveaux de la planète. C’est ici que l’on découvre que la réalité impose parfois des défis titanesques qui désemparent les responsables politiques les plus chevronnés, qui les déstabilisent au point de les conduire à un tel sentiment d’impuissance que le reconnaître les désavouerait, pensent-ils, aux yeux du peuple.

La politique politicienne et son obsession de l’électoralisme ont vécu, tout comme est révolu le temps des technocrates sûrs de leur fait et persuadés que les masses ne peuvent pas comprendre. L’heure des grands hommes et femmes d’Etat a sonné

Complexité. A la lueur de cette complexité, il conviendrait de manifester un peu plus d’humilité et de transparence, en choisissant la pédagogie plutôt que la communication, en abandonnant toute logique court-termiste et en partageant de manière plus limpide et franche les difficultés auxquelles la crise sanitaire et toutes celles à venir nous confrontent tous de plein fouet aujourd’hui. Un choix d’autant plus nécessaire que ces situations risquent, en raison du dérèglement climatique, de se reproduire de plus en plus fréquemment dans les prochaines décennies.

L’ampleur des défis demande aussi beaucoup d’abnégation, car les réponses réellement efficaces ne le sont pas à l’échelle d’un mandat. La politique politicienne et son obsession de l’électoralisme ont vécu, tout comme est révolu le temps des technocrates sûrs de leur fait et persuadés que les masses ne peuvent pas comprendre. L’heure des grands hommes et femmes d’Etat a sonné. Seuls celles et ceux qui se projetteront loin avec humilité, abnégation et courage redonneront un sens à la fonction politique, si décriée depuis de nombreuses années et dont la dévaluation est le plus sûr chemin vers le populisme.

Pour toutes ces raisons, la vérité est un combat. Il impose à ceux qui exercent les responsabilités un travail de révision, qui concerne aussi bien les modalités de décisions que les formes de communication. On peut et on doit sans doute s’inquiéter d’un rapport à l’information qui s’apparenterait à une dictature de la transparence. Mais la menace que représentent le complotisme et la désinformation sur nos démocraties invitent aussi à se demander quel exercice de la transparence permettrait de prévenir le risque de dictature.

Répression et désinformation vis-à-vis des ouïgours

Répression et désinformation vis-à-vis des ouïgours

Internements massifs, travail forcé, stérilisations contraintes : la répression du régime chinois contre cette minorité musulmane turcophone continue malgré le déni des autorités, relève Vanessa Frangville, spécialiste de la Chine, dans une tribune au « Monde ».

Tribune. Interrogé sur la question ouïgoure lors de son passage éclair en Europe, fin août, le ministre chinois des affaires étrangères, Wang Yi, avait noyé le poisson sous un flot de statistiques énigmatiques. Pékin persiste à pratiquer la désinformation sur le sujet, depuis que l’ONU a rendu public, en août 2018, un rapport accablant sur la situation de la région du Xinjiang, aux confins de la Chine et de l’Asie centrale. Plus de deux ans déjà, donc, que les preuves s’accumulent, que les témoignages circulent et que les analyses se succèdent.

Tous les rapports d’experts, sans exception, concluent à la mise en place d’une société de surveillance panoptique, à l’arrestation massive et arbitraire des élites intellectuelles et économiques et à l’envoi forcé dans des camps de détention et de travail de millions de Ouïgours. Rompus à une rhétorique fabriquée autour de contre-vérités et de poncifs, les dirigeants chinois vantent au monde leur modèle de « lutte antiterroriste », tout en rappelant avec agressivité qu’il s’agit d’« affaires internes à la Chine ».

 

Ces mesures de répression révèlent avant tout l’échec de l’Etat chinois à intégrer ses périphéries. Wang Yi a affirmé lors de son passage à Paris que la population des Ouïgours avait doublé en soixante-dix ans. Il omet de rappeler que ceux-ci représentent désormais à peine 40 % de la population de la région contre 80 % en 1949. Des migrations massives vers la région de colons, d’abord militaires puis civils, ont été orchestrées par l’Etat, avec pour résultat des discriminations à l’emploi pour les jeunes diplômés ouïgours et une appropriation des ressources par les migrants souvent sous-qualifiés et peu enclins à changer leurs modes de vie sur ces nouvelles terres considérées comme acquises. 

Selon Wang Yi, la politique de planification familiale ne s’appliquerait pas aux Ouïgours. En fait, les autorités locales ont investi en 2019 plus de 13 millions d’euros dans la prévention des grossesses. Les Ouïgours n’ont jamais été exclus des politiques de réduction des naissances, même si les urbains n’ont été que tardivement contraints à la politique de l’enfant unique (non applicable au monde rural chinois de toute façon). De nombreuses Ouïgoures ont, en outre, témoigné de stérilisations et d’avortement forcés depuis des années.

Pékin affirme que l’objectif des camps d’internement est la prévention du radicalisme religieux par l’éducation et l’intégration par le travail. Un projet « éducatif » qui puise dans un budget de sécurité augmenté de 90 % dans la région en 2018… La majorité des cas de disparus témoigne d’une autre réalité : sont visés des professeurs d’université, des fonctionnaires de tous niveaux – souvent membres du Parti –, des commerçants, des médecins, des écrivains ou des artistes.

« La désinformation de la Chine a mis en jeu la vie des gens du monde entier» (Mike Pompeo)».

« La  désinformation de la Chine a mis en jeu la vie des gens du monde entier» (Mike Pompeo)».

Au cours d’un entretien téléphonique qu’il a accordé à l’Opinion et à des journaux européens, Mike Pompeo, le secrétaire d’Etat américain, a précisé les griefs de Washington à l’égard du comportement de Pékin.

Pour lui, la vérité est loin d’avoir été établie et « aujourd’hui encore, on a besoin d’informations sur l’origine du virus, ce qu’il en reste, combien de cas il y a, et quelle est la nature réelle de cette maladie. Tout cela exige une transparence énorme. On a également besoin de la participation de tous les pays. Ce n’est pas juste de coopération qu’il s’agit, mais d’action pour sauver des vies. »

Toujours à propos de la Chine, le chef de la diplomatie américaine ajoute : « Un pays, un dirigeant qui organise la désinformation met en jeu la vie de ses citoyens, mais aussi celle du reste du monde. Le monde entier a besoin de transparence, d’informations fiables et de chiffres crédibles. L’idée que ce virus, comme cela a été dit en Chine, puisse venir de l’armée américaine est totalement fausse. » Et pour souligner à quel point il met en doute les informations données par Pékin, Mike Pompeo précise : « Ca veut dire que nous voulons être sûrs que les journalistes ont la bonne information, qu’ils sont libres de poser des questions, que des équipes internationales peuvent enquêter sur l’origine du virus, sa propagation, et comment on le soigne. C’est impératif. »

Offensive. Cette offensive a naturellement pour objectif de contrer ce qu’on a appelé « la diplomatie du masque », cette grande opération menée par Pékin un peu partout dans le monde pour, au travers de la fourniture de centaines de millions de masques de protection contre le Covid-19, accroître l’influence chinoise en démontrant l’efficacité du régime face à la crise.

Dans ce contexte tendu, l’idée qui avait poussé depuis la semaine dernière par la France d’organiser rapidement un sommet des cinq membres permanents du Conseil de Sécurité des Nations Unies (Etats-Unis, Chine, Russie, France et Grande-Bretagne) semble encore loin d’aboutir. Emmanuel Macron avait eu à deux reprises une conversation avec Donald Trump pour mettre en place cette formation restreinte, une sorte de commando international de riposte coordonnée à la pandémie……

La présence de plus en plus visible de la Chine en Europe, par exemple en Italie, ne semble pas faire douter Mike Pompeo que « les Etats-Unis sont de loin le pays qui apporte le plus d’aide et d’assistance dans le monde, sous des formes multiples, y compris au travers d’ONG. Et cela concerne aussi l’Italie. Nous allons continuer, et aucun pays ne fera plus que nous. »

Cela concerne également les pays qui sont frappés de sanctions économiques de la part de l’administration américaine. Ainsi en Iran, « dans ce pays particulièrement touché par le coronavirus, aucune sanction n’affecte ni la fourniture de médicaments, ni l’aide médicale et humanitaire. Idem vis-à-vis du Venezuela et de la Corée du Nord ». Mais, rappelle le diplomate, « dans tous les pays, l’essentiel est que les chefs d’Etat prennent d’abord soin de leur peuple ». Or « en Iran par exemple, les dirigeants corrompus détournent le cash », l’argent de l’aide internationale, et « se le mettent dans la poche plutôt que de le consacrer à soigner la population. » Dans ces pays, la pandémie pourrait faire comprendre aux habitants « à quel point ces régimes sont destructeurs pour leurs propres habitants ».

La guerre contre la pandémie, l’autre face du combat de la démocratie contre les dictatures.




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol