Archive pour le Tag 'désinformation'

Alimentation : la désinformation

Alimentation : la désinformation

Du citron glacé pour traiter le cancer, des aliments brûleurs de graisses, du curcuma pour prévenir les maladies cardiaques… les fausses informations concernant l’alimentation sont légion, souvent diffusées par des acteurs peu scrupuleux pour servir leurs intérêts. Au mépris des connaissances acquises grâce à la recherche scientifique.

par Serge Hercberg
Professeur Emérite de Nutrition Université Sorbonne Paris Nord (Paris 13) – Praticien Hospitalier Département de Santé Publique, Hôpital Avicenne (AP-HP), Equipe de Recherche en Epidémiologie Nutritionnelle, U1153 Inserm,Inra,Cnam, Université Sorbonne Paris Nord

Chantal Julia
Maitre de Conférence Université Paris 13, Praticien Hospitalier, Hôpital Avicenne (AP-HP), Equipe de Recherche en Epidémiologie Nutritionnelle, U1153 Inserm,Inra,Cnam, Université Sorbonne Paris Norddans The Conversation

Le ministre de la santé Yannick Neuder a annoncé en avril 2025 sa volonté de faire de la lutte contre la désinformation médicale une priorité de son ministère. On ne peut que se féliciter de cette décision qui vise à rétablir la rationalité scientifique face à la prolifération de fausses informations qui circulent aujourd’hui, notamment par l’intermédiaire des réseaux sociaux et des grandes plateformes numériques de partage de contenu.

Remise en cause de l’intérêt des vaccins, de certains traitements médicaux, discréditation des recommandations et des mesures scientifiquement étayées qui visent à lutter contre les comportements défavorables à la santé… La diffusion d’allégations remettant en cause les connaissances basées sur les recherches scientifiques peut avoir des conséquences en matière de prévention et de prise en charge des maladies au niveau individuel et collectif, comme le soulignent notamment des rapports de l’Organisation mondiale de la santé et du Parlement européen.

De ce point de vue, la nutrition est un terrain particulièrement propice pour la désinformation, en raison des dimensions affectives, émotionnelles, culturelles et sociales qu’elle comporte, lesquelles sont autant de portes d’entrée pour faciliter la pénétration des fausses informations.

Le secteur de l’alimentation est au cœur de gigantesques enjeux économiques. Rien qu’en France, le chiffre d’affaires généré par les entreprises représentées par l’Association nationale des industries alimentaires (Ania) est estimé à 210 milliards d’euros par an, tandis que celui de la grande distribution s’élève à plus de 225 milliards d’euros par an.

Dans ce contexte, les grands acteurs économiques qui produisent et commercialisent des aliments souhaitent protéger leur rentabilité et leur croissance afin de maintenir ou d’augmenter leurs profits. Pour défendre leurs intérêts, certains d’entre eux développent des actions de lobbying visant à influencer les politiques publiques et contrer les réglementations qu’ils considèrent aller à l’encontre de leurs intérêts.

Les lobbys sont capables de pressions fortes, de natures diverses, se manifestant classiquement par des actions tendant à influencer directement le contenu d’un texte réglementaire ou législatif. Par exemple, parmi les différentes stratégies utilisées pour bloquer ou au moins retarder sa mise en place, on a pu voir à l’occasion du vote de la loi « Santé » de 2016, des modèles d’amendement établis par l’Ania fournis clés en main, copies conformes des documents officiels de l’Assemblée, à des parlementaires complaisants qui n’avaient qu’à y ajouter leur signature et les soutenir en séance en leur nom propre.

À ce titre, la bataille menée par les industriels agroalimentaires pour bloquer la mise en place du logo nutritionnel Nutri-Score en France est très emblématique. Elle a notamment été documentée par l’un des auteurs de ces lignes, ainsi que par l’organisation non gouvernementale le Bureau européen des unions de consommateurs (Beuc).

Le Beuc a publié en octobre 2023, un rapport – surnommé les « Nutri-Score Papers » – s’appuyant sur des informations très précises et documentées obtenues grâce à une requête faite auprès de la Commission européenne par une autre ONG, Foodwatch EU.

Cette démarche a permis d’avoir accès aux réunions (ainsi qu’aux détails de leurs procès-verbaux) qui ont eu lieu en 2022 entre deux directions générales de la Commission européenne (la direction générale de la santé et de la sécurité alimentaire, ou DG Santé, et la direction générale de l’agriculture et du développement rural, ou DG Agri) et diverses parties prenantes, parmi lesquelles la représentation permanente de l’Italie auprès de la Commission européenne associée à Federalimentare, qui défend les intérêts des industriels agroalimentaires.

Ce rapport met en évidence comment le lobbying mené a influé sur les projets de la Commission sur l’étiquetage des denrées alimentaires. Il a en particulier empêché le Nutri-Score d’être reconnu comme le logo unique et obligatoire pour l’Europe, alors même que son intérêt en matière de santé publique a été démontré par des travaux scientifiques très rigoureux menés notamment (mais pas uniquement) par notre équipe de recherche.

Les documents rendus publics par le Beuc montrent en détail l’usage fait de la désinformation. L’organisation Federalimentare (représentant les industriels agroalimentaires italiens) a par exemple affirmé que « le Nutri-Score ne repose pas sur des bases scientifiques ». Et ce, alors même que plus de 150 articles scientifiques publiés dans des revues internationales à comité de lecture ont démontré son intérêt et son efficacité. Cette structure a même suggéré que « la consommation de produits à base de cacao provenant de pays du Sud diminuerait à cause de leur classification par le Nutri-Score, ce qui augmenterait l’immigration en Europe ».

Il ne s’agit là que de deux exemples parmi les nombreuses fausses informations diffusées par les lobbyistes. Un travail de sape qui a fini par payer, puisqu’il a abouti au blocage de l’adoption obligatoire du Nutri-Score par les 27 pays européens.

Le secteur de l’alcool est aussi concerné par ces pratiques de lobbying exacerbé. Là encore, la façon dont les lobbies, en déployant de multiples stratégies, orientent les décisions publiques à leur avantage a été bien documentée.

De nombreuses sources de désinformation

Les fausses informations concernant l’alimentation circulent via de nombreux canaux : médias classiques, réseaux sociaux, plateformes numériques de partage de contenus (Youtube, etc.)… Elles se retrouvent aussi dans des endroits moins évidents tels que certains colloques pseudo scientifiques, ou même dans l’arène politique.

Les supermarchés ne sont pas en reste, et nombre d’étiquettes comportent des mentions marketing à tout le moins discutables destinées à orienter les décisions des consommateurs : pots de yaourts « aux fruits » qui affichent sur leur emballage de façon très visible de grandes quantités de fruits, alors que le produit n’en contient que quelques pour cent, emploi à outrance du terme « naturel » (dans la dénomination des produits, des ingrédients, des visuels utilisés sur l’emballage) comme argument de vente suggérant un bénéfice santé ou a minima l’innocuité du produit (par effet de halo).

Certains industriels n’hésitent pas à tenter de détourner la réalité nutritionnelle d’un produit, notamment via la publicité : le jury de déontologie publicitaire a ainsi émis un rappel à l’ordre suite à la diffusion d’une publicité affirmant que « […] le sucre est une plante […] ». Une autre stratégie courante consiste à mettre en exergue un composant spécifique en occultant les éléments négatifs qu’il contient (axer la communication sur les probiotiques d’un yaourt liquide, quand le produit lui-même contient par ailleurs autant voire plus de sucres qu’un soda…).

Les fake news visent également à jeter le doute sur les travaux scientifiques qui soutiennent les recommandations et valident les mesures de santé publique.

Ainsi, la crédibilité des chercheurs académiques à l’origine des études validant le Nutri-Score (publiées dans des revues scientifiques internationales à comité de lecture) a été attaquée par certains lobbyistes au prétexte qu’ils auraient un « conflit d’intérêts pour avoir contribué au développement de l’outil ».

Autre stratégie parfois employée par les lobbies : le financement de travaux visant à « produire du doute » (une approche qui a été bien documentée dans le cas du tabac).

Notre expérience de ces questions nous a appris que les profils des diffuseurs sont variés. Certains s’expriment à titre individuel : gourous, influenceurs ou coachs projettent ainsi dans leurs discours leurs opinions personnelles, liées à leurs croyances, leurs idéologies. Très souvent, ces déclarations sont également guidées par des intérêts économiques, l’accroissement de la visibilité sur les plateformes numériques permettant non seulement d’améliorer la monétisation des comptes concernés, mais aussi de recruter des clients qui achèteront livres, programmes, produits placés par des firmes contre rémunération, etc.

Ils sont à l’origine de fake news qui ont souvent très relayées : du citron glacé pour traiter le cancer au curcuma pour prévenir les maladies cardiaques, en passant par les brûleurs de graisses et autres compléments alimentaires aux prétendues multiples vertus jamais étayées par aucune étude scientifique de qualité.

Certains pourvoyeurs de désinformation peuvent être plus difficiles à détecter. C’est par exemple le cas de certains professionnels de santé qui n’hésitent pas à relayer leurs recommandations « faites maison », dépourvues de bases scientifiques et allant parfois à l’encontre des recommandations officielles.

Ainsi, alors que la recommandation des organismes d’expertise officiels français (Anses, Haut Conseil de la santé publique ou Santé publique France) est de ne pas dépasser 500 g de viande par semaine (en privilégiant la volaille), certains professionnels n’hésitent pas à recommander d’en consommer quotidiennement 200 g, ou de faire manger deux fois par jour de la viande rouge aux enfants et adolescents. Des informations dépourvues de scientificité, mais souvent largement relayées, notamment par les industriels du secteur…

Les acteurs économiques du champ de l’agroalimentaire interviennent aussi dans l’espace public soit très directement, soit via des « faux-nez » (collectifs, pseudo centres d’information, think tanks, influenceurs…).

Enfin, certains membres de la classe politique n’hésitent pas à relayer des éléments de langage empruntés aux lobbyistes du secteur agro-industriel pour défendre certains produits, firmes ou filières, motivés par des raisons personnelles ou électoralistes (via des arguments que l’on pourrait qualifier de « gastro-régionalistes » ou « gastro-nationalistes »…). Quitte à aller à l’encontre de mesures de santé publiques combattues par ces acteurs économiques.

Des conséquences sur la santé publique
En 2023, des chercheurs ont publié les résultats d’une méta-analyse portant sur 64 études ayant eu pour objet d’évaluer la qualité et la précision des informations nutritionnelles disponibles pour le public (principalement sur des sites Internet).

Soulignant les risques de biais de sélection lors de la mise en place de tels travaux d’évaluation, les auteurs de la méta-analyse estiment cependant qu’on peut considérer, d’après leurs résultats, que les informations nutritionnelles en ligne sont souvent inexactes et de mauvaise qualité. Selon eux, les consommateurs qui les utilisent risquent d’être mal informés. Il est donc nécessaire de prendre des mesures pour améliorer les connaissances du public, ainsi que la fiabilité des informations nutritionnelles en ligne.

La désinformation dans le domaine de la nutrition – et ses conséquences sur la santé des consommateurs – n’est pas un phénomène nouveau. Elle trouve cependant aujourd’hui une résonance particulière, en raison du développement des réseaux sociaux et des plateformes digitales qui facilitent une large diffusion des fake news, de la défiance vis à-à-vis de la science, des « experts », et de l’État, ainsi qu’en raison de l’importance des enjeux économiques qui sous-tendent les achats et les consommations alimentaires.

Comme dans le cas d’autres secteurs touchés par la désinformation (climat, environnement, vaccination, société, etc.), lutter contre les fake news nutritionnelles s’avère d’une extraordinaire complexité. Il donc est effectivement plus que temps que les personnes engagées dans ce combat bénéficient d’un soutien s’inscrivant dans une réelle « politique publique » !

Désinformation :Interdire le réseau X en Europe ?

Désinformation :Interdire le réseau X en Europe ?

 

Il est clair que le réseau X (ex Twitter) est globalement devenu une véritable poubelle dont le contenu invraisemblable et ordurier est destiné à inciter les connexions et les profits. En outre son propriétaire Elon Musk maintenant en fait un outil d’influence politique en intervenant un peu partout par exemple dans la vie politique britannique en soutenant l’extrême droite ; même chose en Argentine. À l’inverse le milliardaire génial mais fou a fortement critiqué le pouvoir actuel en Grande-Bretagne. De la même manière il milite pour que l’extrême droite triomphe en Allemagne. Et désormais il soutient évidemment Trump dans ses velléités néo colonialistes pour reprendre possession du Canada, du Groenland ou encore du canal de Panama.

Au-delà de ces objectifs politiques Musk se veut un leader politique qui veut s’attaquer à la démocratie libérale pour y substituer des régimes réactionnaires et lillibéraux . Ces prises de position en outre valident d’une certaine manière les velléités de Poutine d’imposer aussi son régime politique et ses prétentions de conquête territoriale. De quoi faire réagir le monde libre qui tarde à s’unir pour élaborer une réplique à la hauteur de l’enjeu. Surtout en Europe particulièrement visée par Elon Musk.

C’est pourquoi, mercredi matin, l’ancien ministre de l’Économie et ancien commissaire européen au marché intérieur, Thierry Breton, a affirmé sur LCI qu’il était «possible» d’interdire le réseau social dans l’Union européenne. A Tout le moins il faudrait cesser d’alimenter en information cette poubelle qui est devenue le réseau X.

Musk et X au Brésil: un enjeu de désinformation

Musk et X au Brésil: un  enjeu de désinformation

 

Après des semaines de bataille judiciaire médiatique, Elon Musk, propriétaire du réseau social X (ex Twitter), a annoncé, fin septembre, qu’il se conformait aux demandes du juge Moraes lui demandant de bannir certains comptes de la communauté d’extrême droite du pays. Cet épisode soulève d’importantes questions sur la régulation des plateformes, la lutte contre la désinformation et la liberté d’expression.Il ne faut pas se laisser distraire par les piques et les fanfaronnades qui émaillent la querelle opposant publiquement l’homme le plus riche du monde et un juge opiniâtre de la Cour suprême du Brésil. Elon Musk, le propriétaire milliardaire du réseau social X, a publié nombre de messages méprisants adressés à Alexandre de Moraes, qu’il qualifie de « dictateur » et de « Dark Vador brésilien » sur la plateforme dont le juge a interdit l’accès dans le cadre d’une longue campagne contre la désinformation.  Mais en tant que spécialiste du droit numérique brésilien, j’y vois davantage qu’une simple querelle personnelle teintée d’amertume. La bataille juridique qui oppose X et la Cour suprême brésilienne soulève d’importantes questions sur la régulation des plateformes et la manière de lutter contre la désinformation, tout en préservant la liberté d’expression. Ces débats, qui dépassent largement ce cas précis, font rage dans le monde entier.

 

par 

Research associate, University of Virginia dans The Conversation 

L’antagonisme entre Musk et de Moraes a atteint son paroxysme au mois d’août, mais la bataille couvait depuis des années.

En 2014, le Brésil a adopté la Déclaration des droits sur Internet (« Marco Civil da Internet »). Cette loi, qui bénéficiait d’un soutien bipartisan, définissait les principes de la protection de la vie privée et de la liberté d’expression des internautes, et instaurait des sanctions pour les plateformes qui enfreignent les règles.

Cette mesure comportait un système de « notification judiciaire et de désactivation » dans lequel les plateformes n’étaient tenues responsables des contenus nuisibles générés par les utilisateurs que dans le cas où elles ne les supprimaient pas après en avoir été informées par une ordonnance judiciaire spécifique.

Cette méthode tentait à la fois de défendre la liberté d’expression et de s’assurer que les contenus illégaux et préjudiciables étaient supprimés. Elle permettait d’éviter que les plateformes, les applications de messagerie et les forums en ligne soient automatiquement tenues responsables des publications des internautes, tout en donnant la possibilité aux tribunaux d’intervenir si nécessaire.

Mais la loi de 2014 n’allait pas jusqu’à établir des règles détaillées de modération des contenus. Par conséquent, les plateformes telles que Facebook et X étaient en grande partie responsables de les mettre en œuvre.

L’aggravation de la désinformation ces dernières années, en particulier lors des élections présidentielles brésiliennes de 2022, a mis en évidence les limites de cette approche.

À l’époque, le chef de l’État, le démagogue d’extrême droite Jair Bolsonaro, et ses partisans ont été accusés de se servir des réseaux sociaux, dont X, pour diffuser des mensonges, semer le doute sur l’intégrité du système électoral brésilien et encourager les actions violentes. Quand Bolsonaro a été défait aux urnes par le politicien de gauche Luiz Inácio Lula da Silva, une campagne en ligne de négationnisme électoral a pris de l’ampleur, dont la prise d’assaut du Congrès, de la Cour suprême et du palais présidentiel par les partisans de Bolsonaro, le 8 janvier 2023, a été le point culminant, dans des circonstances similaires à l’assaut du Capitole, aux États-Unis, deux ans plus tôt.

En réponse aux campagnes de désinformation et à ces émeutes, la Cour suprême a diligenté deux enquêtes, sur les milices numériques et sur les manœuvres antidémocratiques, visant les groupes impliqués dans le complot.

Dans le cadre de ces enquêtes, la Cour suprême a demandé aux réseaux sociaux, comme Facebook, Instagram et X, de lui communiquer les adresses IP et de suspendre les comptes des personnes liées à ces activités illégales.

Mais Elon Musk, qui se qualifie lui-même de « fondamentaliste de la liberté d’expression », était entre-temps devenu propriétaire de X, et promettait de soutenir la liberté d’expression, rétablir les comptes exclus et réduire considérablement la politique de modération des contenus de sa plateforme.

Depuis, Elon Musk n’a cessé de défier ouvertement les arrêts de la Cour suprême. En avril 2024, l’équipe des « affaires gouvernementales internationales » de X a commencé à rendre publiques des informations sur ce qu’elle qualifiait de requêtes « illégales » de la Cour suprême.

La querelle s’est intensifiée fin août, quand le représentant de X au Brésil a démissionné et que Musk a refusé de lui trouver un successeur, une décision que le juge de Moraes a interprétée comme une tentative de se soustraire à la loi. Le 31 août, il a donc ordonné l’interdiction de la plateforme.

Cette décision s’accompagnait de lourdes sanctions destinées aux Brésiliens tentés de contourner l’interdiction. Toute personne utilisant des réseaux privés virtuels (VPN) pour accéder à X s’exposait ainsi à des amendes quotidiennes de près de 9 000 dollars américains, davantage que le revenu annuel moyen de nombreux Brésiliens. Ces décisions ont été confirmées le 2 septembre par cinq juges de la Cour suprême. Mais l’assemblée plénière des 11 membres de la Cour suprême doivent réexaminer le dossier et sont susceptible d’infirmer cette partie de la décision du juge de Moraes, alors que beaucoup dénoncent les excès de l’institution judiciaire.

L’affaire X contre la Cour suprême du Brésil a été profondément politisée. Le 7 septembre, des milliers de partisans de Bolsonaro ont participé à une manifestation « en faveur de la liberté d’expression » qui prenait pour cibles le gouvernement de Lula et la Cour suprême. Pour l’opposition et les factions de droite, la suspension de la plateforme est devenue le « symbole de l’ingérence excessive de l’État ».

Cette rhétorique contraste fortement avec les efforts, pourtant plus mesurés et consultatifs, visant à réguler les plateformes, depuis la Déclaration des droits sur Internet il y a plus de dix ans. Elle témoigne aussi du difficile équilibre entre liberté d’expression et lutte contre la désinformation, dans un environnement profondément divisé, un problème auquel le Brésil n’est bien évidemment pas le seul à être confronté.

Dans la lutte contre la désinformation en ligne au Brésil, et la volonté de tenir les plateformes responsables des contenus préjudiciables, les tensions politiques qui entourent l’interdiction d’X n’augurent rien de bon.

Un « projet de loi sur la désinformation » a été soumis au congrès en 2020. Il vise à créer des mécanismes de surveillance et à assurer une meilleure transparence en matière de publicités à caractère politique et de modération des contenus.

Mais en dépit de ses intentions louables, et d’une approche très mesurée d’« autorégulation », la dernière version de ce projet de loi a été retoquée après trois ans de débat.

Cela fait suite à une campagne menée par des responsables politiques de droite et des lobbyistes des géants du numérique, qui qualifient ce projet de « loi de censure », arguant qu’elle porterait atteinte à la liberté d’expression et entraverait les débats politiques. Le sort de ce projet de loi semble donc incertain.

Entre-temps, le 23 août, la Cour suprême a annoncé qu’elle examinerait deux passages clés de la Déclaration des droits sur Internet, dans le cadre d’un réexamen qui interviendra en novembre.

Le premier concerne la lenteur du processus de notification judiciaire et de désactivation qui, pour ses détracteurs, permet aux plateformes de ne pas mettre en œuvre des mécanismes de modération de contenus plus efficaces. Les partisans de la loi soutiennent, à l’inverse, que le contrôle exercé par l’institution judiciaire est indispensable pour empêcher les plateformes de supprimer arbitrairement des contenus, ce qui pourrait conduire à instaurer une forme de censure.

Le second concerne les sanctions potentielles évoquées dans la Déclaration des droits sur Internet pour les entreprises qui ne respectent pas les règles. La question est de savoir si les sanctions actuelles, et notamment les suspensions de service, sont proportionnelles et constitutionnelles. Les critiques soutiennent que la suspension totale d’une plate-forme constitue une violation de la liberté d’expression et du droit à l’information des internautes, tandis que ses partisans insistent sur le fait qu’il s’agit d’un outil nécessaire pour faire respecter la loi brésilienne et préserver la souveraineté.

Le sort du projet de loi sur la désinformation et de son réexamen par la Cour suprême pourrait engendrer de nouvelles normes juridiques pour les plateformes au Brésil, afin de savoir jusqu’où le pays peut aller pour contraindre les entreprises numériques mondiales à lutter contre la désinformation.

Même si la Cour suprême n’a pas directement lié ce réexamen au différend en cours avec X, le conflit avec Elon Musk sert bel et bien de toile de fond politique aux débats sur l’orientation de l’expérience brésilienne en matière de régulation des plateformes. Les retombées de cette querelle en apparence personnelle pourraient avoir, en la matière, des conséquences majeures pour le Brésil et, potentiellement, pour d’autres pays.

Intelligence artificielle générative et désinformation

Intelligence artificielle générative et désinformation

Les progrès récents de l’intelligence artificielle générative (ces outils qui permettent de produire du texte, du son, des images ou des vidéos de manière complètement automatique) font craindre un regain de fausses informations. Cette crainte est exacerbée par le fait que de très nombreuses élections vont avoir lieu dans les mois à venir, à commencer par les élections européennes. Qu’en est-il vraiment ?

Par   DR CNRS, École normale supérieure (ENS) – PSL

Il faut déjà observer que, même si l’idée que l’IA générative est une source de danger en matière de désinformation est largement répandue, le point de vue opposé existe aussi. Ainsi, pour les chercheurs Simon, Altay et Mercier, l’arrivée des systèmes génératifs ne change pas fondamentalement la donne, ni sur le plan qualitatif, ni sur le plan quantitatif.

Ils remarquent que les sources d’information traditionnelles continuent d’occuper le haut du pavé (la grande majorité des gens s’informent à travers les médias traditionnels, qui gardent un pouvoir d’influence supérieur). Le public qui s’informe à partir de médias alternatifs et qui « consomme » des fausses informations est, selon eux, déjà abreuvé de telles sources et ne recherche pas tant une information précise que des informations qui confirment leurs idées (fondées sur une méfiance généralisée vis-à-vis des politiques et des médias).

Leur étude contredit le point de vue courant, voyant dans l’IA une source de danger majeure pour la démocratie. Elle repose sur des enquêtes qui montrent effectivement le poids de l’idéologie en matière de consommation d’information (on est orienté en fonction de son idéologie quand on s’informe, et un biais classique consiste à vouloir confirmer ce que l’on croit, quand plusieurs interprétations d’un événement sont possibles).

Il semble que l’augmentation des capacités de production de texte ne soit pas l’élément essentiel : c’est la capacité à diffuser l’information qui joue un rôle majeur. C’est aussi vrai pour les images et les vidéos, mais l’IA générative semble quand même ici créer une vraie rupture. La prise en main d’un outil comme Photoshop est longue et complexe ; à l’inverse, des outils d’IA comme Dall-e et Midjourney pour l’image, ou Sora pour la vidéo, permettent de générer des contenus réalistes à partir de quelques mots clés seulement, et on connaît le poids de l’image dans l’information. La possibilité de créer automatiquement de fausses vidéos avec la voix, et même le mouvement des lèvres rendu de façon hyper réaliste, crée aussi un état de fait nouveau, qui n’était pas imaginable il y a encore quelques mois.

Notons enfin que les outils de détection de documents générés par IA sont très imparfaits et aucune solution ne permet à l’heure actuelle de déterminer à 100 % si un document est d’origine humaine ou non. Le marquage automatique (watermarking, code indétectable à l’œil nu, mais indiquant qu’un document a été généré par une IA) pourra aider, mais il y aura bien évidemment toujours des groupes capables de produire des fichiers sans marquage, à côté des grosses plates-formes ayant pignon sur rue (il s’agit de procédés qui ne sont pas encore mis en œuvre à large échelle, mais qui pourraient l’être avec l’évolution de la législation).

Mais, au-delà, l’argumentaire montre surtout que ce n’est pas l’IA le point essentiel dans ce problème, mais une question avant tout humaine et sociale. La consommation de fausses informations est souvent motivée par des sentiments d’opposition envers les institutions et les corps sociaux établis, perçus comme ayant failli dans leur mission. La crise du Covid en a fourni une illustration récente, avec l’émergence rapide de figures très médiatisées, en opposition frontale et systématique avec les mesures proposées, et très soutenues par leurs supporters sur les médias sociaux.

Pour de nombreux individus, la propagation et la consommation de fausses informations sont un moyen de remettre en question l’autorité et de s’opposer au statu quo. En ralliant ceux qui partagent des points de vue similaires, la diffusion de fausses informations peut également servir à créer un sentiment d’appartenance et de solidarité au sein de groupes qui s’opposent au pouvoir en place. Dans ce contexte, la désinformation devient un outil pour la construction de communautés unies par des valeurs ou des objectifs communs, renforçant ainsi leur cohésion et leur résilience face aux structures de pouvoir établies. Cette dynamique entraîne donc une polarisation accrue et des divisions au sein de la société, c’est même un objectif quasi revendiqué de certains émetteurs de fausses informations, qui ne s’en cachent pas.

La propagation de la désinformation est donc favorisée par les « fractures de la société » où les divisions sociales, politiques et économiques sont prononcées (phénomène largement étudié par Jérôme Fourquet ; Ipsos mène aussi régulièrement des enquêtes sur ce thème).

Dans ces contextes, les individus peuvent être plus enclins à croire et à propager des théories du complot, des rumeurs et des fausses informations qui correspondent à leurs préjugés, à leurs craintes ou à leurs frustrations. Une société fragmentée est caractérisée par un manque de confiance mutuelle et une polarisation croissante, ce qui crée un terrain fertile pour la propagation de la désinformation. La cohésion sociale et la confiance mutuelle jouent un rôle crucial dans la prévention de la propagation de la désinformation et dans le maintien de la santé démocratique d’une société.

Le facteur humain est enfin important dans la production de fausses informations. Les « bots » automatiques produisant en masse du texte ont une influence quasi nulle (sinon pour noyer l’information au sein d’une masse de textes). On sous-estime souvent le facteur humain, qui reste indispensable pour produire de contenu qui aura un impact, même pour de fausses informations. La découverte encore récente de réseaux efficaces, mais usant de méthodes relativement rudimentaires en est la preuve.

Le problème de la désinformation dépasse donc largement le cadre de l’IA générative ou même celui de quelques individus isolés. Il est largement alimenté par des organisations puissantes, souvent dotées de ressources quasi étatiques, qui déploient des moyens importants pour propager de fausses informations à grande échelle (par exemple l’Internet Research Agency basée à Saint-Pétersbourg).

Ces organisations mettent en place des réseaux comprenant des sites web, une forte présence sur les réseaux sociaux, des bots automatisés, mais impliquent aussi des individus réels, soudoyés ou non, chargés de relayer ces informations trompeuses (on voit donc ainsi que le réseau de propagation de l’information a autant sinon plus d’importance que la production de contenu en elle-même). Cette stratégie de désinformation vise à influencer l’opinion publique, à semer la confusion et à manipuler les processus démocratiques, mettant ainsi en péril la confiance dans les institutions et la crédibilité des élections.

Pour contrer efficacement ce phénomène, il est crucial de prendre des mesures à la fois techniques, politiques et sociales pour identifier, contrer et sensibiliser le public à la désinformation orchestrée à grande échelle. Les plates-formes en ligne sont particulièrement sollicitées.

La stratégie de propagation de fausses nouvelles poursuit un double objectif, ce qui représente un double écueil pour les institutions établies. En effet, en diffusant des informations erronées, non seulement on pollue le débat public en semant la confusion et en brouillant les pistes de la vérité, mais on nourrit également un climat général de méfiance envers toute forme d’autorité et d’information « officielle ». Les autorités en place, déjà sujettes à un fort discrédit et perçues comme étant en situation de faiblesse, peinent à réagir de manière efficace face à cette prolifération de désinformation. Le doute généralisé quant à leur capacité à agir avec transparence et impartialité renforce l’impression que leurs actions pourraient être motivées par des intérêts cachés. Ainsi, les institutions en place se retrouvent prises au piège d’un cercle vicieux où leur crédibilité est constamment remise en question, les rendant d’autant plus vulnérables face aux attaques orchestrées par ceux qui cherchent à déstabiliser l’ordre établi.

L’enjeu est donc de protéger la liberté d’opinion et la liberté d’information, tout en luttant contre la propagation de fausses informations qui peuvent nuire au fonctionnement démocratique. Cette frontière entre ces principes fondamentaux est souvent difficile à tracer, et les autorités doivent jongler avec ces enjeux complexes. Dans certains cas jugés flagrants, des mesures ont été prises pour contrer les tentatives de manipulation de l’opinion publique et de déstabilisation des processus démocratiques. Des chaînes de télévision comme RT, soupçonnées d’être sous l’influence russe, ont été fermées. Des personnalités politiques ont été interrogées en raison de soupçons de corruption et d’influence étrangère. De même, les réseaux sociaux sont étroitement surveillés, et des comptes ou des réseaux liés à des puissances étrangères ont été fermés. Ces mesures visent à protéger l’intégrité des processus démocratiques et à préserver la confiance du public dans les institutions, tout en préservant les principes fondamentaux de liberté et de pluralisme. Cependant, trouver un équilibre juste entre la protection contre la désinformation et le respect des libertés individuelles demeure un défi constant dans les sociétés démocratiques.

La désinformation dans le conflit Israël-Hamas

La  désinformation dans le  conflit Israël-Hamas

Comment, dans nos sociétés de consommation hyperconnectées, manifester pacifiquement son désaccord, voire son opposition à la politique de tel ou tel Etat ou telle ou telle entreprise multinationale ? Pour certains, c’est le choix du boycott qui s’impose. Le consommateur devient ainsi un « consomm’acteur », dont les actes d’achats reflètent les opinions personnelles. Voici donc que ressurgissent, à l’ère des réseaux sociaux et des opinions clivées qui font leur succès, et alors que s’aggrave, au Moyen-Orient, le conflit le plus globalisant qui soit, les appels à boycotter Israël et ses soutiens, réels ou supposés.

Par Jean Lévy, ancien élève de l’ENA, diplomate, ancien ambassadeur de France dans La Tribune

  Ses défenseurs le savent : pour être pacifique, le boycott n’en demeure pas moins une « arme » efficace – et qui ne date pas d’hier. En 1933, les Juifs du monde entier sont ainsi appelés à boycotter les produits de l’Allemagne nazie. Dans les années 1960 et au-delà se répand un appel à boycotter les produits venus d’Afrique du Sud alors sous le régime de l’apartheid. Enfin, depuis 2005 sévit le mouvement dit « boycott désinvestissement sanctions » (BDS), qui s’oppose à la politique de l’État d’Israël vis-à-vis du peuple palestinien et à la colonisation des territoires palestiniens occupés depuis 1967.

Rien de nouveau sous le soleil. Le boycott a été utilisé par les pays arabes bien avant la création, en 1948, de l’État d’Israël, quand dans les années 1920 puis à l’aube de la Seconde Guerre mondiale le leadership arabe de la Palestine mandataire a appelé au boycott des Juifs de Palestine. Depuis longtemps, dans les pays arabes, le rejet de certains produits étrangers, ou de certaines marques « mondiales », procède d’une forme d’ethnocentrisme ou de préférence religieuse : on boycotte tel soda pour lui préférer sa déclinaison « nationale », ou telle origine parce que celle-ci est associée, comme dans le cas des produits danois en 2005, à une polémique liée aux caricatures de Mahomet.

Les attaques terroristes du 7 octobre, et la sanglante réponse militaire d’Israël, ont donné une tout autre dimension à ce mouvement de boycott d’Israël dans le monde arabe. Chauffés à blanc par le déluge d’images insoutenables qui, sur les réseaux sociaux, leur parviennent de l’enfer qu’est devenue la bande de Gaza, les populations arabes et les internautes soutiens de la Palestine relaient, depuis quelques semaines, des appels à boycotter certains produits, ou encore certaines grandes enseignes internationales présentées, à tort ou à raison, comme pro-israéliennes.

Le mouvement est porté par une jeunesse informée et façonnée par les nouvelles technologies – on se souvient que les « printemps arabes » étaient, déjà, intensifiés par les réseaux sociaux encore balbutiants. Des sites, extensions ou applications mobiles ont été conçus pour aider les consommateurs à reconnaître, pour mieux les boycotter, les produits supposément pro-israéliens – une classification que l’on devine pour le moins hasardeuse, car englobant souvent, par exemple, l’ensemble des marques occidentales originaires de pays supportant plus ou moins officiellement la politique de l’État d’Israël. Du Maroc au Koweït, en passant par la Jordanie ou l’Egypte, le slogan « Avez-vous tué un Palestinien aujourd’hui ? » (en consommant des marques soutenant supposément la politique d’Israël) résonne dans la conscience de bien des consommateurs.

Il ne nous appartient pas de juger ici du bien-fondé de la décision personnelle de boycotter. A condition que ce choix repose sur des informations fiables et vérifiées. Ce qui est loin d’être systématiquement le cas, comme en témoigne l’explosion, depuis le 7 octobre, d’informations fallacieuses visant, sur les réseaux sociaux, à mettre à l’index telle ou telle entreprise accusée de soutenir la politique d’Israël.

Les exemples sont légion : Zara, sous le feu des critiques après une campagne de publicité soupçonnée – à tort, puisqu’antérieure au 7 octobre – d’ironiser sur le sort des Palestiniens de Gaza ; Puma, dont la décision de ne plus sponsoriser l’équipe israélienne de football a, sortie de son contexte, été instrumentalisée par la campagne BDS (Boycott, Désinvestissement et Sanctions) qui l’a indument présentée comme une « victoire » ; Starbucks, dont le dévissage du cours en Bourse a, ici aussi à tort, été attribué au soutien – fictif – de la multinationale du café à Israël. Mais l’exemple le plus édifiant est sans doute celui de Carrefour, victime d’une campagne de dénigrement après la diffusion, sur Instagram, d’une photo d’un employé offrant des denrées alimentaires aux soldats de Tsahal.

Cette campagne mérite qu’on s’y arrête, non seulement parce qu’elle concerne un groupe français, mais aussi parce qu’elle est emblématique de la manière dont une image (non truquée) peut mener à une interprétation erronée. Il s’agissait, en réalité, de l’acte isolé d’un salarié d’un franchisé de Carrefour en Israël. Un acte qui n’a pas été autorisé par le groupe français, et qui ne représente pas sa politique – d’autant que Carrefour est présent dans de nombreux pays arabes. Contrairement à ce qu’affirme la campagne BDS, Carrefour n’a aucun magasin en Cisjordanie (comme en atteste la liste dressée par les Nations Unies). C’est son prestataire, Electra Ltd /Yenot Bitan, qui opère dans les colonies, sous les marques Mega et Mehadrin (aucun lien avec Carrefour). Une absence de Carrefour en Cisjordanie par ailleurs reconnue par le camp pro-palestinien lui-même, et critiquée comme telle par la presse… israélienne.

Bien malgré lui, le groupe français se retrouve donc mis à l’index tant par les défenseurs d’Israël que par ses adversaires. Absurde et antinomique, cette situation doit inciter les consommateurs responsables que nous sommes à un devoir de prudence vis-à-vis des « story telling » des réseaux sociaux, et singulièrement lorsque le contexte est celui d’un conflit aussi violent et globalisant que celui de la guerre entre Israël et le Hamas. Libre à chacun de boycotter, mais à la condition d’avoir pris le temps de vérifier les informations sur lesquelles un tel acte se fonde.

 

L’IA générative et désinformation

L’IA générative et désinformation

 

Les progrès récents de l’intelligence artificielle générative (ces outils qui permettent de produire du texte, du son, des images ou des vidéos de manière complètement automatique) font craindre un regain de fausses informations. Cette crainte est exacerbée par le fait que de très nombreuses élections vont avoir lieu dans les mois à venir, à commencer par les élections européennes. Qu’en est-il vraiment ?

Par   DR CNRS, École normale supérieure (ENS) – PSL

Il faut déjà observer que, même si l’idée que l’IA générative est une source de danger en matière de désinformation est largement répandue, le point de vue opposé existe aussi. Ainsi, pour les chercheurs Simon, Altay et Mercier, l’arrivée des systèmes génératifs ne change pas fondamentalement la donne, ni sur le plan qualitatif, ni sur le plan quantitatif.

Ils remarquent que les sources d’information traditionnelles continuent d’occuper le haut du pavé (la grande majorité des gens s’informent à travers les médias traditionnels, qui gardent un pouvoir d’influence supérieur). Le public qui s’informe à partir de médias alternatifs et qui « consomme » des fausses informations est, selon eux, déjà abreuvé de telles sources et ne recherche pas tant une information précise que des informations qui confirment leurs idées (fondées sur une méfiance généralisée vis-à-vis des politiques et des médias).

Leur étude contredit le point de vue courant, voyant dans l’IA une source de danger majeure pour la démocratie. Elle repose sur des enquêtes qui montrent effectivement le poids de l’idéologie en matière de consommation d’information (on est orienté en fonction de son idéologie quand on s’informe, et un biais classique consiste à vouloir confirmer ce que l’on croit, quand plusieurs interprétations d’un événement sont possibles).

Il semble que l’augmentation des capacités de production de texte ne soit pas l’élément essentiel : c’est la capacité à diffuser l’information qui joue un rôle majeur. C’est aussi vrai pour les images et les vidéos, mais l’IA générative semble quand même ici créer une vraie rupture. La prise en main d’un outil comme Photoshop est longue et complexe ; à l’inverse, des outils d’IA comme Dall-e et Midjourney pour l’image, ou Sora pour la vidéo, permettent de générer des contenus réalistes à partir de quelques mots clés seulement, et on connaît le poids de l’image dans l’information. La possibilité de créer automatiquement de fausses vidéos avec la voix, et même le mouvement des lèvres rendu de façon hyper réaliste, crée aussi un état de fait nouveau, qui n’était pas imaginable il y a encore quelques mois.

Notons enfin que les outils de détection de documents générés par IA sont très imparfaits et aucune solution ne permet à l’heure actuelle de déterminer à 100 % si un document est d’origine humaine ou non. Le marquage automatique (watermarking, code indétectable à l’œil nu, mais indiquant qu’un document a été généré par une IA) pourra aider, mais il y aura bien évidemment toujours des groupes capables de produire des fichiers sans marquage, à côté des grosses plates-formes ayant pignon sur rue (il s’agit de procédés qui ne sont pas encore mis en œuvre à large échelle, mais qui pourraient l’être avec l’évolution de la législation).

Mais, au-delà, l’argumentaire montre surtout que ce n’est pas l’IA le point essentiel dans ce problème, mais une question avant tout humaine et sociale. La consommation de fausses informations est souvent motivée par des sentiments d’opposition envers les institutions et les corps sociaux établis, perçus comme ayant failli dans leur mission. La crise du Covid en a fourni une illustration récente, avec l’émergence rapide de figures très médiatisées, en opposition frontale et systématique avec les mesures proposées, et très soutenues par leurs supporters sur les médias sociaux.

Pour de nombreux individus, la propagation et la consommation de fausses informations sont un moyen de remettre en question l’autorité et de s’opposer au statu quo. En ralliant ceux qui partagent des points de vue similaires, la diffusion de fausses informations peut également servir à créer un sentiment d’appartenance et de solidarité au sein de groupes qui s’opposent au pouvoir en place. Dans ce contexte, la désinformation devient un outil pour la construction de communautés unies par des valeurs ou des objectifs communs, renforçant ainsi leur cohésion et leur résilience face aux structures de pouvoir établies. Cette dynamique entraîne donc une polarisation accrue et des divisions au sein de la société, c’est même un objectif quasi revendiqué de certains émetteurs de fausses informations, qui ne s’en cachent pas.

La propagation de la désinformation est donc favorisée par les « fractures de la société » où les divisions sociales, politiques et économiques sont prononcées (phénomène largement étudié par Jérôme Fourquet ; Ipsos mène aussi régulièrement des enquêtes sur ce thème).

Dans ces contextes, les individus peuvent être plus enclins à croire et à propager des théories du complot, des rumeurs et des fausses informations qui correspondent à leurs préjugés, à leurs craintes ou à leurs frustrations. Une société fragmentée est caractérisée par un manque de confiance mutuelle et une polarisation croissante, ce qui crée un terrain fertile pour la propagation de la désinformation. La cohésion sociale et la confiance mutuelle jouent un rôle crucial dans la prévention de la propagation de la désinformation et dans le maintien de la santé démocratique d’une société.

Le facteur humain est enfin important dans la production de fausses informations. Les « bots » automatiques produisant en masse du texte ont une influence quasi nulle (sinon pour noyer l’information au sein d’une masse de textes). On sous-estime souvent le facteur humain, qui reste indispensable pour produire de contenu qui aura un impact, même pour de fausses informations. La découverte encore récente de réseaux efficaces, mais usant de méthodes relativement rudimentaires en est la preuve.

Le problème de la désinformation dépasse donc largement le cadre de l’IA générative ou même celui de quelques individus isolés. Il est largement alimenté par des organisations puissantes, souvent dotées de ressources quasi étatiques, qui déploient des moyens importants pour propager de fausses informations à grande échelle (par exemple l’Internet Research Agency basée à Saint-Pétersbourg).

Ces organisations mettent en place des réseaux comprenant des sites web, une forte présence sur les réseaux sociaux, des bots automatisés, mais impliquent aussi des individus réels, soudoyés ou non, chargés de relayer ces informations trompeuses (on voit donc ainsi que le réseau de propagation de l’information a autant sinon plus d’importance que la production de contenu en elle-même). Cette stratégie de désinformation vise à influencer l’opinion publique, à semer la confusion et à manipuler les processus démocratiques, mettant ainsi en péril la confiance dans les institutions et la crédibilité des élections.

Pour contrer efficacement ce phénomène, il est crucial de prendre des mesures à la fois techniques, politiques et sociales pour identifier, contrer et sensibiliser le public à la désinformation orchestrée à grande échelle. Les plates-formes en ligne sont particulièrement sollicitées.

La stratégie de propagation de fausses nouvelles poursuit un double objectif, ce qui représente un double écueil pour les institutions établies. En effet, en diffusant des informations erronées, non seulement on pollue le débat public en semant la confusion et en brouillant les pistes de la vérité, mais on nourrit également un climat général de méfiance envers toute forme d’autorité et d’information « officielle ». Les autorités en place, déjà sujettes à un fort discrédit et perçues comme étant en situation de faiblesse, peinent à réagir de manière efficace face à cette prolifération de désinformation. Le doute généralisé quant à leur capacité à agir avec transparence et impartialité renforce l’impression que leurs actions pourraient être motivées par des intérêts cachés. Ainsi, les institutions en place se retrouvent prises au piège d’un cercle vicieux où leur crédibilité est constamment remise en question, les rendant d’autant plus vulnérables face aux attaques orchestrées par ceux qui cherchent à déstabiliser l’ordre établi.

L’enjeu est donc de protéger la liberté d’opinion et la liberté d’information, tout en luttant contre la propagation de fausses informations qui peuvent nuire au fonctionnement démocratique. Cette frontière entre ces principes fondamentaux est souvent difficile à tracer, et les autorités doivent jongler avec ces enjeux complexes. Dans certains cas jugés flagrants, des mesures ont été prises pour contrer les tentatives de manipulation de l’opinion publique et de déstabilisation des processus démocratiques. Des chaînes de télévision comme RT, soupçonnées d’être sous l’influence russe, ont été fermées. Des personnalités politiques ont été interrogées en raison de soupçons de corruption et d’influence étrangère. De même, les réseaux sociaux sont étroitement surveillés, et des comptes ou des réseaux liés à des puissances étrangères ont été fermés. Ces mesures visent à protéger l’intégrité des processus démocratiques et à préserver la confiance du public dans les institutions, tout en préservant les principes fondamentaux de liberté et de pluralisme. Cependant, trouver un équilibre juste entre la protection contre la désinformation et le respect des libertés individuelles demeure un défi constant dans les sociétés démocratiques.

L’IA générative et la désinformation

L’IA générative et la  désinformation  

Les progrès récents de l’intelligence artificielle générative (ces outils qui permettent de produire du texte, du son, des images ou des vidéos de manière complètement automatique) font craindre un regain de fausses informations. Cette crainte est exacerbée par le fait que de très nombreuses élections vont avoir lieu dans les mois à venir, à commencer par les élections européennes. Qu’en est-il vraiment ?

 

par

Thierry Poibeau, École normale supérieure (ENS) – PSL dans The Conversation 

Il faut déjà observer que, même si l’idée que l’IA générative est une source de danger en matière de désinformation est largement répandue, le point de vue opposé existe aussi. Ainsi, pour les chercheurs Simon, Altay et Mercier, l’arrivée des systèmes génératifs ne change pas fondamentalement la donne, ni sur le plan qualitatif, ni sur le plan quantitatif.

Ils remarquent que les sources d’information traditionnelles continuent d’occuper le haut du pavé (la grande majorité des gens s’informent à travers les médias traditionnels, qui gardent un pouvoir d’influence supérieur). Le public qui s’informe à partir de médias alternatifs et qui « consomme » des fausses informations est, selon eux, déjà abreuvé de telles sources et ne recherche pas tant une information précise que des informations qui confirment leurs idées (fondée sur une méfiance généralisée vis-à-vis des politiques et des médias).

Leur étude contredit le point de vue courant, voyant dans l’IA une source de danger majeure pour la démocratie. Elle repose sur des enquêtes qui montrent effectivement le poids de l’idéologie en matière de consommation d’information (on est orienté en fonction de son idéologie quand on s’informe, et un biais classique consiste à vouloir confirmer ce que l’on croit, quand plusieurs interprétations d’un événement sont possibles).

Il semble que l’augmentation des capacités de production de texte ne soit pas l’élément essentiel : c’est la capacité à diffuser l’information qui joue un rôle majeur. C’est aussi vrai pour les images et les vidéos, mais l’IA générative semble quand même ici créer une vraie rupture. La prise en main d’un outil comme Photoshop est longue et complexe ; à l’inverse, des outils d’IA comme Dall-e et Midjourney pour l’image, ou Sora pour la vidéo, permettent de générer des contenus réalistes à partir de quelques mots clés seulement, et on connaît le poids de l’image dans l’information. La possibilité de créer automatiquement de fausses vidéos avec la voix, et même le mouvement des lèvres rendu de façon hyper réaliste, crée aussi un état de fait nouveau, qui n’était pas imaginable il y a encore quelques mois.

Notons enfin que les outils de détection de documents généras par IA sont très imparfaits et aucune solution ne permet à l’heure actuelle de déterminer à 100 % si un document est d’origine humaine ou non. Le marquage automatique (watermarking, code indétectable à l’œil nu, mais indiquant qu’un document a été généré par une IA) pourra aider, mais il y aura bien évidemment toujours des groupes capables de produire des fichiers sans marquage, à côté des grosses plates-formes ayant pignon sur rue (il s’agit de procédés qui ne sont pas encore mis en œuvre à large échelle, mais qui pourraient l’être avec l’évolution de la législation).

Mais, au-delà, l’argumentaire montre surtout que ce n’est pas l’IA le point essentiel dans ce problème, mais une question avant tout humaine et sociale. La consommation de fausses informations est souvent motivée par des sentiments d’opposition envers les institutions et les corps sociaux établis, perçus comme ayant failli dans leur mission. La crise du Covid en a fourni une illustration récente, avec l’émergence rapide de figures très médiatisées, en opposition frontale et systématique avec les mesures proposées, et très soutenues par leurs supporters sur les médias sociaux.

Pour de nombreux individus, la propagation et la consommation de fausses informations sont un moyen de remettre en question l’autorité et de s’opposer au statu quo. En ralliant ceux qui partagent des points de vue similaires, la diffusion de fausses informations peut également servir à créer un sentiment d’appartenance et de solidarité au sein de groupes qui s’opposent au pouvoir en place. Dans ce contexte, la désinformation devient un outil pour la construction de communautés unies par des valeurs ou des objectifs communs, renforçant ainsi leur cohésion et leur résilience face aux structures de pouvoir établies. Cette dynamique entraîne donc une polarisation accrue et des divisions au sein de la société, c’est même un objectif quasi revendiqué de certains émetteurs de fausses informations, qui ne s’en cachent pas.

La propagation de la désinformation est donc favorisée par les « factures de la société » où les divisions sociales, politiques et économiques sont prononcées (phénomène largement étudié par Jérôme Fourquet ; Ipsos mène aussi régulièrement des enquêtes sur ce thème).

Dans ces contextes, les individus peuvent être plus enclins à croire et à propager des théories du complot, des rumeurs et des fausses informations qui correspondent à leurs préjugés, à leurs craintes ou à leurs frustrations. Une société fragmentée est caractérisée par un manque de confiance mutuelle et une polarisation croissante, ce qui crée un terrain fertile pour la propagation de la désinformation. La cohésion sociale et la confiance mutuelle jouent un rôle crucial dans la prévention de la propagation de la désinformation et dans le maintien de la santé démocratique d’une société.

Le facteur humain est enfin important dans la production de fausses informations. Les « bots » automatiques produisant en masse du texte ont une influence quasi nulle (sinon pour noyer l’information au sein d’une masse de textes). On sous-estime souvent le facteur humain, qui reste indispensable pour produire de contenu qui aura un impact, même pour de fausses informations. La découverte encore récente de réseaux efficaces, mais usant de méthodes relativement rudimentaires en est la preuve.

Le problème de la désinformation dépasse donc largement le cadre de l’IA générative ou même celui de quelques individus isolés. Il est largement alimenté par des organisations puissantes, souvent dotées de ressources quasi étatiques, qui déploient des moyens importants pour propager de fausses informations à grande échelle (par exemple l’Internet Research Agency basée à Saint-Pétersbourg).

Ces organisations mettent en place des réseaux comprenant des sites web, une forte présence sur les réseaux sociaux, des bots automatisés, mais impliquent aussi des individus réels, soudoyés ou non, chargés de relayer ces informations trompeuses (on voit donc ainsi que le réseau de propagation de l’information a autant sinon plus d’importance que la production de contenu en elle-même). Cette stratégie de désinformation vise à influencer l’opinion publique, à semer la confusion et à manipuler les processus démocratiques, mettant ainsi en péril la confiance dans les institutions et la crédibilité des élections.

Pour contrer efficacement ce phénomène, il est crucial de prendre des mesures à la fois techniques, politiques et sociales pour identifier, contrer et sensibiliser le public à la désinformation orchestrée à grande échelle. Les plates-formes en ligne sont particulièrement sollicitées.

La stratégie de propagation de fausses nouvelles poursuit un double objectif, ce qui représente un double écueil pour les institutions établies. En effet, en diffusant des informations erronées, non seulement on pollue le débat public en semant la confusion et en brouillant les pistes de la vérité, mais on nourrit également un climat général de méfiance envers toute forme d’autorité et d’information « officielle ». Les autorités en place, déjà sujettes à un fort discrédit et perçues comme étant en situation de faiblesse, peinent à réagir de manière efficace face à cette prolifération de désinformation. Le doute généralisé quant à leur capacité à agir avec transparence et impartialité renforce l’impression que leurs actions pourraient être motivées par des intérêts cachés. Ainsi, les institutions en place se retrouvent prises au piège d’un cercle vicieux où leur crédibilité est constamment remise en question, les rendant d’autant plus vulnérables face aux attaques orchestrées par ceux qui cherchent à déstabiliser l’ordre établi.

L’enjeu est donc de protéger la liberté d’opinion et la liberté d’information, tout en luttant contre la propagation de fausses informations qui peuvent nuire au fonctionnement démocratique. Cette frontière entre ces principes fondamentaux est souvent difficile à tracer, et les autorités doivent jongler avec ces enjeux complexes. Dans certains cas jugés flagrants, des mesures ont été prises pour contrer les tentatives de manipulation de l’opinion publique et de déstabilisation des processus démocratiques. Des chaînes de télévision comme RT, soupçonnées d’être sous l’influence russe, ont été fermées. Des personnalités politiques ont été interrogées en raison de soupçons de corruption et d’influence étrangère. De même, les réseaux sociaux sont étroitement surveillés, et des comptes ou des réseaux liés à des puissances étrangères ont été fermés. Ces mesures visent à protéger l’intégrité des processus démocratiques et à préserver la confiance du public dans les institutions, tout en préservant les principes fondamentaux de liberté et de pluralisme. Cependant, trouver un équilibre juste entre la protection contre la désinformation et le respect des libertés individuelles demeure un défi constant dans les sociétés démocratiques.

 

Société-L’intox ou « Sharp power » et désinformation : arme destruction des démocraties

Société-L’intox ou « Sharp power » et désinformation : arme destruction des démocraties

Par Véronique Chabourine, membre du bureau de l’association pour une Renaissance européenne Paris, déléguée chargée de la communication. dans la Tribune.

En 2021, l’institut pour la diplomatie culturelle publie un rapport intitulé Sharp power and Democratic Resilience selon lequel de nombreux pays et en particulier les régimes autoritaires utilisent le Sharp power pour influencer les démocraties libérales. Paradoxalement, ces régimes autoritaires cultivent souvent assez bien leur soft power, comme l’exprime l’exemple de la Chine. Le sharp power est le résultat de l’interaction de multiples facteurs économiques, technologiques, politiques et sociaux.

La législation et la régulation ne suffisent pas. En avril dernier était présentée en conseil des ministres la loi de programmation militaire qui prévoit d’augmenter entre 2024 et 2030 de 4 milliards le budget cyber. Au même moment, Thierry Breton, annonçait le projet Cyber shield, qui est une infrastructure à la fois civile et militaire pensée pour mieux détecter les cyberattaques en amont. Depuis 2009, les États-Unis ont une structure similaire ; le commandement de la défense (USCYBERCOM) et la Cybersecurity Infrastructure Security Agency (CISA).

La mise en application des régulations est difficile car l’espace numérique ne connaît pas de frontière. La législation est différente pour chaque pays et la régulation peut être perçue comme une atteinte à la liberté d’expression. Le pouvoir arbitraire des entreprises technologiques est confronté sur des marchés étrangers à des régimes autoritaires et à des choix entre opportunités économiques et pressions politiques – comme l’exemple de Midjourney censurant la création d’image du président chinois ou l’exemple depuis le 27 octobre 2022 du rachat de Twitter par Elon Musk qui a permis à beaucoup de comptes de désinformation de réintégrer la plateforme et bénéficier de la certification payante de X, contrairement à certains comptes de fact checking qui eux, l’ont perdu en ne souscrivant pas à l’abonnement. Une question demeure : faut-il laisser le rôle de censeur à des entreprises privées ?

La cyber sécurité et la désinformation nécessitent une approche multifacette ; comme les exemples de l’Estonie, la Finlande et Singapour qui ont mis en place des mesures de sécurité techniques, juridiques et éducatives ainsi que des programmes de sensibilisation et de coopération internationale le démontrent.

L’éducation et la sensibilisation sont des piliers de la lutte contre la désinformation et de la protection de nos démocraties libérales. En France, les programmes d’éducation au média et à l’information (EMI) sont obligatoires. Former à l’école est essentiel mais si l’on veut lutter efficacement, il faut sensibiliser aussi tous les publics à la désinformation.

Pour 78% des Français, on peut parler d’une hygiène informationnelle insuffisante ; incarnée par manque de discernement quant à la source et à la fiabilité de l’information. En cela, les entreprises, les médias et les associations peuvent se faire relais de campagne de sensibilisation et d’éducation.

Le soft power et la diplomatie publique doivent aussi jouer un rôle important – Comme de renforcer la coopération internationale afin de continuer à faire pression sur les acteurs responsables de la désinformation – et de renforcer la pensée critique, la vérification des faits, et sensibiliser sur les enjeux de société par le cinéma et les séries.

Quelle part possède la fiction dans ce que nous vivons ? N’a-t-on pas vu des zadistes récemment en France masqués et en combinaison faisant écho au succès mondial Netflix La Casa del Papel ? Au-delà de la responsabilité qui leur incombe, les plateformes et le cinéma qui produisent de plus en plus de films sur ces sujets répondront de manière pertinente aux demandes du public sur les enjeux de société.

La collaboration multi-acteurs est indispensable, incarnée par des mesures politiques, économiques, sociales et culturelles et soutenues par l’engagement de la société civile, des médias et des institutions démocratiques.

_____

(*) Mouvement terroriste palestinien créée en 1987.

L’intox ou « Sharp power » : arme destruction des démocraties

L’intox ou « Sharp power » et désinformation : arme destruction des démocraties

Par Véronique Chabourine, membre du bureau de l’association pour une Renaissance européenne Paris, déléguée chargée de la communication. dans la Tribune.

En 2021, l’institut pour la diplomatie culturelle publie un rapport intitulé Sharp power and Democratic Resilience selon lequel de nombreux pays et en particulier les régimes autoritaires utilisent le Sharp power pour influencer les démocraties libérales. Paradoxalement, ces régimes autoritaires cultivent souvent assez bien leur soft power, comme l’exprime l’exemple de la Chine. Le sharp power est le résultat de l’interaction de multiples facteurs économiques, technologiques, politiques et sociaux.

La législation et la régulation ne suffisent pas. En avril dernier était présentée en conseil des ministres la loi de programmation militaire qui prévoit d’augmenter entre 2024 et 2030 de 4 milliards le budget cyber. Au même moment, Thierry Breton, annonçait le projet Cyber shield, qui est une infrastructure à la fois civile et militaire pensée pour mieux détecter les cyberattaques en amont. Depuis 2009, les États-Unis ont une structure similaire ; le commandement de la défense (USCYBERCOM) et la Cybersecurity Infrastructure Security Agency (CISA).

La mise en application des régulations est difficile car l’espace numérique ne connaît pas de frontière. La législation est différente pour chaque pays et la régulation peut être perçue comme une atteinte à la liberté d’expression. Le pouvoir arbitraire des entreprises technologiques est confronté sur des marchés étrangers à des régimes autoritaires et à des choix entre opportunités économiques et pressions politiques – comme l’exemple de Midjourney censurant la création d’image du président chinois ou l’exemple depuis le 27 octobre 2022 du rachat de Twitter par Elon Musk qui a permis à beaucoup de comptes de désinformation de réintégrer la plateforme et bénéficier de la certification payante de X, contrairement à certains comptes de fact checking qui eux, l’ont perdu en ne souscrivant pas à l’abonnement. Une question demeure : faut-il laisser le rôle de censeur à des entreprises privées ?

La cyber sécurité et la désinformation nécessitent une approche multifacette ; comme les exemples de l’Estonie, la Finlande et Singapour qui ont mis en place des mesures de sécurité techniques, juridiques et éducatives ainsi que des programmes de sensibilisation et de coopération internationale le démontrent.

L’éducation et la sensibilisation sont des piliers de la lutte contre la désinformation et de la protection de nos démocraties libérales. En France, les programmes d’éducation au média et à l’information (EMI) sont obligatoires. Former à l’école est essentiel mais si l’on veut lutter efficacement, il faut sensibiliser aussi tous les publics à la désinformation.

Pour 78% des Français, on peut parler d’une hygiène informationnelle insuffisante ; incarnée par manque de discernement quant à la source et à la fiabilité de l’information. En cela, les entreprises, les médias et les associations peuvent se faire relais de campagne de sensibilisation et d’éducation.

Le soft power et la diplomatie publique doivent aussi jouer un rôle important – Comme de renforcer la coopération internationale afin de continuer à faire pression sur les acteurs responsables de la désinformation – et de renforcer la pensée critique, la vérification des faits, et sensibiliser sur les enjeux de société par le cinéma et les séries.

Quelle part possède la fiction dans ce que nous vivons ? N’a-t-on pas vu des zadistes récemment en France masqués et en combinaison faisant écho au succès mondial Netflix La Casa del Papel ? Au-delà de la responsabilité qui leur incombe, les plateformes et le cinéma qui produisent de plus en plus de films sur ces sujets répondront de manière pertinente aux demandes du public sur les enjeux de société.

La collaboration multi-acteurs est indispensable, incarnée par des mesures politiques, économiques, sociales et culturelles et soutenues par l’engagement de la société civile, des médias et des institutions démocratiques.

_____

(*) Mouvement terroriste palestinien créée en 1987.

Désinformation : TikTok, le Réseau des jeunes naïfs

Désinformation : TikTok, le Réseau des jeunes naïfs

Le régulateur français rappelle la nécessité d’une modération des réseaux, cependant ilobserve une amélioration de la quantité d’informations déclarées » par les plateformes sur la lutte contre les fausses informations.Un problème particulier se pose pour le réseau chinois TikTok.

Le réseau chinois progresse de manière exponentielle surtout chez les jeunes qui sans doute sous-estiment l’enjeu politique pour la Chine d’une désinformation. Au-delà de l’aspect commercial, l’objectif de la Chine est en effet de peser sur la formation de l’opinion publique occidentale. Pour cela, le réseau multiplie les fake-news dans tous les domaines.

L’Autorité publique française de régulation de la communication audiovisuelle et numérique (Arcom) , lors d’un point presse a rappelé les réseaux sociaux à leurs obligations . Même s’il est soumis pour la première année « à ce régime », le réseau social chinois a « pris une place incroyable à une vitesse fulgurante », notamment auprès des jeunes, a-t-il souligné. D’où un « décalage très clair » entre son audience (plus de 9 millions de visiteurs uniques par jour en septembre en France, selon Médiamétrie) et sa déclaration à l’Arcom « particulièrement imprécise ».

TikTok omet notamment « plusieurs enjeux centraux (étapes de l’instruction d’un signalement, fonctionnement des outils de modération, pratiques de manipulation identifiées sur le service, etc.) » et ne fournit pas d’éléments chiffrés relatifs à la France. L’Arcom souligne en outre la « mise en œuvre sélective » par le réseau social de sa politique d’étiquetage des « médias contrôlés par un Etat », le compte de China Global Television Network Europe n’étant pas identifié comme tel.

Les jeunes sont particulièrement sensibles aux nouveautés dans les réseaux sociaux et le réseau chinois est actuellement particulièrement à la mode. Or aucun réseau social, aucun site n’est réellement neutre et le concept d’indépendance est évidemment relatif voire complètement falsifié quand il s’agit notamment d’un réseau chinois.

La désinformation impose une réponse de transparence

La désinformation impose une réponse de transparence

Erwann Menthéour et Emmanuel Rivière estime dans l’Opinion que «Lutter contre la désinformation suppose de se plier à un devoir de transparence, de toujours agir conformément à ce que l’on serait capable d’assumer publiquement »

 

 

Selon un sondage Eurobaromètre de la Commission européenne récemment paru, 68 % des Français (et 51 % des Européens pour l’ensemble des vingt-sept pays de l’Union européenne) estiment avoir été confrontés à de la désinformation sur Internet. La fabrication et la circulation de fausses nouvelles, la prolifération de théories complotistes et les dangers que leur capacité de séduction fait peser sur la démocratie sont légitimement une préoccupation majeure des pouvoirs publics comme des médias.

Les parades sont de diverses natures : responsabilisation des plates-formes numériques, pénalisation de la diffusion de fausses nouvelles, fact checking, production et promotion d’un contre-discours, etc. Une autre manière de lutter contre la désinformation et ses dangers consiste à prendre la mesure de l’exigence qu’elle impose à tous ceux qui veulent mener ce combat : une exigence de vérité.

Les théories du complot sont d’autant plus efficaces quand elles parviennent à construire le récit conspirationniste autour d’un fait réel. Pour cette raison, la moindre faille est exploitable chez ceux que visent les complotistes, et tout petit arrangement avec la vérité, tout mensonge par omission, toute tentative de travestissement, voire de simplification d’une réalité embarrassante sont pour la désinformation un terreau extrêmement fertile.

Or la probabilité que soient mis à jour des faits que les pouvoirs, quels qu’ils soient, préféreraient dissimuler, est plus élevée que jamais. Et les opinions publiques le pardonnent de moins en moins. Ceux qui en 2016 voyaient en Donald Trump un candidat dont le principal défaut était son rapport très personnel avec la réalité ont pu lire dans son élection le démenti de l’attachement des citoyens à la vérité. Mais il se trouve que la faille était encore plus importante, dans l’opinion, du côté d’Hillary Clinton.

La réalité impose parfois des défis titanesques qui désemparent les responsables politiques les plus chevronnés, qui les déstabilisent au point de les conduire à un tel sentiment d’impuissance que le reconnaître les désavouerait, pensent-ils, aux yeux du peuple

Impératif. Une étude comparative menée juste avant l’élection de 2016 sur les qualités et défauts de l’une et de l’autre montrait que la candidate démocrate se voyait bien plus fortement et spontanément reprochée d’être secrète, accusation qui a beaucoup contribué au succès de son adversaire. Lutter contre la désinformation supposerait donc aussi, et peut-être avant tout, de se plier à un devoir de transparence, d’acquiescer à un impératif consistant à toujours agir conformément à ce que l’on serait capable d’assumer publiquement. Cette injonction peut sembler naïve, louable, évidente, dangereuse, ou un peu tout ça à la fois. Ce qui est sûr c’est qu’un tel objectif se heurte à plusieurs difficultés, de trois ordres.

La première est que l’idée de transparence est loin d’être consubstantielle à l’exercice du pouvoir. L’idée qu’il existe une raison d’Etat distincte de la raison du commun a longtemps prévalu. Du fait à la fois de la désidéologisation du débat politique et de l’abandon de la lutte des classes, notre modèle représentatif a conduit à faire de la compétence un critère aussi important que les valeurs ou la représentation d’intérêts partagés, dans le choix de délégués. Les titulaires de charges et de mandats sont supposés mieux maîtriser la complexité des enjeux, et disposer d’une forme d’exclusivité de cette capacité. Cette capacité est de plus en plus remise en cause, et l’une des leçons de la crise Covid-19 montre que les citoyens non seulement attendent l’exposition de cette complexité, mais apprécient que des dirigeants admettent ne pas tout savoir.

L’autre obstacle à l’exercice de la transparence tient précisément aux succès manifestes du complotisme et de la désinformation. Face à tant de mauvaise foi dans l’intention de nuire, il ne va pas de soi de faire toute la lumière sur des décisions qui sont souvent des arbitrages compliqués entre des intérêts divergents. Souvent la crainte l’emporte de voir la sincérité déformée et exploitée. A l’impératif moral de transparence s’opposerait le pragmatisme de la prudence.

Ce débat est difficile à trancher, mais pour s’en tenir au raisonnement bénéfices-risques, nous voulons ouvrir l’hypothèse, confortée par le sentiment que la maîtrise de l’information est de plus en plus un leurre, selon laquelle la transparence sur les intentions offrirait moins de billes aux complotistes que les tentatives de dissimulation, et davantage de gages à ceux qui s’alarment de la désinformation et veulent s’en défendre.

Universel. Ces derniers restent, ne l’oublions pas, la majorité. Gardons également à l’esprit, comme le rappelle le philosophe Frédéric Midal dans une interview publiée dans le premier numéro du magazine Mentors, que « quelqu’un qui croit à une théorie complotiste est quelqu’un qui souffre et [...] qui tente de se débrouiller avec le côté irrationnel du discours social et politique actuel dans lequel on ne nous parle pas ». Parler au nom de l’universel à l’universel, en omettant – volontairement ou non – de s’adresser en toute transparence aux êtres humains dans la singularité de leur existence, amène ceux qui exercent le pouvoir à se couper des bases et se tromper de combat. En précipitant leur propre défaite.

La troisième raison pour laquelle le pari de la vérité est un choix ardu est que les défis qui se présentent à ceux qui exercent les responsabilités sont particulièrement impressionnants, voire effrayants : à bien des égards, la séquence pandémique de ces derniers mois a matérialisé de manière concrète et parfois même sidérante combien l’exercice du pouvoir pouvait se révéler périlleux, voire quasiment insurmontable devant une situation inédite. Elle a illustré ce qu’est véritablement un arbitrage qui est la clef de voûte de la fonction politique.

Oui, gouverner, c’est arbitrer. Si celui-ci se résumait naïvement à faire un choix entre une bonne et une mauvaise solution, l’art de gouverner deviendrait en conséquence à la portée d’un enfant. Or, comme nous l’avons vécu une année durant, que ce soit au niveau national ou mondial, aucun choix, aucune solution, aucune intervention divine ne s’est révélée capable d’éradiquer ce virus qui continue de mobiliser les plus grands cerveaux de la planète. C’est ici que l’on découvre que la réalité impose parfois des défis titanesques qui désemparent les responsables politiques les plus chevronnés, qui les déstabilisent au point de les conduire à un tel sentiment d’impuissance que le reconnaître les désavouerait, pensent-ils, aux yeux du peuple.

La politique politicienne et son obsession de l’électoralisme ont vécu, tout comme est révolu le temps des technocrates sûrs de leur fait et persuadés que les masses ne peuvent pas comprendre. L’heure des grands hommes et femmes d’Etat a sonné

Complexité. A la lueur de cette complexité, il conviendrait de manifester un peu plus d’humilité et de transparence, en choisissant la pédagogie plutôt que la communication, en abandonnant toute logique court-termiste et en partageant de manière plus limpide et franche les difficultés auxquelles la crise sanitaire et toutes celles à venir nous confrontent tous de plein fouet aujourd’hui. Un choix d’autant plus nécessaire que ces situations risquent, en raison du dérèglement climatique, de se reproduire de plus en plus fréquemment dans les prochaines décennies.

L’ampleur des défis demande aussi beaucoup d’abnégation, car les réponses réellement efficaces ne le sont pas à l’échelle d’un mandat. La politique politicienne et son obsession de l’électoralisme ont vécu, tout comme est révolu le temps des technocrates sûrs de leur fait et persuadés que les masses ne peuvent pas comprendre. L’heure des grands hommes et femmes d’Etat a sonné. Seuls celles et ceux qui se projetteront loin avec humilité, abnégation et courage redonneront un sens à la fonction politique, si décriée depuis de nombreuses années et dont la dévaluation est le plus sûr chemin vers le populisme.

Pour toutes ces raisons, la vérité est un combat. Il impose à ceux qui exercent les responsabilités un travail de révision, qui concerne aussi bien les modalités de décisions que les formes de communication. On peut et on doit sans doute s’inquiéter d’un rapport à l’information qui s’apparenterait à une dictature de la transparence. Mais la menace que représentent le complotisme et la désinformation sur nos démocraties invitent aussi à se demander quel exercice de la transparence permettrait de prévenir le risque de dictature.

Répression et désinformation vis-à-vis des ouïgours

Répression et désinformation vis-à-vis des ouïgours

Internements massifs, travail forcé, stérilisations contraintes : la répression du régime chinois contre cette minorité musulmane turcophone continue malgré le déni des autorités, relève Vanessa Frangville, spécialiste de la Chine, dans une tribune au « Monde ».

Tribune. Interrogé sur la question ouïgoure lors de son passage éclair en Europe, fin août, le ministre chinois des affaires étrangères, Wang Yi, avait noyé le poisson sous un flot de statistiques énigmatiques. Pékin persiste à pratiquer la désinformation sur le sujet, depuis que l’ONU a rendu public, en août 2018, un rapport accablant sur la situation de la région du Xinjiang, aux confins de la Chine et de l’Asie centrale. Plus de deux ans déjà, donc, que les preuves s’accumulent, que les témoignages circulent et que les analyses se succèdent.

Tous les rapports d’experts, sans exception, concluent à la mise en place d’une société de surveillance panoptique, à l’arrestation massive et arbitraire des élites intellectuelles et économiques et à l’envoi forcé dans des camps de détention et de travail de millions de Ouïgours. Rompus à une rhétorique fabriquée autour de contre-vérités et de poncifs, les dirigeants chinois vantent au monde leur modèle de « lutte antiterroriste », tout en rappelant avec agressivité qu’il s’agit d’« affaires internes à la Chine ».

 

Ces mesures de répression révèlent avant tout l’échec de l’Etat chinois à intégrer ses périphéries. Wang Yi a affirmé lors de son passage à Paris que la population des Ouïgours avait doublé en soixante-dix ans. Il omet de rappeler que ceux-ci représentent désormais à peine 40 % de la population de la région contre 80 % en 1949. Des migrations massives vers la région de colons, d’abord militaires puis civils, ont été orchestrées par l’Etat, avec pour résultat des discriminations à l’emploi pour les jeunes diplômés ouïgours et une appropriation des ressources par les migrants souvent sous-qualifiés et peu enclins à changer leurs modes de vie sur ces nouvelles terres considérées comme acquises. 

Selon Wang Yi, la politique de planification familiale ne s’appliquerait pas aux Ouïgours. En fait, les autorités locales ont investi en 2019 plus de 13 millions d’euros dans la prévention des grossesses. Les Ouïgours n’ont jamais été exclus des politiques de réduction des naissances, même si les urbains n’ont été que tardivement contraints à la politique de l’enfant unique (non applicable au monde rural chinois de toute façon). De nombreuses Ouïgoures ont, en outre, témoigné de stérilisations et d’avortement forcés depuis des années.

Pékin affirme que l’objectif des camps d’internement est la prévention du radicalisme religieux par l’éducation et l’intégration par le travail. Un projet « éducatif » qui puise dans un budget de sécurité augmenté de 90 % dans la région en 2018… La majorité des cas de disparus témoigne d’une autre réalité : sont visés des professeurs d’université, des fonctionnaires de tous niveaux – souvent membres du Parti –, des commerçants, des médecins, des écrivains ou des artistes.

« La désinformation de la Chine a mis en jeu la vie des gens du monde entier» (Mike Pompeo)».

« La  désinformation de la Chine a mis en jeu la vie des gens du monde entier» (Mike Pompeo)».

Au cours d’un entretien téléphonique qu’il a accordé à l’Opinion et à des journaux européens, Mike Pompeo, le secrétaire d’Etat américain, a précisé les griefs de Washington à l’égard du comportement de Pékin.

Pour lui, la vérité est loin d’avoir été établie et « aujourd’hui encore, on a besoin d’informations sur l’origine du virus, ce qu’il en reste, combien de cas il y a, et quelle est la nature réelle de cette maladie. Tout cela exige une transparence énorme. On a également besoin de la participation de tous les pays. Ce n’est pas juste de coopération qu’il s’agit, mais d’action pour sauver des vies. »

Toujours à propos de la Chine, le chef de la diplomatie américaine ajoute : « Un pays, un dirigeant qui organise la désinformation met en jeu la vie de ses citoyens, mais aussi celle du reste du monde. Le monde entier a besoin de transparence, d’informations fiables et de chiffres crédibles. L’idée que ce virus, comme cela a été dit en Chine, puisse venir de l’armée américaine est totalement fausse. » Et pour souligner à quel point il met en doute les informations données par Pékin, Mike Pompeo précise : « Ca veut dire que nous voulons être sûrs que les journalistes ont la bonne information, qu’ils sont libres de poser des questions, que des équipes internationales peuvent enquêter sur l’origine du virus, sa propagation, et comment on le soigne. C’est impératif. »

Offensive. Cette offensive a naturellement pour objectif de contrer ce qu’on a appelé « la diplomatie du masque », cette grande opération menée par Pékin un peu partout dans le monde pour, au travers de la fourniture de centaines de millions de masques de protection contre le Covid-19, accroître l’influence chinoise en démontrant l’efficacité du régime face à la crise.

Dans ce contexte tendu, l’idée qui avait poussé depuis la semaine dernière par la France d’organiser rapidement un sommet des cinq membres permanents du Conseil de Sécurité des Nations Unies (Etats-Unis, Chine, Russie, France et Grande-Bretagne) semble encore loin d’aboutir. Emmanuel Macron avait eu à deux reprises une conversation avec Donald Trump pour mettre en place cette formation restreinte, une sorte de commando international de riposte coordonnée à la pandémie……

La présence de plus en plus visible de la Chine en Europe, par exemple en Italie, ne semble pas faire douter Mike Pompeo que « les Etats-Unis sont de loin le pays qui apporte le plus d’aide et d’assistance dans le monde, sous des formes multiples, y compris au travers d’ONG. Et cela concerne aussi l’Italie. Nous allons continuer, et aucun pays ne fera plus que nous. »

Cela concerne également les pays qui sont frappés de sanctions économiques de la part de l’administration américaine. Ainsi en Iran, « dans ce pays particulièrement touché par le coronavirus, aucune sanction n’affecte ni la fourniture de médicaments, ni l’aide médicale et humanitaire. Idem vis-à-vis du Venezuela et de la Corée du Nord ». Mais, rappelle le diplomate, « dans tous les pays, l’essentiel est que les chefs d’Etat prennent d’abord soin de leur peuple ». Or « en Iran par exemple, les dirigeants corrompus détournent le cash », l’argent de l’aide internationale, et « se le mettent dans la poche plutôt que de le consacrer à soigner la population. » Dans ces pays, la pandémie pourrait faire comprendre aux habitants « à quel point ces régimes sont destructeurs pour leurs propres habitants ».

La guerre contre la pandémie, l’autre face du combat de la démocratie contre les dictatures.




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol