« Toxic Data », remède contre les réseaux sociaux sulfureux
David Chavalarias propose une analyse critique de l’influence de Twitter ou Facebook sur les opinions politiques. ( Le Monde)
analyse .
Au premier abord, le lecteur se dira sans doute qu’il a déjà lu et entendu ces lamentos sur l’effet néfaste des réseaux sociaux sur le débat public et sur les risques d’influence des opinions par certains groupes d’intérêt. D’autant plus qu’avec la guerre en Ukraine et la campagne présidentielle française, l’époque est propice à ce genre de suspicions.
Mais si dans son livre, Toxic Data, l’agrégé de mathématiques David Chavalarias propose en effet une critique de plus contre les Gafam, les ingérences russes ou chinoises, son analyse est par plusieurs points assez originale.
Les illustrations centrales en couleurs, que sans doute peu de lecteurs ont déjà vues, témoignent déjà d’un regard différent sur ces thèmes. On y voit des nuées de points en tas, ou bien dispersés, reliés entre eux plus ou moins fortement. C’est ce que l’auteur, mathématicien de formation, appelle un « macroscope » : un dispositif d’étude à grande échelle de ce qui se passe sur un réseau social comme Twitter et qui permet, par la collecte et l’étude de millions de tweets, de voir d’où part une information, comment un mot-clé circule, comment se forment les communautés politiques, et les voir éclater, se recomposent ou se rapprochent d’une autre…
En spécialiste des systèmes complexes, dont les réseaux sociaux font partie, il défend l’idée que pour mieux corriger les effets négatifs de ces ogres numériques sur les opinions il convient d’abord de disposer des outils pour les « voir ».
Plusieurs exemples montrent l’intérêt d’une telle approche. Ce « politoscope », comme il a été baptisé, a permis d’éclairer le fait que le terme « islamo-gauchisme », repris par des ministres, est bien un concept venu de l’extrême droite. Il aide aussi à repérer quels camps diffusent le plus de fausses informations. Il documente l’émergence de la communauté antivax et antipasse sanitaire.
Les comportements sociaux de chambre d’échos, de bulles de filtre, de polarisation, d’astroturfing, etc., sont bien sûr présents mais vus à l’aune de la science des réseaux et des sciences cognitives, ce qui permet de mieux les comprendre. L’un de ces résultats, tiré d’un théorème mathématique de 1976, est même assez déprimant : plus les interactions sociales sont fortes, plus le comportement collectif est imprévisible aux yeux des individus (rendant instables les situations), mais plus l’entité qui a les informations sur ces interactions peut les prévoir…
Très inquiet de ces influences sur la santé de nos démocraties et conscient que les choix se jouent parfois à un nombre de voix largement atteignable par des influenceurs, l’auteur esquisse 18 propositions pour éviter les dérèglements. Certaines sont de bon sens : vérifier ses sources, savoir se déconnecter… D’autres sont difficiles à réaliser, comme « surveiller » les algorithmes, « redonner les données au peuple »… D’autres encore sont plus inattendues, comme le recours au jugement majoritaire pour les élections, ou les « preferendums », qui permettent de nuancer le contenu des votes et éviter les jugements binaires et l’inévitable polarisation.