Les algorithmes ont pris le pas sur la pensée

Les algorithmes ont pris le pas sur la pensée

 

 

Les algorithmes des réseaux sociaux régissent notre façon de voir le monde. 

Il est difficile de déterminer à quel moment précis nous avons cédé le contrôle de ce que nous voyons, lisons — et même pensons — aux plus grandes sociétés de réseaux sociaux.(Article du Wall Street Journal)

Je situe le point de bascule vers 2016. C’est l’année où Twitter et Instagram ont rejoint Facebook et YouTube dans le tout-algorithmique. Dirigées par des robots programmés pour retenir notre attention le plus longtemps possible, ces plateformes ont fait la promotion de choses que nous aurions très probablement recherchées, partagées ou appréciées — et ont masqué tout le reste.

Ce fut un adieu aux flux qui montraient tout de chaque personne que nous suivions — une sorte de fleuve interminable — et, ce, ordonné de manière chronologique. A la place, nous avons réceptionné des flux gonflés par les contenus les plus cliqués.

A la même époque, Facebook — dont le fil d’actualité est piloté par des algorithmes depuis 2009 — a masqué le réglage qui permet de rétablir l’apparition des contenus en mettant d’abord le « plus récent ».

Les pires scénarios ne sont plus seulement hypothétiques. On montre aux gens les choses qui les attirent le plus. Ils cliquent, lisent et regardent. Puis, ils sont aspirés par des vortex qui renforcent leurs pensées et leurs idées et, alors, ils se connectent avec des personnes qui partagent les mêmes idées

Vous vous êtes probablement dit que ce n’était pas bien grave, ou vous n’y avez même pas pensé du tout. Le problème est que ces algorithmes opaques n’ont pas seulement maximisé les informations sur la sortie des derniers albums de Taylor Swift. Ils ont aussi accentué la portée de tout ce qui est incendiaire — les attaques, la désinformation, les théories du complot. Ils nous ont poussés plus loin dans nos propres bulles de filtres hyperpolarisés.

« Il y a de mauvaises personnes qui font de mauvaises choses sur Internet, que ce soit QAnon ou les tenants de la suprématie blanche. Le problème n’est pas uniquement que Facebook, YouTube et d’autres réseaux sociaux les permettent sur leur plateforme, mais bien qu’ils les amplifient », explique Hany Farid, professeur d’informatique à l’université de Californie, à Berkeley.

Les pires scénarios ne sont plus seulement hypothétiques. On montre aux gens les choses qui les attirent le plus. Ils cliquent, lisent et regardent. Puis, ils sont aspirés par des vortex qui renforcent leurs pensées et leurs idées et, alors, ils se connectent avec des personnes qui partagent les mêmes idées. Ils finissent par avoir une perception personnalisée de la réalité. Et terminent par envahir le Capitole.

Les réseaux sociaux ne sont certainement pas les seuls à blâmer. Et lorsque la faute incombe à ces plateformes, les robots ne sont pas les seuls coupables. La fermeture des comptes Facebook et Twitter du président Trump a même révélé le contraire : les humains qui dirigent ces entreprises ont toujours le dernier mot sur ce qui y apparaît et n’y apparaît pas. (Et aux dernières nouvelles, nous pouvons toujours refuser d’utiliser les réseaux sociaux).

Mais au cœur de tout cela, il reste toujours un problème technologique gigantesque : les ordinateurs sont responsables de ce que nous voyons et ils fonctionnent sans transparence.

D’habitude, le but de ma chronique est d’apporter des solutions aux problèmes techniques. Mais dans la situation qui nous intéresse ici, il n’en existe pas – du moins, une qui soit simple. Tout ce que je peux faire, c’est partager quelques idées.

Idée n° 1 : pas d’algorithmes, pas de publicités

Mark Weinstein, le fondateur de MeWe, un réseau social qui se présente comme l’anti-Facebook, est très clair sur le fait que la solution consiste à revenir à un flux purement chronologique sans aucune manipulation.

Sur MeWe, vous suivez des amis, des pages ou des groupes. Les messages apparaissent dans votre flux tels qu’ils ont été postés. « Aucun annonceur, aucun spécialiste du marketing, aucun stratège politique et aucun utilisateur ne peut enrichir le contenu sur le flux de quelqu’un d’autre. Nous supprimons tout concept d’amplification de choses perturbatrices et scandaleuses, assure M. Weinstein. Tout Cela ne peut pas arriver sur MeWe. »

Plus précisément, dit-il, ce système limite la diffusion des fake news. « Vous devez choisir de suivre de fausses informations. Vous ne pouvez pas être alimenté à la petite cuillère par un algorithme ou par le gouvernement russe ou chinois », ajoute-t-il.

« Les algorithmes doivent simplement décider : “Nous pensons que les journaux comme le Wall Street Journal, les sites comme Wikipédia, ou les institutions comme l’Organisation mondiale de la santé (OMS) ont plus de valeur que les grosbetas.com” »

Cependant, ces dernières semaines, des utilisateurs d’extrême droite cherchant des alternatives à Facebook, Twitter et Parler ont atterri sur MeWe, qui compte actuellement 15,5 millions d’utilisateurs. M. Weinstein explique que le réseau social a beaucoup investi dans la modération et que ses conditions d’utilisation sont claires : vous en serez expulsé notamment en cas d’incitation à la violence ou de publication de contenus illégaux.

Après la rupture de leurs liens avec Parler, MeWe a pris contact avec Apple, Google et Amazon pour s’assurer que l’application respectait leurs directives en matière de modération. Le problème avec une timeline non algorithmique, cependant, est qu’un tel flux peut noyer les utilisateurs et qu’il devient difficile de trier le contenu. C’est exactement ce que m’ont dit Twitter, Facebook et Instagram quand je leur ai demandé pourquoi ils avaient, dans un premier temps, supprimé les réglages chronologiques par défaut.

M. Weinstein explique que MeWe, qui gagne de l’argent grâce à des fonctionnalités payantes et à une option d’abonnement premium — et non via la publicité — règle ce problème grâce à des filtres et des outils qui vous permettent de gérer votre flux. Vous pouvez filtrer par contacts, groupes et pages que vous suivez. Et comme il n’y a pas de publicité ciblée, MeWe ne collecte pas constamment des données à votre sujet, poursuit M. Weinstein.

Idée n° 2 : déclasser les contenus perturbateurs

Mais concernant les grandes firmes qui dépendent de la publicité, les chances qu’ils suppriment leurs algorithmes sont aussi grandes que celles que j’apprenne à mon chien à écrire des chroniques.

Les experts suggèrent que les plateformes devraient plutôt s’attacher sérieusement à déclasser tout ce qui a un caractère scandaleux, haineux ou complotiste, et à donner priorité à ce qui est digne de confiance, pensé et de qualité — même s’ils savent que cela signifie une baisse de l’engagement.

« Les algorithmes doivent simplement décider : “Nous pensons que les journaux comme le Wall Street Journal, les sites comme Wikipédia, ou les institutions comme l’Organisation mondiale de la santé (OMS) ont plus de valeur que les grosbetas.com” », estime le professeur Farid.

Et il y a des preuves que cela peut fonctionner. Dans une étude de mars 2020, le professeur Farid et d’autres chercheurs ont découvert que YouTube avait concrètement restreint la promotion des vidéos complotistes après la modification de ses algorithmes de recommandation.

Facebook a fait de même. Dans les semaines qui ont précédé la présidentielle, Facebook et Instagram ont pris des mesures pour limiter la diffusion d’informations que leurs algorithmes classaient comme des fake news potentielles, notamment les affirmations non fondées sur la fraude électorale. Cela a débouché sur une augmentation du nombre de sources d’information fiables et sur une baisse du nombre de sites partisans.

De plus, il y a des preuves que les discours véhiculant l’idée d’une fraude électorale ont fortement diminué sur Twitter après la suspension du compte de M. Trump, selon la plateforme de services de logiciels d’intelligence multimédia Zignal Labs.

Les régulateurs pourraient également intervenir. Au-delà des diverses actions antitrust, des voix se sont spécifiquement élevées pour que les entreprises soient tenues responsables de leurs algorithmes. Les enquêtes de mes collègues ont montré que Facebook était bien conscient de la tendance de son système de recommandation à pousser les gens vers les groupes extrémistes. Un projet de loi, présenté par les représentants démocrates Tom Malinowski (New Jersey) et Anna Eshoo (Californie), vise à tenir les plateformes responsables de la « promotion algorithmique de l’extrémisme ».

Idée n° 3 : rendre le contrôle

L’idée la plus folle de toutes ? Oh, figurez-vous que ce serait juste de nous rendre un peu de contrôle.

« Et si les gens pouvaient simplement dire : “Je veux voir des informations provenant d’un large éventail de sources politiques » ou « je ne veux voir que les messages de mes amis et de ma famille” », dit Jesse Lehrich, co-fondateur de Accountable Tech, une association à but non lucratif qui lutte contre la désinformation sur les réseaux sociaux.

Facebook vous permet, au moins, de vous renseigner un peu sur les raisons pour lesquelles vous voyez un contenu. Cliquez sur les trois points horizontaux de n’importe quel message de votre flux, puis sur « Pourquoi est-ce que je vois cette publication ? »

Et si vous pensez que le bon vieux flux par ordre chronologique est la solution, il existe des moyens de le remettre en place, au moins temporairement, sur certains services. Les paramètres sont cependant aussi cachés que dans un Où est Charlie ?

Facebook : Dans un navigateur web, allez sur l’icône d’accueil en haut de votre flux, faites défiler le menu sur le côté gauche. Sélectionnez « Voir plus », puis « Plus récent ». Dans l’application mobile, allez sur les trois traits horizontaux en haut ou en bas à droite de votre écran et cherchez « Plus récent ». Sachez que ce choix ne sera pas sauvegardé lorsque vous fermerez le site web ou l’application.

Twitter : C’est beaucoup plus facile. Une petite étoile dans le coin supérieur droit du site web et de l’application vous permet de « Voir les derniers Tweets » au lieu de « Top Tweets ». Alors qu’il vous renvoyait auparavant au flux déterminé par l’algorithme, il vous permet maintenant de rester dans l’organisation du flux que vous avez utilisé en dernier. Je bascule souvent entre les deux possibilités.

YouTube : Vous ne pouvez pas désactiver l’ensemble des recommandations algorithmiques, mais vous pouvez passer à « Dernières vidéos » dans chaque catégorie ou requête de recherche. Vous pouvez également désactiver la lecture automatique. Dans un navigateur web, recherchez le petit bouton basculant avec un bouton de lecture au bas du lecteur vidéo. Dans l’application, recherchez le petit bouton en haut du lecteur vidéo.

TikTok : A côté de l’addictif et déterminé par un algorithme flux « Pour toi », s’en trouve un autre qui montre uniquement les personnes que vous suivez sur la plateforme. Gardez à l’esprit que TikTok utilise toujours des algorithmes ici pour vous montrer les vidéos que, selon lui, vous aurez le plus envie de regarder.

Instagram : Désolé, ici, c’est impossible de contourner les algorithmes. Une porte-parole de Facebook explique qu’avec l’ancien flux chronologique, les utilisateurs rataient 70 % des messages — presque la moitié des contenus de leurs amis et de leur famille. Après avoir modifié le flux algorithmique, la société a constaté qu’en moyenne, les utilisateurs voyaient plus de 90 % des contenus postés par leurs amis.

S’il ne s’agissait que de nous, de nos amis et de notre famille, ce serait moins grave, mais depuis des années, les réseaux sociaux ne se contentent pas de vous permettre de suivre x ou y. C’est l’entonnoir par lequel beaucoup voient le monde et se forgent leurs opinions.

Les algorithmes qui servent les intérêts financiers des Big tech vont-ils continuer à nourrir ces opinions, ou allons-nous obtenir de véritables règles et vrai contrôle ? Malheureusement, ce n’est pas à nous de décider.

Traduit à partir de la version originale en anglais

0 Réponses à “Les algorithmes ont pris le pas sur la pensée”


  • Aucun commentaire

Laisser un Commentaire




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol