Archive pour le Tag 'influencer'

La manipulation des algorithmes de Facebook pour influencer l’opinion

La manipulation des algorithmes de Facebook pour influencer l’opinion

Jennifer Grygiel, Professeure en information-communication à l’Université de Syracuse , décrypte les manipulations des algorithmes de Facebook pour orienter l’information.

« L’algorithme du fil d’actualités de Facebook détermine ce que les utilisateurs voient sur la plateforme – des memes amusants aux commentaires d’amis. La société met régulièrement à jour cet algorithme, ce qui peut considérablement modifier les informations consommées.

À l’approche des élections de 2020, l’opinion publique craint qu’il n’y ait de nouveau une « ingérence de la Russie», à l’instar de l’élection présidentielle de 2016. Mais ce qui n’attire pas assez l’attention, c’est le rôle que jouent les modifications de l’algorithme de Facebook, intentionnellement ou non, dans ce genre d’ingérence.

Un contrepoint essentiel à la campagne de désinformation en Russie a été le journalisme factuel de sources fiables - qui a touché nombre de leurs lecteurs sur Facebook et d’autres plateformes de médias sociaux. En tant que chercheur et enseignant en médias sociaux, je constate que les modifications apportées à l’algorithme du fil d’actualités de Facebook ont ​​supprimé l’accès des utilisateurs à un journalisme crédible dans la perspective de l’élection de Donald Trump.

Les acteurs politiques savent que Facebook joue un rôle de gatekeeper de l’accès à l’information de plus de 200 millions d’Américains et de deux milliards d’utilisateurs dans le monde. Les actions et les abus perpétrés sur les plateformes ont suscité beaucoup d’inquiétude et de débats publics, notamment sur la quantité de désinformation et de propagande que les Américains ont vue avant les élections. On n’a pas suffisamment parlé de l’effet des changements algorithmiques de Facebook sur l’accès aux informations et la démocratie.

Changer le système

À la mi-2015, Facebook a introduit un changement d’algorithme majeur qui a favorisé les contenus partagés par les amis des utilisateurs plutôt que ceux des médias et des journalistes. Facebook a expliqué que ce changement avait pour vocation d’assurer aux utilisateurs de ne pas manquer les histoires de leurs amis. Mais les données ont montré que l’un des effets de ce changement a été de réduire le nombre d’interactions entre les utilisateurs de Facebook et les médias crédibles.

Quelques mois avant les élections de 2016, un changement d’algorithme encore plus important visant les posts d’amis et des membres de la famille a eu un deuxième impact négatif sur le trafic des éditeurs. Un grand nombre d’éditeurs de presse ont constaté que leur contenu était nettement moins visible pour les utilisateurs de Facebook.

 

Dans mes recherches, je me suis concentrée sur l’engagement sur Facebook auprès des principaux médias lors de l’élection de 2016. Mes conclusions confortent celles des autres : l’algorithme de Facebook a fortement réfréné l’engagement du public auprès de ces éditeurs.

Les données de CrowdTangle, une société de veille des médias sociaux, montrent que le trafic sur Facebook a sensiblement diminué chez CNN, ABC, NBC, CBS, Fox News, le New York Times et le Washington Post après que la société a mis à jour ses algorithmes pour favoriser les amis et la famille en juin 2016.

Cela prouve que l’algorithme a fonctionné conformément à la manière dont il avait été conçu, mais je crains que ce ne soit pas le cas pour les grands éditeurs américains. L’intérêt des électeurs pour l’élection présidentielle était plus élevé en 2016 que dans les deux décennies précédentes et la désinformation était généralisée. Les changements apportés par Facebook ont ​​rendu plus difficile la communication des informations crédibles liées à l’élection des principaux organes de presse reflétant l’ensemble du spectre politique.

Facebook était au courant des problèmes de son algorithme avant même la tenue des élections. Un des ingénieurs de Facebook a signalé ces effets potentiels des modifications de l’algorithme de Facebook en juillet 2015. Trois mois plus tard, le mentor de Mark Zuckerberg, Roger McNamee, tentait également d’alerter Mark Zuckerberg et les dirigeants de Facebook que la plateforme était utilisée pour manipuler des informations concernant les élections.

Juste après les élections, les recherches du journaliste de BuzzFeed Craig Silverman ont montré que les fausses informations électorales avaient sur performé par rapport aux « vraies informations ». Fin 2018, une déclaration officielle de Facebook révélait des problèmes quant à la manière dont son algorithme récompensait un «contenu limite» sensationnel et provocateur, comme beaucoup d’informations hyper-partisanes qui émergeaient avant les élections.

Des recherches plus récentes menées par le Shorenstein Center de Harvard ont montré que le trafic de Facebook a continué de diminuer de manière significative pour les éditeurs après le changement d’algorithme de Facebook en janvier 2018.

 

À ce jour, les recherches sur le fonctionnement de l’algorithme de Facebook ont ​​été limitées par le manque d’accès à son fonctionnement interne exclusif. Il ne suffit pas d’enquêter sur les effets des modifications apportées au fil d’actualités de Facebook. Je pense qu’il est important de comprendre pourquoi cela s’est passé et d’examiner plus directement les décisions commerciales de Facebook et leur incidence sur la démocratie.

Un aperçu récent des processus internes de l’entreprise montre que Facebook commence à comprendre l’étendue de son pouvoir. En juillet 2019, Bloomberg News a révélé que la société avait déployé des logiciels sur sa propre plateforme afin de rechercher des messages décrivant Facebook lui-même de manière potentiellement trompeuse, réduisant ainsi leur visibilité afin de préserver la réputation de la société.

Certains juristes internationaux ont commencé à demander des lois pour protéger les démocraties contre la possibilité que la manipulation algorithmique puisse générer des victoires électorales. Il n’existe aucune preuve que les changements de Facebook avaient des intentions politiques, mais il n’est pas difficile d’imaginer que la société pourrait modifier ses algorithmes à l’avenir si elle le souhaitait.

Pour se prémunir contre ce risque, de nouvelles lois pourraient interdire toute modification de l’algorithme au cours des périodes précédant les élections. Dans le secteur financier, par exemple, des « périodes de calme » précédant les annonces importantes d’entreprises visent à empêcher les efforts de marketing et de relations publiques d’influencer artificiellement le prix des actions.

Des protections similaires pour les algorithmes contre les manipulations des entreprises pourraient aider à s’assurer que les dirigeants de Facebook politiquement actifs et à la recherche de pouvoir- ou de toute autre société ayant un contrôle important sur l’accès des utilisateurs à l’information – ne peuvent pas utiliser leurs systèmes pour façonner l’opinion publique ou le comportement de vote.

 

Billet originellement publié en anglais sur The Conversation et republié sur Méta-Media avec autorisation. Version également disponible en français sur The Conversation.

 

 

 

La manipulation des algorithmes de Facebook pour influencer l’opinion

Jennifer Grygiel, Professeure en information-communication à l’Université de Syracuse , décrypte les manipulations des algorithmes de Facebook pour orienter l’information.

« L’algorithme du fil d’actualités de Facebook détermine ce que les utilisateurs voient sur la plateforme – des memes amusants aux commentaires d’amis. La société met régulièrement à jour cet algorithme, ce qui peut considérablement modifier les informations consommées.

À l’approche des élections de 2020, l’opinion publique craint qu’il n’y ait de nouveau une « ingérence de la Russie», à l’instar de l’élection présidentielle de 2016. Mais ce qui n’attire pas assez l’attention, c’est le rôle que jouent les modifications de l’algorithme de Facebook, intentionnellement ou non, dans ce genre d’ingérence.

Un contrepoint essentiel à la campagne de désinformation en Russie a été le journalisme factuel de sources fiables - qui a touché nombre de leurs lecteurs sur Facebook et d’autres plateformes de médias sociaux. En tant que chercheur et enseignant en médias sociaux, je constate que les modifications apportées à l’algorithme du fil d’actualités de Facebook ont ​​supprimé l’accès des utilisateurs à un journalisme crédible dans la perspective de l’élection de Donald Trump.

Les acteurs politiques savent que Facebook joue un rôle de gatekeeper de l’accès à l’information de plus de 200 millions d’Américains et de deux milliards d’utilisateurs dans le monde. Les actions et les abus perpétrés sur les plateformes ont suscité beaucoup d’inquiétude et de débats publics, notamment sur la quantité de désinformation et de propagande que les Américains ont vue avant les élections. On n’a pas suffisamment parlé de l’effet des changements algorithmiques de Facebook sur l’accès aux informations et la démocratie.

Changer le système

À la mi-2015, Facebook a introduit un changement d’algorithme majeur qui a favorisé les contenus partagés par les amis des utilisateurs plutôt que ceux des médias et des journalistes. Facebook a expliqué que ce changement avait pour vocation d’assurer aux utilisateurs de ne pas manquer les histoires de leurs amis. Mais les données ont montré que l’un des effets de ce changement a été de réduire le nombre d’interactions entre les utilisateurs de Facebook et les médias crédibles.

Quelques mois avant les élections de 2016, un changement d’algorithme encore plus important visant les posts d’amis et des membres de la famille a eu un deuxième impact négatif sur le trafic des éditeurs. Un grand nombre d’éditeurs de presse ont constaté que leur contenu était nettement moins visible pour les utilisateurs de Facebook.

 

Dans mes recherches, je me suis concentrée sur l’engagement sur Facebook auprès des principaux médias lors de l’élection de 2016. Mes conclusions confortent celles des autres : l’algorithme de Facebook a fortement réfréné l’engagement du public auprès de ces éditeurs.

Les données de CrowdTangle, une société de veille des médias sociaux, montrent que le trafic sur Facebook a sensiblement diminué chez CNN, ABC, NBC, CBS, Fox News, le New York Times et le Washington Post après que la société a mis à jour ses algorithmes pour favoriser les amis et la famille en juin 2016.

Cela prouve que l’algorithme a fonctionné conformément à la manière dont il avait été conçu, mais je crains que ce ne soit pas le cas pour les grands éditeurs américains. L’intérêt des électeurs pour l’élection présidentielle était plus élevé en 2016 que dans les deux décennies précédentes et la désinformation était généralisée. Les changements apportés par Facebook ont ​​rendu plus difficile la communication des informations crédibles liées à l’élection des principaux organes de presse reflétant l’ensemble du spectre politique.

Facebook était au courant des problèmes de son algorithme avant même la tenue des élections. Un des ingénieurs de Facebook a signalé ces effets potentiels des modifications de l’algorithme de Facebook en juillet 2015. Trois mois plus tard, le mentor de Mark Zuckerberg, Roger McNamee, tentait également d’alerter Mark Zuckerberg et les dirigeants de Facebook que la plateforme était utilisée pour manipuler des informations concernant les élections.

Juste après les élections, les recherches du journaliste de BuzzFeed Craig Silverman ont montré que les fausses informations électorales avaient sur performé par rapport aux « vraies informations ». Fin 2018, une déclaration officielle de Facebook révélait des problèmes quant à la manière dont son algorithme récompensait un «contenu limite» sensationnel et provocateur, comme beaucoup d’informations hyper-partisanes qui émergeaient avant les élections.

Des recherches plus récentes menées par le Shorenstein Center de Harvard ont montré que le trafic de Facebook a continué de diminuer de manière significative pour les éditeurs après le changement d’algorithme de Facebook en janvier 2018.

 

À ce jour, les recherches sur le fonctionnement de l’algorithme de Facebook ont ​​été limitées par le manque d’accès à son fonctionnement interne exclusif. Il ne suffit pas d’enquêter sur les effets des modifications apportées au fil d’actualités de Facebook. Je pense qu’il est important de comprendre pourquoi cela s’est passé et d’examiner plus directement les décisions commerciales de Facebook et leur incidence sur la démocratie.

Un aperçu récent des processus internes de l’entreprise montre que Facebook commence à comprendre l’étendue de son pouvoir. En juillet 2019, Bloomberg News a révélé que la société avait déployé des logiciels sur sa propre plateforme afin de rechercher des messages décrivant Facebook lui-même de manière potentiellement trompeuse, réduisant ainsi leur visibilité afin de préserver la réputation de la société.

Certains juristes internationaux ont commencé à demander des lois pour protéger les démocraties contre la possibilité que la manipulation algorithmique puisse générer des victoires électorales. Il n’existe aucune preuve que les changements de Facebook avaient des intentions politiques, mais il n’est pas difficile d’imaginer que la société pourrait modifier ses algorithmes à l’avenir si elle le souhaitait.

Pour se prémunir contre ce risque, de nouvelles lois pourraient interdire toute modification de l’algorithme au cours des périodes précédant les élections. Dans le secteur financier, par exemple, des « périodes de calme » précédant les annonces importantes d’entreprises visent à empêcher les efforts de marketing et de relations publiques d’influencer artificiellement le prix des actions.

Des protections similaires pour les algorithmes contre les manipulations des entreprises pourraient aider à s’assurer que les dirigeants de Facebook politiquement actifs et à la recherche de pouvoir- ou de toute autre société ayant un contrôle important sur l’accès des utilisateurs à l’information – ne peuvent pas utiliser leurs systèmes pour façonner l’opinion publique ou le comportement de vote.

 

Billet originellement publié en anglais sur The Conversation et republié sur Méta-Media avec autorisation. Version également disponible en français sur The Conversation.

 

 

 




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol