Archive pour le Tag 'algorithmes.'

Page 2 sur 2

La manipulation de la pensée par les algorithmes (l’économiste, Pierre Dockès)

La manipulation de la pensée par les algorithmes (l’économiste Pierre Dockès)

Pierre Dockès, économiste,  Professeur honoraire d’économie à l’université Lyon-2 dénonce la manipulation de la  pensée  par les algorithmes utilisés par des grandes entreprises et des Etats.

(Tribune le Monde, extraites). Les grandes vagues de changement technique ont toutes suscité des réactions de rejet pouvant aller jusqu’à la révolte. Le Moyen Age rejetait les innovations estimées maléfiques. La révolution industrielle provoqua les révoltes luddistes [luddisme : mouvement opposé au machinisme au début de la révolution industrielle]. L’avènement de la grande industrie faisait de l’usine un « bagne mitigé » et de la société une « mégamachine ».

Pourtant la technologie n’est pas, en elle-même, responsable des maux dont on l’accable. Les luddistes s’en prenaient aux machines, mais leurs conséquences négatives s’expliquaient par leur mise en œuvre sous des rapports sociaux spécifiques. Les techniques ne sont cependant pas « innocentes » puisqu’elles ont été configurées dans un certain schéma social.

Il en va de même aujourd’hui : l’être humain est menacé d’une expropriation majeure de ses « capabilités » (pour reprendre les termes de l’économiste indien Amartya Sen, prix Nobel d’économie 1998), ses libertés substantielles. Pour la philosophe Simone Weil (1909-1943), « la société la moins mauvaise est celle où le commun des hommes a les plus grandes possibilités de contrôle sur l’ensemble de la vie collective et possède le plus d’indépendance » (Réflexions sur les causes de la liberté et de l’oppression sociale, 1934, Simone Weil, Gallimard, 1999). Elle valorise ainsi la vie rude du pêcheur ou celle de l’artisan médiéval car ce sont des vies « d’homme libre ». C’est sous cet angle de l’aliénation qu’il faut juger la révolution numérique, et pas seulement comme une énième révolution industrielle.

Manipulation des comportements

Aux deux processus historiques majeurs reconnus par l’économiste Max Weber (1864-1920) – la formation du capital par l’expropriation des petits producteurs autonomes de leurs moyens de production (repris de Marx), et la formation de l’Etat comme détenteur du monopole de la violence légitime (dans Politik als Beruf, 1919) – s’ajoute aujourd’hui une troisième phase appuyée sur les vagues précédentes.

Cette aliénation rencontre et forge nos désirs, pour mieux les conformer aux intérêts dominants

Nos données privées captées, agrégées par le croisement des dossiers et revendues, permettent la manipulation des comportements, une publicité et une propagande ciblées. Les smartphones, les objets connectés (que la 5G va permettre de centupler) sont autant d’espions. Lessafe cities capables de suivre précisément les déplacements de chacun et de repérer le moindre comportement « anormal » se multiplient. La monnaie privatisée va permettre une mainmise approfondie sur nos données vitales….. »

La manipulation des algorithmes de Facebook pour influencer l’opinion

La manipulation des algorithmes de Facebook pour influencer l’opinion

Jennifer Grygiel, Professeure en information-communication à l’Université de Syracuse , décrypte les manipulations des algorithmes de Facebook pour orienter l’information.

« L’algorithme du fil d’actualités de Facebook détermine ce que les utilisateurs voient sur la plateforme – des memes amusants aux commentaires d’amis. La société met régulièrement à jour cet algorithme, ce qui peut considérablement modifier les informations consommées.

À l’approche des élections de 2020, l’opinion publique craint qu’il n’y ait de nouveau une « ingérence de la Russie», à l’instar de l’élection présidentielle de 2016. Mais ce qui n’attire pas assez l’attention, c’est le rôle que jouent les modifications de l’algorithme de Facebook, intentionnellement ou non, dans ce genre d’ingérence.

Un contrepoint essentiel à la campagne de désinformation en Russie a été le journalisme factuel de sources fiables - qui a touché nombre de leurs lecteurs sur Facebook et d’autres plateformes de médias sociaux. En tant que chercheur et enseignant en médias sociaux, je constate que les modifications apportées à l’algorithme du fil d’actualités de Facebook ont ​​supprimé l’accès des utilisateurs à un journalisme crédible dans la perspective de l’élection de Donald Trump.

Les acteurs politiques savent que Facebook joue un rôle de gatekeeper de l’accès à l’information de plus de 200 millions d’Américains et de deux milliards d’utilisateurs dans le monde. Les actions et les abus perpétrés sur les plateformes ont suscité beaucoup d’inquiétude et de débats publics, notamment sur la quantité de désinformation et de propagande que les Américains ont vue avant les élections. On n’a pas suffisamment parlé de l’effet des changements algorithmiques de Facebook sur l’accès aux informations et la démocratie.

Changer le système

À la mi-2015, Facebook a introduit un changement d’algorithme majeur qui a favorisé les contenus partagés par les amis des utilisateurs plutôt que ceux des médias et des journalistes. Facebook a expliqué que ce changement avait pour vocation d’assurer aux utilisateurs de ne pas manquer les histoires de leurs amis. Mais les données ont montré que l’un des effets de ce changement a été de réduire le nombre d’interactions entre les utilisateurs de Facebook et les médias crédibles.

Quelques mois avant les élections de 2016, un changement d’algorithme encore plus important visant les posts d’amis et des membres de la famille a eu un deuxième impact négatif sur le trafic des éditeurs. Un grand nombre d’éditeurs de presse ont constaté que leur contenu était nettement moins visible pour les utilisateurs de Facebook.

 

Dans mes recherches, je me suis concentrée sur l’engagement sur Facebook auprès des principaux médias lors de l’élection de 2016. Mes conclusions confortent celles des autres : l’algorithme de Facebook a fortement réfréné l’engagement du public auprès de ces éditeurs.

Les données de CrowdTangle, une société de veille des médias sociaux, montrent que le trafic sur Facebook a sensiblement diminué chez CNN, ABC, NBC, CBS, Fox News, le New York Times et le Washington Post après que la société a mis à jour ses algorithmes pour favoriser les amis et la famille en juin 2016.

Cela prouve que l’algorithme a fonctionné conformément à la manière dont il avait été conçu, mais je crains que ce ne soit pas le cas pour les grands éditeurs américains. L’intérêt des électeurs pour l’élection présidentielle était plus élevé en 2016 que dans les deux décennies précédentes et la désinformation était généralisée. Les changements apportés par Facebook ont ​​rendu plus difficile la communication des informations crédibles liées à l’élection des principaux organes de presse reflétant l’ensemble du spectre politique.

Facebook était au courant des problèmes de son algorithme avant même la tenue des élections. Un des ingénieurs de Facebook a signalé ces effets potentiels des modifications de l’algorithme de Facebook en juillet 2015. Trois mois plus tard, le mentor de Mark Zuckerberg, Roger McNamee, tentait également d’alerter Mark Zuckerberg et les dirigeants de Facebook que la plateforme était utilisée pour manipuler des informations concernant les élections.

Juste après les élections, les recherches du journaliste de BuzzFeed Craig Silverman ont montré que les fausses informations électorales avaient sur performé par rapport aux « vraies informations ». Fin 2018, une déclaration officielle de Facebook révélait des problèmes quant à la manière dont son algorithme récompensait un «contenu limite» sensationnel et provocateur, comme beaucoup d’informations hyper-partisanes qui émergeaient avant les élections.

Des recherches plus récentes menées par le Shorenstein Center de Harvard ont montré que le trafic de Facebook a continué de diminuer de manière significative pour les éditeurs après le changement d’algorithme de Facebook en janvier 2018.

 

À ce jour, les recherches sur le fonctionnement de l’algorithme de Facebook ont ​​été limitées par le manque d’accès à son fonctionnement interne exclusif. Il ne suffit pas d’enquêter sur les effets des modifications apportées au fil d’actualités de Facebook. Je pense qu’il est important de comprendre pourquoi cela s’est passé et d’examiner plus directement les décisions commerciales de Facebook et leur incidence sur la démocratie.

Un aperçu récent des processus internes de l’entreprise montre que Facebook commence à comprendre l’étendue de son pouvoir. En juillet 2019, Bloomberg News a révélé que la société avait déployé des logiciels sur sa propre plateforme afin de rechercher des messages décrivant Facebook lui-même de manière potentiellement trompeuse, réduisant ainsi leur visibilité afin de préserver la réputation de la société.

Certains juristes internationaux ont commencé à demander des lois pour protéger les démocraties contre la possibilité que la manipulation algorithmique puisse générer des victoires électorales. Il n’existe aucune preuve que les changements de Facebook avaient des intentions politiques, mais il n’est pas difficile d’imaginer que la société pourrait modifier ses algorithmes à l’avenir si elle le souhaitait.

Pour se prémunir contre ce risque, de nouvelles lois pourraient interdire toute modification de l’algorithme au cours des périodes précédant les élections. Dans le secteur financier, par exemple, des « périodes de calme » précédant les annonces importantes d’entreprises visent à empêcher les efforts de marketing et de relations publiques d’influencer artificiellement le prix des actions.

Des protections similaires pour les algorithmes contre les manipulations des entreprises pourraient aider à s’assurer que les dirigeants de Facebook politiquement actifs et à la recherche de pouvoir- ou de toute autre société ayant un contrôle important sur l’accès des utilisateurs à l’information – ne peuvent pas utiliser leurs systèmes pour façonner l’opinion publique ou le comportement de vote.

 

Billet originellement publié en anglais sur The Conversation et republié sur Méta-Media avec autorisation. Version également disponible en français sur The Conversation.

 

 

 

La manipulation des algorithmes de Facebook pour influencer l’opinion

Jennifer Grygiel, Professeure en information-communication à l’Université de Syracuse , décrypte les manipulations des algorithmes de Facebook pour orienter l’information.

« L’algorithme du fil d’actualités de Facebook détermine ce que les utilisateurs voient sur la plateforme – des memes amusants aux commentaires d’amis. La société met régulièrement à jour cet algorithme, ce qui peut considérablement modifier les informations consommées.

À l’approche des élections de 2020, l’opinion publique craint qu’il n’y ait de nouveau une « ingérence de la Russie», à l’instar de l’élection présidentielle de 2016. Mais ce qui n’attire pas assez l’attention, c’est le rôle que jouent les modifications de l’algorithme de Facebook, intentionnellement ou non, dans ce genre d’ingérence.

Un contrepoint essentiel à la campagne de désinformation en Russie a été le journalisme factuel de sources fiables - qui a touché nombre de leurs lecteurs sur Facebook et d’autres plateformes de médias sociaux. En tant que chercheur et enseignant en médias sociaux, je constate que les modifications apportées à l’algorithme du fil d’actualités de Facebook ont ​​supprimé l’accès des utilisateurs à un journalisme crédible dans la perspective de l’élection de Donald Trump.

Les acteurs politiques savent que Facebook joue un rôle de gatekeeper de l’accès à l’information de plus de 200 millions d’Américains et de deux milliards d’utilisateurs dans le monde. Les actions et les abus perpétrés sur les plateformes ont suscité beaucoup d’inquiétude et de débats publics, notamment sur la quantité de désinformation et de propagande que les Américains ont vue avant les élections. On n’a pas suffisamment parlé de l’effet des changements algorithmiques de Facebook sur l’accès aux informations et la démocratie.

Changer le système

À la mi-2015, Facebook a introduit un changement d’algorithme majeur qui a favorisé les contenus partagés par les amis des utilisateurs plutôt que ceux des médias et des journalistes. Facebook a expliqué que ce changement avait pour vocation d’assurer aux utilisateurs de ne pas manquer les histoires de leurs amis. Mais les données ont montré que l’un des effets de ce changement a été de réduire le nombre d’interactions entre les utilisateurs de Facebook et les médias crédibles.

Quelques mois avant les élections de 2016, un changement d’algorithme encore plus important visant les posts d’amis et des membres de la famille a eu un deuxième impact négatif sur le trafic des éditeurs. Un grand nombre d’éditeurs de presse ont constaté que leur contenu était nettement moins visible pour les utilisateurs de Facebook.

 

Dans mes recherches, je me suis concentrée sur l’engagement sur Facebook auprès des principaux médias lors de l’élection de 2016. Mes conclusions confortent celles des autres : l’algorithme de Facebook a fortement réfréné l’engagement du public auprès de ces éditeurs.

Les données de CrowdTangle, une société de veille des médias sociaux, montrent que le trafic sur Facebook a sensiblement diminué chez CNN, ABC, NBC, CBS, Fox News, le New York Times et le Washington Post après que la société a mis à jour ses algorithmes pour favoriser les amis et la famille en juin 2016.

Cela prouve que l’algorithme a fonctionné conformément à la manière dont il avait été conçu, mais je crains que ce ne soit pas le cas pour les grands éditeurs américains. L’intérêt des électeurs pour l’élection présidentielle était plus élevé en 2016 que dans les deux décennies précédentes et la désinformation était généralisée. Les changements apportés par Facebook ont ​​rendu plus difficile la communication des informations crédibles liées à l’élection des principaux organes de presse reflétant l’ensemble du spectre politique.

Facebook était au courant des problèmes de son algorithme avant même la tenue des élections. Un des ingénieurs de Facebook a signalé ces effets potentiels des modifications de l’algorithme de Facebook en juillet 2015. Trois mois plus tard, le mentor de Mark Zuckerberg, Roger McNamee, tentait également d’alerter Mark Zuckerberg et les dirigeants de Facebook que la plateforme était utilisée pour manipuler des informations concernant les élections.

Juste après les élections, les recherches du journaliste de BuzzFeed Craig Silverman ont montré que les fausses informations électorales avaient sur performé par rapport aux « vraies informations ». Fin 2018, une déclaration officielle de Facebook révélait des problèmes quant à la manière dont son algorithme récompensait un «contenu limite» sensationnel et provocateur, comme beaucoup d’informations hyper-partisanes qui émergeaient avant les élections.

Des recherches plus récentes menées par le Shorenstein Center de Harvard ont montré que le trafic de Facebook a continué de diminuer de manière significative pour les éditeurs après le changement d’algorithme de Facebook en janvier 2018.

 

À ce jour, les recherches sur le fonctionnement de l’algorithme de Facebook ont ​​été limitées par le manque d’accès à son fonctionnement interne exclusif. Il ne suffit pas d’enquêter sur les effets des modifications apportées au fil d’actualités de Facebook. Je pense qu’il est important de comprendre pourquoi cela s’est passé et d’examiner plus directement les décisions commerciales de Facebook et leur incidence sur la démocratie.

Un aperçu récent des processus internes de l’entreprise montre que Facebook commence à comprendre l’étendue de son pouvoir. En juillet 2019, Bloomberg News a révélé que la société avait déployé des logiciels sur sa propre plateforme afin de rechercher des messages décrivant Facebook lui-même de manière potentiellement trompeuse, réduisant ainsi leur visibilité afin de préserver la réputation de la société.

Certains juristes internationaux ont commencé à demander des lois pour protéger les démocraties contre la possibilité que la manipulation algorithmique puisse générer des victoires électorales. Il n’existe aucune preuve que les changements de Facebook avaient des intentions politiques, mais il n’est pas difficile d’imaginer que la société pourrait modifier ses algorithmes à l’avenir si elle le souhaitait.

Pour se prémunir contre ce risque, de nouvelles lois pourraient interdire toute modification de l’algorithme au cours des périodes précédant les élections. Dans le secteur financier, par exemple, des « périodes de calme » précédant les annonces importantes d’entreprises visent à empêcher les efforts de marketing et de relations publiques d’influencer artificiellement le prix des actions.

Des protections similaires pour les algorithmes contre les manipulations des entreprises pourraient aider à s’assurer que les dirigeants de Facebook politiquement actifs et à la recherche de pouvoir- ou de toute autre société ayant un contrôle important sur l’accès des utilisateurs à l’information – ne peuvent pas utiliser leurs systèmes pour façonner l’opinion publique ou le comportement de vote.

 

Billet originellement publié en anglais sur The Conversation et republié sur Méta-Media avec autorisation. Version également disponible en français sur The Conversation.

 

 

 

Algorithmes : les dérives

Algorithmes : les dérives

Un article intéressant d’Amélie CHARNAY,Journaliste, sur 01net.com qui rend compte d’un livre,« Algorithmes, la bombe à retardement » de la mathématicienne américaine Cathy O’Neil .

« Virée. Sara Wysocki, une institutrice de CM2 louée par sa hiérarchie comme par ses élèves, eut la stupeur d’être remerciée par le district de Washington en 2011. L’algorithme chargé de lui attribuer un score d’évaluation avait conclu à son incompétence puisque les notes des enfants avaient baissé par rapport à l’année précédente. Elle finit par découvrir que les enseignants avant elle avaient gonflé les résultats, faussant ainsi toute la base de données. Cette histoire n’est qu’un exemple banal des effets pervers engendrés par certains algorithmes mal conçus. La mathématicienne américaine Cathy O’Neil les appelle des ADM, des algorithmes de destruction mathématique.

Il y a deux ans, cette analyste repentie et figure d’Occupy Wall Street a consacré un livre à ces modèles mathématiques toxiques. Algorithmes, la bombe à retardement a été salué outre-Atlantique pour sa clairvoyance et vient de sortir enfin en France aux Editions les Arènes avec une préface de Cédric Villani. Loin de l’implacable rigueur scientifique qui leur colle à la peau, ils sont loin d’être des outils impartiaux d’aide à la décision. Leurs jeux de données sont parfois falsifiés, comme ce fut le cas avec cette institutrice. Mais ils sont souvent tout simplement biaisés, comme cette intelligence artificielle testée par Amazon pour ses recrutements. L’agence Reuters a révélé qu’elle avait eu tendance à écarter les femmes des postes techniques parce qu’elle avait pris modèle sur les hommes de la société qui occupaient déjà 60% de ces emplois.

 

Les algorithmes découlent toujours de critères sélectionnés par des humains. Choisir de ne pas prendre en compte les frais de scolarité lorsque l’on veut classer les universités américaines, c’est favoriser les établissements qui sont les plus chers et renforcer encore leur attractivité au détriment des autres. Autre exemple : les logiciels de prédiction des crimes. Ils ont pour conséquence de multiplier les contrôles dans les quartiers pauvres et les arrestations de mineurs pour consommation d’alcool. Certains adolescents s’emportent et leur refus d’obtempérer les conduit tout droit dans un pénitencier. S’ils avaient habité un quartier riche, ils n’auraient jamais été inquiétés et conserveraient encore un casier judiciaire vierge.

Prenons encore le cas du questionnaire LSI-R que les détenus des prisons doivent remplir outre-atlantique pour évaluer leur risque de récidive. Dans les Etats de l’Idaho et du Colorado, les réponses servent à décider de la peine. Or, si un individu compte des membres de sa famille ayant eu des démêlés avec la justice, l’algorithme va être plus enclin à le classer dans un groupe à risque. Il écopera alors d’une peine plus lourde, restera davantage en prison et aura moins de chance de retrouver un emploi à sa sortie. Le cercle vicieux ne s’arrête pas là. « S’il commet un autre crime, la modélisation du récidivisme pourra se prévaloir d’un nouveau succès. Mais c’est en réalité le modèle lui-même qui alimente un cycle malsain et qui contribue à entretenir cette réalité », souligne Cathy O’Neil. Ces ADM se nourrissent donc de leurs erreurs et se renforcent inexorablement dans le temps, augmentant ainsi les inégalités et fragilisant encore davantage les plus vulnérables.

L’idée n’est pas de jeter l’opprobre sur tous les algorithmes. Beaucoup remplissent efficacement leur rôle sans répercussion délétère, surtout  s’il s’agit de battre un champion mondial de Go. Certains servent même l’intérêt général quand ils réussissent à repérer du travail forcé, par exemple. Le problème, c’est qu’ils sont utilisés sans discernement dans de multiples domaines à des moments clefs de la vie des individus. La société française aussi y est déjà confrontée. Ils influent sur l’orientation des études supérieures avec Parcoursup, l’obtention d’un crédit, le montant de notre assurance, les recrutements, nous ciblent publicitairement, et tentent même de peser sur notre opinion via les réseaux sociaux.

L’objectif de Cathy O’Neil est de nous appeler à la tempérance : nous ne pouvons pas attendre des algorithmes qu’ils solutionnent des tâches complexes comme évaluer les enseignants. Ce qu’elle espère, c’est que nous sortions de notre croyance aveugle en leur efficacité. Les citoyens doivent exiger la transparence sur la façon dont ces modèles fonctionnent et rester vigilants pour qu’ils soient sans cesse réévalués, afin de les corriger et de les améliorer. « Commençons dès maintenant à bâtir un cadre, pour s’assurer à long terme que les algorithmes rendent des comptes. Posons comme base la démonstration de leur légalité, de leur équité et de leur ancrage factuel », propose Cathy ONeil. Nous ne pouvons plus nous permettre de rester spectateurs, glisse-t-elle en conclusion. Si ce n’est pas le cas, nous serons condamnés à l’avenir à obéir à de mystérieuses boîtes noires qui contrôleront une grande partie de notre vie. «

Algorithmes, la bombe à retardement, Cathy O’Neil, les Arènes, 352 pages, 20,90 euros.

Après l’élite des ingénieurs, l’élite des algorithmes

Après l’élite des ingénieurs, l’élite des algorithmes

Pierre-Yves Gomez, Professeur à l’école de management EM Lyon analyse l’évolution sociologique des élites avec maintenant la domination des managers, des experts en ratios et autres algorithmes. (Extraits de la Tribune du Monde)

 

 

« .Personne ne semble plus contester qu’il existe une coupure entre la société réelle et « les élites ». On a tort, car un tel diagnostic confond ceux qui exercent le pouvoir et ceux qui sont reconnus comme constituant « l’élite ». Comme l’indique l’étymologie, faire partie de l’élite (du latin elire), c’est être considéré parmi les meilleurs par ceux que l’on gouverne. En manifestant qu’elle possède des compétences et des vertus jugées exemplaires, l’élite suscite la confiance. C’est en conséquence de cela que son pouvoir devient acceptable.

Ainsi en est-il de l’élite qui gouverne les entreprises. Pendant le premier siècle du capitalisme (1800-1930), ce sont les entrepreneurs qui la composèrent comme l’a montré la thèse célèbre de Schumpeter (1883-1950) Capitalisme, socialisme et démocratie (1942). Leurs capacités à dominer leurs passions pour réaliser un projet bénéfique à tous supposaient des compétences et des vertus qui donnaient finalement confiance dans le progrès technique et économique qu’ils promettaient de réaliser.

L’élite entrepreneuriale fut renversée dans les années 1930 par les experts en organisation. La production de masse exigea de nouvelles compétences : planification méthodique, capacités à prévoir et à maîtriser les flux productifs dans le long terme. Elle appelait aussi de nouvelles vertus : la rigueur et le jugement pour créer la confiance dans le fonctionnement du système technique. James Burnham (1905-1987), dans L’Ere des organisateurs (1941), a anticipé combien le second siècle du capitalisme industriel (de 1930 à nos jours) devait être celui des technocrates.

Il fallait être ingénieur pour faire partie de cette élite car diriger la construction d’un pont ou l’exploitation d’une mine prouvait que l’on pouvait aussi bien gouverner une organisation avec rigueur : universités et écoles « prestigieuses » en ont formé des générations tant pour la sphère publique que privée.

La financiarisation de l’économie à partir de 1980 a de nouveau changé la donne. Les entreprises ont été vues comme des espaces ouverts et fluides, intégrant des chaînes de valeur mondiales. Il importe d’extraire de l’information, de connecter des données pour repérer la valeur créée à chaque niveau de l’organisation, jusqu’au profit global. Ceux qui maîtrisent les outils et les contrôles financiers assurent aux « marchés » que le résultat promis par l’entreprise sera réalisé ».

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA, pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune)

)

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historique comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

La programmation des véhicules autonomes en cas d’accident inévitable est un exemple de cas concret qui traduit inévitablement un choix moral. La recherche scientifique sur les préférences morales des individus peut aider à identifier les critères éthiques pour fonder ce choix moral. L’automatisation des décisions grâce à l’IA peut donner lieu à de réels progrès, tels que des décisions plus transparentes et moins partiales. Aussi, se posent des questions fondamentales sur les conséquences économiques, les enjeux éthiques, et l’encadrement juridique de cette évolution. »

Prospective-Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Prospective-Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune)

)

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historique comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

La programmation des véhicules autonomes en cas d’accident inévitable est un exemple de cas concret qui traduit inévitablement un choix moral. La recherche scientifique sur les préférences morales des individus peut aider à identifier les critères éthiques pour fonder ce choix moral. L’automatisation des décisions grâce à l’IA peut donner lieu à de réels progrès, tels que des décisions plus transparentes et moins partiales. Aussi, se posent des questions fondamentales sur les conséquences économiques, les enjeux éthiques, et l’encadrement juridique de cette évolution. »

 

Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune )

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historiques comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

 

 

 

La terreur des algorithmes ?

La terreur des algorithmes ?

 

Les algorithmes font peur au point que certains pensent que l’intelligence artificielle pourrait prendre le pas sur l’espèce humaine. Pourtant les algorithmes ne sont pas nouveaux mais ils sont aujourd’hui servis par la croissance de la puissance quasi exponentielle des ordinateurs. Il s’agit d’une évolution technologique considérable mais comme tout progrès technique tout dépendra de la manière dont il sera utilisé pour servir l’homme ou au contraire l’asservir.  Serge Abiteboul, auteur du livre « Le temps des algorithmes », veut propose d’abord une vulgarisation des connaissances dans une interview à la tribune. Laurent Alexandre de son coté évalue les conséquences possibles.

Qu’est-ce qu’un algorithme ?

Serge Abiteboul : Un algorithme est une « recette » qui permet de résoudre un problème à l’aide d’opérations logiques. C’est un concept très ancien qui prend tout son sens avec l’informatisation de la société. Les algorithmes sous-tendent les programmes informatiques qui permettent aux ordinateurs d’effectuer toutes sortes de tâches complexes.

Pourquoi les algorithmes sont-ils parfois présentés comme menaçants ?

Serge Abiteboul : Ils sont perçus comme une menace parce qu’on ne les comprend pas ! Cela tient au fait que l’on n’apprend pas assez l’informatique à l’école.

Faut-il apprendre le code informatique à l’école primaire ?

Serge Abiteboul : Oui ! Il faut apprendre le code et, plus encore, il faut apprendre à comprendre les ordinateurs. Le débat actuel sur l’apprentissage de la programmation à l’école est idiot. L’apprentissage de l’informatique à l’école est indispensable même – et surtout – si l’on n’a pas l’intention de devenir programmeur.

Faut-il craindre que le robot prenne le travail de l’homme ?

Serge Abiteboul : Les ordinateurs et les robots assistent de plus en plus l’homme dans son travail, y compris dans des métiers hautement qualifiés comme la médecine ou la justice, mais il n’est pas question qu’ils remplacent complètement ces professionnels. La question est de savoir comment on partage les bénéfices du travail des robots, afin que cela ne profite pas seulement aux propriétaires de robots.

 

 

 

Laurent Alexandre, autre grand spécialiste  affirme ainsi : « Les algorithmes ne vont pas nécessairement nous tuer mais ils créent une situation révolutionnaire. L’IA (Intelligence artificielle) va nous faire basculer vers une autre civilisation où le travail et l’argent pourraient disparaître. L’IA est longtemps restée un sujet de science-fiction. Elle est désormais une simple question de calendrier : l’explosion des capacités informatiques (la puissance des serveurs informatiques a été multipliée par un milliard en trente et un ans) rend probable l’émergence d’une IA supérieure à l’intelligence humaine dans les prochaines décennies… Certains craignent qu’une super IA devienne hostile. Le fondateur de DeepMind exclut ce scénario pour encore plusieurs décennies, mais faut-il pour autant être rassuré ? Est-il raisonnable d’apprendre aux machines à tromper, dominer, dépasser les hommes ? Est-il sage de leur apprendre à cacher leurs intentions, à déployer des stratégies agressives et manipulatrices comme le jeu de go ? Nick Bostroom, spécialiste de NBIC, défend l’idée qu’il ne peut y avoir qu’une seule espèce intelligente dans une région de l’univers. Toute espèce intelligente (biologique ou artificielle) ayant comme premier objectif sa survie, on peut craindre que l’IA se prémunisse contre notre volonté de la museler en cachant ses intentions agressives dans les profondeurs du web. Nous ne pourrions même pas comprendre ses plans : certains coups d’AlphaGo, la machine qui a battu en mars 2016 le meilleur joueur de go du monde, ont été d’abord perçus comme de graves erreurs, alors qu’il s’agissait de coups géniaux, témoins d’une stratégie subtile dépassant l’entendement humain… Nous sommes déjà dans un monde algorithmique. AlphaGo marque le tout début des victoires sur l’homme de l’IA : quasiment aucune activité humaine n’en sortira indemne… D’ici 2030, plus aucun diagnostic médical ne pourra être fait sans système expert… L’analyse complète de la biologie d’une tumeur représente, par exemple, 20.000 milliards d’informations… Google X, le laboratoire secret, met au point un système de détection ultraprécis des maladies par des nanoparticules qui vont aussi générer une quantité monstrueuse d’informations… Watson, le système expert d’IBM, est capable d’analyser en quelques instants des centaines de milliers de travaux scientifiques pour comprendre une mutation cancéreuse là où il faudrait trente-huit ans au cancérologue en travaillant jour et nuit pour un seul patient… Les leaders de l’économie numérique (Google, Apple, Facebook, Amazon) ainsi qu’IBM et Microsoft seront sans doute les maîtres de cette nouvelle médecine. »

 

La domination par les algorithmes. Mythe ou réalité?

La domination par les algorithmes. Mythe ou réalité?

Dans un article paru dans Mediapart,  Jean Paul Baquiast, écrivain scientifique, faiat une apparoche critique de la mainmise de grands de l’ linternet sur la société. Il danger évident d’autant que ces grandes sociétés sont exclusivement américaines. Reste à savoir cependant si l’algorithmique n’est pas encore plus anxiogène  vis-à-vis du  futur mode de production avec la substitution de la robotique à l’intervention humaine sur nombre d’opérations. (Mais ce n’est pas le sujet traité par Baquiast qui réduit le champ de l’analyse aux GAFA).

 

« Depuis quelques temps, de nombreux articles ou exposés dénoncent le poids politique pris par ce qu’ils appellent les algorithmes. Le terme est compris généralement comme désignant des programmes informatiques incompréhensibles, ayant pris possession du monde des Big Data. Celles-ci sont des informations concernant principalement les humains et leurs activités et recueillies en grand nombre auprès de nous par les grands de l’internet américain, dits GAFA (ou Géants du Web, Google, Apple, Facebook, Amazon). Nous sommes tous demandeurs des facilités diverses qu’ils offrent à l’internaute, ceci apparemment quasi gratuitement. Mais les Big Data ne sont rien sans les algorithmes programmés pour en tirer des informations d’un grand intérêt politique et économique, informations que bien évidemment les GAFA gardent pour eux afin de s’en servir pour conquérir le monde de demain, comme Google on le sait ne se cache absolument pas de rechercher. Il est évident que les algorithmes n’ont pas de pouvoir de décision propre. Ils sont mis en oeuvre et alimentés par les GAFA et homologues qui s’en servent pour construire une société numérique globale – on parle aussi de cerveau global – leur permettant d’analyser, prévoir et exploiter à leur profit toutes les activités résultant des activités numériques des internautes. Ces GAFA ne sont pas désintéressés. Ils servent la petite poignée de dirigeants qui en ont fait des prestataires de service conçus pour répondre au mieux à leur objectif de domination. Ils servent aussi d’intermédiaires au gouvernement américain qui les a encouragés voir financés initialement pour espionner massivement les entreprises, administrations et citoyens obligés en l’absence d’autres solutions de faire appel aux services des GAFA. Il est certain cependant que dans le monde hyper-complexe de l’algorithmique moderne se nourrissant de Big Data, certains algorithmes semblent occasionnellement échapper à leurs concepteurs et opérateurs pour se comporter de façon autonome. Ceci avait été signalé à propos des algorithmes responsables de la spéculation financière à haute fréquence (high frequency trading) qui peuvent en quelques secondes et de leur propre chef prendre des décisions de vente et d’achat se traduisant par des bénéfices ou des pertes que personne ne cherchait. Mais si les algorithmes permettant de telles décisions existent, ce n’est pas parce qu’ils sont nés spontanément. Leur existence et leurs activités sont prévues et encouragées par les spéculateurs humains et les gouvernements dont ils dépendent, afin d’accroître globalement les pouvoirs de ces derniers. Dénoncer une quelconque prise de pouvoir ou domination par les algorithmes relève donc du mensonge pur et simple. En bonne démocratie, ce devrait être les forces politiques et économiques qui les utilisent qu’il conviendrait de dénoncer. Plus concrètement, il faudrait accuser les GAFA et le gouvernement américain qui se servent des algorithmes pour mettre à leur service les acteurs de la nouvelle société numérique s’étendant aujourd’hui à l’échelle du monde. Nous avons précédemment montré comment la NSA, National Security Agency, la CIA et le FBI aux Etats-Unis, utilisent et souvent financent les GAFA. Les algorithmes se présentent sous la forme de modèles mathématiques – une fois encore difficilement compréhensibles, même par des mathématiciens. Ils prennent désormais en permanence toutes les décisions relatives à la vie de chacun dans la société numérique, quoi acheter, où habiter, où voyager, comment et à quels tarifs s’assurer. Leur caractère apparemment objectif, du fait de leur formulation mathématique, rassure. Chacun devrait être traité selon les mêmes règles. Ce n’est pas le cas. C’est ce que vient de montrer dans un livre important « Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy ». Cathy O’Neil est elle-même mathématicienne et ancienne trader à Wall Street. Inutile de préciser que le terme de Math Destruction, destruction d’ordre mathématique, fait allusion au terme de « destruction massive ». Pour elle, les algorithmes sont opaques, non régulés démocratiquement et non contestables, même lorsqu’ils s’avèrent faux. Cathy O’Neil en appelle à la responsabilité des mathématiciens qui conçoivent ces modèles et aux décideurs qui les utilisent. Ils doivent travailler pour que les algorithmes soient transparents, discutables en termes politiques, facilement modifiables afin de les rendre plus conformes aux réalités et besoins de la société dans son ensemble. L’objectif qu’elle propose est certes très souhaitable. Mais Cathy O’Neil, involontairement ou sciemment, ne fait pas assez remarquer que les concepteurs des algorithmes dont elle constate les effets destructifs ne sont pas animés par l’objectif d’améliorer le fonctionnement de la société dans son ensemble. Moins encore par celui de redonner de l’influence et du pouvoir au 95% des populations qui les subissent. Ils sont au service des 5% de dominants, afin d’accroître encore leurs profits et leur pouvoir. Il en est de même des GAFA de toutes sortes qui se multiplient. A travers les données que leur confient innocemment leurs utilisateurs et les algorithmes qu’ils emploient pour les interpréter, ils prennent des décisions visant à servir les intérêts des super-dominants. Les exemples de ceci sont nombreux, encore qu’il faille un oeil particulièrement informé techniquement pour s’en rendre compte en détail. On peut mentionner ainsi la façon dont Facebook censure ou promeut les messages et les images selon les intérêts des dominants. Les prétextes annoncés sont généralement tout à fait honorables, mais en y regardant mieux on peut entrevoir les liaisons étroites des GAFA avec la volonté de conquête de l’Empire américain. On dira que les GAFA ont délocalisé leurs fonctions d’évaluation au profit de milliers de « modérateurs » travaillant généralement pour des entreprises du Moyen Orient ou d’Asie du sud-est. Ceci devrait garantir une certaine impartialité de la part de ces modérateurs, du fait notamment qu’ils ne peuvent pas tous être obligés d’appliquer en détail d’éventuels mots d’ordre de censure. Mais il faut savoir que les propositions de décision émanant de ces modérateurs sont soumises à un algorithme central adéquat qui commande la décision finale. Ces algorithmes sont par nature incapables de percevoir les nuances ironiques, sarcastiques ou culturelles d’une expression. Par contre, ils sont très capables de prendre avec la plus grande brutalité des décisions répondant à des objectifs simples fixés par les pouvoirs. Comme nous l’avons indiqué cependant, en citant notamment Alain Cardon, la complexité et l’intrication des algorithmes permettront de plus en plus à beaucoup d’entre eux de prendre seuls des décisions politiquement importantes, de censure ou de promotion. La décision une fois prise, il s’avère pratiquement impossible de l’annuler, ceci notamment pour des administrations de régulation ou des tribunaux. Par contre, ce que ne peuvent pas faire ces gardiens de l’ordre public et de la démocratie, les pouvoirs économiques et politiques de ceux qui ont mis en place ou toléré les algorithmes restent pratiquement inchangés. Il est toujours possible pour eux de « débrancher » l’algorithme, aussi autonome qu’il soit. La même constatation devra être faite dans l’avenir à propos des robots autonomes. Si les résultats de leur autonomie déplaisent aux maîtres du monde, ils seront rapidement débranchés. Cathy O’Neil a fait un travail très important, en montrant sans faire appel à des concepts mathématiques la façon dont les algorithmes régentent dorénavant nos vies. De même, elle montre bien comment dans l’ensemble ils sont au service du profit financier maximum des entreprises qui y ont recours ou des GAFA qui fournissent les données des informations dont ils se nourrissent. Mais ni elle ni les bons esprits qui dénoncent de plus en plus le pouvoir des algorithmes ne proposent la véritable révolution politique qui serait nécessaire pour redonner à la majorité des citoyens la possibilité de reprendre le pouvoir dans la société numérique. Certains fondent des espoirs dans la conception de nouveaux logiciels et de nouveaux processus informationnels qui seraient plus transparents et plus contrôlables. Mais on ne voit pas clairement comment ceux-ci pourront échapper à la prise en main par de nouveaux pouvoirs, ou plus simplement à la récupération par les pouvoirs actuels. Beaucoup en concluront que démocratiser les algorithmes sera définitivement impossible, et qu’il faudra se résigner.

Jean Paul Baquiast 

Source Mediapart

La domination par les algorithmes. Mythe ou réalité?

La domination par les algorithmes. Mythe ou réalité?

Dans un article paru dans Mediapart,  Jean Paul Baquiast, écrivain scientifique, faiat une apparoche critique de la mainmise de grands de l’ linternet sur la société. Il danger évident d’autant que ces grandes sociétés sont exclusivement américaines. Reste à savoir cependant si l’algorithmique n’est pas encore plus anxiogène  vis-à-vis du  futur mode de production avec la substitution de la robotique à l’intervention humaine sur nombre d’opérations. (Mais ce n’est pas le sujet traité par Baquiast qui réduit le champ de l’analyse aux GAFA).

 

« Depuis quelques temps, de nombreux articles ou exposés dénoncent le poids politique pris par ce qu’ils appellent les algorithmes. Le terme est compris généralement comme désignant des programmes informatiques incompréhensibles, ayant pris possession du monde des Big Data. Celles-ci sont des informations concernant principalement les humains et leurs activités et recueillies en grand nombre auprès de nous par les grands de l’internet américain, dits GAFA (ou Géants du Web, Google, Apple, Facebook, Amazon). Nous sommes tous demandeurs des facilités diverses qu’ils offrent à l’internaute, ceci apparemment quasi gratuitement. Mais les Big Data ne sont rien sans les algorithmes programmés pour en tirer des informations d’un grand intérêt politique et économique, informations que bien évidemment les GAFA gardent pour eux afin de s’en servir pour conquérir le monde de demain, comme Google on le sait ne se cache absolument pas de rechercher. Il est évident que les algorithmes n’ont pas de pouvoir de décision propre. Ils sont mis en oeuvre et alimentés par les GAFA et homologues qui s’en servent pour construire une société numérique globale – on parle aussi de cerveau global – leur permettant d’analyser, prévoir et exploiter à leur profit toutes les activités résultant des activités numériques des internautes. Ces GAFA ne sont pas désintéressés. Ils servent la petite poignée de dirigeants qui en ont fait des prestataires de service conçus pour répondre au mieux à leur objectif de domination. Ils servent aussi d’intermédiaires au gouvernement américain qui les a encouragés voir financés initialement pour espionner massivement les entreprises, administrations et citoyens obligés en l’absence d’autres solutions de faire appel aux services des GAFA. Il est certain cependant que dans le monde hyper-complexe de l’algorithmique moderne se nourrissant de Big Data, certains algorithmes semblent occasionnellement échapper à leurs concepteurs et opérateurs pour se comporter de façon autonome. Ceci avait été signalé à propos des algorithmes responsables de la spéculation financière à haute fréquence (high frequency trading) qui peuvent en quelques secondes et de leur propre chef prendre des décisions de vente et d’achat se traduisant par des bénéfices ou des pertes que personne ne cherchait. Mais si les algorithmes permettant de telles décisions existent, ce n’est pas parce qu’ils sont nés spontanément. Leur existence et leurs activités sont prévues et encouragées par les spéculateurs humains et les gouvernements dont ils dépendent, afin d’accroître globalement les pouvoirs de ces derniers. Dénoncer une quelconque prise de pouvoir ou domination par les algorithmes relève donc du mensonge pur et simple. En bonne démocratie, ce devrait être les forces politiques et économiques qui les utilisent qu’il conviendrait de dénoncer. Plus concrètement, il faudrait accuser les GAFA et le gouvernement américain qui se servent des algorithmes pour mettre à leur service les acteurs de la nouvelle société numérique s’étendant aujourd’hui à l’échelle du monde. Nous avons précédemment montré comment la NSA, National Security Agency, la CIA et le FBI aux Etats-Unis, utilisent et souvent financent les GAFA. Les algorithmes se présentent sous la forme de modèles mathématiques – une fois encore difficilement compréhensibles, même par des mathématiciens. Ils prennent désormais en permanence toutes les décisions relatives à la vie de chacun dans la société numérique, quoi acheter, où habiter, où voyager, comment et à quels tarifs s’assurer. Leur caractère apparemment objectif, du fait de leur formulation mathématique, rassure. Chacun devrait être traité selon les mêmes règles. Ce n’est pas le cas. C’est ce que vient de montrer dans un livre important « Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy ». Cathy O’Neil est elle-même mathématicienne et ancienne trader à Wall Street. Inutile de préciser que le terme de Math Destruction, destruction d’ordre mathématique, fait allusion au terme de « destruction massive ». Pour elle, les algorithmes sont opaques, non régulés démocratiquement et non contestables, même lorsqu’ils s’avèrent faux. Cathy O’Neil en appelle à la responsabilité des mathématiciens qui conçoivent ces modèles et aux décideurs qui les utilisent. Ils doivent travailler pour que les algorithmes soient transparents, discutables en termes politiques, facilement modifiables afin de les rendre plus conformes aux réalités et besoins de la société dans son ensemble. L’objectif qu’elle propose est certes très souhaitable. Mais Cathy O’Neil, involontairement ou sciemment, ne fait pas assez remarquer que les concepteurs des algorithmes dont elle constate les effets destructifs ne sont pas animés par l’objectif d’améliorer le fonctionnement de la société dans son ensemble. Moins encore par celui de redonner de l’influence et du pouvoir au 95% des populations qui les subissent. Ils sont au service des 5% de dominants, afin d’accroître encore leurs profits et leur pouvoir. Il en est de même des GAFA de toutes sortes qui se multiplient. A travers les données que leur confient innocemment leurs utilisateurs et les algorithmes qu’ils emploient pour les interpréter, ils prennent des décisions visant à servir les intérêts des super-dominants. Les exemples de ceci sont nombreux, encore qu’il faille un oeil particulièrement informé techniquement pour s’en rendre compte en détail. On peut mentionner ainsi la façon dont Facebook censure ou promeut les messages et les images selon les intérêts des dominants. Les prétextes annoncés sont généralement tout à fait honorables, mais en y regardant mieux on peut entrevoir les liaisons étroites des GAFA avec la volonté de conquête de l’Empire américain. On dira que les GAFA ont délocalisé leurs fonctions d’évaluation au profit de milliers de « modérateurs » travaillant généralement pour des entreprises du Moyen Orient ou d’Asie du sud-est. Ceci devrait garantir une certaine impartialité de la part de ces modérateurs, du fait notamment qu’ils ne peuvent pas tous être obligés d’appliquer en détail d’éventuels mots d’ordre de censure. Mais il faut savoir que les propositions de décision émanant de ces modérateurs sont soumises à un algorithme central adéquat qui commande la décision finale. Ces algorithmes sont par nature incapables de percevoir les nuances ironiques, sarcastiques ou culturelles d’une expression. Par contre, ils sont très capables de prendre avec la plus grande brutalité des décisions répondant à des objectifs simples fixés par les pouvoirs. Comme nous l’avons indiqué cependant, en citant notamment Alain Cardon, la complexité et l’intrication des algorithmes permettront de plus en plus à beaucoup d’entre eux de prendre seuls des décisions politiquement importantes, de censure ou de promotion. La décision une fois prise, il s’avère pratiquement impossible de l’annuler, ceci notamment pour des administrations de régulation ou des tribunaux. Par contre, ce que ne peuvent pas faire ces gardiens de l’ordre public et de la démocratie, les pouvoirs économiques et politiques de ceux qui ont mis en place ou toléré les algorithmes restent pratiquement inchangés. Il est toujours possible pour eux de « débrancher » l’algorithme, aussi autonome qu’il soit. La même constatation devra être faite dans l’avenir à propos des robots autonomes. Si les résultats de leur autonomie déplaisent aux maîtres du monde, ils seront rapidement débranchés. Cathy O’Neil a fait un travail très important, en montrant sans faire appel à des concepts mathématiques la façon dont les algorithmes régentent dorénavant nos vies. De même, elle montre bien comment dans l’ensemble ils sont au service du profit financier maximum des entreprises qui y ont recours ou des GAFA qui fournissent les données des informations dont ils se nourrissent. Mais ni elle ni les bons esprits qui dénoncent de plus en plus le pouvoir des algorithmes ne proposent la véritable révolution politique qui serait nécessaire pour redonner à la majorité des citoyens la possibilité de reprendre le pouvoir dans la société numérique. Certains fondent des espoirs dans la conception de nouveaux logiciels et de nouveaux processus informationnels qui seraient plus transparents et plus contrôlables. Mais on ne voit pas clairement comment ceux-ci pourront échapper à la prise en main par de nouveaux pouvoirs, ou plus simplement à la récupération par les pouvoirs actuels. Beaucoup en concluront que démocratiser les algorithmes sera définitivement impossible, et qu’il faudra se résigner.

Jean Paul Baquiast 

Source Mediapart

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol