Archive pour le Tag 'algorithmes.'

Après l’élite des ingénieurs, l’élite des algorithmes

Après l’élite des ingénieurs, l’élite des algorithmes

Pierre-Yves Gomez, Professeur à l’école de management EM Lyon analyse l’évolution sociologique des élites avec maintenant la domination des managers, des experts en ratios et autres algorithmes. (Extraits de la Tribune du Monde)

 

 

« .Personne ne semble plus contester qu’il existe une coupure entre la société réelle et « les élites ». On a tort, car un tel diagnostic confond ceux qui exercent le pouvoir et ceux qui sont reconnus comme constituant « l’élite ». Comme l’indique l’étymologie, faire partie de l’élite (du latin elire), c’est être considéré parmi les meilleurs par ceux que l’on gouverne. En manifestant qu’elle possède des compétences et des vertus jugées exemplaires, l’élite suscite la confiance. C’est en conséquence de cela que son pouvoir devient acceptable.

Ainsi en est-il de l’élite qui gouverne les entreprises. Pendant le premier siècle du capitalisme (1800-1930), ce sont les entrepreneurs qui la composèrent comme l’a montré la thèse célèbre de Schumpeter (1883-1950) Capitalisme, socialisme et démocratie (1942). Leurs capacités à dominer leurs passions pour réaliser un projet bénéfique à tous supposaient des compétences et des vertus qui donnaient finalement confiance dans le progrès technique et économique qu’ils promettaient de réaliser.

L’élite entrepreneuriale fut renversée dans les années 1930 par les experts en organisation. La production de masse exigea de nouvelles compétences : planification méthodique, capacités à prévoir et à maîtriser les flux productifs dans le long terme. Elle appelait aussi de nouvelles vertus : la rigueur et le jugement pour créer la confiance dans le fonctionnement du système technique. James Burnham (1905-1987), dans L’Ere des organisateurs (1941), a anticipé combien le second siècle du capitalisme industriel (de 1930 à nos jours) devait être celui des technocrates.

Il fallait être ingénieur pour faire partie de cette élite car diriger la construction d’un pont ou l’exploitation d’une mine prouvait que l’on pouvait aussi bien gouverner une organisation avec rigueur : universités et écoles « prestigieuses » en ont formé des générations tant pour la sphère publique que privée.

La financiarisation de l’économie à partir de 1980 a de nouveau changé la donne. Les entreprises ont été vues comme des espaces ouverts et fluides, intégrant des chaînes de valeur mondiales. Il importe d’extraire de l’information, de connecter des données pour repérer la valeur créée à chaque niveau de l’organisation, jusqu’au profit global. Ceux qui maîtrisent les outils et les contrôles financiers assurent aux « marchés » que le résultat promis par l’entreprise sera réalisé ».

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA, pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune)

)

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historique comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

La programmation des véhicules autonomes en cas d’accident inévitable est un exemple de cas concret qui traduit inévitablement un choix moral. La recherche scientifique sur les préférences morales des individus peut aider à identifier les critères éthiques pour fonder ce choix moral. L’automatisation des décisions grâce à l’IA peut donner lieu à de réels progrès, tels que des décisions plus transparentes et moins partiales. Aussi, se posent des questions fondamentales sur les conséquences économiques, les enjeux éthiques, et l’encadrement juridique de cette évolution. »

Prospective-Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Prospective-Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune)

)

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historique comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

La programmation des véhicules autonomes en cas d’accident inévitable est un exemple de cas concret qui traduit inévitablement un choix moral. La recherche scientifique sur les préférences morales des individus peut aider à identifier les critères éthiques pour fonder ce choix moral. L’automatisation des décisions grâce à l’IA peut donner lieu à de réels progrès, tels que des décisions plus transparentes et moins partiales. Aussi, se posent des questions fondamentales sur les conséquences économiques, les enjeux éthiques, et l’encadrement juridique de cette évolution. »

 

Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune )

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historiques comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

 

 

 

La terreur des algorithmes ?

La terreur des algorithmes ?

 

Les algorithmes font peur au point que certains pensent que l’intelligence artificielle pourrait prendre le pas sur l’espèce humaine. Pourtant les algorithmes ne sont pas nouveaux mais ils sont aujourd’hui servis par la croissance de la puissance quasi exponentielle des ordinateurs. Il s’agit d’une évolution technologique considérable mais comme tout progrès technique tout dépendra de la manière dont il sera utilisé pour servir l’homme ou au contraire l’asservir.  Serge Abiteboul, auteur du livre « Le temps des algorithmes », veut propose d’abord une vulgarisation des connaissances dans une interview à la tribune. Laurent Alexandre de son coté évalue les conséquences possibles.

Qu’est-ce qu’un algorithme ?

Serge Abiteboul : Un algorithme est une « recette » qui permet de résoudre un problème à l’aide d’opérations logiques. C’est un concept très ancien qui prend tout son sens avec l’informatisation de la société. Les algorithmes sous-tendent les programmes informatiques qui permettent aux ordinateurs d’effectuer toutes sortes de tâches complexes.

Pourquoi les algorithmes sont-ils parfois présentés comme menaçants ?

Serge Abiteboul : Ils sont perçus comme une menace parce qu’on ne les comprend pas ! Cela tient au fait que l’on n’apprend pas assez l’informatique à l’école.

Faut-il apprendre le code informatique à l’école primaire ?

Serge Abiteboul : Oui ! Il faut apprendre le code et, plus encore, il faut apprendre à comprendre les ordinateurs. Le débat actuel sur l’apprentissage de la programmation à l’école est idiot. L’apprentissage de l’informatique à l’école est indispensable même – et surtout – si l’on n’a pas l’intention de devenir programmeur.

Faut-il craindre que le robot prenne le travail de l’homme ?

Serge Abiteboul : Les ordinateurs et les robots assistent de plus en plus l’homme dans son travail, y compris dans des métiers hautement qualifiés comme la médecine ou la justice, mais il n’est pas question qu’ils remplacent complètement ces professionnels. La question est de savoir comment on partage les bénéfices du travail des robots, afin que cela ne profite pas seulement aux propriétaires de robots.

 

 

 

Laurent Alexandre, autre grand spécialiste  affirme ainsi : « Les algorithmes ne vont pas nécessairement nous tuer mais ils créent une situation révolutionnaire. L’IA (Intelligence artificielle) va nous faire basculer vers une autre civilisation où le travail et l’argent pourraient disparaître. L’IA est longtemps restée un sujet de science-fiction. Elle est désormais une simple question de calendrier : l’explosion des capacités informatiques (la puissance des serveurs informatiques a été multipliée par un milliard en trente et un ans) rend probable l’émergence d’une IA supérieure à l’intelligence humaine dans les prochaines décennies… Certains craignent qu’une super IA devienne hostile. Le fondateur de DeepMind exclut ce scénario pour encore plusieurs décennies, mais faut-il pour autant être rassuré ? Est-il raisonnable d’apprendre aux machines à tromper, dominer, dépasser les hommes ? Est-il sage de leur apprendre à cacher leurs intentions, à déployer des stratégies agressives et manipulatrices comme le jeu de go ? Nick Bostroom, spécialiste de NBIC, défend l’idée qu’il ne peut y avoir qu’une seule espèce intelligente dans une région de l’univers. Toute espèce intelligente (biologique ou artificielle) ayant comme premier objectif sa survie, on peut craindre que l’IA se prémunisse contre notre volonté de la museler en cachant ses intentions agressives dans les profondeurs du web. Nous ne pourrions même pas comprendre ses plans : certains coups d’AlphaGo, la machine qui a battu en mars 2016 le meilleur joueur de go du monde, ont été d’abord perçus comme de graves erreurs, alors qu’il s’agissait de coups géniaux, témoins d’une stratégie subtile dépassant l’entendement humain… Nous sommes déjà dans un monde algorithmique. AlphaGo marque le tout début des victoires sur l’homme de l’IA : quasiment aucune activité humaine n’en sortira indemne… D’ici 2030, plus aucun diagnostic médical ne pourra être fait sans système expert… L’analyse complète de la biologie d’une tumeur représente, par exemple, 20.000 milliards d’informations… Google X, le laboratoire secret, met au point un système de détection ultraprécis des maladies par des nanoparticules qui vont aussi générer une quantité monstrueuse d’informations… Watson, le système expert d’IBM, est capable d’analyser en quelques instants des centaines de milliers de travaux scientifiques pour comprendre une mutation cancéreuse là où il faudrait trente-huit ans au cancérologue en travaillant jour et nuit pour un seul patient… Les leaders de l’économie numérique (Google, Apple, Facebook, Amazon) ainsi qu’IBM et Microsoft seront sans doute les maîtres de cette nouvelle médecine. »

 

La domination par les algorithmes. Mythe ou réalité?

La domination par les algorithmes. Mythe ou réalité?

Dans un article paru dans Mediapart,  Jean Paul Baquiast, écrivain scientifique, faiat une apparoche critique de la mainmise de grands de l’ linternet sur la société. Il danger évident d’autant que ces grandes sociétés sont exclusivement américaines. Reste à savoir cependant si l’algorithmique n’est pas encore plus anxiogène  vis-à-vis du  futur mode de production avec la substitution de la robotique à l’intervention humaine sur nombre d’opérations. (Mais ce n’est pas le sujet traité par Baquiast qui réduit le champ de l’analyse aux GAFA).

 

« Depuis quelques temps, de nombreux articles ou exposés dénoncent le poids politique pris par ce qu’ils appellent les algorithmes. Le terme est compris généralement comme désignant des programmes informatiques incompréhensibles, ayant pris possession du monde des Big Data. Celles-ci sont des informations concernant principalement les humains et leurs activités et recueillies en grand nombre auprès de nous par les grands de l’internet américain, dits GAFA (ou Géants du Web, Google, Apple, Facebook, Amazon). Nous sommes tous demandeurs des facilités diverses qu’ils offrent à l’internaute, ceci apparemment quasi gratuitement. Mais les Big Data ne sont rien sans les algorithmes programmés pour en tirer des informations d’un grand intérêt politique et économique, informations que bien évidemment les GAFA gardent pour eux afin de s’en servir pour conquérir le monde de demain, comme Google on le sait ne se cache absolument pas de rechercher. Il est évident que les algorithmes n’ont pas de pouvoir de décision propre. Ils sont mis en oeuvre et alimentés par les GAFA et homologues qui s’en servent pour construire une société numérique globale – on parle aussi de cerveau global – leur permettant d’analyser, prévoir et exploiter à leur profit toutes les activités résultant des activités numériques des internautes. Ces GAFA ne sont pas désintéressés. Ils servent la petite poignée de dirigeants qui en ont fait des prestataires de service conçus pour répondre au mieux à leur objectif de domination. Ils servent aussi d’intermédiaires au gouvernement américain qui les a encouragés voir financés initialement pour espionner massivement les entreprises, administrations et citoyens obligés en l’absence d’autres solutions de faire appel aux services des GAFA. Il est certain cependant que dans le monde hyper-complexe de l’algorithmique moderne se nourrissant de Big Data, certains algorithmes semblent occasionnellement échapper à leurs concepteurs et opérateurs pour se comporter de façon autonome. Ceci avait été signalé à propos des algorithmes responsables de la spéculation financière à haute fréquence (high frequency trading) qui peuvent en quelques secondes et de leur propre chef prendre des décisions de vente et d’achat se traduisant par des bénéfices ou des pertes que personne ne cherchait. Mais si les algorithmes permettant de telles décisions existent, ce n’est pas parce qu’ils sont nés spontanément. Leur existence et leurs activités sont prévues et encouragées par les spéculateurs humains et les gouvernements dont ils dépendent, afin d’accroître globalement les pouvoirs de ces derniers. Dénoncer une quelconque prise de pouvoir ou domination par les algorithmes relève donc du mensonge pur et simple. En bonne démocratie, ce devrait être les forces politiques et économiques qui les utilisent qu’il conviendrait de dénoncer. Plus concrètement, il faudrait accuser les GAFA et le gouvernement américain qui se servent des algorithmes pour mettre à leur service les acteurs de la nouvelle société numérique s’étendant aujourd’hui à l’échelle du monde. Nous avons précédemment montré comment la NSA, National Security Agency, la CIA et le FBI aux Etats-Unis, utilisent et souvent financent les GAFA. Les algorithmes se présentent sous la forme de modèles mathématiques – une fois encore difficilement compréhensibles, même par des mathématiciens. Ils prennent désormais en permanence toutes les décisions relatives à la vie de chacun dans la société numérique, quoi acheter, où habiter, où voyager, comment et à quels tarifs s’assurer. Leur caractère apparemment objectif, du fait de leur formulation mathématique, rassure. Chacun devrait être traité selon les mêmes règles. Ce n’est pas le cas. C’est ce que vient de montrer dans un livre important « Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy ». Cathy O’Neil est elle-même mathématicienne et ancienne trader à Wall Street. Inutile de préciser que le terme de Math Destruction, destruction d’ordre mathématique, fait allusion au terme de « destruction massive ». Pour elle, les algorithmes sont opaques, non régulés démocratiquement et non contestables, même lorsqu’ils s’avèrent faux. Cathy O’Neil en appelle à la responsabilité des mathématiciens qui conçoivent ces modèles et aux décideurs qui les utilisent. Ils doivent travailler pour que les algorithmes soient transparents, discutables en termes politiques, facilement modifiables afin de les rendre plus conformes aux réalités et besoins de la société dans son ensemble. L’objectif qu’elle propose est certes très souhaitable. Mais Cathy O’Neil, involontairement ou sciemment, ne fait pas assez remarquer que les concepteurs des algorithmes dont elle constate les effets destructifs ne sont pas animés par l’objectif d’améliorer le fonctionnement de la société dans son ensemble. Moins encore par celui de redonner de l’influence et du pouvoir au 95% des populations qui les subissent. Ils sont au service des 5% de dominants, afin d’accroître encore leurs profits et leur pouvoir. Il en est de même des GAFA de toutes sortes qui se multiplient. A travers les données que leur confient innocemment leurs utilisateurs et les algorithmes qu’ils emploient pour les interpréter, ils prennent des décisions visant à servir les intérêts des super-dominants. Les exemples de ceci sont nombreux, encore qu’il faille un oeil particulièrement informé techniquement pour s’en rendre compte en détail. On peut mentionner ainsi la façon dont Facebook censure ou promeut les messages et les images selon les intérêts des dominants. Les prétextes annoncés sont généralement tout à fait honorables, mais en y regardant mieux on peut entrevoir les liaisons étroites des GAFA avec la volonté de conquête de l’Empire américain. On dira que les GAFA ont délocalisé leurs fonctions d’évaluation au profit de milliers de « modérateurs » travaillant généralement pour des entreprises du Moyen Orient ou d’Asie du sud-est. Ceci devrait garantir une certaine impartialité de la part de ces modérateurs, du fait notamment qu’ils ne peuvent pas tous être obligés d’appliquer en détail d’éventuels mots d’ordre de censure. Mais il faut savoir que les propositions de décision émanant de ces modérateurs sont soumises à un algorithme central adéquat qui commande la décision finale. Ces algorithmes sont par nature incapables de percevoir les nuances ironiques, sarcastiques ou culturelles d’une expression. Par contre, ils sont très capables de prendre avec la plus grande brutalité des décisions répondant à des objectifs simples fixés par les pouvoirs. Comme nous l’avons indiqué cependant, en citant notamment Alain Cardon, la complexité et l’intrication des algorithmes permettront de plus en plus à beaucoup d’entre eux de prendre seuls des décisions politiquement importantes, de censure ou de promotion. La décision une fois prise, il s’avère pratiquement impossible de l’annuler, ceci notamment pour des administrations de régulation ou des tribunaux. Par contre, ce que ne peuvent pas faire ces gardiens de l’ordre public et de la démocratie, les pouvoirs économiques et politiques de ceux qui ont mis en place ou toléré les algorithmes restent pratiquement inchangés. Il est toujours possible pour eux de « débrancher » l’algorithme, aussi autonome qu’il soit. La même constatation devra être faite dans l’avenir à propos des robots autonomes. Si les résultats de leur autonomie déplaisent aux maîtres du monde, ils seront rapidement débranchés. Cathy O’Neil a fait un travail très important, en montrant sans faire appel à des concepts mathématiques la façon dont les algorithmes régentent dorénavant nos vies. De même, elle montre bien comment dans l’ensemble ils sont au service du profit financier maximum des entreprises qui y ont recours ou des GAFA qui fournissent les données des informations dont ils se nourrissent. Mais ni elle ni les bons esprits qui dénoncent de plus en plus le pouvoir des algorithmes ne proposent la véritable révolution politique qui serait nécessaire pour redonner à la majorité des citoyens la possibilité de reprendre le pouvoir dans la société numérique. Certains fondent des espoirs dans la conception de nouveaux logiciels et de nouveaux processus informationnels qui seraient plus transparents et plus contrôlables. Mais on ne voit pas clairement comment ceux-ci pourront échapper à la prise en main par de nouveaux pouvoirs, ou plus simplement à la récupération par les pouvoirs actuels. Beaucoup en concluront que démocratiser les algorithmes sera définitivement impossible, et qu’il faudra se résigner.

Jean Paul Baquiast 

Source Mediapart

La domination par les algorithmes. Mythe ou réalité?

La domination par les algorithmes. Mythe ou réalité?

Dans un article paru dans Mediapart,  Jean Paul Baquiast, écrivain scientifique, faiat une apparoche critique de la mainmise de grands de l’ linternet sur la société. Il danger évident d’autant que ces grandes sociétés sont exclusivement américaines. Reste à savoir cependant si l’algorithmique n’est pas encore plus anxiogène  vis-à-vis du  futur mode de production avec la substitution de la robotique à l’intervention humaine sur nombre d’opérations. (Mais ce n’est pas le sujet traité par Baquiast qui réduit le champ de l’analyse aux GAFA).

 

« Depuis quelques temps, de nombreux articles ou exposés dénoncent le poids politique pris par ce qu’ils appellent les algorithmes. Le terme est compris généralement comme désignant des programmes informatiques incompréhensibles, ayant pris possession du monde des Big Data. Celles-ci sont des informations concernant principalement les humains et leurs activités et recueillies en grand nombre auprès de nous par les grands de l’internet américain, dits GAFA (ou Géants du Web, Google, Apple, Facebook, Amazon). Nous sommes tous demandeurs des facilités diverses qu’ils offrent à l’internaute, ceci apparemment quasi gratuitement. Mais les Big Data ne sont rien sans les algorithmes programmés pour en tirer des informations d’un grand intérêt politique et économique, informations que bien évidemment les GAFA gardent pour eux afin de s’en servir pour conquérir le monde de demain, comme Google on le sait ne se cache absolument pas de rechercher. Il est évident que les algorithmes n’ont pas de pouvoir de décision propre. Ils sont mis en oeuvre et alimentés par les GAFA et homologues qui s’en servent pour construire une société numérique globale – on parle aussi de cerveau global – leur permettant d’analyser, prévoir et exploiter à leur profit toutes les activités résultant des activités numériques des internautes. Ces GAFA ne sont pas désintéressés. Ils servent la petite poignée de dirigeants qui en ont fait des prestataires de service conçus pour répondre au mieux à leur objectif de domination. Ils servent aussi d’intermédiaires au gouvernement américain qui les a encouragés voir financés initialement pour espionner massivement les entreprises, administrations et citoyens obligés en l’absence d’autres solutions de faire appel aux services des GAFA. Il est certain cependant que dans le monde hyper-complexe de l’algorithmique moderne se nourrissant de Big Data, certains algorithmes semblent occasionnellement échapper à leurs concepteurs et opérateurs pour se comporter de façon autonome. Ceci avait été signalé à propos des algorithmes responsables de la spéculation financière à haute fréquence (high frequency trading) qui peuvent en quelques secondes et de leur propre chef prendre des décisions de vente et d’achat se traduisant par des bénéfices ou des pertes que personne ne cherchait. Mais si les algorithmes permettant de telles décisions existent, ce n’est pas parce qu’ils sont nés spontanément. Leur existence et leurs activités sont prévues et encouragées par les spéculateurs humains et les gouvernements dont ils dépendent, afin d’accroître globalement les pouvoirs de ces derniers. Dénoncer une quelconque prise de pouvoir ou domination par les algorithmes relève donc du mensonge pur et simple. En bonne démocratie, ce devrait être les forces politiques et économiques qui les utilisent qu’il conviendrait de dénoncer. Plus concrètement, il faudrait accuser les GAFA et le gouvernement américain qui se servent des algorithmes pour mettre à leur service les acteurs de la nouvelle société numérique s’étendant aujourd’hui à l’échelle du monde. Nous avons précédemment montré comment la NSA, National Security Agency, la CIA et le FBI aux Etats-Unis, utilisent et souvent financent les GAFA. Les algorithmes se présentent sous la forme de modèles mathématiques – une fois encore difficilement compréhensibles, même par des mathématiciens. Ils prennent désormais en permanence toutes les décisions relatives à la vie de chacun dans la société numérique, quoi acheter, où habiter, où voyager, comment et à quels tarifs s’assurer. Leur caractère apparemment objectif, du fait de leur formulation mathématique, rassure. Chacun devrait être traité selon les mêmes règles. Ce n’est pas le cas. C’est ce que vient de montrer dans un livre important « Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy ». Cathy O’Neil est elle-même mathématicienne et ancienne trader à Wall Street. Inutile de préciser que le terme de Math Destruction, destruction d’ordre mathématique, fait allusion au terme de « destruction massive ». Pour elle, les algorithmes sont opaques, non régulés démocratiquement et non contestables, même lorsqu’ils s’avèrent faux. Cathy O’Neil en appelle à la responsabilité des mathématiciens qui conçoivent ces modèles et aux décideurs qui les utilisent. Ils doivent travailler pour que les algorithmes soient transparents, discutables en termes politiques, facilement modifiables afin de les rendre plus conformes aux réalités et besoins de la société dans son ensemble. L’objectif qu’elle propose est certes très souhaitable. Mais Cathy O’Neil, involontairement ou sciemment, ne fait pas assez remarquer que les concepteurs des algorithmes dont elle constate les effets destructifs ne sont pas animés par l’objectif d’améliorer le fonctionnement de la société dans son ensemble. Moins encore par celui de redonner de l’influence et du pouvoir au 95% des populations qui les subissent. Ils sont au service des 5% de dominants, afin d’accroître encore leurs profits et leur pouvoir. Il en est de même des GAFA de toutes sortes qui se multiplient. A travers les données que leur confient innocemment leurs utilisateurs et les algorithmes qu’ils emploient pour les interpréter, ils prennent des décisions visant à servir les intérêts des super-dominants. Les exemples de ceci sont nombreux, encore qu’il faille un oeil particulièrement informé techniquement pour s’en rendre compte en détail. On peut mentionner ainsi la façon dont Facebook censure ou promeut les messages et les images selon les intérêts des dominants. Les prétextes annoncés sont généralement tout à fait honorables, mais en y regardant mieux on peut entrevoir les liaisons étroites des GAFA avec la volonté de conquête de l’Empire américain. On dira que les GAFA ont délocalisé leurs fonctions d’évaluation au profit de milliers de « modérateurs » travaillant généralement pour des entreprises du Moyen Orient ou d’Asie du sud-est. Ceci devrait garantir une certaine impartialité de la part de ces modérateurs, du fait notamment qu’ils ne peuvent pas tous être obligés d’appliquer en détail d’éventuels mots d’ordre de censure. Mais il faut savoir que les propositions de décision émanant de ces modérateurs sont soumises à un algorithme central adéquat qui commande la décision finale. Ces algorithmes sont par nature incapables de percevoir les nuances ironiques, sarcastiques ou culturelles d’une expression. Par contre, ils sont très capables de prendre avec la plus grande brutalité des décisions répondant à des objectifs simples fixés par les pouvoirs. Comme nous l’avons indiqué cependant, en citant notamment Alain Cardon, la complexité et l’intrication des algorithmes permettront de plus en plus à beaucoup d’entre eux de prendre seuls des décisions politiquement importantes, de censure ou de promotion. La décision une fois prise, il s’avère pratiquement impossible de l’annuler, ceci notamment pour des administrations de régulation ou des tribunaux. Par contre, ce que ne peuvent pas faire ces gardiens de l’ordre public et de la démocratie, les pouvoirs économiques et politiques de ceux qui ont mis en place ou toléré les algorithmes restent pratiquement inchangés. Il est toujours possible pour eux de « débrancher » l’algorithme, aussi autonome qu’il soit. La même constatation devra être faite dans l’avenir à propos des robots autonomes. Si les résultats de leur autonomie déplaisent aux maîtres du monde, ils seront rapidement débranchés. Cathy O’Neil a fait un travail très important, en montrant sans faire appel à des concepts mathématiques la façon dont les algorithmes régentent dorénavant nos vies. De même, elle montre bien comment dans l’ensemble ils sont au service du profit financier maximum des entreprises qui y ont recours ou des GAFA qui fournissent les données des informations dont ils se nourrissent. Mais ni elle ni les bons esprits qui dénoncent de plus en plus le pouvoir des algorithmes ne proposent la véritable révolution politique qui serait nécessaire pour redonner à la majorité des citoyens la possibilité de reprendre le pouvoir dans la société numérique. Certains fondent des espoirs dans la conception de nouveaux logiciels et de nouveaux processus informationnels qui seraient plus transparents et plus contrôlables. Mais on ne voit pas clairement comment ceux-ci pourront échapper à la prise en main par de nouveaux pouvoirs, ou plus simplement à la récupération par les pouvoirs actuels. Beaucoup en concluront que démocratiser les algorithmes sera définitivement impossible, et qu’il faudra se résigner.

Jean Paul Baquiast 

Source Mediapart




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol