Archive pour le Tag 'régulation'

«Une majorité de Français pour une régulation rigoureuse de l’immigration » ( Jérôme Fourquet, IFOP)

 «Une majorité de Français pour une régulation rigoureuse de l’immigration » ( Jérôme Fourquet, IFOP)

 

Il est clair que les récents attentats ont sans doute constitué la goutte qui a fait déborder le vase de la tolérance de nombre de Français vis-à-vis de l’immigration incontrôlée. Pas seulement de l’immigration à venir mais aussi de celle présente sur le territoire

«Quand on parle d’immigration aux Français, beaucoup d’entre eux raisonnent non pas seulement sur les “flux” mais sur le “stock”», décrit Jérôme Fourquet , Patron de l’institut IFOP.

D’après une enquête de l’IFOP, seuls 32% des Français considèrent que les pouvoirs publics luttent efficacement contre l’immigration clandestine. Une large majorité d’entre eux sont favorables à des mesures vigoureuses pour limiter les flux ; 78% pensent qu’il faut une immigration choisie et non pas subie ; 55% sont favorables à la suppression du regroupement familial. Enfin une majorité souhaite un changement de statut juridique pour obtenir la nationalité française ainsi la plupart souhaiterait qu’on se situe le droit du sang au droit du sol. 58% souhaitent l’instauration du droit du sang.

Pour une régulation des données personnelles

Pour une régulation des données personnelles

L’analyse de Jean-Marie Cavada, Président de l’Institut pour les Droits Fondamentaux Numériques, après la publication de la note de la Fondation Digital New Deal, « Partage de données personnelles : changer la donne par la gouvernance ».( Chronique dans la tribune)

 

Les menaces que fait peser l’hégémonie des Big Tech sur la concurrence, l’innovation et la souveraineté européenne doivent être prises en compte. Alors que l’Europe tente d’agir avec le Digital Services Act, force est de constater que les velléités régulatoires européennes trouvent un écho outre-Atlantique – enfin ! La Chambre des représentants américaine a en effet récemment rendu un rapport sur les pratiques anticoncurrentielles des Big Tech.

Pourquoi les Big Tech dominent-elles ?

Les grandes plateformes numériques ont parfaitement su exploiter la puissance exponentielle des effets de réseau. Les modèles « winner takes all » propres aux marchés technologiques confèrent aux Big Tech, dès lors, une influence indéniable sur des pans entiers de l’économie internationale. A cela s’ajoute une taille de marché
presque sans limite puisque l’expansion de ces géants technologiques n’est pas freinée par des coûts marginaux élevés contrairement à des industries plus traditionnelles et des problématiques de transport par exemple. L’addition de ces deux facteurs – effets de réseau et taille potentielle de marché – a permis aux Big Tech de conquérir, petit à petit, la frange BtoC de l’économie européenne.

Lire aussi : Vers un « cyberscore » pour informer les internautes sur la sécurité de leurs données?

Au-delà des caractéristiques particulières de l’économie numérique sur lesquelles les Big Tech ont su s’appuyer, c’est également l’utilisation d’un modèle économique spécifique qui leur a permis d’asseoir leur domination. Elles ont concentré leurs efforts sur des marchés dits bifaces, où le service gratuit offert au plus grand nombre permet de fermer la porte aux nouveaux entrants, tandis que le modèle publicitaire permet
d’atteindre une rentabilité maximale.

Si l’intelligence artificielle et la science des données constituent autant d’outils utiles pour répondre aux défis de notre monde, force est néanmoins de constater que les meilleurs cerveaux de la planète sont recrutés pour parfaire un modèle publicitaire déjà effectif ! Le pouvoir accumulé par ces entreprises, de surcroît, aboutit aujourd’hui à un impact systémique sur l’ensemble de la société, et notamment sur le fonctionnement même de nos démocraties. Il s’agit désormais de redonner toute sa place au bien commun et à l’intérêt collectif.

Si les Big Tech ne considèrent les individus que comme des consommateurs, les porteurs du projet aNewGovernance souhaitent inverser ce paradigme.

Encourager un nouveau modèle pour la donnée

L’uniformisation des règles du jeu concernant le traitement et l’utilisation des données constitue un objectif primordial. Il semble ici nécessaire, comme le démontre le think tank Digital New Deal dans le rapport de Matthias de Bièvre et Olivier Dion Partage de données personnelles : changer la donne par la gouvernance, de repenser l’architecture de circulation des données pour que tous les acteurs, publics comme privés, associatifs
comme académiques, puissent en retirer les bénéfices.

L’article 20 du Règlement général sur la protection des données, qui consacre un droit à la portabilité des données, constitue une des clés pour mettre sur pied une architecture des données plus vertueuse que celle qu’ont mise en place les Big Tech. Là où le bât blesse, c’est que ce nouveau droit n’est pas incarné dans des procédures et des règles simples d’accès et d’utilisation par tous. A ce titre, des outils doivent être mis à
disposition des individus pour maîtriser leurs données, tout en s’assurant qu’ils soient indépendants des plateformes, par souci de séparation des pouvoirs. Également, la puissance publique doit intervenir, sur ce point, afin d’assurer que cette nouvelle catégorie d’outils se développe et prenne en compte l’intérêt public et l’intérêt de l’individu, à l’inverse des Big Tech qui font fi des deux.

Pour parvenir à créer cette nouvelle infrastructure de données, l’effort doit être partagé par le secteur public et le secteur privé. A cet égard, aNewGovernance et l’Institut des Droits Fondamentaux Numériques, appellent à la création d’un organe de gouvernance européen et international pour que les mondes du public et du privé pilotent ensemble l’écosystème de gestion des données et les services qui émettent et consomment des
données. Cette gouvernance mondiale permettrait, d’une part, de faciliter la circulation des données pour l’ensemble des acteurs de l’économie, et aurait, d’autre part, un effet de renversement de la relation asymétrique qui existe aujourd’hui entre une plateforme et un utilisateur.

Pour une plateforme financièrement puissante et dont les services sont quasi universels, il est aisé d’imposer une architecture et un modèle de partage de données. A l’inverse, proposer une architecture et un modèle différents qui profitent à des dizaines de millions d’acteurs requiert une importante coordination. Un organe de gouvernance doit être la clef de voûte d’une infrastructure mondiale de circulation de données centrée sur l’individu. Le numérique étant devenu un sujet éminemment politique – et non plus uniquement technique ou économique – cette infrastructure de circulation de données pourrait constituer la première pierre d’un numérique plus juste. Et cela n’aboutira pas sans gouvernance.

« Quelle régulation de la pub ».

« Quelle régulation de la pub ».

Une tribune intéressante d’Arnaud Tomasi  (La Poste) sur la problématique de la régulation publicitaire évidemment qui n’est pas dénuée de préoccupations corpos .

 

 

 « Le débat sur la publicité est extraordinairement complexe car il questionne, en creux, notre modèle de consommation et les moyens à mettre en œuvre pour réguler la promotion des produits et services »

La publicité est de plus en plus considérée par certains comme intrusive et de nombreux acteurs de la société civile appellent à une régulation renforcée du secteur de la communication et des médias. Aussi, se succèdent, depuis plusieurs mois, interpellations et débats sur le rôle de la publicité dans la transition écologique. Le rapport Big Corpo, le rapport de mission sur la publicité et la transition écologique de Thierry Libaert et Géraud Guibert ou les propositions de la convention citoyenne : tous ces textes interrogent le rôle de la communication et sa place dans la transition écologique.

Le débat est extraordinairement complexe car il questionne, en creux, notre modèle de consommation et les moyens à mettre en œuvre pour réguler la promotion des produits et services. Mais il a l’avantage de pousser les acteurs économiques à accélérer des changements attendus dans leurs pratiques.

Cela fait des années que le secteur de la communication intègre cette responsabilité et nombre de marques, d’entreprises, de collectivités territoriales, cherchent à améliorer l’efficacité environnementale de leurs outils et campagnes. Et nous avons une responsabilité collective à transformer durablement nos pratiques et à inventer des offres plus sobres pour y contribuer.

Entreprise contributive par nature, au sein d’un groupe extrêmement volontariste sur ses engagements environnementaux, la Poste a souhaité apporter au marché une connaissance scientifique des impacts écologiques des supports de communication. Nous avons confié au cabinet indépendant Quantis la mission de réaliser une Analyse du cycle de vie (ACV) pour comparer des usages de communication papier et numérique.

S’engager dans une démarche de responsabilité environnementale, c’est accepter la complexité. C’est ne pas se satisfaire des idées reçues

 

Empreinte environnementale. Parce qu’on améliore bien que ce que l’on mesure et parce que la Poste propose tout à la fois des solutions papier et digitales, il nous semblait urgent de mesurer ces impacts et d’analyser ce que nous pouvions améliorer dans nos offres pour diminuer leur empreinte environnementale.

Les résultats viennent d’être publiés et bousculent bien des idées reçues. Pour quatre sur cinq des scénarios étudiés, les supports papier sont globalement moins impactants sur l’environnement (sur seize indicateurs étudiés allant du changement climatique, l’utilisation des ressources fossiles, des ressources minérales, des sols, à la santé humaine).

Cette étude est une première. Nous pouvons enfin orienter les choix média de nos clients en connaissance de cause. Leur permettre par nos conseils de privilégier un support, un format, une création, au regard de son efficacité écologique réelle. Si nous le voulons vraiment, nous savons, désormais, allier performance environnementale et performance marketing et faire de nos métiers un véritable levier d’amélioration continue.

Ces données collectées, objectivées, nous permettent de défendre la complémentarité des deux supports papier et digital au service d’une communication plus responsable. Nous avons, pour cela et grâce à elles, conçu un outil d’évaluation (MediaPositiveImpact) au service de nos clients professionnels.

S’engager dans une démarche de responsabilité environnementale, c’est accepter la complexité. C’est ne pas se satisfaire des idées reçues. C’est partager les données qui nous permettront, ensemble, de proposer aux marques un marketing relationnel réellement utile aux citoyens consommateurs et donc à nos clients !

Arnaud Tomasi est directeur de la business unit Média de La Poste.

 

Nouvelles technologies-Quelle régulation de l’intelligence artificielle

Nouvelles technologies-Quelle  régulation de l’intelligence artificielle

 

Florian Ingen-Housz, partner au sein d’Altermind, et Victor Storchan, ingénieur en IA dans l’industrie financière, explique l’enjeu de la régulation de l’intelligence artificielle (IA) dans la Tribune

 

 

En février dernier, la Commission européenne a publié son livre blanc sur la régulation des applications de l’Intelligence Artificielle (IA). Plutôt que de légiférer unilatéralement sur ce sujet, la Commission a choisi, de manière novatrice, une approche consultative et participative en incitant l’ensemble des parties prenantes à cet écosystème à participer à la discussion. Cette approche doit être encouragée, approfondie et accélérée pour ajuster l’état du droit à un état de l’art technologique qui ne cesse de faire surgir des débats juridiques et normatifs inédits. Cette approche est aussi le seul moyen de faire émerger, dans la décennie qui vient, une véritable vision européenne de la Tech, tout à la fois pro-business et respectueuse des libertés individuelles.

Un défi majeur pour les régulateurs

L’IA constitue en effet un défi majeur pour les régulateurs. La vitesse prodigieuse des avancées technologiques doit inviter ces derniers à co-construire la norme avec un écosystème plus large qu’ils n’en ont l’habitude, plutôt que d’imposer celle-ci « par le haut ». Tout comme l’ont montré les débats sur la bioéthique depuis les années 1970, la régulation technologique est avant tout un choix de société et par conséquent un effort continu. La question se pose néanmoins avec une acuité particulière pour le déploiement de l’IA, compte tenu de l’ambiguïté de ses définitions, de sa nature stochastique et de l’opacité des multiples modèles sur lesquels elle est bâtie. Cette opacité est aggravée par l’hypercroissance de l’écosystème (50% de plus de papiers soumis à NeurIPS – une des conférences majeures de la discipline - en 2019 par rapport à l’année précédente), qui rend immédiatement obsolètes des savoirs difficilement acquis par des régulateurs parfois mal-équipés sur le plan technique. Si la régulation est évidemment primordiale pour permettre l’adoption, créer du consensus et de la confiance envers cette technologie, son élaboration devra donc être suffisamment (i) spécifique dans son champ d’application pour être « implémentable », (ii) inclusive et ouverte dans sa démarche et (iii) sélective dans ses priorités et son séquencement.

Il faudra donc, dans un premier temps, d’abord s’assurer de la juste définition de l’objet ciblé. Ce besoin de spécificité dans un domaine aux frontières floues soulève un premier défi : celui de la sémantique. Le concept d’IA est imprécis, même pour les experts. Contrairement aux précédentes vagues de disruption technologique, que ce soit la machine à vapeur, l’électricité, la chimie ou même les premiers programmes informatiques, les contours de l’IA sont moins tangibles. Ainsi, en 2013, l’Etat du Nevada a dû ainsi revoir sa définition de l’IA pour les véhicules autonomes car celle-ci englobait aussi certains modèles de voitures sophistiquées avec des fonctionnalités de contrôle avancées. La définition de ce qu’est un robot pour l’Union européenne n’est pas non plus satisfaisante. Contrairement à ce que semble indiquer cette dernière, les robots n’acquièrent en effet pas de capacité d’autonomie uniquement grâce aux données et aux capteurs dont ils disposeraient. Comme le montrent les travaux de Bryan Casey et Mark A. Lemley (Stanford Law School) lorsque cela est possible, une manière de contourner le problème sémantique est de s’assurer que la régulation cerne en priorité les comportements des individus et non pas les techniques, les types d’algorithmes ou les robots.

 

Faire coopérer des acteurs très divers

L’efficacité de la régulation pour l’IA se mesurera aussi à sa capacité à faire coopérer des acteurs très divers. Les usages de cette technologie doivent être appréhendés non pas in-vitro mais au sein d’écosystèmes technico-sociaux complexes où elle est déployée. Ainsi cette coopération doit à la fois s’effectuer horizontalement et verticalement. Horizontalement d’abord, par la co-construction entre juristes, techniciens, et chercheurs, mais également sociologues et citoyens qui via les décideurs publics seront les utilisateurs de ces systèmes d’IA. Ces derniers doivent être dotés d’outils pour améliorer leur capacité à contester la décision d’un modèle afin de créer de la confiance. Le dialogue doit aussi être plurilatéral, non seulement par une coordination entre pays et puissances régionales, mais aussi en incluant les ONG, la société et l’industrie.

 

Cette coopération est aussi verticale. Pour être opérant, le processus délibératif d’une gouvernance globale doit pouvoir être traduit en termes techniques par les ingénieurs et les chercheurs qui conçoivent les modèles. Cependant, pour être parfaitement efficace et agile, cette approche différenciée devra pouvoir s’incarner par une gouvernance dans les entreprises capable de guider les équipes techniques. Ces dernières sont confrontées à plusieurs dilemmes du fait des contraintes techniques, mathématiques ou algorithmiques et ont besoin d’indications précises qui tranchent des compromis entre certaines notions d’éthiques comme l’équité ou le respect de la vie privée. Il est donc nécessaire de faire un choix qui relève presque de philosophie politique. Ces choix sont sociétaux et culturels.

Enfin, lorsqu’une directive réglementaire présente une ambiguïté intrinsèque (dans le but par exemple d’anticiper des développements de technologie future ou pour pouvoir être appliquée à un spectre large d’acteurs), il est précieux que l’écosystème puisse collectivement expliciter les points d’incertitude qui sont sujets à l’interprétation. Cet effort de clarification permettrait d’aligner les efforts de gestion du risque dans les modèles d’IA sur des standards communs. Ces concertations des parties prenantes ont vocation à constituer une « soft law » pour préciser ou compléter au plus près du terrain des principes plus généraux fixant l’esprit et l’intention.

Se concentrer sur un nombre réduit de secteurs

 

Enfin, la régulation pour être efficace doit en priorité se concentrer sur un nombre réduit de secteurs et d’applications sur lesquels une attention immédiate est requise. A titre d’exemple, l’UE propose de calibrer le niveau de régulation selon le niveau de risque que représente une application de l’IA ou un secteur industriel applicatif. La commission propose ainsi une liste de plusieurs secteurs à haut risque comme les transports, la santé ou l’énergie dans lesquels certains déploiements technologiques sensibles devront respecter un ensemble de règles plus exigeant. Cette approche semble raisonnable. Le risque consubstantiel à l’innovation et un principe de précaution aveugle à la diversité des cas d’usages aboutirait à une société du statu quo vidée de sa force entrepreneuriale et créatrice. Les applications dans le secteur public (justice et éducation notamment), la santé font certainement partis des chantiers prioritaires. Les exemples récents de systèmes mal déployés sont légions : les entreprises technologiques comme IBM ou Microsoft ont stoppé leurs services de reconnaissance faciale après que des failles éthiques à répétition aient été identifiées. L’algorithme néerlandais de prédiction de fraude pour les demandeurs de sécurité sociale a été suspendu par une juridiction du pays pour violation des droits de l’homme et de la régulation RGPD sur les données.

Ainsi, les rapports entre les régulateurs et les innovateurs en IA ne peuvent être résumés à un conflit entre le glaive et le bouclier. La multidisciplinarité de cette technologie, ses évolutions rapides et disruptives doivent être accompagnées pour qu’elle serve le plus grand nombre dans la transparence et responsabilité des acteurs.

Quelle régulation de l’intelligence artificielle

Quelle régulation de l’intelligence artificielle

L’informaticien et philosophe Jean-Gabriel Ganascia estime que les Etats doivent se saisir de ces questions et prendre leurs responsabilités, afin de ne pas s’en remettre uniquement aux acteurs privés.(Interview dans le monde)

Elon Musk a présenté, le 28 août, les recherches de sa société Neuralink visant, avec le recours de l’intelligence artificielle, à soigner des pathologies et augmenter les capacités cérébrales. Comment analysez-vous ces annonces ?

Les déclarations d’Elon Musk sont problématiques. Sa société travaille sur les implants cérébraux et sur les interfaces cerveaux-ordinateurs. Nous savons que quand une personne a une activité cérébrale, ses neurones émettent des signaux électriques. Les recherches dans le domaine des interfaces visent à analyser ces signaux grâce à des techniques d’apprentissage machine, afin de les transformer par exemple en commande d’un objet, d’une prothèse, etc. On parle ici d’un signal qui part de l’homme vers une machine.

Elon Musk, lui, laisse entendre qu’il pourrait aussi avoir un signal retour, de la machine vers l’homme donc. Nous pourrions, à terme, tous être connectés au réseau par nos cerveaux et bénéficier d’informations mises en commun. En étant tous liés par un « lacet neuronal » nous deviendrions d’une certaine manière transparents les uns aux autres. Il y a, derrière cette idée, la théorie selon laquelle l’intelligence artificielle va nous dépasser et qu’il faut, pour rivaliser, augmenter notre mémoire.

D’où vient cette notion de mémoire augmentée ?

En partie des auteurs de science-fiction, comme l’Ecossais Iain Banks (1954-2013), qui, dans la seconde moitié du XXe siècle, utilise le terme de « lacet neuronal » repris par Elon Musk dans sa présentation. Mais on trouve des liens encore plus anciens. Le physicien Vannevar Bush (1890-1974), conseiller scientifique du président Roosevelt, a écrit en 1945 – avant le premier ordinateur électronique – un texte visionnaire, As We May Think (« comme nous pourrions penser »), où il imagine le Memex (Memory Extender), un extenseur de mémoire pour gérer le savoir technologique en constante augmentation.

Il imagine, dessin à l’appui, un verre dépoli, l’équivalent d’un écran, sur lequel pourrait être projeté de l’information. Dans la conclusion du texte, il évoque les ondes électriques cérébrales et s’interroge : « Peut-être qu’un jour, on saura quelle est leur nature et on pourra passer, sans intermédiaire, directement de l’électricité extérieure, remplie d’information, à l’électricité intérieure. » On peut voir une certaine continuité entre sa vision et celle d’Elon Musk.

 

GAFA : limite et danger d’une régulation « populiste »

GAFA : limite et danger d’une régulation populiste

Aurélien Portuese, Professeur, St Mary’s University London et Professeur associé en Droit Européen de la Concurrence au Global Antitrust Institute de la George Mason University (*) d’une régulation sous pression populiste des géants du numérique. Une vision évidemment libérale.

 

« Avec trois condamnations cumulant près de 10 milliards d’euros d’amende, Google est le résultat parlant d’une recherche toujours plus poussée des autorités à l’encontre des géants du numérique: après le temps de l’enthousiasme numérique où d’aucuns se félicitaient de la puissance des algorithmes, de l’ampleur de l’innovation digitale, et des services fournis gratuitement – voici venu ce qu’il est convenu d’appeler le « techlash » !

Sanctionnées, vilipendées, et bientôt démantelées? Les géants du numérique font l’objet de nombreuses pressions populaires que nos régulateurs et responsables politiques ont souvent bien du mal à  refreiner. Et pourtant ! L’histoire nous enseigne que la régulation de la concurrence devrait demeurer le domaine de l’expertise et de l’analyse économique plutôt que le domaine de l’opinion publique et l’instrumentalisation politique.

Aux origines populistes du droit de la concurrence

Avec la révolution industrielle que connurent les Etats-Unis dans la seconde moitié du XIXe siècle, l’accumulation de capital dans les villes et l’émergence d’innovations telles que les chemins de fers ont conduit à des révoltes d’agriculteurs qui se sont révélées être politiquement influentes. Par ces révoltes, les agriculteurs ont pu exprimer leurs craintes face à ce qui était considéré alors comme une concurrence déloyale de ces conglomérats industriels – la productivité accrue conduisait également à une déflation des prix au détriment des agriculteurs et des petits commerçants. Ainsi, des plateformes programmatiques ont été élaboré au sortir desquelles, notamment, la lutte contre les monopoles et le contrôle des chemins de fers étaient mêlées à la revendication d’un argent libre pour tous (« Free Coinage of Silver »).

-

 

-

Né aux Etats-Unis avec le Sherman Act de 1890, le droit de la concurrence tire ses origines de multiples mouvements populistes initiés par les agriculteurs – tels que le « Farmers’ Alliance » et le « Grange Movement ». Ces initiatives ont contribué à fonder en 1891 le « People’s Party« , aussi dénommé  « The Populists ». Avant cette législation fédérale, douze Etats (agraires) avaient déjà initié ce type de législation. La  formation d’un « trust » (soit, un cartel) par Rockefeller en 1879, le « Standard Oil Trust » ayant des ramifications sur plusieurs Etats, a convaincu le Congrès d’introduire une législation « anti-trust » au niveau fédéral. Proposée par le républicain John Sherman, cette législation fédérale adoptée en 1890 était destinée à protéger les « petits commerces et les honnêtes hommes», comme l’interprètera en 1897 la Cour Suprême, contre les grandes entreprises et leurs excès.

Il est alors évident que les origines du Sherman Act, et du droit de la concurrence tel qu’il a influencé sa transposition en Europe des décennies plus tard, sont éminemment populistes : une lutte contre les grandes entreprises et une défense des petits commerçants comme choix politiques sans pour autant exiger une démonstration des méfaits économiques à imputer à ces grandes entreprises.

Les dangers d’un populisme dans la concurrence

La concurrence dans la société est souhaitable pour son efficacité économique (des prix bas, des entreprises compétitives et une innovation accrue) et pour le processus qu’elle engendre : un esprit entrepreneurial récompensant les mérites économiques des entreprises florissantes et sanctionnant les entreprises en décalage avec les besoins des consommateurs. Or, cette justification économique n’est pas partagée par la vision populiste de la concurrence. Le populisme dans la  concurrence perçoit le besoin d’organiser le marché par l’Etat afin qu’il y ait un nombre suffisant d’entreprises à tailles égales afin que ces entreprises puissent réellement se concurrencer entre elles : seul un nombre suffisant d’entreprises garantit la déconcentration économique et politique du pouvoir détenu par les entreprises. Cette vision a historiquement conduit non seulement à sanctionner des pratiques efficientes ne créant aucun dommage pour les consommateurs, mais également à démanteler des entreprises pour la seule raison qu’elles avaient acquis une taille trop importante.

Premièrement, des comportements tels que la pratique des prix minimums aux distributeurs, la pratique des restrictions imposés par le fournisseur à ses distributeurs, la fusion entre petites entreprises, la vente à prix bas par des entreprises dominantes…ont été considérés comme illégales car renforçant l’entreprise dominante, sans nécessité de démontrer au préalable que les consommateurs étaient lésés. Deuxièmement, le démantèlement d’entreprises – néanmoins rarissimes dans l’histoire – s’est toujours soldé par des échecs. Il y a trois expériences de démantèlement d’entreprises : Standard Oil en 1911, AT&T en 1984, et Microsoft en 2000. Standard Oil une fois démantelé en 34 entreprises, aucune de ces entreprises n’a pu survivre sans être rachetée (pour donner naissance à des entreprises comme Exxon Mobil, BP PlC, Chevron Corporation…) et aucune baisse de prix n’a été démontrée. Après 10 ans d’investigations et une fois AT&T démantelé en huit entreprises de téléphonie, la baisse des prix a principalement été le fait d’innovations comme l’émergence de la téléphonie sans fil sans pour autant éviter la constitution aujourd’hui d’un duopole entre Verizon et AT&T. Surtout, le réseau physique de téléphonie mobile était considéré comme monopole naturel. Enfin, le régulateur américain a échoué à démanteler Microsoft par un jugement d’appel qui a simplement exigé que Microsoft agisse sans discriminer les concurrents de ses produits Windows. Par conséquent, toute tentative de démanteler les géants du numérique (ou « GAFA » pour Google, Amazon, Facebook et Apple) serait fondée sur des motifs hasardeux, ne saurait être qu’une mesure de dernier recours, et prendrait des années d’investigations pour un échec probable quant aux bienfaits pour les consommateurs et pour l’innovation espérée.

La nécessaire « économisation » de la régulation de la concurrence

Commencé dans les années 70s aux Etats-Unis et dans les années 2000 en Europe, l’approche économique – plutôt que politique voire populiste – de la concurrence a consisté à questionner les interdictions de comportements d’entreprises par le prisme de l’efficacité économique : désormais, seuls seront interdits les comportements qui ne concourent pas à l’efficacité économique du marché. Cette efficacité est alors mesurée par l’accroissement ou pas du bien-être du consommateur par la pratique concernée. A contrario, seront sanctionnés les comportements pour lesquels un dommage aux consommateurs sera démontré (prix élevé ou qualité réduite du fait de cartels ou d’abus de position dominante). Ainsi, les synergies entre entreprises pour des gains d’efficience peuvent désormais être acceptées, les fusions pour une meilleure productivité bénéficiant aux consommateurs sont encouragées, les relations contractuelles entre fournisseurs-distributeurs sont libres dès lors qu’elles ne se font pas au détriment des consommateurs.

L’organisation de nos économies autour de nouveaux « business models », principalement l’économie digitale autour des plateformes, était rendu possible. Ainsi, les stratégies d’intégration verticales des entreprises dans lesquelles des écosystèmes digitaux se créent ont bénéficié de la bienveillance du régulateur.

De même, l’essor de l’économie du gratuit dans laquelle l’utilisateur final ne paie pas le service financé par les publicitaires était rendu tout autant possible par le jeu complexe d’obligations contractuelles réciproques dans lesquelles l’échange de données personnelles a remplacé le paiement d’un prix. Il n’est pas anodin que la grande période d’innovation digitale, à savoir 1995-2015, s’est accompagnée – si ce n’est a été facilitée – par une économie de la concurrence à la fois aux Etats-Unis et en Europe où seuls les dommages prouvés aux consommateurs étaient sanctionnés et où le pouvoir de marché était perçu comme la condition sine qua non à l’émergence de ces plateformes de réseaux.

Inquiets de la taille de certaines entreprises du numérique et invoquant l’héritage populiste du Sherman Act, certains auteurs appellent désormais à revenir entièrement sur l’économisation de la régulation de la concurrence qui a émergé depuis les années 70s. Se revendiquant explicitement comme étant populistes, ces auteurs appellent à démanteler les GAFA. Ces appels au démantèlement de Google, Facebook, Amazon ou encore Apple interviennent non pas après avoir démontré l’inefficacité de sanctions potentielles ni même après avoir démontré  la réalité de dommages aux consommateurs, mais seulement comme volonté de faire émerger des plus petites entreprises digitales afin que le pouvoir économique et politique soit déconcentré : dans la lignée de l’historique populiste de la défense des petits entrepreneurs, ce populisme moderne auto-proclamé comme « Antimonopoly Movement » entend restructurer les marchés conformément à une démocratie dite « économique » et à un objectif d’intérêt général plus ambigu que la stricte défense du bien-être des consommateurs.

Avec leurs profitabilité et leurs capitalisations importantes, les géants du numérique sont les Standard Oil du XXIe siècle : des cibles de choix pour dénoncer la concentration économique et politique des pouvoirs et défendre ainsi les entreprises potentiellement empêchées de se développer en raison de la taille des géants du numérique. Avec cette analyse dans la lignée de l’héritage populiste du Sherman Act, et sans même démontrer le pouvoir de marché, l’absence d’innovation et/ou la qualité décrue des services offerts (souvent gratuitement), cette école de pensée néo-populiste s’attire néanmoins les faveurs à la fois de l’opinion publique et de responsables politiques en mal d’élaborer un programme économique populaire.

Aux mêmes causes, les mêmes conséquences : l’abandon d’une jurisprudence ayant conduit à interdire des comportements pourtant bénéfiques pour les consommateurs a été l’aboutissement de longues années de débats académiques ayant fini par convaincre de démontrer les erreurs commises dans le passé. Ainsi, revenir sur l’ « économisation » de la concurrence à la faveur d’une vision plus politique de la concurrence reviendrait à commettre les mêmes erreurs du passé – au détriment des consommateurs qui en paieraient les coûts indus. La passion populiste, quoique séduisante et engageante, ne saurait prévaloir sur une analyse raisonnée, experte et détachée, de l’économie de la concurrence.

« C’est une erreur de croire que la passion, quand elle est heureuse et pure, conduit l’homme à un état de perfection ; elle le conduit simplement à un état d’oubli » avançait Victor Hugo.

Cette passion populiste nous conduit à l’oubli – l’oubli des erreurs du passé et l’attrait pour des solutions éprouvées.

Résister à l’appel du pied d’un populisme dans la concurrence, c’est résister à toute forme de populisme dans la société – où la réflexion médiate est souvent plus juste que l’intuition immédiate, où l’expertise n’est pas sacrifiée sur l’autel du ressenti majoritaire, où l’économie revêt les attributs d’une science plutôt que les traits de la méfiance.

Résister en Europe à la vision populiste à l’endroit des géants du numérique, c’est aussi encourager l’émergence en Europe même d’entreprises digitales capables d’évoluer et de les concurrencer. Voilà un objectif de politique économique enthousiasmant loin de l’instrumentalisation politique d’une concurrence dévoyée !

(*) Par Aurélien Portuese, Professeur, St Mary’s University London ; Professeur associé en Droit Européen de la Concurrence au Global Antitrust Institute de la George Mason University ; Chercheur affilié à l’Université Catholique de Paris. Cet article fait écho à la publication académique co-écrite avec Pr. Joshua Wright « Antitrust Populism : Towards a Taxonomy » publié au Stanford Journal of Law, Business & Finance (Mars 2020) et nominé pour un Prix chez Concurrences. Aurélien Portuese a également bénéficié d’un financement de l’Académie libre des sciences humaines.

Pour une régulation du numérique

Pour une régulation du numérique 

L’action concertée d’autorités européennes indépendantes doit permettre de tenir l’équilibre entre respect des lois et liberté d’expression, affirment Roch-Olivier Maistre, président du CSA, et son homologue allemand, Tobias Schmid, dans une tribune au « Monde ».

 

Tribune. Nous sommes des Européens. L’un est français, l’autre allemand, et nous œuvrons ensemble pour le respect des valeurs fondamentales européennes dans les médias audiovisuels. Ces valeurs démocratiques qui seront au cœur – rien de moins – de la négociation à venir du Digital Services Act (DSA).

De quoi s’agit-il ? D’un véritable défi. Avec le DSA, la Commission européenne va devoir organiser et actualiser les diverses réglementations européennes liées au numérique, avec la question centrale du degré de régulation nécessaire des plates-formes de partage de contenus pour garantir nos libertés et nos droits dans une société démocratique.

 

Une régulation durable revient à rechercher le juste équilibre entre, d’un côté, le principe cardinal de liberté et, de l’autre, les limitations susceptibles de lui être apportées pour garantir l’intérêt général. Souhaitons-nous une liberté d’expression absolue ? Ou acceptons-nous de lui fixer des limites ? Ce débat est au centre des discussions réglementaires sur les enjeux transnationaux, la lutte contre les contenus haineux et la désinformation. Il a également été au fondement de diverses initiatives législatives nationales, telles que la loi française contre la manipulation de l’information (« loi fake news » ou « loi infox » de décembre 2018), ou la loi allemande sur la haine en ligne (NetzDG) de janvier 2018. 

Il revient aujourd’hui à l’Europe de résoudre cette tension et de proposer une réponse. Pourquoi ? Parce que nous le pouvons, forts de l’héritage de notre histoire mouvementée et de notre attachement profond à cette valeur fondamentale qu’est la liberté. Ce que l’Europe peut apporter à la numérisation de la société, c’est l’idée d’une liberté fondée sur l’Etat de droit. Nous avons besoin de règles pour être libres.

S’agissant du futur cadre réglementaire, la priorité est d’avoir un objectif clair. Pour nous, régulateurs, il s’agit avant tout de garantir la liberté d’expression, tout en protégeant la population contre les violations de la loi en ligne, telles que les atteintes à la dignité humaine, les menaces pesant sur les jeunes et les campagnes de désinformation.

« Quelle régulation des réseaux sociaux»

« Quelle régulation des réseaux sociaux»

 

 

Pour sortir de l’opacité qui alimente craintes et rumeurs de manipulations, le législateur doit confier à l’administration le pouvoir d’obtenir la transparence des plates-formes, estiment, dans une tribune au « Monde », Paula Forteza, députée, Aymeril Hoang et Benoît Loutrel, experts en numérique.

 

Tribune.

 

L’invalidation et les réserves d’interprétation décidées par le Conseil constitutionnel sur les lois de « lutte contre les contenus haineux sur Internet » et « contre la manipulation de l’information », ont le mérite de protéger sans concession la liberté d’expression. Elles soulignent aussi la difficulté à inventer un modèle de régulation des grands réseaux sociaux.

Dans une approche directe, la régulation porte sur les contenus publiés et se retrouve coincée dans une double contrainte : soit elle est respectueuse de nos libertés, mais au prix de son efficacité, en exerçant un contrôle trop tardif de l’expression publique ; soit elle est efficace, mais au prix de nos libertés, en exerçant un contrôle a priori par une entité illégitime.

Car selon nous, le juge judiciaire reste la seule autorité légitime pour sanctionner les abus de cette liberté. Rien ne saurait justifier de faire exception ou entorse au rôle de la justice, pas même le caractère instantané et massif de contenus contestables que permet le numérique. Alors, oui, la dématérialisation de notre parole, le recours à des pseudonymes, viennent percuter le mode opératoire de la justice. Mais il convient d’adapter les procédures judiciaires au contexte numérique et non d’en bouleverser les principes.

Dans l’attente de l’adaptation de la justice à la transition numérique, se pose néanmoins la question de l’action et de la responsabilité des grands réseaux sociaux. Participent-ils à une censure excessive de nos propos ou au contraire sont-ils trop permissifs à l’égard de nos abus ? Plus important peut-être, quelles sont les intentions et effets de ces traitements algorithmiques d’information à une échelle massive ? Cherchent-ils à influencer l’opinion publique ? S’en préoccupent-ils ? Qui utilise, et à quelles fins, cette infrastructure informationnelle pour cibler toujours plus finement des contenus qui ne se limitent pas nécessairement à nous vanter les vertus d’un bien ou d’un service ?

Le pouvoir des réseaux sociaux est à la fois similaire et fondamentalement différent de celui des médias traditionnels. Similaire, car en accélérant certaines informations, médias et réseaux sociaux influencent et permettent la formation de l’opinion publique. Radicalement différent, car les réseaux sociaux n’ont pas de protocole éditorial, qui voit l’éditeur sélectionner, un à un, les contenus. Leur pouvoir découle d’une fonction algorithmique, qui traite en masse les contenus.

 

« Régulation numérique, quelle éthique de responsabilité »

« Régulation numérique, quelle  éthique de responsabilité »

A une approche technique de la standardisation, les institutions européennes doivent intégrer une forte dimension juridique reposant sur un suivi des technologies dans leur évolution, estime Valérie Hernandez, spécialiste des questions d’économie du numérique, dans une tribune au « Monde ».

Tribune.

 

« Le 8 juin, l’entreprise IBM annonçait qu’elle ne vendrait, ni ne développerait plus de technologies de reconnaissance faciale. Dans la foulée, ce sont deux autres grands industriels du numérique, Amazon et Microsoft, qui lui ont emboîté le pas, annonçant désormais ne plus commercialiser ce type de technologies auprès des forces de police tant que cet usage ne serait pas encadré.

Au-delà du coup d’éclat dans un contexte politique particulièrement vif aux Etats-Unis et avec des forts échos dans le monde entier, ces annonces nous interrogent sur le rapport du secteur de la technologie à l’éthique. Si ces entreprises possédaient déjà des standards éthiques sur les technologies de reconnaissance faciale bien établis, auraient-elles en effet vendu ces technologies aux forces de l’ordre ?

Ce débat nous ramène aux deux formes d’éthique telles que définies par [le sociologue allemand] Max Weber (1864-1920) : une éthique de conviction et une éthique de responsabilité.

La première revient à agir en fonction d’une conviction supérieure qui rend certain de son action.

La seconde revient à agir en fonction des conséquences de ses actes et peut être nourrie également de conviction. L’actualité témoigne d’une incapacité à faire avancer une éthique de responsabilité dans le champ numérique.

Pourtant, les controverses n’ont souvent pas beaucoup d’utilité sociale. Elles tendent à imposer des croyances – positives ou négatives ou mal fondées – qui favorisent peu l’« empowerment » [le pouvoir d’agir] du citoyen. Elles ne permettent pas de remettre en cause des routines d’usage qu’il faudrait questionner : par exemple, des usages de loisirs – à l’instar du « face swapping » [procédé de photomontage] – qui participent de la banalisation de la reconnaissance faciale. Les acteurs sont enfermés dans des convictions et n’avancent pas dans leur responsabilité.

Dans la même veine, les discours sur la souveraineté numérique européenne qui lient l’éthique à une troisième voie européenne demeurent incantatoires. Alors que les droits et libertés fondamentaux, au plus haut niveau de la hiérarchie des normes et promus par le cadre juridique européen, notamment la Charte des droits fondamentaux, doivent être le ferment de cette approche éthique, en pratique, l’application de ce cadre juridique est marquée de profondes faiblesses.

L’Union européenne doit sortir de cette incantation et passer à une éthique de responsabilité. Pour rendre ce cadre efficient et ces principes opérants, notre continent doit se saisir politiquement des enjeux de la standardisation et ne pas la réduire à une discussion technique. Les Etats-Unis et la Chine l’ont bien compris et ont historiquement fait de la normalisation un terrain de bataille entre puissances dans le champ des technologies. »

Plates-formes numérique : quelle régulation du DSA

Plates-formes numérique : quelle régulation du DSA

L’action concertée d’autorités européennes indépendantes doit permettre de tenir l’équilibre entre respect des lois et liberté d’expression, affirment Roch-Olivier Maistre, président du CSA, et son homologue allemand, Tobias Schmid, dans une tribune au monde

Tribune. 

 

« Nous sommes des Européens. L’un est français, l’autre allemand, et nous œuvrons ensemble pour le respect des valeurs fondamentales européennes dans les médias audiovisuels. Ces valeurs démocratiques qui seront au cœur – rien de moins – de la négociation à venir du Digital Services Act (DSA).

De quoi s’agit-il ? D’un véritable défi. Avec le DSA, la Commission européenne va devoir organiser et actualiser les diverses réglementations européennes liées au numérique, avec la question centrale du degré de régulation nécessaire des plates-formes de partage de contenus pour garantir nos libertés et nos droits dans une société démocratique.

Une régulation durable revient à rechercher le juste équilibre entre, d’un côté, le principe cardinal de liberté et, de l’autre, les limitations susceptibles de lui être apportées pour garantir l’intérêt général. Souhaitons-nous une liberté d’expression absolue ? Ou acceptons-nous de lui fixer des limites ? Ce débat est au centre des discussions réglementaires sur les enjeux transnationaux, la lutte contre les contenus haineux et la désinformation. Il a également été au fondement de diverses initiatives législatives nationales, telles que la loi française contre la manipulation de l’information (« loi fake news » ou « loi infox » de décembre 2018), ou la loi allemande sur la haine en ligne (NetzDG) de janvier 2018.

Il revient aujourd’hui à l’Europe de résoudre cette tension et de proposer une réponse. Pourquoi ? Parce que nous le pouvons, forts de l’héritage de notre histoire mouvementée et de notre attachement profond à cette valeur fondamentale qu’est la liberté. Ce que l’Europe peut apporter à la numérisation de la société, c’est l’idée d’une liberté fondée sur l’Etat de droit. Nous avons besoin de règles pour être libres.

S’agissant du futur cadre réglementaire, la priorité est d’avoir un objectif clair. Pour nous, régulateurs, il s’agit avant tout de garantir la liberté d’expression, tout en protégeant la population contre les violations de la loi en ligne, telles que les atteintes à la dignité humaine, les menaces pesant sur les jeunes et les campagnes de désinformation.

Nous appuyant sur notre expérience, nous observons que l’indépendance des autorités de régulation des médias par rapport à l’Etat est bien plus importante que la structure, centrale ou fédérale, des autorités, et que la collaboration étroite et constructive des régulateurs au-delà des frontières nationales est d’une importance capitale. »

 

Le retour de la prospective et de la régulation ?

Le retour de la prospective et de la régulation ?

 

La crise sanitaire a mis en évidence deux types de défaillance. D’une part le délitement et l’inefficacité de l’État ,d’autre part d’incapacité du marché à répondre à une problématique relevant de la responsabilité régalienne. La faillite de l’État n’est pas tellement due à son champ d’application mais plutôt à son efficacité car les moyens sont substantiels. Comme souvent , il y a confusion entre l’objectif de service public et la nature juridique des institutions en charge de le mettre en œuvre. Du coup, toutes les superstructures sont considérées en charge de l’intérêt public alors que beaucoup résultent essentiellement d’un phénomène de bureaucratisation qui n’a pas grand-chose à voir avec l’intérêt général. Le secteur privé aussi a failli si l’on prend pour exemple les dérives de l’industrie pharmaceutique française qui a délocalisé sa production en Asie et en Chine en particulier. Du , se repose la question de la prospective et de la régulation. Le chef de l’État a même employé un terme tabou de la planification. Il faut rappeler que la France a délibérément éliminé le concept de plan depuis des années au nom du à libéralisme. Pourtant le plan en France, sauf après la libération, n’a jamais été un instrument d’étatisation de l’économie. C’était d’abord un exercice de prospective menée avec tous les acteurs économiques et qui se traduisait par la définition de quelques priorités représentant moins de 10% de la richesse nationale mais permettant cependant de définir des priorités stratégiques. Depuis les politiques publiques naviguent à vue au gré de l’évolution des modes et des sensibilités politiques. Il serait grand temps de reprendre ce travail d’analyse des grands domaines qui vont structurer l’avenir en articulant évidemment les problématiques économiques, sociales, sociétales et environnementales. Toutes les promesses du jour d’après vont se transformer en illusion si ce travail préalable d’analyse prospective n’est pas réalisé . En effet les changements structurels ne peuvent s’inscrire que dans la durée avec l’organisation de transitions .

 

La régulation de l’intelligence artificielle ?

La régulation de l’intelligence artificielle ?

 

 

Nozha Boujemaa,Directrice science & innovation chez Median Technologies estime indispensable  la régulation de l’IA. (Tribune dans le Monde)

 

« . La Commission européenne a annoncé fin février sa volonté de réguler l’intelligence artificielle (IA). Celle-ci suscite fantasmes, craintes et fascination. Les industriels européens redoutent le coût financier d’une telle régulation et brandissent le frein à l’innovation. Les consommateurs redoutent les discriminations. Serait-ce l’avenir ou le péril de l’humanité ? On entend l’un et l’autre : l’intelligence artificielle va sauver des vies, l’intelligence artificielle va décider de nos vies.

Existe-il une définition unique de l’intelligence artificielle ? La réponse est non, il y a autant de définitions que d’écoles de pensée et de communautés scientifiques. Par exemple entre l’IA statistique et l’IA symbolique, l’IA faible et l’IA forte, certaines sont explicables et d’autres pas encore. Aucun exercice de définition de l’IA n’a débouché sur un réel consensus, et parfois même l’exercice a été abandonné.

D’ailleurs, c’est une erreur que de personnaliser l’IA. Les algorithmes de l’IA et leurs dérives potentielles de toutes sortes (éthiques ou juridiques) ne sont qu’une codification des opinions de leurs concepteurs et de ceux qui les déploient. La tentation est très forte de réguler tout ce qui semble échapper à notre compréhension et à notre contrôle. Cette approche suppose que le simple fait d’établir de nouvelles règles juridiques sera un rempart protecteur face aux dérives potentielles.

La nécessité d’encadrer juridiquement l’usage des algorithmes de l’IA ne fait pas de doute, tant leurs champs d’application sont étendus et tant les brèches pour certaines dérives au service de leurs concepteurs sont possibles. La régulation des algorithmes de manière générale, et celle de l’IA en particulier, est un terrain de jeu tout à fait nouveau pour les juristes. Il faudrait une transformation numérique du métier juridique pour espérer une réelle efficacité. Il faudrait que les avocats se forment aux algorithmes sans pour autant en devenir spécialistes et que les cabinets d’avocats se dotent de spécialistes de l’IA pour cerner les questions à résoudre.

Autrement, la régulation ne donnera lieu qu’à des mesures descendantes traduisant les principes de ce qui doit être fait mais qui resteront non applicables. Comment un juriste pourrait-il s’assurer qu’un algorithme d’IA respecterait la nouvelle juridiction qui sera mise en place ? Ce qui doit guider la régulation de ce nouveau genre, c’est l’analyse du risque des décisions algorithmiques pour l’humain. Le secteur de la santé est bien en avance dans ce domaine pour l’homologation des services logiciels comme dispositifs médicaux, pour garantir la maîtrise des biais et de la répétabilité. »

 

 

Violences: le nouveau moyen de régulation sociale ?

Violences: le nouveau moyen de régulation sociale ?

 

Pour des motifs sociaux, culturel, sociétaux ou politique la violence s’érige en moyen privilégié d’expression des mécontentements. Certains objecteront que la violences sociales que subissent les plus défavorisés alimentent voire justifient le phénomène De nombreux facteurs explicatifs peuvent évidemment expliquer la montée des violences. Il y a nécessairement interaction entre des aspects économiques, sociaux, sociétaux et culturels. Ces violences se déroulent souvent dans des quartiers relativement défavorisés, caractérisés par un très fort taux de chômage, la désertion de nombre de services publics et le développement du trafic de drogue comme mode de régulation économique et sociale. On ne saurait cependant attribuer l’ampleur et la nature des violences au seul fait du misérabilisme de ces quartiers. En effet, d’autres violences se déroulent ailleurs dans la plupart des villes et même des villages. Des dégradations de biens publics ou de biens  privés de la part d’enfants ou de sauvageons comme dirait Chevènement. L’environnement économique et social peut permettre de comprendre la montée d’une partie de cette délinquance. Pour autant, une partie non négligeable de la responsabilité incombe à la société tout entière. D’abord peut-être aux parents dont certains ont adopté la pédagogie de l’enfant roi. L’enfant gâté, pourri, autorisé à s’affranchir de toute règle de vie collective y compris familiale. Dans certains cas,  on comprendra que dans certaines familles monoparentales, le parent -souvent la mère qui travaille– ait des difficultés à encadrer sa progéniture. Mais le phénomène affecte un très grand nombre d’autres familles de tous les milieux, de toutes les zones géographiques. Cette perte d’autorité se nourrit d’un individualisme mortifère pour  les relations collectives. Un seul exemple,  combien d’adultes disent encore bonjour en pénétrant dans une boulangerie ou chez le médecin ? Il est loin le temps où en zone rurale un enfant se devait de saluer chaque adulte rencontré. L’urbanisation à outrance, l’amollissement de l’éducation, le laisser-aller général autorisent désormais enfants et adolescents à toutes les dérives. Le problème c’est  que ces enfant deviennent adultes et que certains pratiquent la violence comme moyen de régulation sociale ou politique;. La société, c’est-à-dire l’État, l’école, la justice ou encore la police sont aussi responsables. La délinquance est finalement largement tolérée; les auteurs ne sont soumis qu’à des peines symboliques et la prévention, comme la sanction sont anecdotiques. On devrait évidemment sanctuariser l’autorité des représentants locaux de la république. Une seule question : pourquoi était-il  possible d’obtenir le respect et l’attention d’un instituteur dans une classe de 40 élèves et plus dans les années 50 quand en France les enseignants sont aujourd’hui  débordés avec 25 .  la réponse est assez simple  . En 1950, on ne trouvait guère de parents pour venir protester contre les notations de leurs enfants voire les punitions dont ils sont l’objet. Encore une fois, les dérives ne concernent pas seulement les quartiers sensibles même si là,  elles prennent des formes très spectaculaires et même parfois criminelles. Les actes de délinquance se généralisent  dans toutes les situations sociales et géographiques. Si des facteurs socio-économiques sont à prendre en compte, la dimension culturelle et civilisationnelle doit aussi être intégrée. Les civilisations ne meurent pas seulement en raison des mutations de l’environnement mais aussi de la déliquescence des valeurs qui  font société.

Catastrophes : « La régulation des risques protège avant tout l’industrie »

Catastrophes : « La régulation des risques protège avant tout l’industrie »

 

Thomas Le Roux, historien, estime que la régulation des risques est surtout assurée pour la protection de l’industrie et non des personnes.

 

Tribune. 

 

« C’est à 500 mètres de l’actuelle usine Lubrizol de Rouen qu’eut lieu la première grande pollution industrielle chimique en France, au cours des années 1770, dans le quartier Saint-Sever, sur la rive gauche : les fumées corrosives d’une fabrique d’acide sulfurique détruisirent la végétation alentour et on les soupçonna de menacer la santé publique. Malédiction sur le site ou simple coïncidence ? Ni l’un ni l’autre : mais c’est au miroir du passé que l’on peut mieux comprendre comment le risque industriel et les pollutions sont encadrés aujourd’hui.

Le procès instruit en 1772-1774 après la mise en cause de la fabrique d’acide, a en effet produit un basculement dans l’ordre des régulations environnementales, un vrai changement de paradigme lourd de conséquences.

Une mise en lumière du processus historique aide à répondre à un panache de questions, telles que : « Seveso, quèsaco ? », « Une usine dangereuse dans la ville, est-ce possible ? », « Tire-t-on les leçons d’une catastrophe industrielle ? » Ou encore : « l’industriel : responsable, pas coupable ? »

L’usine d’additifs pour essence et lubrifiants Lubrizol est classée « Seveso – seuil haut ». Elle est donc parfaitement connue des autorités de régulation, à savoir l’Inspection des établissements classés, qui dépend du ministère de la transition écologique et solidaire, et qui a un rôle préventif et de surveillance.

Le classement Seveso découle d’une harmonisation européenne des règles de droit des différents Etats régissant les industries les plus dangereuses. Il tire son nom de celui de la ville de Lombardie où, en juillet 1976, l’usine chimique Icmesa laisse s’échapper un nuage toxique de dioxine qui contamine les environs. Pour prévenir ce type d’accident, trois directives européennes Seveso sont successivement adoptées en 1982, 1996 et 2012 (entrée en vigueur en 2015). Une telle exposition des faits pourrait laisser penser que, tirant les leçons de l’expérience (un accident), les autorités réagissent et fondent un droit protecteur, sans cesse amélioré. Il n’en est rien.

D’une part parce qu’avant la mise en place des directives Seveso, les Etats avaient déjà leur propre réglementation, parfois plus sévère. D’autre part parce que les centrales nucléaires, par exemple, y échappent. Enfin, parce que l’on peut douter de l’efficacité du dispositif. »

Climat : une régulation par la justice ?

Climat : une régulation par la justice ?

 

 

Une justice transnationale pour réguler la politique climatique (sans doute à l’image du tribunal pénal international), ce que propose dans un livre Judith Rochfeld, enseignante en droit privé à la Sorbonne,  (extraits du Monde). La grande question qui se pose est de savoir si certains grands pays pollueurs voudront adhérer ou au contraire refuser cette organisation (comme c’est le cas par exemple pour le TPI que n’admettent) pas les États-Unis) (extraits du Monde).

« Peu de livres écrits par des universitaires contiennent autant de points d’exclamation, jusque dans leur titre, que Justice pour le climat ! C’est que son auteure, Judith Rochfeld, professeure de droit privé à la Sorbonne, ne prétend pas s’abstraire des passions, entre angoisse et espoir, qui animent toujours plus de personnes face à la catastrophe climatique.

Une lueur d’espoir vient des nouveaux mouvements civiques de résistance, notamment ceux portés par la jeunesse ou par des associations, voire des particuliers, qui demandent des comptes à l’Etat et aux entreprises en s’appuyant sur la justice. Le livre dresse le bilan international de ces nouvelles luttes et pose la question des instruments juridiques qui pourraient leur faciliter la tâche, et peut-être même nous amener à une relation protectrice avec la Terre.

 

Les procès contre différents Etats accusés d’inertie face aux changements climatiques procèdent largement des ambitions, des ambiguïtés et des déceptions dont était porteur l’accord de ­Paris de 2015, lors de la COP21. Son objectif de limiter la hausse de la température moyenne globale en deçà de 2 °C par rapport aux niveaux préindustriels s’accompagnait certes de modalités concrètes d’action et d’un cadre global de coopération, mais sans imposer de contrainte ni de ­sanction.

Il invitait aussi à la table, en plus des Etats, des « entités non parties » – associations, secteur privé ou villes. Or ce sont précisément certains de ces acteurs qui, utilisant l’accord comme un levier, se retournent désormais contre les Etats et cherchent à rendre juridiquement contraignants leurs engagements, pour les sommer d’agir sans se défausser sur les autres. Car tel est un des paradoxes apparents du moment présent : si le défi écologique est plus que jamais planétaire, les échecs répétés de la « gouvernance mondiale » en matière climatique conduisent à une sorte de reterritorialisation du global, obligeant chaque Etat, sous la pression de citoyens mobilisés, à balayer devant sa porte.

Les entreprises les plus polluantes font aussi l’objet de contestations inédites, en particulier les fameuses quatre-vingt-dix « Carbon Majors » énergétiques et cimentières, devant lesquelles se dressent même des Etats, mais aussi et surtout des villes et des ONG. C’est ainsi qu’aux Pays-Bas, après le procès de la Fondation Urgenda contre l’Etat néerlandais, s’est tenu en avril 2019 un procès cette fois contre le pétrolier Shell, mis en cause pour ses responsabilités en matière d’émission de gaz à effet de serre.

 

« Justice pour le climat ! Les nouvelles formes de mobilisation citoyenne », de Judith Rochfeld, Odile Jacob, 198 p., 19,90 € (en librairie le 28 août).

Une régulation européenne de la blockchain et ou des cryptomonnaies ?

Une régulation européenne de la blockchain et ou des cryptomonnaies ?

 

 

La blockchain est une technique qui permet de transmettre des informations par blocs et qui normalement est inviolable. Une technique uniquement régulée par sa propre loi (code algorithmique). Les informations peuvent être de différentes natures et pratiquement concerner la totalité des  espaces économiques ou sociaux. Évidemment sont concernées les cryptomonnaies et les crypto actif comme le bitcoin. La France voudrait intervenir pour une régulation à l’échelle européenne voir au-delà d’après le ministre de l’économie “Je vais (…) proposer à mes homologues européens la mise en place d’un cadre unique de régulation des cryptoactifs inspiré de l’expérience française (…) au niveau européen”, a précisé le ministre français de l’Economie et des Finances lors d’une conférence sur la “blockchain” à Bercy. Cela permettrait d’aboutir à “un marché unique de la ‘blockchain’ comme il existe d’autres marchés uniques dans d’autres domaines”, a-t-il estimé. Finalement la technique de scène est un peu comme la technique Internet elle n’a guère de frontières et on voit mal l’intérêt et l’efficience d’une régulation seulement nationale ou même européenne. Par ailleurs le ministre vise sans doute essentiellement le secteur financier afin de distinguer l’usage de la blockchain à usage à des fins de transactions financières, des cryptoactifs. La loi Pacte, adoptée définitivement la semaine dernière, met en place un cadre juridique pour les émissions de cryptomonnaies (ICO, ou offres initiales de jetons). Ce système, visant à protéger les épargnants et rassurer les investisseurs, repose sur la délivrance d’un agrément par l’Autorité des marchés financiers (AMF), pour les émetteurs volontaires. Il est cependant vraisemblable que les crypto menées ne vont pas demeurer dans l’espace marginal qu’elles occupent aujourd’hui et qu’une ou plusieurs d’entre elles pourraient un jour concurrencer les grands menés comme le dollar ou l’euro. La récente chute du cogne ne discrédite pas les crypto menées par l’avantage que le dollar ou d’autres qui reposent pour une grande partie sur du vent et de l’endettement. On peut leur reprocher leur cale caractère énergie énergivore mais pas la confiance qui constitue la base du système. Contrairement à d’autres monnaies qu’on prête curieusement par exemple à des taux négatifs !

Internet : les dangers d’une régulation précipitée (ONG internet Society)

Internet : les dangers d’une régulation précipitée (ONG internet Society)

 

La  directrice des politiques publiques de l’ONG Internet Society s’inquiète d’influence grandissante des GAFA mais tout autant d’une régulation précipitée. (‘Interview La Tribune)

 

Votre rapport alerte sur la « standardisation du web » sous l’effet d’une concentration de plus en plus marquée autour d’acteurs essentiellement américains (les Gafam – Google, Apple, Facebook, Amazon et Microsoft) et chinois (les Batx – Baidu, Alibaba, Tencent et Xiaomi). Quels risques cela fait-il peser sur l’économie et la société ?

CONSTANCE BOMMELAER DE LEUSSE - Quelques entreprises hégémoniques, comme Google dans la recherche en ligne, Facebook dans les réseaux sociaux et avec ses messageries Messenger, Instagram et WhatsApp, ou encore Amazon et Alibaba dans le e-commerce, concentrent l’essentiel de la valeur de l’économie numérique. Ce phénomène prend même de l’ampleur, car la domination de ces entreprises est accentuée par l’essor sans précédent des réseaux et par l’afflux des données récoltées en permanence sur les utilisateurs. Les géants du Net peuvent ainsi étendre leur influence et leur force de frappe sur de nouveaux marchés comme la mobilité autonome, le cloud, l’intelligence artificielle, la santé, le paiement et bien d’autres domaines.

En d’autres termes, ils sont devenus « too big to fail ». Leurs écosystèmes de services globaux, parfois fermés, facilitent grandement le quotidien et créent une vraie dépendance économique. Les entreprises, notamment les TPE et les PME, doivent souvent les utiliser pour exister en ligne. De fait, cette domination limite en réalité le choix des usagers et peut compliquer l’éclosion de services concurrents. Elle pourrait menacer la nature même d’Internet, qui est par essence libre et ouvert, composé d’une interconnexion de réseaux indépendants les uns des autres.

 

Pourtant, vous mettez en garde les régulateurs sur la nécessité de ne pas se précipiter pour réguler. N’est-ce pas paradoxal ?

Non, car un remède mal conçu pourrait être pire que le mal. Le danger de réguler trop vite, de ne pas articuler les différentes normes au niveau international, pourrait avoir des conséquences difficiles à prévoir. La multiplication des régulations pourrait par effet de ricochet créer plusieurs webs selon les lois en vigueur, avec des conséquences potentiellement néfastes sur l’innovation. En clair, en fonction du pays où un utilisateur se trouve, il n’aurait pas accès aux mêmes contenus et aux mêmes services sur Internet.

Si chaque grande région du monde, voire chaque pays, développe ses propres régulations sur la fiscalité ou la protection des consommateurs, on risque de fragmenter l’espace numérique sans pour autant agir efficacement sur le phénomène de la concentration des pouvoirs autour des géants du Net, qui ont les moyens de s’adapter aux

La France, avec sa « taxe Gafa » qui vient d’être annoncée par Bruno Le Maire, et l’Union européenne, avec notamment le Règlement général sur la protection des données (RGPD), ont déjà enclenché la machine. Est-ce une erreur ?

Il est regrettable que le débat public aujourd’hui se concentre uniquement sur la partie visible de l’iceberg. Pour nous, la concentration des géants du Net est plus complexe. Elle agit à trois niveaux. Le premier, le plus évident, est celui des applications et usages sur Internet, dominés par cinq grosses entreprises qui sont Google, Amazon, Tencent, Facebook et Alibaba. Google et Facebook cannibalisent à eux deux 80% du marché publicitaire mondial, Amazon pèse près de 50% du e-commerce, Google 90% de la recherche en ligne en Europe, Alibaba est l’équivalent d’Amazon en Chine tandis que Tencent, via WeChat, est une plateforme polyforme qui touche plus d’un milliard d’utilisateurs. Cette concentration des usages autour de quelques acteurs inquiète l’opinion et pousse les régulateurs à agir.

Or, deux autres niveaux de concentration, plus discrets, sont tout aussi importants : l’accès aux infrastructures et les services associés à ces infrastructures. Dans chaque pays un petit nombre de fournisseurs d’accès à internet (FAI) maîtrisent les réseaux. Parfois, notamment dans les pays en développement comme en Afrique, il n’existe qu’un ou deux FAI, ce qui pose question. Par ailleurs, les leaders mondiaux du cloud computing, c’est-à-dire Amazon, Microsoft, Google, IBM et Alibaba, disposent d’un pouvoir grandissant car ils fournissent l’infrastructure sur laquelle se développe l’économie numérique.

Il faut appréhender ces trois niveaux de concentration. Les deux derniers sont le nerf de la guerre pour que ces monopoles perdurent sur la durée. On sait moins que Google et Facebook, davantage connus pour leur domination dans les usages, investissent aussi massivement dans les câbles sous-marins et les infrastructures du Net, car il s’agit d’un enjeu de diversification stratégique pour eux. Les géants du Net pratiquent une consolidation à la fois horizontale – étendre leurs activités -, et verticale – maîtriser l’ensemble de la chaîne de valeur de l’innovation. Ils investissent aussi énormément dans la recherche fondamentale pour se mettre en position de profiter d’une éventuelle rupture technologique.

 

Quelle approche de la régulation préconisez-vous ?

L’enjeu principal est avant tout de protéger l’Internet, c’est-à-dire sa neutralité et son caractère libre et ouvert, pour ne pas brider l’innovation et permettre à d’autres entreprises de pénétrer le marché. On oublie que la concentration autour de quelques géants est un phénomène économique naturel. La liberté et l’ouverture qui caractérisent l’Internet ont permis l’éclosion d’entreprises devenues hégémoniques, comme Yahoo ou Myspace dans les années 1990, qui ont elles-mêmes été remplacées, avec l’avènement de nouvelles ruptures technologiques, par les géants actuels. Il faut garder en tête que dans l’histoire économique, les monopoles changent. Dans les années 1990, on appréhendait Yahoo et Myspace exactement comme Google, Facebook et Amazon aujourd’hui.

De fait, certains pays annoncent des mesures fiscales ou des réglementations sur les données. Ces tentatives sont précipitées, pour répondre à une pression de l’opinion publique. Alors même que plusieurs questions restent en suspens. Si une forme d’intervention publique est nécessaire, faut-il refonder le droit de la concurrence, renforcer la protection du consommateur ou encore ajuster la fiscalité ? Les politiques communiquent sur des mesures avant même d’avoir appréhendé le problème dans sa globalité. Au-delà du risque de fragmenter l’Internet en régulant à outrance, nous nous inquiétons aussi que les gouvernements finissent par brider les bienfaits de cette concentration. Car ils existent. Les géants du Net ont accéléré la digitalisation d’un grand nombre d’entreprises dans de nombreux secteurs, y compris des PME et des TPE. Ils ont offert aux utilisateurs des univers beaucoup plus homogènes, pratiques et sécurisés. Le discours dominant est alarmiste, alors que le bilan global est plus nuancé.

Vous dites que les monopoles d’aujourd’hui ne sont pas forcément ceux de demain. Mais grâce à leurs extraordinaires moyens d’investissement dans la recherche fondamentale et leur capacité à aspirer l’innovation, les géants actuels ne se mettent-ils pas en position de faire perdurer leur puissance dans la durée, contrairement aux empires d’hier ?

La blockchain, l’Internet des objets et l’intelligence artificielle sont loin d’avoir livré tout leur potentiel. D’autres technologies vont sûrement arriver et rebattre les cartes. Est-ce que les géants actuels qui investissent massivement dans la recherche fondamentale sont mieux placés que les autres pour perdurer ? Intuitivement, on peut le penser mais l’histoire nous réserve probablement des surprises. Google, Netflix, Uber et Facebook ne sont peut-être pas là pour toujours. Si on préserve la neutralité technologique et des principes comme l’interopérabilité des systèmes informatiques, la capacité d’innovation restera intacte et il ne sera pas impossible pour de nouveaux acteurs de pénétrer le marché. Il n’y a pas de fatalité.

 

Organisation de l’Etat : la grande confusion entre régulation et organisation

Organisation de l’Etat : la grande confusion entre régulation et organisation

 

On a vu dans un article précédent concernant la fiscalité et les services publics que Macron -comme beaucoup dans le pays- continue d’entretenir une grande confusion entre le concept de service public, les moyens de l’organiser et les statuts des personnels. Cette confusion se confirme dans la deuxième question relative à l’organisation des services publics qu’on ne semble pas pouvoir être pris en charge autrement que par des administrations !  Or la plupart sinon la totalité des services publics gérés directement par les administrations sont déficitaires ce qui n’est pas le cas lorsque la gestion est assurée par le privé par délégation de service public.

 

L’organisation de l’Etat et des collectivités publiques. Le texte officiel de Macron sur ce thème :

 

 

« Le deuxième sujet sur lequel nous devons prendre des décisions, c’est l’organisation de l’Etat et des collectivités publiques.

 Les services publics ont un coût, mais ils sont vitaux: école, police, armée, hôpitaux, tribunaux sont indispensables à notre cohésion sociale.

Y a-t-il trop d’échelons administratifs ou de niveaux de collectivités locales? Faut-il renforcer la décentralisation et donner plus de pouvoir de décision et d’action au plus près des citoyens? À quels niveaux et pour quels services?

Comment voudriez-vous que l’État soit organisé et comment peut-il améliorer son action? Faut-il revoir le fonctionnement de l’administration et comment?

Comment l’Etat et les collectivités locales peuvent-ils s’améliorer pour mieux répondre aux défis de nos territoires les plus en difficulté et que proposez-vous? »

 

Conclusion une partie de texte  très floue et mal problématisée.

 

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA, pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune)

)

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historique comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

La programmation des véhicules autonomes en cas d’accident inévitable est un exemple de cas concret qui traduit inévitablement un choix moral. La recherche scientifique sur les préférences morales des individus peut aider à identifier les critères éthiques pour fonder ce choix moral. L’automatisation des décisions grâce à l’IA peut donner lieu à de réels progrès, tels que des décisions plus transparentes et moins partiales. Aussi, se posent des questions fondamentales sur les conséquences économiques, les enjeux éthiques, et l’encadrement juridique de cette évolution. »

Prospective-Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Prospective-Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune)

)

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historique comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

La programmation des véhicules autonomes en cas d’accident inévitable est un exemple de cas concret qui traduit inévitablement un choix moral. La recherche scientifique sur les préférences morales des individus peut aider à identifier les critères éthiques pour fonder ce choix moral. L’automatisation des décisions grâce à l’IA peut donner lieu à de réels progrès, tels que des décisions plus transparentes et moins partiales. Aussi, se posent des questions fondamentales sur les conséquences économiques, les enjeux éthiques, et l’encadrement juridique de cette évolution. »

 

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol