Archive pour le Tag 'régulation'

Page 6 sur 7

Pour une régulation du numérique

Pour une régulation du numérique 

L’action concertée d’autorités européennes indépendantes doit permettre de tenir l’équilibre entre respect des lois et liberté d’expression, affirment Roch-Olivier Maistre, président du CSA, et son homologue allemand, Tobias Schmid, dans une tribune au « Monde ».

 

Tribune. Nous sommes des Européens. L’un est français, l’autre allemand, et nous œuvrons ensemble pour le respect des valeurs fondamentales européennes dans les médias audiovisuels. Ces valeurs démocratiques qui seront au cœur – rien de moins – de la négociation à venir du Digital Services Act (DSA).

De quoi s’agit-il ? D’un véritable défi. Avec le DSA, la Commission européenne va devoir organiser et actualiser les diverses réglementations européennes liées au numérique, avec la question centrale du degré de régulation nécessaire des plates-formes de partage de contenus pour garantir nos libertés et nos droits dans une société démocratique.

 

Une régulation durable revient à rechercher le juste équilibre entre, d’un côté, le principe cardinal de liberté et, de l’autre, les limitations susceptibles de lui être apportées pour garantir l’intérêt général. Souhaitons-nous une liberté d’expression absolue ? Ou acceptons-nous de lui fixer des limites ? Ce débat est au centre des discussions réglementaires sur les enjeux transnationaux, la lutte contre les contenus haineux et la désinformation. Il a également été au fondement de diverses initiatives législatives nationales, telles que la loi française contre la manipulation de l’information (« loi fake news » ou « loi infox » de décembre 2018), ou la loi allemande sur la haine en ligne (NetzDG) de janvier 2018. 

Il revient aujourd’hui à l’Europe de résoudre cette tension et de proposer une réponse. Pourquoi ? Parce que nous le pouvons, forts de l’héritage de notre histoire mouvementée et de notre attachement profond à cette valeur fondamentale qu’est la liberté. Ce que l’Europe peut apporter à la numérisation de la société, c’est l’idée d’une liberté fondée sur l’Etat de droit. Nous avons besoin de règles pour être libres.

S’agissant du futur cadre réglementaire, la priorité est d’avoir un objectif clair. Pour nous, régulateurs, il s’agit avant tout de garantir la liberté d’expression, tout en protégeant la population contre les violations de la loi en ligne, telles que les atteintes à la dignité humaine, les menaces pesant sur les jeunes et les campagnes de désinformation.

« Quelle régulation des réseaux sociaux»

« Quelle régulation des réseaux sociaux»

 

 

Pour sortir de l’opacité qui alimente craintes et rumeurs de manipulations, le législateur doit confier à l’administration le pouvoir d’obtenir la transparence des plates-formes, estiment, dans une tribune au « Monde », Paula Forteza, députée, Aymeril Hoang et Benoît Loutrel, experts en numérique.

 

Tribune.

 

L’invalidation et les réserves d’interprétation décidées par le Conseil constitutionnel sur les lois de « lutte contre les contenus haineux sur Internet » et « contre la manipulation de l’information », ont le mérite de protéger sans concession la liberté d’expression. Elles soulignent aussi la difficulté à inventer un modèle de régulation des grands réseaux sociaux.

Dans une approche directe, la régulation porte sur les contenus publiés et se retrouve coincée dans une double contrainte : soit elle est respectueuse de nos libertés, mais au prix de son efficacité, en exerçant un contrôle trop tardif de l’expression publique ; soit elle est efficace, mais au prix de nos libertés, en exerçant un contrôle a priori par une entité illégitime.

Car selon nous, le juge judiciaire reste la seule autorité légitime pour sanctionner les abus de cette liberté. Rien ne saurait justifier de faire exception ou entorse au rôle de la justice, pas même le caractère instantané et massif de contenus contestables que permet le numérique. Alors, oui, la dématérialisation de notre parole, le recours à des pseudonymes, viennent percuter le mode opératoire de la justice. Mais il convient d’adapter les procédures judiciaires au contexte numérique et non d’en bouleverser les principes.

Dans l’attente de l’adaptation de la justice à la transition numérique, se pose néanmoins la question de l’action et de la responsabilité des grands réseaux sociaux. Participent-ils à une censure excessive de nos propos ou au contraire sont-ils trop permissifs à l’égard de nos abus ? Plus important peut-être, quelles sont les intentions et effets de ces traitements algorithmiques d’information à une échelle massive ? Cherchent-ils à influencer l’opinion publique ? S’en préoccupent-ils ? Qui utilise, et à quelles fins, cette infrastructure informationnelle pour cibler toujours plus finement des contenus qui ne se limitent pas nécessairement à nous vanter les vertus d’un bien ou d’un service ?

Le pouvoir des réseaux sociaux est à la fois similaire et fondamentalement différent de celui des médias traditionnels. Similaire, car en accélérant certaines informations, médias et réseaux sociaux influencent et permettent la formation de l’opinion publique. Radicalement différent, car les réseaux sociaux n’ont pas de protocole éditorial, qui voit l’éditeur sélectionner, un à un, les contenus. Leur pouvoir découle d’une fonction algorithmique, qui traite en masse les contenus.

 

« Régulation numérique, quelle éthique de responsabilité »

« Régulation numérique, quelle  éthique de responsabilité »

A une approche technique de la standardisation, les institutions européennes doivent intégrer une forte dimension juridique reposant sur un suivi des technologies dans leur évolution, estime Valérie Hernandez, spécialiste des questions d’économie du numérique, dans une tribune au « Monde ».

Tribune.

 

« Le 8 juin, l’entreprise IBM annonçait qu’elle ne vendrait, ni ne développerait plus de technologies de reconnaissance faciale. Dans la foulée, ce sont deux autres grands industriels du numérique, Amazon et Microsoft, qui lui ont emboîté le pas, annonçant désormais ne plus commercialiser ce type de technologies auprès des forces de police tant que cet usage ne serait pas encadré.

Au-delà du coup d’éclat dans un contexte politique particulièrement vif aux Etats-Unis et avec des forts échos dans le monde entier, ces annonces nous interrogent sur le rapport du secteur de la technologie à l’éthique. Si ces entreprises possédaient déjà des standards éthiques sur les technologies de reconnaissance faciale bien établis, auraient-elles en effet vendu ces technologies aux forces de l’ordre ?

Ce débat nous ramène aux deux formes d’éthique telles que définies par [le sociologue allemand] Max Weber (1864-1920) : une éthique de conviction et une éthique de responsabilité.

La première revient à agir en fonction d’une conviction supérieure qui rend certain de son action.

La seconde revient à agir en fonction des conséquences de ses actes et peut être nourrie également de conviction. L’actualité témoigne d’une incapacité à faire avancer une éthique de responsabilité dans le champ numérique.

Pourtant, les controverses n’ont souvent pas beaucoup d’utilité sociale. Elles tendent à imposer des croyances – positives ou négatives ou mal fondées – qui favorisent peu l’« empowerment » [le pouvoir d’agir] du citoyen. Elles ne permettent pas de remettre en cause des routines d’usage qu’il faudrait questionner : par exemple, des usages de loisirs – à l’instar du « face swapping » [procédé de photomontage] – qui participent de la banalisation de la reconnaissance faciale. Les acteurs sont enfermés dans des convictions et n’avancent pas dans leur responsabilité.

Dans la même veine, les discours sur la souveraineté numérique européenne qui lient l’éthique à une troisième voie européenne demeurent incantatoires. Alors que les droits et libertés fondamentaux, au plus haut niveau de la hiérarchie des normes et promus par le cadre juridique européen, notamment la Charte des droits fondamentaux, doivent être le ferment de cette approche éthique, en pratique, l’application de ce cadre juridique est marquée de profondes faiblesses.

L’Union européenne doit sortir de cette incantation et passer à une éthique de responsabilité. Pour rendre ce cadre efficient et ces principes opérants, notre continent doit se saisir politiquement des enjeux de la standardisation et ne pas la réduire à une discussion technique. Les Etats-Unis et la Chine l’ont bien compris et ont historiquement fait de la normalisation un terrain de bataille entre puissances dans le champ des technologies. »

Plates-formes numérique : quelle régulation du DSA

Plates-formes numérique : quelle régulation du DSA

L’action concertée d’autorités européennes indépendantes doit permettre de tenir l’équilibre entre respect des lois et liberté d’expression, affirment Roch-Olivier Maistre, président du CSA, et son homologue allemand, Tobias Schmid, dans une tribune au monde

Tribune. 

 

« Nous sommes des Européens. L’un est français, l’autre allemand, et nous œuvrons ensemble pour le respect des valeurs fondamentales européennes dans les médias audiovisuels. Ces valeurs démocratiques qui seront au cœur – rien de moins – de la négociation à venir du Digital Services Act (DSA).

De quoi s’agit-il ? D’un véritable défi. Avec le DSA, la Commission européenne va devoir organiser et actualiser les diverses réglementations européennes liées au numérique, avec la question centrale du degré de régulation nécessaire des plates-formes de partage de contenus pour garantir nos libertés et nos droits dans une société démocratique.

Une régulation durable revient à rechercher le juste équilibre entre, d’un côté, le principe cardinal de liberté et, de l’autre, les limitations susceptibles de lui être apportées pour garantir l’intérêt général. Souhaitons-nous une liberté d’expression absolue ? Ou acceptons-nous de lui fixer des limites ? Ce débat est au centre des discussions réglementaires sur les enjeux transnationaux, la lutte contre les contenus haineux et la désinformation. Il a également été au fondement de diverses initiatives législatives nationales, telles que la loi française contre la manipulation de l’information (« loi fake news » ou « loi infox » de décembre 2018), ou la loi allemande sur la haine en ligne (NetzDG) de janvier 2018.

Il revient aujourd’hui à l’Europe de résoudre cette tension et de proposer une réponse. Pourquoi ? Parce que nous le pouvons, forts de l’héritage de notre histoire mouvementée et de notre attachement profond à cette valeur fondamentale qu’est la liberté. Ce que l’Europe peut apporter à la numérisation de la société, c’est l’idée d’une liberté fondée sur l’Etat de droit. Nous avons besoin de règles pour être libres.

S’agissant du futur cadre réglementaire, la priorité est d’avoir un objectif clair. Pour nous, régulateurs, il s’agit avant tout de garantir la liberté d’expression, tout en protégeant la population contre les violations de la loi en ligne, telles que les atteintes à la dignité humaine, les menaces pesant sur les jeunes et les campagnes de désinformation.

Nous appuyant sur notre expérience, nous observons que l’indépendance des autorités de régulation des médias par rapport à l’Etat est bien plus importante que la structure, centrale ou fédérale, des autorités, et que la collaboration étroite et constructive des régulateurs au-delà des frontières nationales est d’une importance capitale. »

 

Le retour de la prospective et de la régulation ?

Le retour de la prospective et de la régulation ?

 

La crise sanitaire a mis en évidence deux types de défaillance. D’une part le délitement et l’inefficacité de l’État ,d’autre part d’incapacité du marché à répondre à une problématique relevant de la responsabilité régalienne. La faillite de l’État n’est pas tellement due à son champ d’application mais plutôt à son efficacité car les moyens sont substantiels. Comme souvent , il y a confusion entre l’objectif de service public et la nature juridique des institutions en charge de le mettre en œuvre. Du coup, toutes les superstructures sont considérées en charge de l’intérêt public alors que beaucoup résultent essentiellement d’un phénomène de bureaucratisation qui n’a pas grand-chose à voir avec l’intérêt général. Le secteur privé aussi a failli si l’on prend pour exemple les dérives de l’industrie pharmaceutique française qui a délocalisé sa production en Asie et en Chine en particulier. Du , se repose la question de la prospective et de la régulation. Le chef de l’État a même employé un terme tabou de la planification. Il faut rappeler que la France a délibérément éliminé le concept de plan depuis des années au nom du à libéralisme. Pourtant le plan en France, sauf après la libération, n’a jamais été un instrument d’étatisation de l’économie. C’était d’abord un exercice de prospective menée avec tous les acteurs économiques et qui se traduisait par la définition de quelques priorités représentant moins de 10% de la richesse nationale mais permettant cependant de définir des priorités stratégiques. Depuis les politiques publiques naviguent à vue au gré de l’évolution des modes et des sensibilités politiques. Il serait grand temps de reprendre ce travail d’analyse des grands domaines qui vont structurer l’avenir en articulant évidemment les problématiques économiques, sociales, sociétales et environnementales. Toutes les promesses du jour d’après vont se transformer en illusion si ce travail préalable d’analyse prospective n’est pas réalisé . En effet les changements structurels ne peuvent s’inscrire que dans la durée avec l’organisation de transitions .

 

La régulation de l’intelligence artificielle ?

La régulation de l’intelligence artificielle ?

 

 

Nozha Boujemaa,Directrice science & innovation chez Median Technologies estime indispensable  la régulation de l’IA. (Tribune dans le Monde)

 

« . La Commission européenne a annoncé fin février sa volonté de réguler l’intelligence artificielle (IA). Celle-ci suscite fantasmes, craintes et fascination. Les industriels européens redoutent le coût financier d’une telle régulation et brandissent le frein à l’innovation. Les consommateurs redoutent les discriminations. Serait-ce l’avenir ou le péril de l’humanité ? On entend l’un et l’autre : l’intelligence artificielle va sauver des vies, l’intelligence artificielle va décider de nos vies.

Existe-il une définition unique de l’intelligence artificielle ? La réponse est non, il y a autant de définitions que d’écoles de pensée et de communautés scientifiques. Par exemple entre l’IA statistique et l’IA symbolique, l’IA faible et l’IA forte, certaines sont explicables et d’autres pas encore. Aucun exercice de définition de l’IA n’a débouché sur un réel consensus, et parfois même l’exercice a été abandonné.

D’ailleurs, c’est une erreur que de personnaliser l’IA. Les algorithmes de l’IA et leurs dérives potentielles de toutes sortes (éthiques ou juridiques) ne sont qu’une codification des opinions de leurs concepteurs et de ceux qui les déploient. La tentation est très forte de réguler tout ce qui semble échapper à notre compréhension et à notre contrôle. Cette approche suppose que le simple fait d’établir de nouvelles règles juridiques sera un rempart protecteur face aux dérives potentielles.

La nécessité d’encadrer juridiquement l’usage des algorithmes de l’IA ne fait pas de doute, tant leurs champs d’application sont étendus et tant les brèches pour certaines dérives au service de leurs concepteurs sont possibles. La régulation des algorithmes de manière générale, et celle de l’IA en particulier, est un terrain de jeu tout à fait nouveau pour les juristes. Il faudrait une transformation numérique du métier juridique pour espérer une réelle efficacité. Il faudrait que les avocats se forment aux algorithmes sans pour autant en devenir spécialistes et que les cabinets d’avocats se dotent de spécialistes de l’IA pour cerner les questions à résoudre.

Autrement, la régulation ne donnera lieu qu’à des mesures descendantes traduisant les principes de ce qui doit être fait mais qui resteront non applicables. Comment un juriste pourrait-il s’assurer qu’un algorithme d’IA respecterait la nouvelle juridiction qui sera mise en place ? Ce qui doit guider la régulation de ce nouveau genre, c’est l’analyse du risque des décisions algorithmiques pour l’humain. Le secteur de la santé est bien en avance dans ce domaine pour l’homologation des services logiciels comme dispositifs médicaux, pour garantir la maîtrise des biais et de la répétabilité. »

 

 

Violences: le nouveau moyen de régulation sociale ?

Violences: le nouveau moyen de régulation sociale ?

 

Pour des motifs sociaux, culturel, sociétaux ou politique la violence s’érige en moyen privilégié d’expression des mécontentements. Certains objecteront que la violences sociales que subissent les plus défavorisés alimentent voire justifient le phénomène De nombreux facteurs explicatifs peuvent évidemment expliquer la montée des violences. Il y a nécessairement interaction entre des aspects économiques, sociaux, sociétaux et culturels. Ces violences se déroulent souvent dans des quartiers relativement défavorisés, caractérisés par un très fort taux de chômage, la désertion de nombre de services publics et le développement du trafic de drogue comme mode de régulation économique et sociale. On ne saurait cependant attribuer l’ampleur et la nature des violences au seul fait du misérabilisme de ces quartiers. En effet, d’autres violences se déroulent ailleurs dans la plupart des villes et même des villages. Des dégradations de biens publics ou de biens  privés de la part d’enfants ou de sauvageons comme dirait Chevènement. L’environnement économique et social peut permettre de comprendre la montée d’une partie de cette délinquance. Pour autant, une partie non négligeable de la responsabilité incombe à la société tout entière. D’abord peut-être aux parents dont certains ont adopté la pédagogie de l’enfant roi. L’enfant gâté, pourri, autorisé à s’affranchir de toute règle de vie collective y compris familiale. Dans certains cas,  on comprendra que dans certaines familles monoparentales, le parent -souvent la mère qui travaille– ait des difficultés à encadrer sa progéniture. Mais le phénomène affecte un très grand nombre d’autres familles de tous les milieux, de toutes les zones géographiques. Cette perte d’autorité se nourrit d’un individualisme mortifère pour  les relations collectives. Un seul exemple,  combien d’adultes disent encore bonjour en pénétrant dans une boulangerie ou chez le médecin ? Il est loin le temps où en zone rurale un enfant se devait de saluer chaque adulte rencontré. L’urbanisation à outrance, l’amollissement de l’éducation, le laisser-aller général autorisent désormais enfants et adolescents à toutes les dérives. Le problème c’est  que ces enfant deviennent adultes et que certains pratiquent la violence comme moyen de régulation sociale ou politique;. La société, c’est-à-dire l’État, l’école, la justice ou encore la police sont aussi responsables. La délinquance est finalement largement tolérée; les auteurs ne sont soumis qu’à des peines symboliques et la prévention, comme la sanction sont anecdotiques. On devrait évidemment sanctuariser l’autorité des représentants locaux de la république. Une seule question : pourquoi était-il  possible d’obtenir le respect et l’attention d’un instituteur dans une classe de 40 élèves et plus dans les années 50 quand en France les enseignants sont aujourd’hui  débordés avec 25 .  la réponse est assez simple  . En 1950, on ne trouvait guère de parents pour venir protester contre les notations de leurs enfants voire les punitions dont ils sont l’objet. Encore une fois, les dérives ne concernent pas seulement les quartiers sensibles même si là,  elles prennent des formes très spectaculaires et même parfois criminelles. Les actes de délinquance se généralisent  dans toutes les situations sociales et géographiques. Si des facteurs socio-économiques sont à prendre en compte, la dimension culturelle et civilisationnelle doit aussi être intégrée. Les civilisations ne meurent pas seulement en raison des mutations de l’environnement mais aussi de la déliquescence des valeurs qui  font société.

Catastrophes : « La régulation des risques protège avant tout l’industrie »

Catastrophes : « La régulation des risques protège avant tout l’industrie »

 

Thomas Le Roux, historien, estime que la régulation des risques est surtout assurée pour la protection de l’industrie et non des personnes.

 

Tribune. 

 

« C’est à 500 mètres de l’actuelle usine Lubrizol de Rouen qu’eut lieu la première grande pollution industrielle chimique en France, au cours des années 1770, dans le quartier Saint-Sever, sur la rive gauche : les fumées corrosives d’une fabrique d’acide sulfurique détruisirent la végétation alentour et on les soupçonna de menacer la santé publique. Malédiction sur le site ou simple coïncidence ? Ni l’un ni l’autre : mais c’est au miroir du passé que l’on peut mieux comprendre comment le risque industriel et les pollutions sont encadrés aujourd’hui.

Le procès instruit en 1772-1774 après la mise en cause de la fabrique d’acide, a en effet produit un basculement dans l’ordre des régulations environnementales, un vrai changement de paradigme lourd de conséquences.

Une mise en lumière du processus historique aide à répondre à un panache de questions, telles que : « Seveso, quèsaco ? », « Une usine dangereuse dans la ville, est-ce possible ? », « Tire-t-on les leçons d’une catastrophe industrielle ? » Ou encore : « l’industriel : responsable, pas coupable ? »

L’usine d’additifs pour essence et lubrifiants Lubrizol est classée « Seveso – seuil haut ». Elle est donc parfaitement connue des autorités de régulation, à savoir l’Inspection des établissements classés, qui dépend du ministère de la transition écologique et solidaire, et qui a un rôle préventif et de surveillance.

Le classement Seveso découle d’une harmonisation européenne des règles de droit des différents Etats régissant les industries les plus dangereuses. Il tire son nom de celui de la ville de Lombardie où, en juillet 1976, l’usine chimique Icmesa laisse s’échapper un nuage toxique de dioxine qui contamine les environs. Pour prévenir ce type d’accident, trois directives européennes Seveso sont successivement adoptées en 1982, 1996 et 2012 (entrée en vigueur en 2015). Une telle exposition des faits pourrait laisser penser que, tirant les leçons de l’expérience (un accident), les autorités réagissent et fondent un droit protecteur, sans cesse amélioré. Il n’en est rien.

D’une part parce qu’avant la mise en place des directives Seveso, les Etats avaient déjà leur propre réglementation, parfois plus sévère. D’autre part parce que les centrales nucléaires, par exemple, y échappent. Enfin, parce que l’on peut douter de l’efficacité du dispositif. »

Climat : une régulation par la justice ?

Climat : une régulation par la justice ?

 

 

Une justice transnationale pour réguler la politique climatique (sans doute à l’image du tribunal pénal international), ce que propose dans un livre Judith Rochfeld, enseignante en droit privé à la Sorbonne,  (extraits du Monde). La grande question qui se pose est de savoir si certains grands pays pollueurs voudront adhérer ou au contraire refuser cette organisation (comme c’est le cas par exemple pour le TPI que n’admettent) pas les États-Unis) (extraits du Monde).

« Peu de livres écrits par des universitaires contiennent autant de points d’exclamation, jusque dans leur titre, que Justice pour le climat ! C’est que son auteure, Judith Rochfeld, professeure de droit privé à la Sorbonne, ne prétend pas s’abstraire des passions, entre angoisse et espoir, qui animent toujours plus de personnes face à la catastrophe climatique.

Une lueur d’espoir vient des nouveaux mouvements civiques de résistance, notamment ceux portés par la jeunesse ou par des associations, voire des particuliers, qui demandent des comptes à l’Etat et aux entreprises en s’appuyant sur la justice. Le livre dresse le bilan international de ces nouvelles luttes et pose la question des instruments juridiques qui pourraient leur faciliter la tâche, et peut-être même nous amener à une relation protectrice avec la Terre.

 

Les procès contre différents Etats accusés d’inertie face aux changements climatiques procèdent largement des ambitions, des ambiguïtés et des déceptions dont était porteur l’accord de ­Paris de 2015, lors de la COP21. Son objectif de limiter la hausse de la température moyenne globale en deçà de 2 °C par rapport aux niveaux préindustriels s’accompagnait certes de modalités concrètes d’action et d’un cadre global de coopération, mais sans imposer de contrainte ni de ­sanction.

Il invitait aussi à la table, en plus des Etats, des « entités non parties » – associations, secteur privé ou villes. Or ce sont précisément certains de ces acteurs qui, utilisant l’accord comme un levier, se retournent désormais contre les Etats et cherchent à rendre juridiquement contraignants leurs engagements, pour les sommer d’agir sans se défausser sur les autres. Car tel est un des paradoxes apparents du moment présent : si le défi écologique est plus que jamais planétaire, les échecs répétés de la « gouvernance mondiale » en matière climatique conduisent à une sorte de reterritorialisation du global, obligeant chaque Etat, sous la pression de citoyens mobilisés, à balayer devant sa porte.

Les entreprises les plus polluantes font aussi l’objet de contestations inédites, en particulier les fameuses quatre-vingt-dix « Carbon Majors » énergétiques et cimentières, devant lesquelles se dressent même des Etats, mais aussi et surtout des villes et des ONG. C’est ainsi qu’aux Pays-Bas, après le procès de la Fondation Urgenda contre l’Etat néerlandais, s’est tenu en avril 2019 un procès cette fois contre le pétrolier Shell, mis en cause pour ses responsabilités en matière d’émission de gaz à effet de serre.

 

« Justice pour le climat ! Les nouvelles formes de mobilisation citoyenne », de Judith Rochfeld, Odile Jacob, 198 p., 19,90 € (en librairie le 28 août).

Une régulation européenne de la blockchain et ou des cryptomonnaies ?

Une régulation européenne de la blockchain et ou des cryptomonnaies ?

 

 

La blockchain est une technique qui permet de transmettre des informations par blocs et qui normalement est inviolable. Une technique uniquement régulée par sa propre loi (code algorithmique). Les informations peuvent être de différentes natures et pratiquement concerner la totalité des  espaces économiques ou sociaux. Évidemment sont concernées les cryptomonnaies et les crypto actif comme le bitcoin. La France voudrait intervenir pour une régulation à l’échelle européenne voir au-delà d’après le ministre de l’économie “Je vais (…) proposer à mes homologues européens la mise en place d’un cadre unique de régulation des cryptoactifs inspiré de l’expérience française (…) au niveau européen”, a précisé le ministre français de l’Economie et des Finances lors d’une conférence sur la “blockchain” à Bercy. Cela permettrait d’aboutir à “un marché unique de la ‘blockchain’ comme il existe d’autres marchés uniques dans d’autres domaines”, a-t-il estimé. Finalement la technique de scène est un peu comme la technique Internet elle n’a guère de frontières et on voit mal l’intérêt et l’efficience d’une régulation seulement nationale ou même européenne. Par ailleurs le ministre vise sans doute essentiellement le secteur financier afin de distinguer l’usage de la blockchain à usage à des fins de transactions financières, des cryptoactifs. La loi Pacte, adoptée définitivement la semaine dernière, met en place un cadre juridique pour les émissions de cryptomonnaies (ICO, ou offres initiales de jetons). Ce système, visant à protéger les épargnants et rassurer les investisseurs, repose sur la délivrance d’un agrément par l’Autorité des marchés financiers (AMF), pour les émetteurs volontaires. Il est cependant vraisemblable que les crypto menées ne vont pas demeurer dans l’espace marginal qu’elles occupent aujourd’hui et qu’une ou plusieurs d’entre elles pourraient un jour concurrencer les grands menés comme le dollar ou l’euro. La récente chute du cogne ne discrédite pas les crypto menées par l’avantage que le dollar ou d’autres qui reposent pour une grande partie sur du vent et de l’endettement. On peut leur reprocher leur cale caractère énergie énergivore mais pas la confiance qui constitue la base du système. Contrairement à d’autres monnaies qu’on prête curieusement par exemple à des taux négatifs !

Internet : les dangers d’une régulation précipitée (ONG internet Society)

Internet : les dangers d’une régulation précipitée (ONG internet Society)

 

La  directrice des politiques publiques de l’ONG Internet Society s’inquiète d’influence grandissante des GAFA mais tout autant d’une régulation précipitée. (‘Interview La Tribune)

 

Votre rapport alerte sur la « standardisation du web » sous l’effet d’une concentration de plus en plus marquée autour d’acteurs essentiellement américains (les Gafam – Google, Apple, Facebook, Amazon et Microsoft) et chinois (les Batx – Baidu, Alibaba, Tencent et Xiaomi). Quels risques cela fait-il peser sur l’économie et la société ?

CONSTANCE BOMMELAER DE LEUSSE - Quelques entreprises hégémoniques, comme Google dans la recherche en ligne, Facebook dans les réseaux sociaux et avec ses messageries Messenger, Instagram et WhatsApp, ou encore Amazon et Alibaba dans le e-commerce, concentrent l’essentiel de la valeur de l’économie numérique. Ce phénomène prend même de l’ampleur, car la domination de ces entreprises est accentuée par l’essor sans précédent des réseaux et par l’afflux des données récoltées en permanence sur les utilisateurs. Les géants du Net peuvent ainsi étendre leur influence et leur force de frappe sur de nouveaux marchés comme la mobilité autonome, le cloud, l’intelligence artificielle, la santé, le paiement et bien d’autres domaines.

En d’autres termes, ils sont devenus « too big to fail ». Leurs écosystèmes de services globaux, parfois fermés, facilitent grandement le quotidien et créent une vraie dépendance économique. Les entreprises, notamment les TPE et les PME, doivent souvent les utiliser pour exister en ligne. De fait, cette domination limite en réalité le choix des usagers et peut compliquer l’éclosion de services concurrents. Elle pourrait menacer la nature même d’Internet, qui est par essence libre et ouvert, composé d’une interconnexion de réseaux indépendants les uns des autres.

 

Pourtant, vous mettez en garde les régulateurs sur la nécessité de ne pas se précipiter pour réguler. N’est-ce pas paradoxal ?

Non, car un remède mal conçu pourrait être pire que le mal. Le danger de réguler trop vite, de ne pas articuler les différentes normes au niveau international, pourrait avoir des conséquences difficiles à prévoir. La multiplication des régulations pourrait par effet de ricochet créer plusieurs webs selon les lois en vigueur, avec des conséquences potentiellement néfastes sur l’innovation. En clair, en fonction du pays où un utilisateur se trouve, il n’aurait pas accès aux mêmes contenus et aux mêmes services sur Internet.

Si chaque grande région du monde, voire chaque pays, développe ses propres régulations sur la fiscalité ou la protection des consommateurs, on risque de fragmenter l’espace numérique sans pour autant agir efficacement sur le phénomène de la concentration des pouvoirs autour des géants du Net, qui ont les moyens de s’adapter aux

La France, avec sa « taxe Gafa » qui vient d’être annoncée par Bruno Le Maire, et l’Union européenne, avec notamment le Règlement général sur la protection des données (RGPD), ont déjà enclenché la machine. Est-ce une erreur ?

Il est regrettable que le débat public aujourd’hui se concentre uniquement sur la partie visible de l’iceberg. Pour nous, la concentration des géants du Net est plus complexe. Elle agit à trois niveaux. Le premier, le plus évident, est celui des applications et usages sur Internet, dominés par cinq grosses entreprises qui sont Google, Amazon, Tencent, Facebook et Alibaba. Google et Facebook cannibalisent à eux deux 80% du marché publicitaire mondial, Amazon pèse près de 50% du e-commerce, Google 90% de la recherche en ligne en Europe, Alibaba est l’équivalent d’Amazon en Chine tandis que Tencent, via WeChat, est une plateforme polyforme qui touche plus d’un milliard d’utilisateurs. Cette concentration des usages autour de quelques acteurs inquiète l’opinion et pousse les régulateurs à agir.

Or, deux autres niveaux de concentration, plus discrets, sont tout aussi importants : l’accès aux infrastructures et les services associés à ces infrastructures. Dans chaque pays un petit nombre de fournisseurs d’accès à internet (FAI) maîtrisent les réseaux. Parfois, notamment dans les pays en développement comme en Afrique, il n’existe qu’un ou deux FAI, ce qui pose question. Par ailleurs, les leaders mondiaux du cloud computing, c’est-à-dire Amazon, Microsoft, Google, IBM et Alibaba, disposent d’un pouvoir grandissant car ils fournissent l’infrastructure sur laquelle se développe l’économie numérique.

Il faut appréhender ces trois niveaux de concentration. Les deux derniers sont le nerf de la guerre pour que ces monopoles perdurent sur la durée. On sait moins que Google et Facebook, davantage connus pour leur domination dans les usages, investissent aussi massivement dans les câbles sous-marins et les infrastructures du Net, car il s’agit d’un enjeu de diversification stratégique pour eux. Les géants du Net pratiquent une consolidation à la fois horizontale – étendre leurs activités -, et verticale – maîtriser l’ensemble de la chaîne de valeur de l’innovation. Ils investissent aussi énormément dans la recherche fondamentale pour se mettre en position de profiter d’une éventuelle rupture technologique.

 

Quelle approche de la régulation préconisez-vous ?

L’enjeu principal est avant tout de protéger l’Internet, c’est-à-dire sa neutralité et son caractère libre et ouvert, pour ne pas brider l’innovation et permettre à d’autres entreprises de pénétrer le marché. On oublie que la concentration autour de quelques géants est un phénomène économique naturel. La liberté et l’ouverture qui caractérisent l’Internet ont permis l’éclosion d’entreprises devenues hégémoniques, comme Yahoo ou Myspace dans les années 1990, qui ont elles-mêmes été remplacées, avec l’avènement de nouvelles ruptures technologiques, par les géants actuels. Il faut garder en tête que dans l’histoire économique, les monopoles changent. Dans les années 1990, on appréhendait Yahoo et Myspace exactement comme Google, Facebook et Amazon aujourd’hui.

De fait, certains pays annoncent des mesures fiscales ou des réglementations sur les données. Ces tentatives sont précipitées, pour répondre à une pression de l’opinion publique. Alors même que plusieurs questions restent en suspens. Si une forme d’intervention publique est nécessaire, faut-il refonder le droit de la concurrence, renforcer la protection du consommateur ou encore ajuster la fiscalité ? Les politiques communiquent sur des mesures avant même d’avoir appréhendé le problème dans sa globalité. Au-delà du risque de fragmenter l’Internet en régulant à outrance, nous nous inquiétons aussi que les gouvernements finissent par brider les bienfaits de cette concentration. Car ils existent. Les géants du Net ont accéléré la digitalisation d’un grand nombre d’entreprises dans de nombreux secteurs, y compris des PME et des TPE. Ils ont offert aux utilisateurs des univers beaucoup plus homogènes, pratiques et sécurisés. Le discours dominant est alarmiste, alors que le bilan global est plus nuancé.

Vous dites que les monopoles d’aujourd’hui ne sont pas forcément ceux de demain. Mais grâce à leurs extraordinaires moyens d’investissement dans la recherche fondamentale et leur capacité à aspirer l’innovation, les géants actuels ne se mettent-ils pas en position de faire perdurer leur puissance dans la durée, contrairement aux empires d’hier ?

La blockchain, l’Internet des objets et l’intelligence artificielle sont loin d’avoir livré tout leur potentiel. D’autres technologies vont sûrement arriver et rebattre les cartes. Est-ce que les géants actuels qui investissent massivement dans la recherche fondamentale sont mieux placés que les autres pour perdurer ? Intuitivement, on peut le penser mais l’histoire nous réserve probablement des surprises. Google, Netflix, Uber et Facebook ne sont peut-être pas là pour toujours. Si on préserve la neutralité technologique et des principes comme l’interopérabilité des systèmes informatiques, la capacité d’innovation restera intacte et il ne sera pas impossible pour de nouveaux acteurs de pénétrer le marché. Il n’y a pas de fatalité.

 

Organisation de l’Etat : la grande confusion entre régulation et organisation

Organisation de l’Etat : la grande confusion entre régulation et organisation

 

On a vu dans un article précédent concernant la fiscalité et les services publics que Macron -comme beaucoup dans le pays- continue d’entretenir une grande confusion entre le concept de service public, les moyens de l’organiser et les statuts des personnels. Cette confusion se confirme dans la deuxième question relative à l’organisation des services publics qu’on ne semble pas pouvoir être pris en charge autrement que par des administrations !  Or la plupart sinon la totalité des services publics gérés directement par les administrations sont déficitaires ce qui n’est pas le cas lorsque la gestion est assurée par le privé par délégation de service public.

 

L’organisation de l’Etat et des collectivités publiques. Le texte officiel de Macron sur ce thème :

 

 

« Le deuxième sujet sur lequel nous devons prendre des décisions, c’est l’organisation de l’Etat et des collectivités publiques.

 Les services publics ont un coût, mais ils sont vitaux: école, police, armée, hôpitaux, tribunaux sont indispensables à notre cohésion sociale.

Y a-t-il trop d’échelons administratifs ou de niveaux de collectivités locales? Faut-il renforcer la décentralisation et donner plus de pouvoir de décision et d’action au plus près des citoyens? À quels niveaux et pour quels services?

Comment voudriez-vous que l’État soit organisé et comment peut-il améliorer son action? Faut-il revoir le fonctionnement de l’administration et comment?

Comment l’Etat et les collectivités locales peuvent-ils s’améliorer pour mieux répondre aux défis de nos territoires les plus en difficulté et que proposez-vous? »

 

Conclusion une partie de texte  très floue et mal problématisée.

 

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA, pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune)

)

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historique comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

La programmation des véhicules autonomes en cas d’accident inévitable est un exemple de cas concret qui traduit inévitablement un choix moral. La recherche scientifique sur les préférences morales des individus peut aider à identifier les critères éthiques pour fonder ce choix moral. L’automatisation des décisions grâce à l’IA peut donner lieu à de réels progrès, tels que des décisions plus transparentes et moins partiales. Aussi, se posent des questions fondamentales sur les conséquences économiques, les enjeux éthiques, et l’encadrement juridique de cette évolution. »

Prospective-Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Prospective-Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune)

)

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historique comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

La programmation des véhicules autonomes en cas d’accident inévitable est un exemple de cas concret qui traduit inévitablement un choix moral. La recherche scientifique sur les préférences morales des individus peut aider à identifier les critères éthiques pour fonder ce choix moral. L’automatisation des décisions grâce à l’IA peut donner lieu à de réels progrès, tels que des décisions plus transparentes et moins partiales. Aussi, se posent des questions fondamentales sur les conséquences économiques, les enjeux éthiques, et l’encadrement juridique de cette évolution. »

 

Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune )

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historiques comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

 

 

 

1...34567



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol