Archive pour le Tag 'régulation'

Pour une régulation du numérique

Pour une régulation du numérique 

L’action concertée d’autorités européennes indépendantes doit permettre de tenir l’équilibre entre respect des lois et liberté d’expression, affirment Roch-Olivier Maistre, président du CSA, et son homologue allemand, Tobias Schmid, dans une tribune au « Monde ».

 

Tribune. Nous sommes des Européens. L’un est français, l’autre allemand, et nous œuvrons ensemble pour le respect des valeurs fondamentales européennes dans les médias audiovisuels. Ces valeurs démocratiques qui seront au cœur – rien de moins – de la négociation à venir du Digital Services Act (DSA).

De quoi s’agit-il ? D’un véritable défi. Avec le DSA, la Commission européenne va devoir organiser et actualiser les diverses réglementations européennes liées au numérique, avec la question centrale du degré de régulation nécessaire des plates-formes de partage de contenus pour garantir nos libertés et nos droits dans une société démocratique.

 

Une régulation durable revient à rechercher le juste équilibre entre, d’un côté, le principe cardinal de liberté et, de l’autre, les limitations susceptibles de lui être apportées pour garantir l’intérêt général. Souhaitons-nous une liberté d’expression absolue ? Ou acceptons-nous de lui fixer des limites ? Ce débat est au centre des discussions réglementaires sur les enjeux transnationaux, la lutte contre les contenus haineux et la désinformation. Il a également été au fondement de diverses initiatives législatives nationales, telles que la loi française contre la manipulation de l’information (« loi fake news » ou « loi infox » de décembre 2018), ou la loi allemande sur la haine en ligne (NetzDG) de janvier 2018. 

Il revient aujourd’hui à l’Europe de résoudre cette tension et de proposer une réponse. Pourquoi ? Parce que nous le pouvons, forts de l’héritage de notre histoire mouvementée et de notre attachement profond à cette valeur fondamentale qu’est la liberté. Ce que l’Europe peut apporter à la numérisation de la société, c’est l’idée d’une liberté fondée sur l’Etat de droit. Nous avons besoin de règles pour être libres.

S’agissant du futur cadre réglementaire, la priorité est d’avoir un objectif clair. Pour nous, régulateurs, il s’agit avant tout de garantir la liberté d’expression, tout en protégeant la population contre les violations de la loi en ligne, telles que les atteintes à la dignité humaine, les menaces pesant sur les jeunes et les campagnes de désinformation.

« Quelle régulation des réseaux sociaux»

« Quelle régulation des réseaux sociaux»

 

 

Pour sortir de l’opacité qui alimente craintes et rumeurs de manipulations, le législateur doit confier à l’administration le pouvoir d’obtenir la transparence des plates-formes, estiment, dans une tribune au « Monde », Paula Forteza, députée, Aymeril Hoang et Benoît Loutrel, experts en numérique.

 

Tribune.

 

L’invalidation et les réserves d’interprétation décidées par le Conseil constitutionnel sur les lois de « lutte contre les contenus haineux sur Internet » et « contre la manipulation de l’information », ont le mérite de protéger sans concession la liberté d’expression. Elles soulignent aussi la difficulté à inventer un modèle de régulation des grands réseaux sociaux.

Dans une approche directe, la régulation porte sur les contenus publiés et se retrouve coincée dans une double contrainte : soit elle est respectueuse de nos libertés, mais au prix de son efficacité, en exerçant un contrôle trop tardif de l’expression publique ; soit elle est efficace, mais au prix de nos libertés, en exerçant un contrôle a priori par une entité illégitime.

Car selon nous, le juge judiciaire reste la seule autorité légitime pour sanctionner les abus de cette liberté. Rien ne saurait justifier de faire exception ou entorse au rôle de la justice, pas même le caractère instantané et massif de contenus contestables que permet le numérique. Alors, oui, la dématérialisation de notre parole, le recours à des pseudonymes, viennent percuter le mode opératoire de la justice. Mais il convient d’adapter les procédures judiciaires au contexte numérique et non d’en bouleverser les principes.

Dans l’attente de l’adaptation de la justice à la transition numérique, se pose néanmoins la question de l’action et de la responsabilité des grands réseaux sociaux. Participent-ils à une censure excessive de nos propos ou au contraire sont-ils trop permissifs à l’égard de nos abus ? Plus important peut-être, quelles sont les intentions et effets de ces traitements algorithmiques d’information à une échelle massive ? Cherchent-ils à influencer l’opinion publique ? S’en préoccupent-ils ? Qui utilise, et à quelles fins, cette infrastructure informationnelle pour cibler toujours plus finement des contenus qui ne se limitent pas nécessairement à nous vanter les vertus d’un bien ou d’un service ?

Le pouvoir des réseaux sociaux est à la fois similaire et fondamentalement différent de celui des médias traditionnels. Similaire, car en accélérant certaines informations, médias et réseaux sociaux influencent et permettent la formation de l’opinion publique. Radicalement différent, car les réseaux sociaux n’ont pas de protocole éditorial, qui voit l’éditeur sélectionner, un à un, les contenus. Leur pouvoir découle d’une fonction algorithmique, qui traite en masse les contenus.

 

« Régulation numérique, quelle éthique de responsabilité »

« Régulation numérique, quelle  éthique de responsabilité »

A une approche technique de la standardisation, les institutions européennes doivent intégrer une forte dimension juridique reposant sur un suivi des technologies dans leur évolution, estime Valérie Hernandez, spécialiste des questions d’économie du numérique, dans une tribune au « Monde ».

Tribune.

 

« Le 8 juin, l’entreprise IBM annonçait qu’elle ne vendrait, ni ne développerait plus de technologies de reconnaissance faciale. Dans la foulée, ce sont deux autres grands industriels du numérique, Amazon et Microsoft, qui lui ont emboîté le pas, annonçant désormais ne plus commercialiser ce type de technologies auprès des forces de police tant que cet usage ne serait pas encadré.

Au-delà du coup d’éclat dans un contexte politique particulièrement vif aux Etats-Unis et avec des forts échos dans le monde entier, ces annonces nous interrogent sur le rapport du secteur de la technologie à l’éthique. Si ces entreprises possédaient déjà des standards éthiques sur les technologies de reconnaissance faciale bien établis, auraient-elles en effet vendu ces technologies aux forces de l’ordre ?

Ce débat nous ramène aux deux formes d’éthique telles que définies par [le sociologue allemand] Max Weber (1864-1920) : une éthique de conviction et une éthique de responsabilité.

La première revient à agir en fonction d’une conviction supérieure qui rend certain de son action.

La seconde revient à agir en fonction des conséquences de ses actes et peut être nourrie également de conviction. L’actualité témoigne d’une incapacité à faire avancer une éthique de responsabilité dans le champ numérique.

Pourtant, les controverses n’ont souvent pas beaucoup d’utilité sociale. Elles tendent à imposer des croyances – positives ou négatives ou mal fondées – qui favorisent peu l’« empowerment » [le pouvoir d’agir] du citoyen. Elles ne permettent pas de remettre en cause des routines d’usage qu’il faudrait questionner : par exemple, des usages de loisirs – à l’instar du « face swapping » [procédé de photomontage] – qui participent de la banalisation de la reconnaissance faciale. Les acteurs sont enfermés dans des convictions et n’avancent pas dans leur responsabilité.

Dans la même veine, les discours sur la souveraineté numérique européenne qui lient l’éthique à une troisième voie européenne demeurent incantatoires. Alors que les droits et libertés fondamentaux, au plus haut niveau de la hiérarchie des normes et promus par le cadre juridique européen, notamment la Charte des droits fondamentaux, doivent être le ferment de cette approche éthique, en pratique, l’application de ce cadre juridique est marquée de profondes faiblesses.

L’Union européenne doit sortir de cette incantation et passer à une éthique de responsabilité. Pour rendre ce cadre efficient et ces principes opérants, notre continent doit se saisir politiquement des enjeux de la standardisation et ne pas la réduire à une discussion technique. Les Etats-Unis et la Chine l’ont bien compris et ont historiquement fait de la normalisation un terrain de bataille entre puissances dans le champ des technologies. »

Plates-formes numérique : quelle régulation du DSA

Plates-formes numérique : quelle régulation du DSA

L’action concertée d’autorités européennes indépendantes doit permettre de tenir l’équilibre entre respect des lois et liberté d’expression, affirment Roch-Olivier Maistre, président du CSA, et son homologue allemand, Tobias Schmid, dans une tribune au monde

Tribune. 

 

« Nous sommes des Européens. L’un est français, l’autre allemand, et nous œuvrons ensemble pour le respect des valeurs fondamentales européennes dans les médias audiovisuels. Ces valeurs démocratiques qui seront au cœur – rien de moins – de la négociation à venir du Digital Services Act (DSA).

De quoi s’agit-il ? D’un véritable défi. Avec le DSA, la Commission européenne va devoir organiser et actualiser les diverses réglementations européennes liées au numérique, avec la question centrale du degré de régulation nécessaire des plates-formes de partage de contenus pour garantir nos libertés et nos droits dans une société démocratique.

Une régulation durable revient à rechercher le juste équilibre entre, d’un côté, le principe cardinal de liberté et, de l’autre, les limitations susceptibles de lui être apportées pour garantir l’intérêt général. Souhaitons-nous une liberté d’expression absolue ? Ou acceptons-nous de lui fixer des limites ? Ce débat est au centre des discussions réglementaires sur les enjeux transnationaux, la lutte contre les contenus haineux et la désinformation. Il a également été au fondement de diverses initiatives législatives nationales, telles que la loi française contre la manipulation de l’information (« loi fake news » ou « loi infox » de décembre 2018), ou la loi allemande sur la haine en ligne (NetzDG) de janvier 2018.

Il revient aujourd’hui à l’Europe de résoudre cette tension et de proposer une réponse. Pourquoi ? Parce que nous le pouvons, forts de l’héritage de notre histoire mouvementée et de notre attachement profond à cette valeur fondamentale qu’est la liberté. Ce que l’Europe peut apporter à la numérisation de la société, c’est l’idée d’une liberté fondée sur l’Etat de droit. Nous avons besoin de règles pour être libres.

S’agissant du futur cadre réglementaire, la priorité est d’avoir un objectif clair. Pour nous, régulateurs, il s’agit avant tout de garantir la liberté d’expression, tout en protégeant la population contre les violations de la loi en ligne, telles que les atteintes à la dignité humaine, les menaces pesant sur les jeunes et les campagnes de désinformation.

Nous appuyant sur notre expérience, nous observons que l’indépendance des autorités de régulation des médias par rapport à l’Etat est bien plus importante que la structure, centrale ou fédérale, des autorités, et que la collaboration étroite et constructive des régulateurs au-delà des frontières nationales est d’une importance capitale. »

 

Le retour de la prospective et de la régulation ?

Le retour de la prospective et de la régulation ?

 

La crise sanitaire a mis en évidence deux types de défaillance. D’une part le délitement et l’inefficacité de l’État ,d’autre part d’incapacité du marché à répondre à une problématique relevant de la responsabilité régalienne. La faillite de l’État n’est pas tellement due à son champ d’application mais plutôt à son efficacité car les moyens sont substantiels. Comme souvent , il y a confusion entre l’objectif de service public et la nature juridique des institutions en charge de le mettre en œuvre. Du coup, toutes les superstructures sont considérées en charge de l’intérêt public alors que beaucoup résultent essentiellement d’un phénomène de bureaucratisation qui n’a pas grand-chose à voir avec l’intérêt général. Le secteur privé aussi a failli si l’on prend pour exemple les dérives de l’industrie pharmaceutique française qui a délocalisé sa production en Asie et en Chine en particulier. Du , se repose la question de la prospective et de la régulation. Le chef de l’État a même employé un terme tabou de la planification. Il faut rappeler que la France a délibérément éliminé le concept de plan depuis des années au nom du à libéralisme. Pourtant le plan en France, sauf après la libération, n’a jamais été un instrument d’étatisation de l’économie. C’était d’abord un exercice de prospective menée avec tous les acteurs économiques et qui se traduisait par la définition de quelques priorités représentant moins de 10% de la richesse nationale mais permettant cependant de définir des priorités stratégiques. Depuis les politiques publiques naviguent à vue au gré de l’évolution des modes et des sensibilités politiques. Il serait grand temps de reprendre ce travail d’analyse des grands domaines qui vont structurer l’avenir en articulant évidemment les problématiques économiques, sociales, sociétales et environnementales. Toutes les promesses du jour d’après vont se transformer en illusion si ce travail préalable d’analyse prospective n’est pas réalisé . En effet les changements structurels ne peuvent s’inscrire que dans la durée avec l’organisation de transitions .

 

La régulation de l’intelligence artificielle ?

La régulation de l’intelligence artificielle ?

 

 

Nozha Boujemaa,Directrice science & innovation chez Median Technologies estime indispensable  la régulation de l’IA. (Tribune dans le Monde)

 

« . La Commission européenne a annoncé fin février sa volonté de réguler l’intelligence artificielle (IA). Celle-ci suscite fantasmes, craintes et fascination. Les industriels européens redoutent le coût financier d’une telle régulation et brandissent le frein à l’innovation. Les consommateurs redoutent les discriminations. Serait-ce l’avenir ou le péril de l’humanité ? On entend l’un et l’autre : l’intelligence artificielle va sauver des vies, l’intelligence artificielle va décider de nos vies.

Existe-il une définition unique de l’intelligence artificielle ? La réponse est non, il y a autant de définitions que d’écoles de pensée et de communautés scientifiques. Par exemple entre l’IA statistique et l’IA symbolique, l’IA faible et l’IA forte, certaines sont explicables et d’autres pas encore. Aucun exercice de définition de l’IA n’a débouché sur un réel consensus, et parfois même l’exercice a été abandonné.

D’ailleurs, c’est une erreur que de personnaliser l’IA. Les algorithmes de l’IA et leurs dérives potentielles de toutes sortes (éthiques ou juridiques) ne sont qu’une codification des opinions de leurs concepteurs et de ceux qui les déploient. La tentation est très forte de réguler tout ce qui semble échapper à notre compréhension et à notre contrôle. Cette approche suppose que le simple fait d’établir de nouvelles règles juridiques sera un rempart protecteur face aux dérives potentielles.

La nécessité d’encadrer juridiquement l’usage des algorithmes de l’IA ne fait pas de doute, tant leurs champs d’application sont étendus et tant les brèches pour certaines dérives au service de leurs concepteurs sont possibles. La régulation des algorithmes de manière générale, et celle de l’IA en particulier, est un terrain de jeu tout à fait nouveau pour les juristes. Il faudrait une transformation numérique du métier juridique pour espérer une réelle efficacité. Il faudrait que les avocats se forment aux algorithmes sans pour autant en devenir spécialistes et que les cabinets d’avocats se dotent de spécialistes de l’IA pour cerner les questions à résoudre.

Autrement, la régulation ne donnera lieu qu’à des mesures descendantes traduisant les principes de ce qui doit être fait mais qui resteront non applicables. Comment un juriste pourrait-il s’assurer qu’un algorithme d’IA respecterait la nouvelle juridiction qui sera mise en place ? Ce qui doit guider la régulation de ce nouveau genre, c’est l’analyse du risque des décisions algorithmiques pour l’humain. Le secteur de la santé est bien en avance dans ce domaine pour l’homologation des services logiciels comme dispositifs médicaux, pour garantir la maîtrise des biais et de la répétabilité. »

 

 

Violences: le nouveau moyen de régulation sociale ?

Violences: le nouveau moyen de régulation sociale ?

 

Pour des motifs sociaux, culturel, sociétaux ou politique la violence s’érige en moyen privilégié d’expression des mécontentements. Certains objecteront que la violences sociales que subissent les plus défavorisés alimentent voire justifient le phénomène De nombreux facteurs explicatifs peuvent évidemment expliquer la montée des violences. Il y a nécessairement interaction entre des aspects économiques, sociaux, sociétaux et culturels. Ces violences se déroulent souvent dans des quartiers relativement défavorisés, caractérisés par un très fort taux de chômage, la désertion de nombre de services publics et le développement du trafic de drogue comme mode de régulation économique et sociale. On ne saurait cependant attribuer l’ampleur et la nature des violences au seul fait du misérabilisme de ces quartiers. En effet, d’autres violences se déroulent ailleurs dans la plupart des villes et même des villages. Des dégradations de biens publics ou de biens  privés de la part d’enfants ou de sauvageons comme dirait Chevènement. L’environnement économique et social peut permettre de comprendre la montée d’une partie de cette délinquance. Pour autant, une partie non négligeable de la responsabilité incombe à la société tout entière. D’abord peut-être aux parents dont certains ont adopté la pédagogie de l’enfant roi. L’enfant gâté, pourri, autorisé à s’affranchir de toute règle de vie collective y compris familiale. Dans certains cas,  on comprendra que dans certaines familles monoparentales, le parent -souvent la mère qui travaille– ait des difficultés à encadrer sa progéniture. Mais le phénomène affecte un très grand nombre d’autres familles de tous les milieux, de toutes les zones géographiques. Cette perte d’autorité se nourrit d’un individualisme mortifère pour  les relations collectives. Un seul exemple,  combien d’adultes disent encore bonjour en pénétrant dans une boulangerie ou chez le médecin ? Il est loin le temps où en zone rurale un enfant se devait de saluer chaque adulte rencontré. L’urbanisation à outrance, l’amollissement de l’éducation, le laisser-aller général autorisent désormais enfants et adolescents à toutes les dérives. Le problème c’est  que ces enfant deviennent adultes et que certains pratiquent la violence comme moyen de régulation sociale ou politique;. La société, c’est-à-dire l’État, l’école, la justice ou encore la police sont aussi responsables. La délinquance est finalement largement tolérée; les auteurs ne sont soumis qu’à des peines symboliques et la prévention, comme la sanction sont anecdotiques. On devrait évidemment sanctuariser l’autorité des représentants locaux de la république. Une seule question : pourquoi était-il  possible d’obtenir le respect et l’attention d’un instituteur dans une classe de 40 élèves et plus dans les années 50 quand en France les enseignants sont aujourd’hui  débordés avec 25 .  la réponse est assez simple  . En 1950, on ne trouvait guère de parents pour venir protester contre les notations de leurs enfants voire les punitions dont ils sont l’objet. Encore une fois, les dérives ne concernent pas seulement les quartiers sensibles même si là,  elles prennent des formes très spectaculaires et même parfois criminelles. Les actes de délinquance se généralisent  dans toutes les situations sociales et géographiques. Si des facteurs socio-économiques sont à prendre en compte, la dimension culturelle et civilisationnelle doit aussi être intégrée. Les civilisations ne meurent pas seulement en raison des mutations de l’environnement mais aussi de la déliquescence des valeurs qui  font société.

Catastrophes : « La régulation des risques protège avant tout l’industrie »

Catastrophes : « La régulation des risques protège avant tout l’industrie »

 

Thomas Le Roux, historien, estime que la régulation des risques est surtout assurée pour la protection de l’industrie et non des personnes.

 

Tribune. 

 

« C’est à 500 mètres de l’actuelle usine Lubrizol de Rouen qu’eut lieu la première grande pollution industrielle chimique en France, au cours des années 1770, dans le quartier Saint-Sever, sur la rive gauche : les fumées corrosives d’une fabrique d’acide sulfurique détruisirent la végétation alentour et on les soupçonna de menacer la santé publique. Malédiction sur le site ou simple coïncidence ? Ni l’un ni l’autre : mais c’est au miroir du passé que l’on peut mieux comprendre comment le risque industriel et les pollutions sont encadrés aujourd’hui.

Le procès instruit en 1772-1774 après la mise en cause de la fabrique d’acide, a en effet produit un basculement dans l’ordre des régulations environnementales, un vrai changement de paradigme lourd de conséquences.

Une mise en lumière du processus historique aide à répondre à un panache de questions, telles que : « Seveso, quèsaco ? », « Une usine dangereuse dans la ville, est-ce possible ? », « Tire-t-on les leçons d’une catastrophe industrielle ? » Ou encore : « l’industriel : responsable, pas coupable ? »

L’usine d’additifs pour essence et lubrifiants Lubrizol est classée « Seveso – seuil haut ». Elle est donc parfaitement connue des autorités de régulation, à savoir l’Inspection des établissements classés, qui dépend du ministère de la transition écologique et solidaire, et qui a un rôle préventif et de surveillance.

Le classement Seveso découle d’une harmonisation européenne des règles de droit des différents Etats régissant les industries les plus dangereuses. Il tire son nom de celui de la ville de Lombardie où, en juillet 1976, l’usine chimique Icmesa laisse s’échapper un nuage toxique de dioxine qui contamine les environs. Pour prévenir ce type d’accident, trois directives européennes Seveso sont successivement adoptées en 1982, 1996 et 2012 (entrée en vigueur en 2015). Une telle exposition des faits pourrait laisser penser que, tirant les leçons de l’expérience (un accident), les autorités réagissent et fondent un droit protecteur, sans cesse amélioré. Il n’en est rien.

D’une part parce qu’avant la mise en place des directives Seveso, les Etats avaient déjà leur propre réglementation, parfois plus sévère. D’autre part parce que les centrales nucléaires, par exemple, y échappent. Enfin, parce que l’on peut douter de l’efficacité du dispositif. »

Climat : une régulation par la justice ?

Climat : une régulation par la justice ?

 

 

Une justice transnationale pour réguler la politique climatique (sans doute à l’image du tribunal pénal international), ce que propose dans un livre Judith Rochfeld, enseignante en droit privé à la Sorbonne,  (extraits du Monde). La grande question qui se pose est de savoir si certains grands pays pollueurs voudront adhérer ou au contraire refuser cette organisation (comme c’est le cas par exemple pour le TPI que n’admettent) pas les États-Unis) (extraits du Monde).

« Peu de livres écrits par des universitaires contiennent autant de points d’exclamation, jusque dans leur titre, que Justice pour le climat ! C’est que son auteure, Judith Rochfeld, professeure de droit privé à la Sorbonne, ne prétend pas s’abstraire des passions, entre angoisse et espoir, qui animent toujours plus de personnes face à la catastrophe climatique.

Une lueur d’espoir vient des nouveaux mouvements civiques de résistance, notamment ceux portés par la jeunesse ou par des associations, voire des particuliers, qui demandent des comptes à l’Etat et aux entreprises en s’appuyant sur la justice. Le livre dresse le bilan international de ces nouvelles luttes et pose la question des instruments juridiques qui pourraient leur faciliter la tâche, et peut-être même nous amener à une relation protectrice avec la Terre.

 

Les procès contre différents Etats accusés d’inertie face aux changements climatiques procèdent largement des ambitions, des ambiguïtés et des déceptions dont était porteur l’accord de ­Paris de 2015, lors de la COP21. Son objectif de limiter la hausse de la température moyenne globale en deçà de 2 °C par rapport aux niveaux préindustriels s’accompagnait certes de modalités concrètes d’action et d’un cadre global de coopération, mais sans imposer de contrainte ni de ­sanction.

Il invitait aussi à la table, en plus des Etats, des « entités non parties » – associations, secteur privé ou villes. Or ce sont précisément certains de ces acteurs qui, utilisant l’accord comme un levier, se retournent désormais contre les Etats et cherchent à rendre juridiquement contraignants leurs engagements, pour les sommer d’agir sans se défausser sur les autres. Car tel est un des paradoxes apparents du moment présent : si le défi écologique est plus que jamais planétaire, les échecs répétés de la « gouvernance mondiale » en matière climatique conduisent à une sorte de reterritorialisation du global, obligeant chaque Etat, sous la pression de citoyens mobilisés, à balayer devant sa porte.

Les entreprises les plus polluantes font aussi l’objet de contestations inédites, en particulier les fameuses quatre-vingt-dix « Carbon Majors » énergétiques et cimentières, devant lesquelles se dressent même des Etats, mais aussi et surtout des villes et des ONG. C’est ainsi qu’aux Pays-Bas, après le procès de la Fondation Urgenda contre l’Etat néerlandais, s’est tenu en avril 2019 un procès cette fois contre le pétrolier Shell, mis en cause pour ses responsabilités en matière d’émission de gaz à effet de serre.

 

« Justice pour le climat ! Les nouvelles formes de mobilisation citoyenne », de Judith Rochfeld, Odile Jacob, 198 p., 19,90 € (en librairie le 28 août).

Une régulation européenne de la blockchain et ou des cryptomonnaies ?

Une régulation européenne de la blockchain et ou des cryptomonnaies ?

 

 

La blockchain est une technique qui permet de transmettre des informations par blocs et qui normalement est inviolable. Une technique uniquement régulée par sa propre loi (code algorithmique). Les informations peuvent être de différentes natures et pratiquement concerner la totalité des  espaces économiques ou sociaux. Évidemment sont concernées les cryptomonnaies et les crypto actif comme le bitcoin. La France voudrait intervenir pour une régulation à l’échelle européenne voir au-delà d’après le ministre de l’économie “Je vais (…) proposer à mes homologues européens la mise en place d’un cadre unique de régulation des cryptoactifs inspiré de l’expérience française (…) au niveau européen”, a précisé le ministre français de l’Economie et des Finances lors d’une conférence sur la “blockchain” à Bercy. Cela permettrait d’aboutir à “un marché unique de la ‘blockchain’ comme il existe d’autres marchés uniques dans d’autres domaines”, a-t-il estimé. Finalement la technique de scène est un peu comme la technique Internet elle n’a guère de frontières et on voit mal l’intérêt et l’efficience d’une régulation seulement nationale ou même européenne. Par ailleurs le ministre vise sans doute essentiellement le secteur financier afin de distinguer l’usage de la blockchain à usage à des fins de transactions financières, des cryptoactifs. La loi Pacte, adoptée définitivement la semaine dernière, met en place un cadre juridique pour les émissions de cryptomonnaies (ICO, ou offres initiales de jetons). Ce système, visant à protéger les épargnants et rassurer les investisseurs, repose sur la délivrance d’un agrément par l’Autorité des marchés financiers (AMF), pour les émetteurs volontaires. Il est cependant vraisemblable que les crypto menées ne vont pas demeurer dans l’espace marginal qu’elles occupent aujourd’hui et qu’une ou plusieurs d’entre elles pourraient un jour concurrencer les grands menés comme le dollar ou l’euro. La récente chute du cogne ne discrédite pas les crypto menées par l’avantage que le dollar ou d’autres qui reposent pour une grande partie sur du vent et de l’endettement. On peut leur reprocher leur cale caractère énergie énergivore mais pas la confiance qui constitue la base du système. Contrairement à d’autres monnaies qu’on prête curieusement par exemple à des taux négatifs !

Internet : les dangers d’une régulation précipitée (ONG internet Society)

Internet : les dangers d’une régulation précipitée (ONG internet Society)

 

La  directrice des politiques publiques de l’ONG Internet Society s’inquiète d’influence grandissante des GAFA mais tout autant d’une régulation précipitée. (‘Interview La Tribune)

 

Votre rapport alerte sur la « standardisation du web » sous l’effet d’une concentration de plus en plus marquée autour d’acteurs essentiellement américains (les Gafam – Google, Apple, Facebook, Amazon et Microsoft) et chinois (les Batx – Baidu, Alibaba, Tencent et Xiaomi). Quels risques cela fait-il peser sur l’économie et la société ?

CONSTANCE BOMMELAER DE LEUSSE - Quelques entreprises hégémoniques, comme Google dans la recherche en ligne, Facebook dans les réseaux sociaux et avec ses messageries Messenger, Instagram et WhatsApp, ou encore Amazon et Alibaba dans le e-commerce, concentrent l’essentiel de la valeur de l’économie numérique. Ce phénomène prend même de l’ampleur, car la domination de ces entreprises est accentuée par l’essor sans précédent des réseaux et par l’afflux des données récoltées en permanence sur les utilisateurs. Les géants du Net peuvent ainsi étendre leur influence et leur force de frappe sur de nouveaux marchés comme la mobilité autonome, le cloud, l’intelligence artificielle, la santé, le paiement et bien d’autres domaines.

En d’autres termes, ils sont devenus « too big to fail ». Leurs écosystèmes de services globaux, parfois fermés, facilitent grandement le quotidien et créent une vraie dépendance économique. Les entreprises, notamment les TPE et les PME, doivent souvent les utiliser pour exister en ligne. De fait, cette domination limite en réalité le choix des usagers et peut compliquer l’éclosion de services concurrents. Elle pourrait menacer la nature même d’Internet, qui est par essence libre et ouvert, composé d’une interconnexion de réseaux indépendants les uns des autres.

 

Pourtant, vous mettez en garde les régulateurs sur la nécessité de ne pas se précipiter pour réguler. N’est-ce pas paradoxal ?

Non, car un remède mal conçu pourrait être pire que le mal. Le danger de réguler trop vite, de ne pas articuler les différentes normes au niveau international, pourrait avoir des conséquences difficiles à prévoir. La multiplication des régulations pourrait par effet de ricochet créer plusieurs webs selon les lois en vigueur, avec des conséquences potentiellement néfastes sur l’innovation. En clair, en fonction du pays où un utilisateur se trouve, il n’aurait pas accès aux mêmes contenus et aux mêmes services sur Internet.

Si chaque grande région du monde, voire chaque pays, développe ses propres régulations sur la fiscalité ou la protection des consommateurs, on risque de fragmenter l’espace numérique sans pour autant agir efficacement sur le phénomène de la concentration des pouvoirs autour des géants du Net, qui ont les moyens de s’adapter aux

La France, avec sa « taxe Gafa » qui vient d’être annoncée par Bruno Le Maire, et l’Union européenne, avec notamment le Règlement général sur la protection des données (RGPD), ont déjà enclenché la machine. Est-ce une erreur ?

Il est regrettable que le débat public aujourd’hui se concentre uniquement sur la partie visible de l’iceberg. Pour nous, la concentration des géants du Net est plus complexe. Elle agit à trois niveaux. Le premier, le plus évident, est celui des applications et usages sur Internet, dominés par cinq grosses entreprises qui sont Google, Amazon, Tencent, Facebook et Alibaba. Google et Facebook cannibalisent à eux deux 80% du marché publicitaire mondial, Amazon pèse près de 50% du e-commerce, Google 90% de la recherche en ligne en Europe, Alibaba est l’équivalent d’Amazon en Chine tandis que Tencent, via WeChat, est une plateforme polyforme qui touche plus d’un milliard d’utilisateurs. Cette concentration des usages autour de quelques acteurs inquiète l’opinion et pousse les régulateurs à agir.

Or, deux autres niveaux de concentration, plus discrets, sont tout aussi importants : l’accès aux infrastructures et les services associés à ces infrastructures. Dans chaque pays un petit nombre de fournisseurs d’accès à internet (FAI) maîtrisent les réseaux. Parfois, notamment dans les pays en développement comme en Afrique, il n’existe qu’un ou deux FAI, ce qui pose question. Par ailleurs, les leaders mondiaux du cloud computing, c’est-à-dire Amazon, Microsoft, Google, IBM et Alibaba, disposent d’un pouvoir grandissant car ils fournissent l’infrastructure sur laquelle se développe l’économie numérique.

Il faut appréhender ces trois niveaux de concentration. Les deux derniers sont le nerf de la guerre pour que ces monopoles perdurent sur la durée. On sait moins que Google et Facebook, davantage connus pour leur domination dans les usages, investissent aussi massivement dans les câbles sous-marins et les infrastructures du Net, car il s’agit d’un enjeu de diversification stratégique pour eux. Les géants du Net pratiquent une consolidation à la fois horizontale – étendre leurs activités -, et verticale – maîtriser l’ensemble de la chaîne de valeur de l’innovation. Ils investissent aussi énormément dans la recherche fondamentale pour se mettre en position de profiter d’une éventuelle rupture technologique.

 

Quelle approche de la régulation préconisez-vous ?

L’enjeu principal est avant tout de protéger l’Internet, c’est-à-dire sa neutralité et son caractère libre et ouvert, pour ne pas brider l’innovation et permettre à d’autres entreprises de pénétrer le marché. On oublie que la concentration autour de quelques géants est un phénomène économique naturel. La liberté et l’ouverture qui caractérisent l’Internet ont permis l’éclosion d’entreprises devenues hégémoniques, comme Yahoo ou Myspace dans les années 1990, qui ont elles-mêmes été remplacées, avec l’avènement de nouvelles ruptures technologiques, par les géants actuels. Il faut garder en tête que dans l’histoire économique, les monopoles changent. Dans les années 1990, on appréhendait Yahoo et Myspace exactement comme Google, Facebook et Amazon aujourd’hui.

De fait, certains pays annoncent des mesures fiscales ou des réglementations sur les données. Ces tentatives sont précipitées, pour répondre à une pression de l’opinion publique. Alors même que plusieurs questions restent en suspens. Si une forme d’intervention publique est nécessaire, faut-il refonder le droit de la concurrence, renforcer la protection du consommateur ou encore ajuster la fiscalité ? Les politiques communiquent sur des mesures avant même d’avoir appréhendé le problème dans sa globalité. Au-delà du risque de fragmenter l’Internet en régulant à outrance, nous nous inquiétons aussi que les gouvernements finissent par brider les bienfaits de cette concentration. Car ils existent. Les géants du Net ont accéléré la digitalisation d’un grand nombre d’entreprises dans de nombreux secteurs, y compris des PME et des TPE. Ils ont offert aux utilisateurs des univers beaucoup plus homogènes, pratiques et sécurisés. Le discours dominant est alarmiste, alors que le bilan global est plus nuancé.

Vous dites que les monopoles d’aujourd’hui ne sont pas forcément ceux de demain. Mais grâce à leurs extraordinaires moyens d’investissement dans la recherche fondamentale et leur capacité à aspirer l’innovation, les géants actuels ne se mettent-ils pas en position de faire perdurer leur puissance dans la durée, contrairement aux empires d’hier ?

La blockchain, l’Internet des objets et l’intelligence artificielle sont loin d’avoir livré tout leur potentiel. D’autres technologies vont sûrement arriver et rebattre les cartes. Est-ce que les géants actuels qui investissent massivement dans la recherche fondamentale sont mieux placés que les autres pour perdurer ? Intuitivement, on peut le penser mais l’histoire nous réserve probablement des surprises. Google, Netflix, Uber et Facebook ne sont peut-être pas là pour toujours. Si on préserve la neutralité technologique et des principes comme l’interopérabilité des systèmes informatiques, la capacité d’innovation restera intacte et il ne sera pas impossible pour de nouveaux acteurs de pénétrer le marché. Il n’y a pas de fatalité.

 

Organisation de l’Etat : la grande confusion entre régulation et organisation

Organisation de l’Etat : la grande confusion entre régulation et organisation

 

On a vu dans un article précédent concernant la fiscalité et les services publics que Macron -comme beaucoup dans le pays- continue d’entretenir une grande confusion entre le concept de service public, les moyens de l’organiser et les statuts des personnels. Cette confusion se confirme dans la deuxième question relative à l’organisation des services publics qu’on ne semble pas pouvoir être pris en charge autrement que par des administrations !  Or la plupart sinon la totalité des services publics gérés directement par les administrations sont déficitaires ce qui n’est pas le cas lorsque la gestion est assurée par le privé par délégation de service public.

 

L’organisation de l’Etat et des collectivités publiques. Le texte officiel de Macron sur ce thème :

 

 

« Le deuxième sujet sur lequel nous devons prendre des décisions, c’est l’organisation de l’Etat et des collectivités publiques.

 Les services publics ont un coût, mais ils sont vitaux: école, police, armée, hôpitaux, tribunaux sont indispensables à notre cohésion sociale.

Y a-t-il trop d’échelons administratifs ou de niveaux de collectivités locales? Faut-il renforcer la décentralisation et donner plus de pouvoir de décision et d’action au plus près des citoyens? À quels niveaux et pour quels services?

Comment voudriez-vous que l’État soit organisé et comment peut-il améliorer son action? Faut-il revoir le fonctionnement de l’administration et comment?

Comment l’Etat et les collectivités locales peuvent-ils s’améliorer pour mieux répondre aux défis de nos territoires les plus en difficulté et que proposez-vous? »

 

Conclusion une partie de texte  très floue et mal problématisée.

 

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA, pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune)

)

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historique comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

La programmation des véhicules autonomes en cas d’accident inévitable est un exemple de cas concret qui traduit inévitablement un choix moral. La recherche scientifique sur les préférences morales des individus peut aider à identifier les critères éthiques pour fonder ce choix moral. L’automatisation des décisions grâce à l’IA peut donner lieu à de réels progrès, tels que des décisions plus transparentes et moins partiales. Aussi, se posent des questions fondamentales sur les conséquences économiques, les enjeux éthiques, et l’encadrement juridique de cette évolution. »

Prospective-Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Prospective-Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune)

)

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historique comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

La programmation des véhicules autonomes en cas d’accident inévitable est un exemple de cas concret qui traduit inévitablement un choix moral. La recherche scientifique sur les préférences morales des individus peut aider à identifier les critères éthiques pour fonder ce choix moral. L’automatisation des décisions grâce à l’IA peut donner lieu à de réels progrès, tels que des décisions plus transparentes et moins partiales. Aussi, se posent des questions fondamentales sur les conséquences économiques, les enjeux éthiques, et l’encadrement juridique de cette évolution. »

 

Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune )

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historiques comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

 

 

 

Quelle régulation face à l’énorme enjeu du numérique (Sébastien Soriano)

Quelle  régulation face à l’énorme enjeu du numérique (Sébastien Soriano)

Sébastien Soriano,) Président de l’Autorité de régulation des communications électroniques et des postes (Arcep), le régulateur des télécoms, propose de renforcer la régulation face à l’énorme enjeu des télécoms. Dans une interview de la Tribune.

 

Outre les télécoms, vos déclarations concernent très souvent la puissance et l’essor des géants du Net. Est-ce parce que les enjeux du numérique sont devenus beaucoup plus essentiels et posent des questions de souveraineté ?

SÉBASTIEN SORIANO - Effectivement. L’Arcep étant de plus en plus immergée dans le bain du numérique - notamment à travers son nouveau rôle de gardien de la neutralité du Net -, elle voit ce qui se passe. Elle voit intimement l’évolution des marchés et la montée en puissance des géants du Net. Or, cela relativise quelque peu le pouvoir des opérateurs que nous régulons. D’où la nécessité d’avoir une vision beaucoup plus large et moins centrée sur les télécoms. Autrement dit, je me sentirais mal à l’aise d’être le gardien de la neutralité du Net, qui impose aux opérateurs des contraintes et garantit à tous les acteurs du Net un accès à leurs infrastructures, sans évoquer, en parallèle, le problème de la domination des « big tech ». Il y a, à ce sujet, de nouvelles régulations à inventer.

La domination des Gafa en Europe doit-elle vous conduire à vous montrer plus agressif envers eux ? Ou, en d’autres termes, à aider les grands opérateurs à davantage tirer leur épingle du jeu ?

Je n’irai pas jusque-là. D’ailleurs, la neutralité du Net tend à limiter la capacité de négociation des opérateurs vis-à-vis des géants du Net. Elle leur retire un pouvoir de chantage, du type : « Si vous me traitez mal, j’abîme vos services sur le réseau. »Mon rôle n’est pas de donner un coup de main aux opérateurs. En revanche, j’estime que nous devons réfléchir à la manière dont on peut challenger ces acteurs du Net. Aujourd’hui, ils ont un pouvoir immense et sont soumis à un contrôle extrêmement limité. Il manque, à mes yeux, une régulation de type infrastructure, un peu comme dans les télécoms, le rail ou l’énergie, mais en prenant en compte les particularités nouvelles. Voilà pourquoi je me félicite que Mounir Mahjoubi, le secrétaire d’État au Numérique, ait récemment lancé des états généraux pour réfléchir aux nouvelles régulations à l’heure du digital. C’est peut être le signe d’une prise de conscience qu’il y a un problème systémique avec les géants du Net. Aujourd’hui, ils écrasent tout sur leur passage.

À l’issue de ces états généraux, l’Arcep pourrait-elle se voir investir de nouveaux pouvoirs ?

Nous faisons à l’Arcep une proposition ciblée, issue d’un travail approfondi : réguler les terminaux, qu’il s’agisse des smartphones et autres objets connectés (les enceintes, les téléviseurs ou les voitures). Nous proposons une extension de la régulation des télécoms, qui se situe dans le prolongement de notre rôle de gardien de la neutralité du Net. Pourquoi ? Parce que c’est que c’est bien beau d’avoir la neutralité des tuyaux, mais à quoi sert-elle si on ne s’intéresse pas aux robinets que sont les terminaux en bout de ligne ? Or, à ce niveau, de nouveaux intermédiaires, très puissants, ont pris le pouvoir et imposent de nombreuses restrictions aux consommateurs [c'est le cas, par exemple, d'Apple, qui décide, à travers son Apple Store, quelles applications ses clients peuvent - ou non - utiliser, ndlr]. J’ai présenté le problème au gouvernement. C’est maintenant au politique de se l’approprier, et de prendre une décision.

Beaucoup s’interrogent sur la viabilité d’un marché français à quatre opérateurs et se demandent si une consolidation n’est pas nécessaire. Après les difficultés de Bouygues Telecom il y a deux ans, celles de SFR l’an dernier, c’est maintenant Free qui perd des clients. En d’autres termes, depuis l’arrivée de Free Mobile en 2012, il y a toujours un « homme malade » sur le marché français des télécoms. Qu’en pensez-vous ?

Je voudrais commencer par rebondir sur les propos de Stéphane Richard, le Pdg d’Orange, qui a récemment jugé « inéluctable » [« inévitable », en fait] une consolidation sur le marché français. Je ne suis pas d’accord avec lui. Structurellement, le secteur peut fonctionner à quatre. Il n’y a aucune impossibilité. Ce qui tend le marché aujourd’hui, c’est une guerre des prix. Mais cette bataille, c’est bien les opérateurs qui l’ont choisie… C’est leur décision. Et c’est cette situation qui leur fait dire, maintenant, que les investissements que le gouvernement et l’Arcep les poussent à faire ne sont plus soutenables ! Or, depuis mon arrivée, nous ne leur avons jamais dit que leurs prix étaient trop élevés.

Mais c’est pourtant bien pour faire baisser les prix que le gouvernement a permis l’arrivée de Free, en 2012, en tant que quatrième opérateur…

Oui, mais il y a une différence entre faire baisser les prix pour réduire une rente et une guerre de prix qui peut casser le marché. On peut, en outre, s’interroger : est-ce que cette guerre des prix ne vise pas à faire trébucher un maillon faible pour pousser à une consolidation ? Il y a un aspect potentiellement stratégique dans ce que nous observons sur ce marché, avec un effet possiblement autoréalisateur. Et je partage l’opinion des secrétaires d’État Delphine Gény-Stephann et Mounir Mahjoubi, qui estiment que les pouvoirs publics n’ont pas à désirer une consolidation.

Vous avez pourtant, lors d’une conférence de presse au mois de mai, jugé que l’Arcep n’était plus opposée à un retour à trois opérateurs…

Si j’ai entrouvert la porte à une consolidation, c’est parce que je ne peux pas, vis-à-vis du secteur, exiger le beurre et l’argent du beurre. Quand j’ai pris la présidence de l’Arcep, j’ai demandé aux opérateurs d’investir massivement dans la fibre, dans la 4G. À mes yeux, il était temps qu’ils se recentrent sur leur métier plutôt que de se regarder le nombril pour savoir qui va croquer qui. Ils ont répondu de manière très forte à mon appel, puisque leurs investissements ont augmenté de 37% en trois ans. Dans ce contexte, je ne pouvais plus être fermé, par principe, à une consolidation. Pour autant, cela ne veut certainement pas dire que j’y suis favorable, et encore moins demandeur. Ne comptez pas sur moi pour applaudir n’importe quel projet de consolidation qui pourrait surgir… Une réduction du nombre d’acteurs, cela peut être néfaste. C’est pourquoi une telle opération nécessite toujours l’aval de l’Autorité de la concurrence. L’Arcep, en tant que régulateur du secteur, entend jouer un rôle d’autorité morale pour apprécier ce qui pourrait se passer. Mais nous n’apporterons notre caution qu’à un projet qui serait gagnant pour le pays et pour les Français. Nous ne voulons pas d’un simple partage de gâteau entre milliardaires.

Certains jugent que la fin de votre opposition à une consolidation vise, en réalité, à sauver Free, qui est le « bébé » de l’Arcep. Qu’en dites-vous ?

Je me suis exprimé indépendamment de la situation de cet opérateur. Je rappelle que cette conférence de presse, qui intervient chaque année à la même date, vise d’abord à dévoiler le montant annuel des investissements du secteur, qui sont un peu le totem de mon action dans les télécoms. Un autre élément : j’estime avoir prouvé que l’Arcep savait être ferme avec tous les acteurs, et qu’elle n’hésitait pas, au besoin, à les contrarier. Souvenez-vous de notre action pour mettre progressivement un terme au contrat d’itinérance entre Free et Orange [qui permet au premier d'utiliser le réseau mobile du second]… Je me souviens aussi d’un « ça suffit, l’Arcep ! » de Martin Bouygues après une mise en demeure sur la couverture 4G de Bouygues Telecom. Ou encore d’un « c’est complètement débile ! » de Stéphane Richard, en réaction à ma volonté de s’attaquer aux derniers bastions de monopole d’Orange. Michel Combes [l'ancien patron de SFR] n’était pas non plus particulièrement content et élogieux vis-à-vis de l’Arcep quand il a été sommé d’arrêter de vendre du câble en utilisant le mot « fibre ». Je revendique haut et fort que l’Arcep est un arbitre neutre qui agit dans l’intérêt des Français de manière constante. À chacun de se faire son opinion.

Aujourd’hui, vous présentez un rapport du Berec, l’organe des régulateurs européens, qui a passé au crible des consolidations en Allemagne, en Autriche et en Irlande. Quelles sont ses conclusions ?

En premier lieu, je tiens à préciser ce qui a motivé cette étude. Depuis le début des années 2010, nous entendons une petite musique à Bruxelles. Certains affirment que si le secteur des télécoms européennes est faible, c’est parce qu’il est trop éclaté. Il y aurait beaucoup trop d’acteurs, ce qui pèserait, in fine, sur les investissements. Pour relancer le marché, il n’y aurait ainsi d’autre choix que de le consolider. Ceux qui défendent cette ligne brandissent le cas des États-Unis. Ils arguent qu’il n’y aurait que trois ou quatre opérateurs - ce qui est faux car il y a de très nombreux acteurs locaux -, et que l’on y consacre plus d’argent aux infrastructures. Mais s’il est vrai que le Vieux Continent dépense moins d’argent pour déployer les réseaux, beaucoup d’études montrent que l’investissement américain est inefficace parce qu’il y a des duplications d’infrastructures de manière massive. Alors qu’a contrario le modèle européen pousse les opérateurs à partager les investissements et les infrastructures quand c’est possible. Au Berec, que je présidais l’an dernier, nous étions un peu échaudés par ces raisonnements simplistes. Voilà pourquoi, nous avons voulu étudier, de manière sérieuse et objective, l’impact de différentes fusions.

Qu’en est-il ?

Ce rapport démontre qu’à court terme les fusions ont généralement des effets négatifs. Les prix montent et la qualité de service se dégrade souvent. Pourquoi ? Parce qu’au moment de la fusion il peut y avoir un peu de flottement dans la conduite des entreprises. En France, c’est ce qu’on a connu lors de la vente de SFR en 2014 [l'opérateur au carré rouge a un temps cessé d'investir, ce qui a dégradé le réseau]. En revanche, à moyen terme, les situations sont plus contrastées. Nous constatons parfois des baisses de prix. Et dans certains cas, les augmentations de prix initiales peuvent disparaître, notamment avec des remèdes de type MVNO [c'est-à-dire le lancement d'opérateurs qui ne disposent pas de leurs propres réseaux]. L’investissement peut aussi gagner en efficience et doper la qualité de service : comme il y a moins d’acteurs, chaque euro dépensé a plus d’effet car il y a moins de redondance. Mais en clair, il n’y a pas de recette miracle : tout dépend de la situation de marché et des contreparties consenties par les acteurs concernés… C’est du cas par cas !

En France, quel serait le projet gagnant ? Ces derniers mois, le marché évoque souvent la possibilité d’un rapprochement entre SFR et Bouygues…

Je ne veux pas me prononcer à ce sujet. Surtout, je pense que les opérateurs français pourraient avoir une responsabilité plus forte dans l’écosystème numérique national. Il existe de nombreux modèles d’engagement. Il y a, par exemple, le modèle de Softbank, le géant japonais des télécoms et des nouvelles technologies. Son objectif est de maîtriser, grâce à des investissements ciblés (dans les microprocesseurs, des processeurs graphiques ou encore des constellations de satellites), l’ensemble des briques de la révolution numérique. Un autre modèle, qu’on voit se dessiner aux États-Unis, est lié à l’arrivée de la 5G, la prochaine génération de communication mobile. De fait, la 5G va accoucher d’un changement de business model chez les opérateurs. Il ne s’agira plus seulement de vendre des forfaits aux particuliers, mais d’apporter aussi des briques de connectivité sur mesure aux acteurs de la ville intelligente, de l’industrie 4.0 ou de la voiture autonome. C’est ce type d’immersion, plus profonde, des opérateurs dans l’écosystème numérique qui peut nécessiter, pour aller plus vite, la recherche d’une masse critique.

Ces derniers mois, pour sortir des difficultés, Free n’a pas hésité à augmenter ses prix. Ne craignez-vous pas que le « maverick » se normalise et devienne un opérateur comme les autres ?

Il m’est difficile d’entrer dans le commentaire de la stratégie d’un acteur. On peut penser qu’Iliad a plutôt apporté une correction à une situation particulière que remis en cause son modèle.

Est-il nécessaire d’avoir toujours un acteur qui joue ce rôle de « maverick » ?

Je ne veux pas être déterministe là-dessus. Mais il y a une étude intéressante de l’Ofcom, le régulateur britannique, à ce sujet. Elle montre qu’il y a un bénéfice évident pour le marché à avoir un acteur un peu franc-tireur.

La France et l’Europe ont longtemps pâti d’un retard dans la 4G. En matière de 5G, sommes-nous, une fois encore, en retard ?

Il est trop tôt pour le dire. Aujourd’hui, il n’y a pas de service qui tourne en 5G autrement que de manière expérimentale. Mais on peut se demander si l’Europe est bien préparée pour la lancer lorsque la technologie sera disponible. Je dois dire que, à ce sujet, je suis impressionné par la mobilisation très forte de la Chine et des États-Unis, qui misent sur la 5G pour entraîner une numérisation massive de leurs pays. Dans l’Union européenne, il y a eu une vraie prise de conscience politique par le commissaire [à l'économie et à la société numérique] Günther Oettinger au début de son mandat, en 2015. Ensuite, nous sommes un peu retombés dans les travers de l’Union européenne. Au bout du compte, le code européen des télécoms, cette grande réforme qui a été adoptée l’année dernière, est un texte de compromis. S’il pose les échéances du développement de la 5G, le consensus européen n’a pas voulu entamer la souveraineté des États pour organiser les attributions des nouvelles fréquences [essentielles pour le déploiement de toute technologie mobile]. Résultat, les approches sont très contrastées au sein de l’Union européenne. Il est regrettable qu’il n’y ait pas de front uni sur la 5G.

N’y a-t-il pas, alors, une contradiction entre la volonté de Bruxelles de rattraper les États-Unis dans le numérique et son manque d’efforts pour faire l’Europe de la 5G ?

L’avenir le dira. La 5G sera un saut technologique. Il est certain que ce sera un facteur de compétitivité essentiel pour l’attractivité des capitaux, des talents… Pour l’Europe, il y a donc, à mes yeux, un risque évident de déclassement.

En France, serons-nous au rendez-vous ?

Je me félicite d’abord que le gouvernement ait adopté récemment, avec l’Arcep, une feuille de route sur la 5G. Cela nous permet de nous inscrire dans le calendrier européen. De notre côté, nous allons lancer une consultation au mois d’octobre pour définir les modalités d’attribution des fréquences 5G aux opérateurs. L’appel d’offres pourrait avoir lieu dans environ un an, à la mi-2019. La France, de ce point de vue-là, se situerait dans un calendrier proche de celui de ses voisins européens.

Cherchez-vous, en nous précisant cette échéance de mi-2019, à mettre la pression sur les opérateurs ?

Ce qui m’importe, c’est d’abord de donner de la visibilité aux acteurs. Ce n’est pas le calendrier des opérateurs qui s’imposera aux pouvoirs publics. Peut-être que certains d’entre eux ne sont pas très pressés de lancer la 5G… Mais ça, c’est leur problème, c’est leur stratégie. Le pays, lui, doit se doter d’infrastructures car il y a des enjeux de compétitivité majeurs. J’invite donc les opérateurs à se mobiliser pour être au rendez-vous de la 5G. Aujourd’hui, certains n’ont d’yeux que pour la consolidation… Or le bon chiffre dont il faut discuter, ce n’est pas trois ou quatre, mais cinq, comme 5G !

Il y a peu, vous avez indirectement relancé le débat sur une possible fusion entre l’Arcep et le Conseil supérieur de l’audiovisuel [le CSA, qui régule les contenus] en pointant l’essor de la télévision par IP, à travers les box des opérateurs, aux dépens de la TNT…

Mon intervention ne visait certainement pas à critiquer le modèle de régulation de l’audiovisuel. Sur le fond, je pose une question : comment faire en sorte que le modèle français de l’exception culturelle puisse perdurer dans le grand bain du numérique  ? Sous ce prisme, j’ai alerté sur les limites d’une vision qui serait uniquement centrée sur la TNT, en perte de vitesse et qui pourrait ne plus être utilisée à horizon de quinze ans. Il faut trouver de nouvelles voies. C’est pourquoi, cette semaine, j’ai fait part à Françoise Nyssen, la ministre de la Culture, de la proposition de l’Arcep d’étendre sa régulation aux écrans connectés pour garantir la diffusion numérique des chaînes. Voilà tout. Mais je sais qu’à partir du moment où je parle certains imaginent que c’est le grand ogre des télécoms qui veut manger l’audiovisuel… Ce n’est pas mon propos.

Mais êtes-vous pour ou contre une fusion entre l’Arcep et le CSA ?

À l’heure où la révolution numérique rebat les cartes dans tous les domaines, il ne faut évidemment pas être fermé. Je ne dis donc pas qu’il faut impérativement garder les institutions telles qu’elles sont, et que toute fusion n’a pas de sens. Je ne serai pas dans cette position conservatrice. Maintenant, c’est au politique de définir les objectifs poursuivis. S’il y a un projet, je m’exprimerai en tant que président de l’Arcep. Je dirai si cela me semble une bonne ou une mauvaise idée, et comment procéder au mieux le cas échéant. Mais, j’insiste, ce n’est pas à moi de promouvoir un modèle, et de plaider pour une fusion des régulateurs des télécoms et des contenus.

 

Régulation d’internet : la France lance une consultation mondiale

Régulation d’internet : la France lance une consultation mondiale

 

 

La France veut réfléchir à des régulations « intelligentes » dans dix grands domaines, comme « la fiscalité », « le partage des données industrielles », « la modération des contenus en ligne » et notamment des contenus haineux, « la protection des données personnelles », ou encore le « droit des affaires » a indiqué M. Mahjoubi, le secrétaire d’Etat au numérique.  La France va donc lancer une consultation internationale en vue de régulations mondiales d’internet, a déclaré vendredi le secrétaire d’Etat au numérique Mounir Mahjoubi, en marge du salon des startups VivaTech. . Cette consultation sera nationale, européenne, et aussi internationale, en demandant notamment la participation des géants mondiaux de l’internet, a précisé le secrétaire d’Etat. « Je veux convaincre ces grandes plateformes de discuter sur ces régulations mondiales », a indiqué M. Mahjoubi à l’AFP.

 

Accès universités : la régulation par les CRS

Accès universités : la régulation par les CRS

Philippe le Premier ministre qui peine à se faire uen nom dans l’ombre de Macron agite aussi la matraque pour les universités. Il a sûrement pris connaissance des sondages où une majorité de Français approuvent la fermeté de Macron. Certes le blocage des facs n’est sans doute pas une solution, pas même un moyen quand elles sont le fait de militants politisés très minoritaires. Pour autant,  elle n’est pas la réponse à la question du refus d’accès à l’université. Que va-t-on faire des 30 ou 40% des candidats étudiants auxquels on va interdire l’entrée en fac ? Il aurait été plus constructif d’ouvrir une  grande filière apprentissage au lieu de la réduire aux travaux manuels pour les « nuls » comme vient de la faire la ministre de l’éducation. La régulation par les CRS est une mesure appréciée par  les partisan de l’ordre républicain, les réacs, les populistes mais elle ne résout rien. Surtout comme à Tolbiac on a évacué par la force mais qu’on maintiendra fermée jusqu’en septembre.  Ce discours de Philippe qui brosse dans le sens du poil ne le grandit pas même s’il  contient des évidences :

“Chaque fois que des espaces universitaires seront confisqués par de petits groupes radicaux, chaque fois que l’organisation des examens sera ciblée, nous répondrons avec fermeté”, a dit le Premier ministre après avoir reçu des membres de la Conférence des présidents d’université.“Nous ferons le nécessaire pour que les examens puissent se tenir dans de bonnes conditions”, a poursuivi le chef du gouvernement, déplorant que certains puissent “mettre en scène une contestation profondément minoritaire”. Les forces de l’ordre sont intervenues dans plusieurs universités ces derniers jours pour déloger des opposants à la réforme de l’accès à l’université, notamment dans les locaux de la Sorbonne, dans les Ve et XIIIe arrondissements parisiens.

Travailleurs détachés : la délation comme moyen de régulation !

Travailleurs détachés : la délation comme moyen de régulation !

Ce n’est pas de la délation mais cela y ressemble. La ministre du travail propose de diffuser la liste des mauvais élèves qui ne respecteraient pas des conditions d’embauche et d’utilisation des travailleurs détachés. Bref,  la délation utilisée comme système de régulation ! Si l’état veut réellement réguler il ne manque pas de moyens. Les institutions sociales d’abord comme les inspecteurs du travail par exemple, la DGCCRF aussi, en dernier ressort la justice.  Encore faudrait-il évidemment que ces institutions fassent leur travail et de manière équitable. Cela ne justifie sans doute pas pour autant la dénonciation publique ou alors on ouvre la boîte de pandore en systématisant ces dénonciations à toutes les infractions à la législation économique, social et fiscale  etc.  L’an dernier, 516.101 salariés détachés (hors transport) ont ainsi été enregistrées en France, soit une hausse de 46% par rapport à 2016. Leurs employeurs, établis dans d’autres pays européens, doivent au moins les payer au Smic, mais ils continuent de payer les cotisations sociales dans le pays d’origine.  Le bond enregistré en 2017, qui succède à des hausses de 24% en 2016 et de 25% en 2015, s’explique, en partie, par une meilleure collecte des données, mais aussi, selon la ministre du Travail Muriel Pénicaud, par les sanctions plus sévères mises en place par la majorité précédente. La ministre a emboîté le pas de ses prédécesseurs, en annonçant ce lundi seize mesures pour renforcer l’arsenal de contrôles et de sanctions. Pour frapper les fraudeurs au porte-monnaie, le gouvernement va porter les sanctions financières de 2000 à 3000 euros par salarié détaché illégalement, et de 4000 à 6000 euros en cas de récidive. Et si un prestataire étranger ne s’acquitte pas de l’amende, sa prestation de service pourra être suspendue. . La ministre du Travail, Muriel Pénicaud, a donc annoncé son intention de publier le nom des entreprises sanctionnées pour fraude au détachement de travailleurs. Par cette méthode dite du name and shame (désigner par son nom et couvrir de honte en anglais), les autorités espèrent que la menace d’entacher leur réputation dissuadera particuliers et entreprises d’enfreindre la loi.

OPEP : à la recherche d’une régulation du pétrole

OPEP : à la recherche d’une régulation du pétrole

 

Cette fois c’est  l’Arabie Saoudite qui a déséquilibré le marché en augmentant sa production depuis 2014 qui  va tenter de convaincre les membres de l’OPEP de mieux réguler l’offre par rapport à la demande. Pas sûr cependant qu’elle soit entendue et comprise après ce changement de stratégie. En outre tout dépendra en cas d’accord du point de référence qui sera retenue pour figer le volume de la production ; en effet avec le tassement économique de la croissance mondiale les besoins en pétrole ont aussi tendance à stagner voire à régresser. L’OPEP relancera cependant le mois prochain les discussions sur un gel de sa production, l’Arabie saoudite, premier exportateur mondial, semblant chercher à faire remonter les cours, a-t-on appris de plusieurs sources au sein de l’organisation, mais l’Iran, l’Irak et la Russie sont autant d’obstacles importants à un compromis. Ryad a relancé les spéculations sur la possibilité d’un accord d’encadrement de la production jeudi dernier, le ministre saoudien de l’Energie, Khalid al Falih, déclarant que son pays souhaitait travailler avec des pays membres ou non de l’OPEP à une stabilisation du marché. « Les propos du ministre saoudien de l’Energie constituent un signe positif de sa volonté d’aller vers un accord de gel de la production ; reste à savoir à quel niveau », a dit une source d’un pays du Moyen-Orient membre de l’OPEP. « Le gel se fera-t-il aux niveaux de janvier ? Qu’adviendra-t-il de l’Iran ? Et puis il y a le Nigeria, dont la production a beaucoup diminué depuis janvier », a ajouté cette source. Côté russe, le ministre de l’Energie, Alexander Novak, a déclaré à un journal saoudien que son pays menait des consultations avec l’Arabie saoudite et d’autres producteurs, ajoutant que de nouvelles discussions sur un éventuel gel des niveaux de production restaient possibles en cas de besoin. L’Arabie saoudite a augmenté sa production en juillet, à 10,67 millions de barils par jour (bpj) contre 10,2 millions en janvier. Depuis 2014, le royaume, chef de file de fait de l’OPEP en raison de son poids sur le marché mondial, a augmenté ses pompages dans le but d’exclure du marché des producteurs dont les coûts sont plus élevés, afin de regagner des parts de marché au détriment de pays comme les Etats-Unis, qui lui avaient taillé des croupières au cours des années précédentes. Cette stratégie a fortement contribué à la chute du cours du baril de Brent, tombé à 27 dollars en janvier contre 115 dollars mi-2014. Ce mouvement a certes pénalisé les producteurs nord-américains, mais il a aussi plombé le budget saoudien.

(Reuters)

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol