Archive pour le Tag 'régulation'

Page 4 sur 6

Cryptomonnaies : Yellen veut une régulation pour réduire les risques

Cryptomonnaies : Yellen  veut une régulation pour réduire les risques

La secrétaire au Trésor américaine Janet Yellen ne condamne pas en tant que tel les cryptomonnaies mais met en garde sur les risques de spéculation qui pourraient exploser. Elle souhaite une régulation des nouvelles technologies financières qu’elle considère cependant comme pouvant être utiles pour lutter contre la criminalité.

Elle a déclaré que l’adoption de la loi anti-blanchiment en décembre permettrait au département du Trésor de retravailler un cadre de lutte contre le financement illicite qui n’a pratiquement pas changé depuis les années 1970.

«La mise à jour n’aurait pas pu arriver à un meilleur moment», a déclaré Yellen aux décideurs politiques, aux régulateurs et aux experts du secteur privé. «Nous vivons dans une explosion de risques liés à la fraude, au blanchiment d’argent, au financement du terrorisme et à la confidentialité des données.»

La pandémie COVID-19 a déclenché de plus en plus de cyberattaques – et plus sophistiquées – visant les hôpitaux, les écoles, les banques et le gouvernement lui-même, a-t-elle déclaré.

Les cryptomonnaies et les actifs virtuels étaient prometteurs, mais ils avaient également été utilisés pour blanchir les profits des trafiquants de drogue en ligne et pour financer le terrorisme.

Il faudra sans doute que la responsable du Trésor s’engage un peu plus pour préciser ce qu’elle entend par régulation car des phénomènes de spéculation pourraient non seulement me bousculer encore les cryptes menées mais aussi le système financier tout entier

Les embouteillages comme moyen de régulation de la voiture ?

Les embouteillages comme moyen de régulation de la voiture ?

De plus en plus de municipalités utilisent les bouchons comme un moyen de promouvoir des circulations plus douces, explique dans le monde le professeur Nicolas Chiabaut dans ce nouvel épisode de « L’Abécédaire de la ville », à la lettre E, comme « embouteillages ».

 

En fait il ne s’agit pas vraiment d’une stratégie d’embouteillage mais d’une autre répartition et d’une autre régulation de l’espace viaire au profit non seulement de transport moins agressif mais aussi d’autres activités NDLR

Tribune.

 

Les embouteillages, comme le prix du mètre carré, reviennent inlassablement dans les conversations des citadins. Le sujet n’est pas nouveau. Apparue en même temps que la voiture, au début du XXe siècle, la question des bouchons, et plus largement de la gestion des déplacements urbains, s’est progressivement imposée comme un incontournable de la vie politique. A Paris, la fermeture des voies sur berges, décidée par la maire Anne Hidalgo, est régulièrement dénoncée par ses opposants. Et dans toutes les grandes villes, la guerre vélo-voiture a été l’un des thèmes centraux des dernières municipales, qui a pesé lourd dans le changement de majorité à Lyon ou à Annecy, par exemple.

Pendant des années, les exploitants de réseaux routiers se sont ingéniés à fluidifier la circulation automobile en milieu urbain en augmentant le nombre de voies ou en créant de nouvelles infrastructures routières. Non seulement ces mesures se sont traduites par une place encore plus importante laissée à la voiture, mais en plus elles ont échoué à diminuer la congestion : en 2019, un automobiliste parisien passait ainsi en moyenne 163 heures par an dans les bouchons.

Cet échec, combiné à la montée progressive des préoccupations environnementales et sanitaires, a poussé les décideurs, il y a une vingtaine d’années, à redéfinir ce qu’est un système de transport urbain vertueux : non plus celui qui cherche à réduire toujours plus les temps de parcours individuels, mais plutôt celui qui favorise une utilisation raisonnée de la voiture particulière, et un maximum de déplacements en transports en commun, à pied et en vélo notamment.

Les recherches conduites ces dernières années ont montré que les bouchons, en décourageant les automobilistes, pouvaient contribuer à cet objectif. Certaines villes en France et à l’étranger l’ont bien compris et s’en servent comme d’une arme puissante pour inciter au report sur les autres modes de transport.

Les avantages de la voiture sont déjà considérables : choix de son heure de départ, de ses passagers, de son itinéraire… Si en plus, elle est le moyen le plus rapide de rejoindre sa destination, il n’y a aucune chance que les citadins changent leurs habitudes. Certaines études ont calculé qu’il faut des alternatives au moins 20 % plus rapides pour que les usagers soient vraiment incités à abandonner leur voiture.

Mais, ces embouteillages sont aussi une source de pollution, d’accidents, de stress qu’on ne peut ignorer. L’équilibre passe alors par un niveau de congestion « acceptable » fixé par décision publique. Une notion forcément subjective.

style=’box-sizing: inherit;font-size:1.6rem’ v:shapes= »_x0000_i1025″>

La dictature de Poutine comme régulation judiciaire

La dictature de Poutine comme régulation judiciaire

 

 

Galia Ackerman, historienne, spécialiste de la Russie et de l’espace post-soviétique explique la décision judiciaire de Poutine à l’égard de Navalny. ( Interview France Info)

 

Comment interprétez-vous la décision judiciaire ?

 

Galia Ackerman : Le régime russe a décidé apparemment de suivre la voie biélorusse. Depuis plusieurs mois là-bas l’opposition est dispersée, torturée, arrêtée, et mise en prison. Les dimensions de cette répression en Russie, si on compte les deux week-ends plus les arrestations d’aujourd’hui, représentent 10 000 personnes arrêtées. Cela ne s’est jamais produit dans toute l’histoire de la Russie post-communiste.

 

Les manifestants savent qu’ils vont se faire arrêter. Pourquoi descendent-ils quand même dans la rue ?

Il y a une très forte indignation parce que la justice en Russie est depuis assez longtemps un mot qui n’a plus beaucoup de sens parce qu’il y a beaucoup d’accusations politiquement motivées qui ressemblent au procès des pires époques du pouvoir soviétique. Quand les gens sortent dans la rue, ils répètent les slogans : « Poutine voleur »« Liberté »« À bas le Tsar »« Relâcher les » prisonniers politiques.

 

Que reproche Vladimir Poutine à Alexeï Navalny ?

Vladimir Poutine a été personnellement blessé par le film de Navalny qui exposait l’histoire de la construction d’un somptueux palais au bord de la Mer Noire dont le propriétaire formel n’est pas Poutine, mais qui a été construit sous l’égide de l’administration présidentielle grâce aux dons des amis oligarques de Vladimir Poutine.

« Alexeï Navalny a montré le mécanisme de la corruption qui pénètre l’Etat russe à partir du sommet et à tous les échelons. »

Vladimir Poutine nomme à des postes très importants des proches, leur permet de s’enrichir et ensuite ses amis riches paient une sorte de ristourne et lui serve de porte-monnaie. C’est la dénonciation la plus importante depuis l’exercice du pouvoir par Poutine. Cette vidéo a été vue 106 millions de fois. Maintenant toutes les forces du régime sont lancées pour neutraliser Navalny, le maintenir en prison, et couper court à toute protestation.

 

Régulation des GAFAM : une priorité aussi pour Biden

Régulation des GAFAM : une priorité aussi pour Biden

 

Il est probable que Joe Biden ne reviendra pas sur l’intention déjà exprimée par son prédécesseur de mettre au pas les GAFA  aujourd’hui en situation de monopole et qui contrôlent de plus en plus non seulement la vie économique mais aussi politique voire culturelle. Une régulation qui de toute évidence ne pourra avoir d’effet qu’à l’échelle mondiale tellement la pieuvre des grands du numérique s’est développée partout. En octobre dernier, le sous-comité antimonopole du House Judiciary Committee (un comité de la Chambre des représentants, composé de juristes, qui s’occupe notamment des affaires liées à la compétition et aux monopoles) a rendu un rapport de 449 pages, fruit de seize mois de travail, sur les pratiques anticoncurrentielles menées par Apple, Amazon, Google et Facebook. Une enquête antimonopole est actuellement menée contre Google par le Département de la Justice, et une autre est en cours à l’encontre de Facebook de la part de la Federal Trade Commission (agence gouvernementale notamment chargée du contrôle des pratiques commerciales anticoncurrentielles).

Peu probable que l’arrivée de Biden à la Maison-Blanche mette fin à ces dernières, selon Darrell West, chercheur à la Brookings Institution, un laboratoire d’idées non partisan basé à Washington. « La question qui se pose est celle de la fougue que l’administration Biden va mettre dans la poursuite de ces deux enquêtes. L’administration précédente voulait démanteler Facebook, et celle-ci va notamment devoir décider si elle compte revenir sur les fusions précédentes « 

 

«La régulation des données doit être mondiale» (Apple)

 «La régulation des données doit être mondiale» (Apple)

Dans un entretien au Figaro, le PDG d’Apple milite pour le respect de la vie privée. En effet le croisement logarithmique des données permet d’identifier les profils intimes des internautes et d’adapter en conséquence la politique commerciale qui leur est destinée et même les messages politiques et psychologiques qui peuvent les influencer. «Nous voulons redonner le pouvoir aux internautes. Nous allons leur offrir un outil pour leur permettre de faire un choix» assure le patron d’Apple,Tim Cook. 

Apple ouvre les hostilités contre les dérives du ciblage publicitaire sur internet. À l’occasion, jeudi, de la Journée de la protection des données personnelles, la société américaine a publié une démonstration présentant toutes les données personnelles captées par les applications du smartphone d’un père de famille: géolocalisation, visite de tel commerce, accès aux photos et à leurs métadonnées, historique de navigation…

Selon Apple, les applications mobiles comprennent en moyenne six trackeurs. Les données captées, revendues à des tiers, nourrissent des fichiers marketing très précis, qui permettent d’afficher les publicités correspondant au mieux au profil sociodémographique de l’internaute ciblé. C’est ainsi que des femmes enceintes peuvent être exposées à des publicités pour des produits de puériculture avant même qu’elles aient annoncé leur grossesse à leur entourage.

Pour Tim Cook, le dirigeant d’Apple, cette aspiration des données personnelles «est allée beaucoup trop loin.

 

Reste à savoir si les Gafa  seront  d’accord entrer dans une discussion forcément l’échelle mondiale pour une régulation des informations qu’elles possèdent; en effet ,il s’agit de leur cœur de métier avec lequel il réalise pour beaucoup l’essentiel de leur chiffre d’affaires et de leurs profits. Moins peut-être Apple que d’autres comme Facebook qui ne vit que des données des utilisateurs. Tandis qu’Apple fournit surtout du matériel et des logiciels.

IA: Trouver l’équilibre entre innovation et régulation

IA: Trouver l’équilibre entre innovation et régulation

David Lacombled ,président de la Villa numéris, estime dans l’Opinion que « L’Europe peut encore inventer un modèle alternatif des données basé sur ses valeurs de respect des individus et de leurs droits ​»

 

 

La seule limite de l’intelligence artificielle (IA) sera celle de l’imagination humaine. Faut-il à ce point avoir peur de soi-même pour craindre autant l’IA ? Alors que le mot «robot» fête ses 100 ans, il suffit de regarder les débats sans fins qu’il suscite pour deviner que l’IA, en s’installant dans nos vies et dans notre économie, nourrira durablement les préventions. Si le robot répond aujourd’hui encore à une vision tayloriste défiant la main-d’œuvre, l’IA apparaît trop souvent comme pouvant rivaliser avec le cerveau en le simulant. Cela montre la nécessité de mieux partager et comprendre la technologie, ce qui n’implique pas pour autant de l’encadrer et de la réglementer ex ante.

Les données et leur utilisation sont aujourd’hui avant tout regardées d’un point de vue technologique ou financier, tant leur performance impressionne. Elles le sont moins par les répercussions qu’elles peuvent entraîner d’un point de vue social et humain tant la situation est inédite. A en donner le vertige. Un aperçu sur la valorisation boursière des « Big Tech » qui reposent avant tout sur l’efficience de leur algorithme, telles qu’Apple ou Amazon, rappelle à quel point les données sont génératrices de valeurs.

Eclairer l’avenir. Dans leur récent essai, Le Pouvoir de la Destruction Créatrice (Odile Jacob), Philippe Aghion, Céline Antonin et Simon Bunel rappellent que ce processus est bien une réalité, quelque chose de palpable pointant « un conflit permanent entre l’ancien et le nouveau ​». S’ils soulignent que « ​l’effet de destruction d’emplois se manifeste à court terme, tandis que l’effet de création d’emplois et l’effet de capitalisation sont davantage des effets de long terme ​». Or, « ​c’est bien à court terme que la destruction créatrice est ressentie par les individus dans les différentes enquêtes d’opinion ​».

Dans son essai L’intelligence artificielle n’existe pas, Luc Julia confesse ​: « ​ma grande crainte est que les gens croient tout ce qu’on leur raconte sur l’IA, tout simplement parce qu’ils n’ont pas assez d’informations sur le sujet ​». L’ingénieur, concepteur de l’assistant vocal Siri, préconise que « ​nous devons combattre les délires véhiculés par certains en argumentant avec les simples faits ​».

. De fait, la promesse de l’apocalypse en matière d’emplois pour les individus et de carnage financier pour les entreprises ne constitue pas vraiment un chemin engageant. Rappelons au contraire comment les données se sont transformées en petits cailloux blancs de nos existences permettant certes de les décrire, voire de les prédire, mais avant tout de les simplifier pour accéder aux savoirs et se divertir (cf. Netflix), pour vivre plus confortablement (recherche Web, navigation…), en meilleure santé et plus longtemps (aujourd’hui la modélisation de propagation des virus, demain les jumeaux numériques de nos propres corps), pour travailler plus efficacement pour ne pas dire plus intelligemment. Pour peu de dompter la machine. Ce sont là les valeurs et les promesses que portent avant tout les données et leur calcul par ce qui reste un programme informatique, l’intelligence artificielle.

Il n’en reste pas moins que l’intelligence artificielle, par sa puissance, pose des défis inédits. La docteure en informatique Marie-Aude Aufaure souligne à quel point « ​il faut particulièrement veiller aux biais, à l’explicabilité et l’acceptabilité des algorithmes appliqués sur des ensembles de données ​» pour contribuer à « ​démystifier les capacités de l’intelligence artificielle en rappelant que l’apprentissage au sens de l’IA est éloigné de l’apprentissage humain qui lui est centré sur une combinaison complexe de raisonnement, de mémoire, de connaissances de sens commun, etc. ​». En effet, un biais humain peut se retrouver démultiplié par la force du calcul. Par exemple, si votre entreprise recrute majoritairement des hommes et les paie mieux, le risque est grand que le fossé se creuse et s’amplifie si une IA prend le relais du processus de recrutement.

Dès 2017, la chercheuse Laurence Devillers décrivait Des Robots et des Hommes, mythes, fantasmes et réalité (Plon). Elle s’intéresse « ​à la perception des robots et met en avant qu’il faut créer des machines morales pour encadrer la vie avec ces machines et une réflexion est menée pour savoir s’il est possible à un robot d’avoir une conscience de soi. Elle explique en quoi cela est important, avec l’exemple des robots tueurs, et dans quelle mesure cela est possible d’un point de vue éthique et technique ​».

C’est à l’élaboration d’un nouveau paradigme entre les humains et les objets techniques qu’il faut s’atteler. Le réglementer et le régir aujourd’hui reviendrait à encadrer un phénomène en mouvement au risque de freiner l’innovation

C’est d’ailleurs, la régulation des armes létales autonomes qui constituait un des points majeurs du rapport de Gilles Lebreton, député européen du Rassemblement National, adopté il y a quelques jours par le Parlement européen montrant à quel point les élus seront tentés d’encadrer l’essor de la technologie. Pourtant, si un drone pouvait tuer sans ordre humain, c’est bien que l’humain l’aurait accepté. C’est bien une des limites à fixer.

Mot-valise à double fond. En cela, Laurence Devillers a raison de rappeler une évidence ​: « ​il ne faut pas penser les robots comme de nouveaux humains ​». Et c’est bien à l’élaboration de ce nouveau paradigme entre les humains et les objets techniques qu’il faut s’atteler. Le réglementer et le régir aujourd’hui reviendrait à encadrer un phénomène en mouvement au risque de freiner l’innovation par un excès de régulation.

Dès lors, le mot « éthique ​» apparaît comme un mot-valise, à double-fond, bien pratique pour y mettre tout ce qui relève de nos craintes et de nos peurs. Un mot à géométrie variable dont personne n’a la même définition et pour cause personne n’a le même code de valeurs. Certainement serait-il plus pertinent de revenir à des terminologies éprouvées, reconnues et partagées en entreprise de responsabilité sociale et environnementale, de gouvernance, de codes et de chartes. Cela n’empêche pas le dialogue. Au contraire.

La bataille des données n’est pas perdue car elle ne fait que commencer. Notre continent est particulièrement attaché au respect des droits de l’homme et à l’indépendance des individus. Avec la mise en place du Règlement général sur la protection des données (RGPD) puis l’annonce de celui sur le Digital Services Act, l’Europe montre sa volonté de construire un cadre de référence pour apporter protection aux consommateurs et stabilité aux entreprises. Il s’agit à présent d’inventer un modèle alternatif, respectueux des êtres et de leurs droits, ouvert, permettant de recueillir des données et de ne les utiliser que pour ce pour quoi elles ont été confiées. La primauté de l’humain n’est pas antagoniste avec les avancées technologiques. Pour peu que les individus s’en emparent.

David Lacombled est président de la Villa numéris.

Quelle régulation et quel stockage de l’électricité renouvelable

 Quelle régulation et quel stockage de l’électricité renouvelable

 

Stefan Ambec et Claude Crampes, Toulouse School of Economics évoque dans la Tribune la problématique du stockage d’électricité renouvelable et sa régulation.

 

 

. Tant que la demande d’électricité ne sera pas capable de s’adapter aux fluctuations de l’offre, l’équilibrage en temps réel du réseau nécessitera une grande flexibilité de l’offre, et notamment le stockage/déstockage de l’énergie électrique produite par le soleil et le vent. Dans le système électrique, on entend par stockage d’énergie « le report de l’utilisation finale de l’électricité à un moment postérieur à celui auquel elle a été produite, ou la conversion de l’énergie électrique en une forme d’énergie qui peut être stockée, la conservation de cette énergie et la reconversion ultérieure de celle-ci en énergie électrique ou son utilisation en tant qu’autre vecteur d’énergie» (Article 2(59) de la Directive (EU) 2019/944).

La définition est très large, n’excluant apparemment aucune technologie, aucun acteur ni aucune utilisation de l’énergie stockée. Mais selon le niveau des aides publiques qui seront accordées au stockage, il faut s’attendre à des discussions plus ou moins animées entre les différentes parties prenantes de l’industrie. Par exemple, faut-il considérer les ballons d’eau chaude qui équipent 11 millions de foyers en France comme des équipements de stockage ? Oui puisqu’il s’agit de chauffe-eaux électriques à accumulation, programmables pour chauffer en heures creuses l’eau utilisable à tout instant. Non car les heures creuses sont essentiellement nocturnes et ce ne sont donc pas les panneaux photovoltaïques qui permettent d’alimenter les cumulus, alors que la réglementation européenne vise explicitement à renforcer l’intégration de l’électricité produite à partir de sources renouvelables. Ainsi, pour l’Ofgem, si l’énergie thermique n’est pas reconvertie en électricité avant usage, elle n’est pas considérée comme du stockage. Les véhicules électriques quant à eux sont présentés comme des moyens de stockage décentralisé, mais selon les heures de recharge des batteries et les lieux de branchement, leur rôle peut se révéler bénéfique ou néfaste pour le système électrique ; ils sont donc à encourager ou à décourager selon leur usage temporel et spatial.

En ce qui concerne les installations de taille industrielle, pour l’heure l’essentiel du stockage se fait dans les stations de transfert d’énergie par pompage (STEP). Mais les choses sont en train de changer. Aux Etats-Unis, il est prévu de faire passer la puissance de stockage installée de 1,2 gigawatts en 2020 à 7,5 gigawatts en 2025 avec des super-batteries lithium-ion dont le coût a fortement baissé grâce au décollage des ventes de véhicules électriques. Mais ces installations ne sont utilisables à pleine puissance que pour des durées de l’ordre de 4 heures. Elles ne permettront donc pas de résoudre les problèmes posés par les fluctuations saisonnières de la production d’électricité à partir de ressources renouvelables.

Stockage et réseau

Tout le monde n’est pas autorisé à se lancer dans l’activité de stockage. D’après les article 36 et 54 de la Directive (EU) 2019/944, les gestionnaires de réseau de distribution et de transport ne peuvent pas être propriétaires d’installations de stockage d’énergie, ni les développer, les gérer ou les exploiter… sauf si aucun tiers n’est prêt à investir dans des installations nécessaires à l’accomplissement des tâches du distributeur ou du transporteur, et à condition que l’opérateur du réseau n’utilise pas ces installations pour faire de l’arbitrage sur les marchés de l’électricité. Pourquoi l’opérateur d’un réseau de distribution ou de transport est-il autorisé à posséder des installations de stockage seulement pour assurer la sécurité du réseau ? Pourquoi ne peut-il acheter ou vendre de l’électricité sur les marchés ? On peut avancer deux raisons : l’une est d’éviter les subventions croisées entre le stockage d’énergie et les fonctions réglementées de distribution ou de transport. La seconde est le risque de voir le gestionnaire d’une infrastructure user de sa position de contrôleur du réseau pour biaiser l’accès d’autres opérateurs et assurer ainsi à ses propres installations des profits abusifs sur le marché de l’électricité.

En effet, un réseau électrique est un monopole naturel puisque sa duplication est plus coûteuse qu’une installation unique, mais c’est aussi une « infrastructure essentielle » puisque, en l’état actuel des connaissances techniques, les producteurs d’électricité doivent passer par le réseau pour alimenter leurs clients. Cela fait deux bonnes raisons pour que la distribution et le transport soient des activités régulées, avec des niveaux de qualité de service et des tarifs d’utilisation fixés par une administration publique, en France la CRE. En revanche, le stockage est une activité économique concurrentielle … ou du moins devrait le devenir avec la baisse du coût des batteries. Donc, de même que les distributeurs et transporteurs d’électricité contrôlés par le régulateur sectoriel ne sont pas autorisés à produire d’énergie, ils ne sont pas autorisés à la stocker pour vendre sur les marchés de gros ou de détail, activités surveillées par les autorités de la concurrence.

La Directive citée prévoit même que les autorités de régulation doivent organiser au moins tous les cinq ans une consultation publique portant sur les installations existantes de stockage d’énergie afin d’évaluer la disponibilité et l’intérêt potentiels à investir dans ces installations. Si la consultation publique montre que des tiers sont en mesure d’être propriétaires et d’exploiter de manière rentable des installations, l’autorité de régulation demande au gestionnaire de réseau concerné de cesser progressivement son activité dans ce domaine dans un délai de 18 mois, éventuellement contre compensation pour récupérer la valeur résiduelle des investissements réalisés.

Stockage et marché

En plus des opérations d’équilibrage du réseau pour lesquelles une rémunération spécifique peut être arrêtée par le régulateur, les installations de stockage permettent de dégager des bénéfices sur les places de marché en achetant quand le prix est bas et en vendant quand le prix est élevé. Puisque les opérateurs de réseau sont exclus de ces transactions commerciales, les candidats potentiels sont tous les autres acteurs de l’industrie électrique (producteurs, commercialisateurs, agrégateurs, consommateurs), mais aussi les équipementiers, sans oublier les fabricants de véhicules électriques (voir le billet du 2 juin 2020). La question de savoir s’il faut en passer par la création d’un statut ad hoc d’opérateur de stockage reste ouverte (CRE).

Pour accéder aux places de marché, les opérateurs des installations de stockage ont besoin bien sûr d’une connexion physique, mais aussi d’une autorisation. Aux Etats-Unis, il a fallu plusieurs années de bataille juridique et une ordonnance de la Cour d’appel du district de Columbia donnant raison au régulateur fédéral (FERC) pour autoriser les exploitants d’installations de stockage situées dans un réseau de distribution ou derrière un compteur de détail à participer directement aux marchés de gros alors qu’ils étaient interdits d’accès par les autorités de régulation des États.

On sait que les marchés de gros fonctionnent par classement des offres et demandes par « ordre de mérite » et détermination d’un prix d’équilibre pour chaque tranche horaire ou bihoraire. L’insertion des enchères soumises par les exploitants d’installations de stockage devrait se faire selon les mêmes principes, sachant bien entendu qu’une installation peut à chaque instant se présenter comme acheteuse si le prix est bas et vendeuse s’il est élevé, donc intervenir sur les deux côtés du marché. Cette insertion passe par le calcul dynamique de la valeur de l’énergie contenue dans le « réservoir » et la comparaison de cette valeur interne avec le prix de marché, en tenant compte des pertes provoquées par la double transformation de l’énergie électrique. Reste l’épineuse question des risques de manipulation de prix par les gros opérateurs du stockage, et les gros producteurs ou les gros consommateurs d’énergie. L’intérêt d’interdire ou d’autoriser une intégration verticale producteur/stockeur ou consommateur/stockeur dépend de la configuration du réseau puisque selon le degré de congestion des lignes la même capacité d’injection ou de retrait d’électricité peut avoir des effets différents sur l’équilibre des marchés.

La progression de l’industrie du stockage d’électricité poussée par le développement des énergies renouvelables va demander une répartition claire des tâches entre les organismes de régulation. Il ne sera pas toujours facile de distinguer entre les installations entièrement dévolues à la sécurité du réseau, donc sous contrôle du régulateur sectoriel, et celles utilisées pour participer aux marchés, donc surveillées par les autorités de la concurrence. Beaucoup d’acteurs économiques sont intéressés par cette activité puisque l’appel à contributions sur le stockage de l’électricité par batteries lancé par la CRE au début de 2019 a suscité près de 50 réponses. Le recours au système du « bac à sable réglementaire » donne la possibilité d’encourager l’émergence de nouvelles idées pour encadrer de façon efficace les innovations proposées par les parties intéressées.

Une régulation nécessaire du «spéculatif» bitcoin pour Christine Lagarde

Une régulation nécessaire du «spéculatif» bitcoin pour Christine Lagarde

 

Petit à petit les Banques centrales se réveillent pour constater la spéculation relative des cryptomonnaies  comme le bitcoin. Il serait temps car cette spéculation est très malsaine et pourrait un jour en s’écroulant contaminer l’ensemble du système financier. Par ailleurs ,il y a l’enjeu stratégique de la souveraineté monétaire.

 

En effet les protagonistes des monnaies virtuelles entendent remettre en cause la souveraineté monétaire des pays. On n’y substituerait des cryptomonnaies  qui ne serait plus contrôlées par les Etats et donc aux mains des financiers et des spéculateurs.

 

Comme d’autres banquiers centraux ces derniers temps, la présidente de la Banque centrale européenne, Christine Lagarde, appelle à un encadrement du bitcoin. La cryptomonnaie est un «actif spéculatif, qui a servi à des affaires bizarres et certaines activités de blanchiment d’argent totalement répréhensibles», a-t-elle déclaré, mercredi, lors d’une conférence organisée par l’agence Reuters. «Il doit y avoir une réglementation. Il faut l’appliquer et s’accorder sur ce point au niveau mondial car, s’il y a une échappatoire, celle-ci sera utilisée», a poursuivi la gardienne de l’euro.

 

Les évolutions du bitcoin ont reflété ces derniers jours ce caractère très spéculatif. Enfonçant les records les uns après les autres, il a dépassé successivement les 20.000, les 30.000 puis les 40.000 dollars, avant de plonger de quelque 20% dans la journée de lundi. Sur l’ensemble de l’année 2020, le cours du bitcoin a quadruplé.

Une régulation de la publicité numérique ?

 

Une régulation de la publicité numérique ?

 

Une étude commandée conjointement par le ministère de la culture et le ministère du numérique détaille le fonctionnement complexe des différents secteurs de la publicité numérique : search (publicité dans les résultats des moteurs de recherche) et display (affichage de bannières et de vidéos). Elle dresse un constat connu, mais qui ne fait que se renforcer : la forte domination du duopole Google/Facebook, qui capte « 75 % du marché de la publicité digitale et 90 % de la croissance du secteur » et met en danger le modèle économique des médias traditionnels.

 

Pour les auteurs, les taxes et autres transferts de revenus comme les droits voisins ne peuvent être que des solutions « palliatives » insuffisantes pour résoudre le déséquilibre fondamental avec les grandes plateformes.Les auteurs font donc des propositions de renforcement de la régulation, afin de rétablir des règles du jeu équitables entre les différents acteurs de la publicité. Ils suggèrent d’aligner les contraintes pesant sur les géants du numérique et les autres acteurs.

«Une majorité de Français pour une régulation rigoureuse de l’immigration » ( Jérôme Fourquet, IFOP)

 «Une majorité de Français pour une régulation rigoureuse de l’immigration » ( Jérôme Fourquet, IFOP)

 

Il est clair que les récents attentats ont sans doute constitué la goutte qui a fait déborder le vase de la tolérance de nombre de Français vis-à-vis de l’immigration incontrôlée. Pas seulement de l’immigration à venir mais aussi de celle présente sur le territoire

«Quand on parle d’immigration aux Français, beaucoup d’entre eux raisonnent non pas seulement sur les “flux” mais sur le “stock”», décrit Jérôme Fourquet , Patron de l’institut IFOP.

D’après une enquête de l’IFOP, seuls 32% des Français considèrent que les pouvoirs publics luttent efficacement contre l’immigration clandestine. Une large majorité d’entre eux sont favorables à des mesures vigoureuses pour limiter les flux ; 78% pensent qu’il faut une immigration choisie et non pas subie ; 55% sont favorables à la suppression du regroupement familial. Enfin une majorité souhaite un changement de statut juridique pour obtenir la nationalité française ainsi la plupart souhaiterait qu’on se situe le droit du sang au droit du sol. 58% souhaitent l’instauration du droit du sang.

Pour une régulation des données personnelles

Pour une régulation des données personnelles

L’analyse de Jean-Marie Cavada, Président de l’Institut pour les Droits Fondamentaux Numériques, après la publication de la note de la Fondation Digital New Deal, « Partage de données personnelles : changer la donne par la gouvernance ».( Chronique dans la tribune)

 

Les menaces que fait peser l’hégémonie des Big Tech sur la concurrence, l’innovation et la souveraineté européenne doivent être prises en compte. Alors que l’Europe tente d’agir avec le Digital Services Act, force est de constater que les velléités régulatoires européennes trouvent un écho outre-Atlantique – enfin ! La Chambre des représentants américaine a en effet récemment rendu un rapport sur les pratiques anticoncurrentielles des Big Tech.

Pourquoi les Big Tech dominent-elles ?

Les grandes plateformes numériques ont parfaitement su exploiter la puissance exponentielle des effets de réseau. Les modèles « winner takes all » propres aux marchés technologiques confèrent aux Big Tech, dès lors, une influence indéniable sur des pans entiers de l’économie internationale. A cela s’ajoute une taille de marché
presque sans limite puisque l’expansion de ces géants technologiques n’est pas freinée par des coûts marginaux élevés contrairement à des industries plus traditionnelles et des problématiques de transport par exemple. L’addition de ces deux facteurs – effets de réseau et taille potentielle de marché – a permis aux Big Tech de conquérir, petit à petit, la frange BtoC de l’économie européenne.

Lire aussi : Vers un « cyberscore » pour informer les internautes sur la sécurité de leurs données?

Au-delà des caractéristiques particulières de l’économie numérique sur lesquelles les Big Tech ont su s’appuyer, c’est également l’utilisation d’un modèle économique spécifique qui leur a permis d’asseoir leur domination. Elles ont concentré leurs efforts sur des marchés dits bifaces, où le service gratuit offert au plus grand nombre permet de fermer la porte aux nouveaux entrants, tandis que le modèle publicitaire permet
d’atteindre une rentabilité maximale.

Si l’intelligence artificielle et la science des données constituent autant d’outils utiles pour répondre aux défis de notre monde, force est néanmoins de constater que les meilleurs cerveaux de la planète sont recrutés pour parfaire un modèle publicitaire déjà effectif ! Le pouvoir accumulé par ces entreprises, de surcroît, aboutit aujourd’hui à un impact systémique sur l’ensemble de la société, et notamment sur le fonctionnement même de nos démocraties. Il s’agit désormais de redonner toute sa place au bien commun et à l’intérêt collectif.

Si les Big Tech ne considèrent les individus que comme des consommateurs, les porteurs du projet aNewGovernance souhaitent inverser ce paradigme.

Encourager un nouveau modèle pour la donnée

L’uniformisation des règles du jeu concernant le traitement et l’utilisation des données constitue un objectif primordial. Il semble ici nécessaire, comme le démontre le think tank Digital New Deal dans le rapport de Matthias de Bièvre et Olivier Dion Partage de données personnelles : changer la donne par la gouvernance, de repenser l’architecture de circulation des données pour que tous les acteurs, publics comme privés, associatifs
comme académiques, puissent en retirer les bénéfices.

L’article 20 du Règlement général sur la protection des données, qui consacre un droit à la portabilité des données, constitue une des clés pour mettre sur pied une architecture des données plus vertueuse que celle qu’ont mise en place les Big Tech. Là où le bât blesse, c’est que ce nouveau droit n’est pas incarné dans des procédures et des règles simples d’accès et d’utilisation par tous. A ce titre, des outils doivent être mis à
disposition des individus pour maîtriser leurs données, tout en s’assurant qu’ils soient indépendants des plateformes, par souci de séparation des pouvoirs. Également, la puissance publique doit intervenir, sur ce point, afin d’assurer que cette nouvelle catégorie d’outils se développe et prenne en compte l’intérêt public et l’intérêt de l’individu, à l’inverse des Big Tech qui font fi des deux.

Pour parvenir à créer cette nouvelle infrastructure de données, l’effort doit être partagé par le secteur public et le secteur privé. A cet égard, aNewGovernance et l’Institut des Droits Fondamentaux Numériques, appellent à la création d’un organe de gouvernance européen et international pour que les mondes du public et du privé pilotent ensemble l’écosystème de gestion des données et les services qui émettent et consomment des
données. Cette gouvernance mondiale permettrait, d’une part, de faciliter la circulation des données pour l’ensemble des acteurs de l’économie, et aurait, d’autre part, un effet de renversement de la relation asymétrique qui existe aujourd’hui entre une plateforme et un utilisateur.

Pour une plateforme financièrement puissante et dont les services sont quasi universels, il est aisé d’imposer une architecture et un modèle de partage de données. A l’inverse, proposer une architecture et un modèle différents qui profitent à des dizaines de millions d’acteurs requiert une importante coordination. Un organe de gouvernance doit être la clef de voûte d’une infrastructure mondiale de circulation de données centrée sur l’individu. Le numérique étant devenu un sujet éminemment politique – et non plus uniquement technique ou économique – cette infrastructure de circulation de données pourrait constituer la première pierre d’un numérique plus juste. Et cela n’aboutira pas sans gouvernance.

« Quelle régulation de la pub ».

« Quelle régulation de la pub ».

Une tribune intéressante d’Arnaud Tomasi  (La Poste) sur la problématique de la régulation publicitaire évidemment qui n’est pas dénuée de préoccupations corpos .

 

 

 « Le débat sur la publicité est extraordinairement complexe car il questionne, en creux, notre modèle de consommation et les moyens à mettre en œuvre pour réguler la promotion des produits et services »

La publicité est de plus en plus considérée par certains comme intrusive et de nombreux acteurs de la société civile appellent à une régulation renforcée du secteur de la communication et des médias. Aussi, se succèdent, depuis plusieurs mois, interpellations et débats sur le rôle de la publicité dans la transition écologique. Le rapport Big Corpo, le rapport de mission sur la publicité et la transition écologique de Thierry Libaert et Géraud Guibert ou les propositions de la convention citoyenne : tous ces textes interrogent le rôle de la communication et sa place dans la transition écologique.

Le débat est extraordinairement complexe car il questionne, en creux, notre modèle de consommation et les moyens à mettre en œuvre pour réguler la promotion des produits et services. Mais il a l’avantage de pousser les acteurs économiques à accélérer des changements attendus dans leurs pratiques.

Cela fait des années que le secteur de la communication intègre cette responsabilité et nombre de marques, d’entreprises, de collectivités territoriales, cherchent à améliorer l’efficacité environnementale de leurs outils et campagnes. Et nous avons une responsabilité collective à transformer durablement nos pratiques et à inventer des offres plus sobres pour y contribuer.

Entreprise contributive par nature, au sein d’un groupe extrêmement volontariste sur ses engagements environnementaux, la Poste a souhaité apporter au marché une connaissance scientifique des impacts écologiques des supports de communication. Nous avons confié au cabinet indépendant Quantis la mission de réaliser une Analyse du cycle de vie (ACV) pour comparer des usages de communication papier et numérique.

S’engager dans une démarche de responsabilité environnementale, c’est accepter la complexité. C’est ne pas se satisfaire des idées reçues

 

Empreinte environnementale. Parce qu’on améliore bien que ce que l’on mesure et parce que la Poste propose tout à la fois des solutions papier et digitales, il nous semblait urgent de mesurer ces impacts et d’analyser ce que nous pouvions améliorer dans nos offres pour diminuer leur empreinte environnementale.

Les résultats viennent d’être publiés et bousculent bien des idées reçues. Pour quatre sur cinq des scénarios étudiés, les supports papier sont globalement moins impactants sur l’environnement (sur seize indicateurs étudiés allant du changement climatique, l’utilisation des ressources fossiles, des ressources minérales, des sols, à la santé humaine).

Cette étude est une première. Nous pouvons enfin orienter les choix média de nos clients en connaissance de cause. Leur permettre par nos conseils de privilégier un support, un format, une création, au regard de son efficacité écologique réelle. Si nous le voulons vraiment, nous savons, désormais, allier performance environnementale et performance marketing et faire de nos métiers un véritable levier d’amélioration continue.

Ces données collectées, objectivées, nous permettent de défendre la complémentarité des deux supports papier et digital au service d’une communication plus responsable. Nous avons, pour cela et grâce à elles, conçu un outil d’évaluation (MediaPositiveImpact) au service de nos clients professionnels.

S’engager dans une démarche de responsabilité environnementale, c’est accepter la complexité. C’est ne pas se satisfaire des idées reçues. C’est partager les données qui nous permettront, ensemble, de proposer aux marques un marketing relationnel réellement utile aux citoyens consommateurs et donc à nos clients !

Arnaud Tomasi est directeur de la business unit Média de La Poste.

 

Nouvelles technologies-Quelle régulation de l’intelligence artificielle

Nouvelles technologies-Quelle  régulation de l’intelligence artificielle

 

Florian Ingen-Housz, partner au sein d’Altermind, et Victor Storchan, ingénieur en IA dans l’industrie financière, explique l’enjeu de la régulation de l’intelligence artificielle (IA) dans la Tribune

 

 

En février dernier, la Commission européenne a publié son livre blanc sur la régulation des applications de l’Intelligence Artificielle (IA). Plutôt que de légiférer unilatéralement sur ce sujet, la Commission a choisi, de manière novatrice, une approche consultative et participative en incitant l’ensemble des parties prenantes à cet écosystème à participer à la discussion. Cette approche doit être encouragée, approfondie et accélérée pour ajuster l’état du droit à un état de l’art technologique qui ne cesse de faire surgir des débats juridiques et normatifs inédits. Cette approche est aussi le seul moyen de faire émerger, dans la décennie qui vient, une véritable vision européenne de la Tech, tout à la fois pro-business et respectueuse des libertés individuelles.

Un défi majeur pour les régulateurs

L’IA constitue en effet un défi majeur pour les régulateurs. La vitesse prodigieuse des avancées technologiques doit inviter ces derniers à co-construire la norme avec un écosystème plus large qu’ils n’en ont l’habitude, plutôt que d’imposer celle-ci « par le haut ». Tout comme l’ont montré les débats sur la bioéthique depuis les années 1970, la régulation technologique est avant tout un choix de société et par conséquent un effort continu. La question se pose néanmoins avec une acuité particulière pour le déploiement de l’IA, compte tenu de l’ambiguïté de ses définitions, de sa nature stochastique et de l’opacité des multiples modèles sur lesquels elle est bâtie. Cette opacité est aggravée par l’hypercroissance de l’écosystème (50% de plus de papiers soumis à NeurIPS – une des conférences majeures de la discipline - en 2019 par rapport à l’année précédente), qui rend immédiatement obsolètes des savoirs difficilement acquis par des régulateurs parfois mal-équipés sur le plan technique. Si la régulation est évidemment primordiale pour permettre l’adoption, créer du consensus et de la confiance envers cette technologie, son élaboration devra donc être suffisamment (i) spécifique dans son champ d’application pour être « implémentable », (ii) inclusive et ouverte dans sa démarche et (iii) sélective dans ses priorités et son séquencement.

Il faudra donc, dans un premier temps, d’abord s’assurer de la juste définition de l’objet ciblé. Ce besoin de spécificité dans un domaine aux frontières floues soulève un premier défi : celui de la sémantique. Le concept d’IA est imprécis, même pour les experts. Contrairement aux précédentes vagues de disruption technologique, que ce soit la machine à vapeur, l’électricité, la chimie ou même les premiers programmes informatiques, les contours de l’IA sont moins tangibles. Ainsi, en 2013, l’Etat du Nevada a dû ainsi revoir sa définition de l’IA pour les véhicules autonomes car celle-ci englobait aussi certains modèles de voitures sophistiquées avec des fonctionnalités de contrôle avancées. La définition de ce qu’est un robot pour l’Union européenne n’est pas non plus satisfaisante. Contrairement à ce que semble indiquer cette dernière, les robots n’acquièrent en effet pas de capacité d’autonomie uniquement grâce aux données et aux capteurs dont ils disposeraient. Comme le montrent les travaux de Bryan Casey et Mark A. Lemley (Stanford Law School) lorsque cela est possible, une manière de contourner le problème sémantique est de s’assurer que la régulation cerne en priorité les comportements des individus et non pas les techniques, les types d’algorithmes ou les robots.

 

Faire coopérer des acteurs très divers

L’efficacité de la régulation pour l’IA se mesurera aussi à sa capacité à faire coopérer des acteurs très divers. Les usages de cette technologie doivent être appréhendés non pas in-vitro mais au sein d’écosystèmes technico-sociaux complexes où elle est déployée. Ainsi cette coopération doit à la fois s’effectuer horizontalement et verticalement. Horizontalement d’abord, par la co-construction entre juristes, techniciens, et chercheurs, mais également sociologues et citoyens qui via les décideurs publics seront les utilisateurs de ces systèmes d’IA. Ces derniers doivent être dotés d’outils pour améliorer leur capacité à contester la décision d’un modèle afin de créer de la confiance. Le dialogue doit aussi être plurilatéral, non seulement par une coordination entre pays et puissances régionales, mais aussi en incluant les ONG, la société et l’industrie.

 

Cette coopération est aussi verticale. Pour être opérant, le processus délibératif d’une gouvernance globale doit pouvoir être traduit en termes techniques par les ingénieurs et les chercheurs qui conçoivent les modèles. Cependant, pour être parfaitement efficace et agile, cette approche différenciée devra pouvoir s’incarner par une gouvernance dans les entreprises capable de guider les équipes techniques. Ces dernières sont confrontées à plusieurs dilemmes du fait des contraintes techniques, mathématiques ou algorithmiques et ont besoin d’indications précises qui tranchent des compromis entre certaines notions d’éthiques comme l’équité ou le respect de la vie privée. Il est donc nécessaire de faire un choix qui relève presque de philosophie politique. Ces choix sont sociétaux et culturels.

Enfin, lorsqu’une directive réglementaire présente une ambiguïté intrinsèque (dans le but par exemple d’anticiper des développements de technologie future ou pour pouvoir être appliquée à un spectre large d’acteurs), il est précieux que l’écosystème puisse collectivement expliciter les points d’incertitude qui sont sujets à l’interprétation. Cet effort de clarification permettrait d’aligner les efforts de gestion du risque dans les modèles d’IA sur des standards communs. Ces concertations des parties prenantes ont vocation à constituer une « soft law » pour préciser ou compléter au plus près du terrain des principes plus généraux fixant l’esprit et l’intention.

Se concentrer sur un nombre réduit de secteurs

 

Enfin, la régulation pour être efficace doit en priorité se concentrer sur un nombre réduit de secteurs et d’applications sur lesquels une attention immédiate est requise. A titre d’exemple, l’UE propose de calibrer le niveau de régulation selon le niveau de risque que représente une application de l’IA ou un secteur industriel applicatif. La commission propose ainsi une liste de plusieurs secteurs à haut risque comme les transports, la santé ou l’énergie dans lesquels certains déploiements technologiques sensibles devront respecter un ensemble de règles plus exigeant. Cette approche semble raisonnable. Le risque consubstantiel à l’innovation et un principe de précaution aveugle à la diversité des cas d’usages aboutirait à une société du statu quo vidée de sa force entrepreneuriale et créatrice. Les applications dans le secteur public (justice et éducation notamment), la santé font certainement partis des chantiers prioritaires. Les exemples récents de systèmes mal déployés sont légions : les entreprises technologiques comme IBM ou Microsoft ont stoppé leurs services de reconnaissance faciale après que des failles éthiques à répétition aient été identifiées. L’algorithme néerlandais de prédiction de fraude pour les demandeurs de sécurité sociale a été suspendu par une juridiction du pays pour violation des droits de l’homme et de la régulation RGPD sur les données.

Ainsi, les rapports entre les régulateurs et les innovateurs en IA ne peuvent être résumés à un conflit entre le glaive et le bouclier. La multidisciplinarité de cette technologie, ses évolutions rapides et disruptives doivent être accompagnées pour qu’elle serve le plus grand nombre dans la transparence et responsabilité des acteurs.

Quelle régulation de l’intelligence artificielle

Quelle régulation de l’intelligence artificielle

L’informaticien et philosophe Jean-Gabriel Ganascia estime que les Etats doivent se saisir de ces questions et prendre leurs responsabilités, afin de ne pas s’en remettre uniquement aux acteurs privés.(Interview dans le monde)

Elon Musk a présenté, le 28 août, les recherches de sa société Neuralink visant, avec le recours de l’intelligence artificielle, à soigner des pathologies et augmenter les capacités cérébrales. Comment analysez-vous ces annonces ?

Les déclarations d’Elon Musk sont problématiques. Sa société travaille sur les implants cérébraux et sur les interfaces cerveaux-ordinateurs. Nous savons que quand une personne a une activité cérébrale, ses neurones émettent des signaux électriques. Les recherches dans le domaine des interfaces visent à analyser ces signaux grâce à des techniques d’apprentissage machine, afin de les transformer par exemple en commande d’un objet, d’une prothèse, etc. On parle ici d’un signal qui part de l’homme vers une machine.

Elon Musk, lui, laisse entendre qu’il pourrait aussi avoir un signal retour, de la machine vers l’homme donc. Nous pourrions, à terme, tous être connectés au réseau par nos cerveaux et bénéficier d’informations mises en commun. En étant tous liés par un « lacet neuronal » nous deviendrions d’une certaine manière transparents les uns aux autres. Il y a, derrière cette idée, la théorie selon laquelle l’intelligence artificielle va nous dépasser et qu’il faut, pour rivaliser, augmenter notre mémoire.

D’où vient cette notion de mémoire augmentée ?

En partie des auteurs de science-fiction, comme l’Ecossais Iain Banks (1954-2013), qui, dans la seconde moitié du XXe siècle, utilise le terme de « lacet neuronal » repris par Elon Musk dans sa présentation. Mais on trouve des liens encore plus anciens. Le physicien Vannevar Bush (1890-1974), conseiller scientifique du président Roosevelt, a écrit en 1945 – avant le premier ordinateur électronique – un texte visionnaire, As We May Think (« comme nous pourrions penser »), où il imagine le Memex (Memory Extender), un extenseur de mémoire pour gérer le savoir technologique en constante augmentation.

Il imagine, dessin à l’appui, un verre dépoli, l’équivalent d’un écran, sur lequel pourrait être projeté de l’information. Dans la conclusion du texte, il évoque les ondes électriques cérébrales et s’interroge : « Peut-être qu’un jour, on saura quelle est leur nature et on pourra passer, sans intermédiaire, directement de l’électricité extérieure, remplie d’information, à l’électricité intérieure. » On peut voir une certaine continuité entre sa vision et celle d’Elon Musk.

 

GAFA : limite et danger d’une régulation « populiste »

GAFA : limite et danger d’une régulation populiste

Aurélien Portuese, Professeur, St Mary’s University London et Professeur associé en Droit Européen de la Concurrence au Global Antitrust Institute de la George Mason University (*) d’une régulation sous pression populiste des géants du numérique. Une vision évidemment libérale.

 

« Avec trois condamnations cumulant près de 10 milliards d’euros d’amende, Google est le résultat parlant d’une recherche toujours plus poussée des autorités à l’encontre des géants du numérique: après le temps de l’enthousiasme numérique où d’aucuns se félicitaient de la puissance des algorithmes, de l’ampleur de l’innovation digitale, et des services fournis gratuitement – voici venu ce qu’il est convenu d’appeler le « techlash » !

Sanctionnées, vilipendées, et bientôt démantelées? Les géants du numérique font l’objet de nombreuses pressions populaires que nos régulateurs et responsables politiques ont souvent bien du mal à  refreiner. Et pourtant ! L’histoire nous enseigne que la régulation de la concurrence devrait demeurer le domaine de l’expertise et de l’analyse économique plutôt que le domaine de l’opinion publique et l’instrumentalisation politique.

Aux origines populistes du droit de la concurrence

Avec la révolution industrielle que connurent les Etats-Unis dans la seconde moitié du XIXe siècle, l’accumulation de capital dans les villes et l’émergence d’innovations telles que les chemins de fers ont conduit à des révoltes d’agriculteurs qui se sont révélées être politiquement influentes. Par ces révoltes, les agriculteurs ont pu exprimer leurs craintes face à ce qui était considéré alors comme une concurrence déloyale de ces conglomérats industriels – la productivité accrue conduisait également à une déflation des prix au détriment des agriculteurs et des petits commerçants. Ainsi, des plateformes programmatiques ont été élaboré au sortir desquelles, notamment, la lutte contre les monopoles et le contrôle des chemins de fers étaient mêlées à la revendication d’un argent libre pour tous (« Free Coinage of Silver »).

-

 

-

Né aux Etats-Unis avec le Sherman Act de 1890, le droit de la concurrence tire ses origines de multiples mouvements populistes initiés par les agriculteurs – tels que le « Farmers’ Alliance » et le « Grange Movement ». Ces initiatives ont contribué à fonder en 1891 le « People’s Party« , aussi dénommé  « The Populists ». Avant cette législation fédérale, douze Etats (agraires) avaient déjà initié ce type de législation. La  formation d’un « trust » (soit, un cartel) par Rockefeller en 1879, le « Standard Oil Trust » ayant des ramifications sur plusieurs Etats, a convaincu le Congrès d’introduire une législation « anti-trust » au niveau fédéral. Proposée par le républicain John Sherman, cette législation fédérale adoptée en 1890 était destinée à protéger les « petits commerces et les honnêtes hommes», comme l’interprètera en 1897 la Cour Suprême, contre les grandes entreprises et leurs excès.

Il est alors évident que les origines du Sherman Act, et du droit de la concurrence tel qu’il a influencé sa transposition en Europe des décennies plus tard, sont éminemment populistes : une lutte contre les grandes entreprises et une défense des petits commerçants comme choix politiques sans pour autant exiger une démonstration des méfaits économiques à imputer à ces grandes entreprises.

Les dangers d’un populisme dans la concurrence

La concurrence dans la société est souhaitable pour son efficacité économique (des prix bas, des entreprises compétitives et une innovation accrue) et pour le processus qu’elle engendre : un esprit entrepreneurial récompensant les mérites économiques des entreprises florissantes et sanctionnant les entreprises en décalage avec les besoins des consommateurs. Or, cette justification économique n’est pas partagée par la vision populiste de la concurrence. Le populisme dans la  concurrence perçoit le besoin d’organiser le marché par l’Etat afin qu’il y ait un nombre suffisant d’entreprises à tailles égales afin que ces entreprises puissent réellement se concurrencer entre elles : seul un nombre suffisant d’entreprises garantit la déconcentration économique et politique du pouvoir détenu par les entreprises. Cette vision a historiquement conduit non seulement à sanctionner des pratiques efficientes ne créant aucun dommage pour les consommateurs, mais également à démanteler des entreprises pour la seule raison qu’elles avaient acquis une taille trop importante.

Premièrement, des comportements tels que la pratique des prix minimums aux distributeurs, la pratique des restrictions imposés par le fournisseur à ses distributeurs, la fusion entre petites entreprises, la vente à prix bas par des entreprises dominantes…ont été considérés comme illégales car renforçant l’entreprise dominante, sans nécessité de démontrer au préalable que les consommateurs étaient lésés. Deuxièmement, le démantèlement d’entreprises – néanmoins rarissimes dans l’histoire – s’est toujours soldé par des échecs. Il y a trois expériences de démantèlement d’entreprises : Standard Oil en 1911, AT&T en 1984, et Microsoft en 2000. Standard Oil une fois démantelé en 34 entreprises, aucune de ces entreprises n’a pu survivre sans être rachetée (pour donner naissance à des entreprises comme Exxon Mobil, BP PlC, Chevron Corporation…) et aucune baisse de prix n’a été démontrée. Après 10 ans d’investigations et une fois AT&T démantelé en huit entreprises de téléphonie, la baisse des prix a principalement été le fait d’innovations comme l’émergence de la téléphonie sans fil sans pour autant éviter la constitution aujourd’hui d’un duopole entre Verizon et AT&T. Surtout, le réseau physique de téléphonie mobile était considéré comme monopole naturel. Enfin, le régulateur américain a échoué à démanteler Microsoft par un jugement d’appel qui a simplement exigé que Microsoft agisse sans discriminer les concurrents de ses produits Windows. Par conséquent, toute tentative de démanteler les géants du numérique (ou « GAFA » pour Google, Amazon, Facebook et Apple) serait fondée sur des motifs hasardeux, ne saurait être qu’une mesure de dernier recours, et prendrait des années d’investigations pour un échec probable quant aux bienfaits pour les consommateurs et pour l’innovation espérée.

La nécessaire « économisation » de la régulation de la concurrence

Commencé dans les années 70s aux Etats-Unis et dans les années 2000 en Europe, l’approche économique – plutôt que politique voire populiste – de la concurrence a consisté à questionner les interdictions de comportements d’entreprises par le prisme de l’efficacité économique : désormais, seuls seront interdits les comportements qui ne concourent pas à l’efficacité économique du marché. Cette efficacité est alors mesurée par l’accroissement ou pas du bien-être du consommateur par la pratique concernée. A contrario, seront sanctionnés les comportements pour lesquels un dommage aux consommateurs sera démontré (prix élevé ou qualité réduite du fait de cartels ou d’abus de position dominante). Ainsi, les synergies entre entreprises pour des gains d’efficience peuvent désormais être acceptées, les fusions pour une meilleure productivité bénéficiant aux consommateurs sont encouragées, les relations contractuelles entre fournisseurs-distributeurs sont libres dès lors qu’elles ne se font pas au détriment des consommateurs.

L’organisation de nos économies autour de nouveaux « business models », principalement l’économie digitale autour des plateformes, était rendu possible. Ainsi, les stratégies d’intégration verticales des entreprises dans lesquelles des écosystèmes digitaux se créent ont bénéficié de la bienveillance du régulateur.

De même, l’essor de l’économie du gratuit dans laquelle l’utilisateur final ne paie pas le service financé par les publicitaires était rendu tout autant possible par le jeu complexe d’obligations contractuelles réciproques dans lesquelles l’échange de données personnelles a remplacé le paiement d’un prix. Il n’est pas anodin que la grande période d’innovation digitale, à savoir 1995-2015, s’est accompagnée – si ce n’est a été facilitée – par une économie de la concurrence à la fois aux Etats-Unis et en Europe où seuls les dommages prouvés aux consommateurs étaient sanctionnés et où le pouvoir de marché était perçu comme la condition sine qua non à l’émergence de ces plateformes de réseaux.

Inquiets de la taille de certaines entreprises du numérique et invoquant l’héritage populiste du Sherman Act, certains auteurs appellent désormais à revenir entièrement sur l’économisation de la régulation de la concurrence qui a émergé depuis les années 70s. Se revendiquant explicitement comme étant populistes, ces auteurs appellent à démanteler les GAFA. Ces appels au démantèlement de Google, Facebook, Amazon ou encore Apple interviennent non pas après avoir démontré l’inefficacité de sanctions potentielles ni même après avoir démontré  la réalité de dommages aux consommateurs, mais seulement comme volonté de faire émerger des plus petites entreprises digitales afin que le pouvoir économique et politique soit déconcentré : dans la lignée de l’historique populiste de la défense des petits entrepreneurs, ce populisme moderne auto-proclamé comme « Antimonopoly Movement » entend restructurer les marchés conformément à une démocratie dite « économique » et à un objectif d’intérêt général plus ambigu que la stricte défense du bien-être des consommateurs.

Avec leurs profitabilité et leurs capitalisations importantes, les géants du numérique sont les Standard Oil du XXIe siècle : des cibles de choix pour dénoncer la concentration économique et politique des pouvoirs et défendre ainsi les entreprises potentiellement empêchées de se développer en raison de la taille des géants du numérique. Avec cette analyse dans la lignée de l’héritage populiste du Sherman Act, et sans même démontrer le pouvoir de marché, l’absence d’innovation et/ou la qualité décrue des services offerts (souvent gratuitement), cette école de pensée néo-populiste s’attire néanmoins les faveurs à la fois de l’opinion publique et de responsables politiques en mal d’élaborer un programme économique populaire.

Aux mêmes causes, les mêmes conséquences : l’abandon d’une jurisprudence ayant conduit à interdire des comportements pourtant bénéfiques pour les consommateurs a été l’aboutissement de longues années de débats académiques ayant fini par convaincre de démontrer les erreurs commises dans le passé. Ainsi, revenir sur l’ « économisation » de la concurrence à la faveur d’une vision plus politique de la concurrence reviendrait à commettre les mêmes erreurs du passé – au détriment des consommateurs qui en paieraient les coûts indus. La passion populiste, quoique séduisante et engageante, ne saurait prévaloir sur une analyse raisonnée, experte et détachée, de l’économie de la concurrence.

« C’est une erreur de croire que la passion, quand elle est heureuse et pure, conduit l’homme à un état de perfection ; elle le conduit simplement à un état d’oubli » avançait Victor Hugo.

Cette passion populiste nous conduit à l’oubli – l’oubli des erreurs du passé et l’attrait pour des solutions éprouvées.

Résister à l’appel du pied d’un populisme dans la concurrence, c’est résister à toute forme de populisme dans la société – où la réflexion médiate est souvent plus juste que l’intuition immédiate, où l’expertise n’est pas sacrifiée sur l’autel du ressenti majoritaire, où l’économie revêt les attributs d’une science plutôt que les traits de la méfiance.

Résister en Europe à la vision populiste à l’endroit des géants du numérique, c’est aussi encourager l’émergence en Europe même d’entreprises digitales capables d’évoluer et de les concurrencer. Voilà un objectif de politique économique enthousiasmant loin de l’instrumentalisation politique d’une concurrence dévoyée !

(*) Par Aurélien Portuese, Professeur, St Mary’s University London ; Professeur associé en Droit Européen de la Concurrence au Global Antitrust Institute de la George Mason University ; Chercheur affilié à l’Université Catholique de Paris. Cet article fait écho à la publication académique co-écrite avec Pr. Joshua Wright « Antitrust Populism : Towards a Taxonomy » publié au Stanford Journal of Law, Business & Finance (Mars 2020) et nominé pour un Prix chez Concurrences. Aurélien Portuese a également bénéficié d’un financement de l’Académie libre des sciences humaines.

123456



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol