Archive pour le Tag 'réguler'

Santé- La lumière pour réguler l’effet des médicaments ?

santé- La lumière pour réguler l’effet des médicaments ?

L’idée de soigner le corps humain par la lumière ne date pas d’hier. Hérodote d’Halicarnasse affirmait que la lumière du soleil est indispensable à notre santé, et il tentait déjà de restaurer cette dernière par l’emploi de « l’héliothérapie » au temps de la Grèce antique. De nos jours, la lumière est reconnue comme essentielle à la production de vitamine D (pour la prévention de l’ostéoporose) et de mélanine (un pigment protecteur de la peau), et elle est encore utilisée pour traiter quelques pathologies, comme certaines formes de jaunisse du nouveau-né. Mais si nous savons que la lumière peut interagir avec des éléments du corps, peut-on pour autant l’utiliser pour agir sur les médicaments que l’on consomme ? Certaines molécules peuvent en effet changer de conformation (leur forme en trois dimensions) en présence de lumière. Dans le cas où seule l’une des formes possède une activité biologique, on peut ainsi envisager d’activer ou de désactiver l’effet du médicament à la demande par irradiation lumineuse. De plus, certaines lumières (rouge et infrarouge notamment) peuvent traverser la peau et les tissus, et permettent de cibler avec une grande précision l’organe atteint, tout en étant peu invasives et facilement applicables.

par
Romain Haudecoeur
Chercheur en chimie–biologie, Université Grenoble Alpes (UGA)

Letícia da Mata Lazinski
Doctorante en chimie, Université Grenoble Alpes (UGA)

Morane Beaumet
Chercheuse en chimie, Université Grenoble Alpes (UGA)
dans The Conversation

Cette idée présente un intérêt considérable : elle permettrait, pour prendre seulement deux exemples de problématiques de santé mondiale, d’éviter l’émergence de résistances bactériennes dues à la dissémination incontrôlée d’antibiotiques, ou de réduire les effets secondaires liés à la toxicité de la chimiothérapie.

Comme souvent à l’interface chimie – biologie, elle repose sur l’observation d’un phénomène naturel : le mécanisme permettant la vision animale au cours duquel intervient une molécule : le rétinal (un dérivé de la vitamine A, elle-même produite par le corps à partir des β-carotènes, d’où l’idée, partiellement vraie, selon laquelle manger des carottes serait bon pour la vue). Dans l’obscurité, le rétinal est liée à une protéine, nommée opsine, sous une forme coudée. Mais quand les yeux sont exposés à la lumière, il adopte subitement une forme linéaire, qui provoque son détachement de l’opsine. Ce phénomène engendre une série de réactions et mène finalement à la réception d’un signal électrique par le cerveau, qui le traduit par une image visuelle.

Le rétinal est donc ce qu’on appelle un « photoswitch », une molécule photosensible capable de changer de forme sous l’effet de la lumière : en fonction de celle-ci, il interagit ou non avec une protéine.

Et si ce concept pouvait être étendu à certains médicaments, qui, selon leur forme, pourraient délivrer leur action ou non ? En effet, après son administration, un médicament classique diffuse dans le corps et agit certes sur sa cible, mais souvent sur d’autres parties du corps également, ce qui produit des effets secondaires. Dans le cas d’un médicament « photoswitch », celui-ci est administré sous une forme inactive, et c’est uniquement lorsqu’il est exposé à la lumière qu’il change de forme et exerce son action. Son impact est donc réduit à la zone irradiée, pendant un temps déterminé, et le reste du corps et de l’environnement peut plus facilement être épargné. On parle de photopharmacologie, par opposition à la pharmacologie classique.

Cette discipline est encore émergente, et les « photoswitchs » viennent seulement d’atteindre les premiers tests cliniques de phase 1, comme la molécule « KIO-301 » de la société Kiora Pharmaceuticals développée pour le traitement de la rétinite pigmentaire, une maladie génétique grave qui entraîne progressivement la perte de la vision.

Mais depuis une dizaine d’années, plusieurs équipes de recherche travaillent sur le développement d’applications de ce concept, principalement en introduisant un motif azobenzène sur des molécules bioactives existantes. L’azobenzène fait partie des structures chimiques capables de changer de forme sous l’effet de la lumière, il est notamment employé dans la fabrication de colorants et pigments azoïques utilisés traditionnellement en teinture et peinture, pour obtenir des nuanciers du jaune au rouge.

La modification chimique d’antibiotiques comme la ciprofloxacine, pour les rendre réactifs à la lumière, est un exemple emblématique décrit par l’équipe du prix Nobel de chimie Ben L. Feringa. Inactives ou peu actives contre les bactéries sous leur forme d’origine, ces molécules acquièrent sous irradiation de lumière UV des propriétés antibiotiques. Ainsi, l’action du médicament peut être contrôlée dans le temps et dans l’espace, et la courte durée de vie de la forme irradiée (quelques heures, après quoi la molécule retrouve spontanément sa forme d’origine) permet d’éviter toute persistance d’une activité antibiotique dans l’environnement.

Dans le même esprit, la modification de la structure du méthotrexate, un médicament largement utilisé en thérapie anticancéreuse mais aux effets secondaires sévères (dépression, cirrhose hépatique, pneumonie, etc.), a permis la découverte du phototrexate, sa version « photoswitch ».

Si la forme d’origine du phototrexate n’a pas d’effet, son exposition aux UV lui fait adopter une autre forme, dont la toxicité est proche de celle du méthotrexate. Des expériences in vivo réalisées par les équipes de Soler et Gorostiza sur des embryons de poisson-zèbre traités cinq jours avec le phototrexate ont permis de montrer que si les embryons maintenus dans le noir ont mené à une faible mortalité au bout de cinq jours, d’autres individus irradiés par des UV deux fois par jour ont subi une augmentation du taux de mortalité d’un facteur huit, signe de l’activation du médicament sous l’effet de la lumière (la lumière seule n’ayant pas d’effet significatif sur cinq jours). Des molécules comme le phototrexate pourraient permettre de délivrer une action cytotoxique en irradiant spécifiquement une tumeur, sans altérer les autres parties du corps qui ne recevraient que la forme inactive du médicament.

D’autres domaines bénéficieraient de la possibilité de contrôler précisément l’effet d’un médicament. Dans le cas de la maladie d’Alzheimer par exemple, la quantité d’acétylcholine, un neurotransmetteur impliqué dans le processus de mémoire, est réduite, ce qui déclenche des problèmes de mémoire. Une solution consiste alors à inhiber l’action des cholinestérases, des enzymes qui dégradent l’acétylcholine (c’est l’effet du donépézil par exemple, l’un des rares traitements commercialisés de la maladie), mais un contrôle précis de leur activité est difficile à atteindre avec des thérapies classiques. Récemment, une équipe est parvenue à élaborer une molécule de type « photoswitch » capable d’inhiber l’action de la butyrylcholinestérase sous l’effet de la lumière UV. Cette molécule apparaît comme dix fois plus active sous sa forme irradiée que sous sa forme d’origine lors des tests sur l’enzyme isolée, mais elle produit un effet de type « tout ou rien » sur des modèles de souris présentant les caractéristiques de la maladie d’Alzheimer. En effet, si lors de l’injection du produit non irradié, aucune amélioration notable de la mémoire des souris déficientes n’est remarquée, le traitement avec la forme irradiée permet un retour complet au comportement normal, ce qui ouvre des perspectives intéressantes pour ajuster plus finement l’équilibre chimique du cerveau des patients atteints.

Ces différentes études ont permis de valider des preuves de concept décisives en ce qui concerne l’efficacité de traitements photopharmacologiques in vitro et in vivo. Néanmoins, la transposition de ces résultats vers l’utilisation clinique représente un enjeu et un défi de taille. En effet, l’utilisation systématique du motif azobenzène dans les « photoswitchs » actuels s’accompagne de certains défauts potentiellement rédhibitoires dans un contexte thérapeutique, comme l’utilisation de lumière UV, qui pénètre mal dans l’organisme et peut s’avérer nocive.

Avec d’autres équipes de chimistes, nous tentons de développer des structures alternatives pour surmonter ces difficultés, comme les hémiindigoïdes ou les phénylazothiazoles, activables et désactivables par la lumière visible. Les molécules visées doivent idéalement répondre à trois critères aussi cruciaux que difficiles à atteindre. Elles doivent pouvoir changer de forme efficacement dans l’eau et/ou dans un milieu biologique ; ce changement de forme doit intervenir sous irradiation d’une lumière visible située le plus possible du côté rouge de l’arc-en-ciel, afin de pénétrer profondément dans l’organisme pour toucher par exemple des organes internes ; et la forme irradiée doit mener à une forte augmentation de l’activité biologique par rapport à la forme initiale. Ce subtil équilibre entre les différentes propriétés souhaitées pour un médicament photopharmacologique optimal constitue l’un des principaux défis dans le domaine, et relève d’une véritable orfèvrerie moléculaire.

Réguler le football sinon attention aux faillites (Jean-Michel Aulas)

Réguler le football sinon attention aux faillites (Jean-Michel Aulas)

Pour Jean-Michel Aulas, ancien président de Lyon, Le football aujourd’hui, ce sont essentiellement des investisseurs étrangers venus des USA, du golfe persique, de Chine.
Le football est entré dans une forme de démesure avec les « clubs-États ». Les investisseurs traditionnels en sont exclus. On parle de salaires entre 100 et 200 millions par joueur ! Nous sommes entrés dans un processus inflationniste sans limites, un peu comme le marché de l’art avec les prix des toiles et des sculptures qui s’envolent dans les salles de ventes. Ceci est le résultat de la non-régulation en France et en Europe. Il faudra réguler le football sinon ce sport court à la catastrophe avec des faillites et des scandales.
( intreview dans La Tribune)

Dans ce monde de la finance bis, y-a-t-il encore une place pour les supporters ?

C’est le dernier espace d’espérance parce que les supporters restent quand même l’identité du club. À partir du moment où le créateur ou le président qui était dépositaire de l’ADN du club disparaît au profit de groupes financiers ou d’émirs lointains, le supporter est le dernier rempart avec l’histoire du club. Ils sont organisés et veulent se faire entendre. Ils représentent la dimension affective du club, son histoire émotionnelle, ses valeurs.

L’un des grands projets de votre carrière est la construction du Groupama Stadium. Il a fallu dix ans d’efforts pour qu’il sorte de terre. Est ce qu’il est encore possible aujourd’hui de réaliser de telles grandes infrastructures ?

Oui je crois. En trois ans, on vient avec Bruno Bernard, le président de la communauté urbaine de Lyon et écologiste constructif, de sortir une salle ultra moderne de 16 000 places dans laquelle va jouer l’équipe de basket de l’ASVEL. On va l’inaugurer dans quelques jours et ça va devenir la salle des temps modernes avec des concerts tous les trois jours. J’avais mis dix ans pour construire le Groupama Stadium et dû affronter cent recours en justice devant les tribunaux administratifs, cour d’appel et cour de cassation… Là, on a réussi à boucler le dossier et la construction en trois ans. Comme quoi tout n’est pas perdu !

Votre stade et son environnement, ce sont 3.000 emplois permanents. C’est la « touch » Aulas ?

Ce projet porte une double vision. D’abord créer un stade et ensuite un pôle économique durable avec un hôtel, un laboratoire, une clinique et des espaces de jeux pour les jeunes. L’espace est par ailleurs entièrement connecté aux réseaux de transports de la région lyonnaise.

Les coulisses du foot ne sont jamais glorieuses. Selon des déclarations récentes de Gérard Collomb, un match entre Lyon et Montpellier aurait été « truqué » en 2003. De graves accusations ?

Elles ont été totalement démenties par les joueurs eux-mêmes. J’ai beaucoup de pudeur pour mon ami Gérard qui se bat contre la maladie. Je n’ai évidemment pas répondu et ses paroles ont sans doute dépassé sa pensée… J’adorais Loulou Nicollin (ndlr, président du club de Montpellier, aujourd’hui décédé). C’était un match comme les autres et on était très heureux à la fin parce que lui restait en première division et moi j’étais champion de France. Il n’y a eu évidemment aucune triche.

Le jour où l’Autorité des marchés financiers valide l’OPA d’Eagle Football, la holding de John Textor, la DNCG (le gendarme financier du foot français) limite les capacités financières de recrutement de l’OL pour la prochaine saison. Voilà qui risque de compliquer la gestion du repreneur ?

L’issue de l’appel devant la DNCG était malheureusement prévisible, dès lors que les garanties demandées n’étaient pas satisfaites. Je suis dépité. Je le suis à plusieurs titres. D’abord parce que quand le club que j’ai dirigé pendant 36 ans traverse une passe difficile, ça me fait mal, c’est charnel, et j’en souffre. Ensuite, je le vis d’autant plus mal que la situation était parfaitement évitable : il y a 3 mois, le dossier que j’avais transmis à la DNCG visait à obtenir une prévision de résultat de 90 millions d’euros en actionnant 4 leviers différents : refinancement du stade, cession d’OLW, cession d’OL Reign, cession de joueurs. Ces leviers étaient tous initialisés depuis mars-avril 2023… mais la DNCG fait son travail de vérification et elle traduit en actes ce qu’elle voit. Aux nouveaux dirigeants désormais d’apporter les bonnes réponses.

une loi pour réguler les arnaques des influenceurs

une loi pour réguler les arnaques des influenceurs

Les députés ont voté à l’unanimité, mercredi 31 mai, une proposition de loi transpartisane pour réguler le secteur critiqué des influenceurs. Accusations de fraudes ou d’arnaques, promotions de remèdes inefficaces ou dangereux, partenariats non explicites… Les agissements d’une partie des influenceurs a placé tout le milieu dans le viseur des autorités et des législateurs.

Le texte, adopté à l’unanimité (194 votants) comme à chaque étape de sa navette parlementaire, prévoit d’interdire la promotion de certaines pratiques, comme la chirurgie esthétique, ou « l’abstention thérapeutique ». Il interdit ou encadre sévèrement la promotion de plusieurs dispositifs médicaux. La proposition de loi prohibe la promotion de produits contenant de la nicotine, et rappelle la soumission à la loi Evin. Le texte empêche également de promouvoir des abonnements à des pronostics sportifs, et cantonne la promotion de jeux de hasard et d’argent aux seules plateformes qui permettent d’interdire l’accès à la vidéo aux mineurs.

Le texte espère aussi toucher les influenceurs opérant depuis l’étranger, à Dubaï notamment. Il impose à ceux qui exercent depuis l’extérieur de l’UE, la Suisse, ou l’espace économique européen, de souscrire une assurance civile dans l’UE pour indemniser des victimes. Ils devront également désigner un représentant légal dans l’UE.

Pénurie d’essence : Comment réguler les pénuries ?

Pénurie d’essence : Comment réguler les pénuries ?

Par Florian Léon, Research officer à la Fondation pour les Etudes et Recherches sur le Développement International, Agence Universitaire de la Francophonie (AUF) dans « The conversation »

Face aux nouvelles alarmantes, de nombreux automobilistes ont anticipé une incapacité des stations à pouvoir servir tout le monde et se sont rués vers les pompes, même si leurs besoins étaient limités.

Depuis plus d’une semaine, les automobilistes français font face à une situation de pénurie de carburant à la suite de mouvements de grève dans plusieurs raffineries. L’actualité de la semaine passée a également été marquée, de manière beaucoup plus discrète, par la remise du prix de la Banque de Suède en l’honneur d’Alfred Nobel à trois économistes américains pour leurs travaux sur les banques et la stabilité financière.

Si ces deux évènements n’ont a priori rien en commun, les travaux de Douglas Diamond et Philip Dybvig, récipiendaires du prix au côté de Ben Bernanke, ancien président de la Réserve fédérale américaine (Fed), apportent un éclairage intéressant sur la situation actuelle en France.

En 1983, Diamond et Dybvig ont écrit un article fondateur qui a permis de comprendre que ce qui fait la raison d’être des banques est aussi une source de leur fragilité. L’existence des banques s’explique par leur rôle d’intermédiaires entre épargnants et emprunteurs. Les premiers cherchent à placer leur épargne dans des placements sûrs et liquides, c’est-à-dire disponibles à tout moment. Les emprunteurs ont besoin de fonds, mobilisés pour une durée assez longue, afin d’investir.

En l’absence de banque, il est impossible de transférer le surplus d’épargne vers les emprunteurs en raison de temporalité différente. Les banques assurent cette intermédiation en collectant l’épargne disponible à court terme pour la prêter à long terme. En opérant cette transformation de maturité, les banques contribuent à l’investissement et donc à l’activité économique.

Diamond et Dybvig ont mis en évidence que cette activité d’intermédiation est aussi ce qui rend les banques intrinsèquement fragiles. Les banques sont structurellement en position d’illiquidité car une partie de l’épargne est non disponible à court terme puisqu’elle est prêtée à long terme. En temps normal, cette situation ne pose pas de problème. Seule une part limitée de l’épargne totale est retirée tous les jours. Les banques ne sont donc pas dans l’obligation de disposer de toute l’épargne placée par les déposants.

Diamond et Dybvig s’intéressent aux situations de ruées vers les guichets (« bank runs ») au cours desquelles de nombreux épargnants vont vouloir retirer leur épargne au même moment mettant les banques, voire le système bancaire, en difficulté. Les origines de ces paniques bancaires sont multiples, allant de doute sur la solvabilité d’une banque à des décisions politiques comme à Chypre en 2013 lorsque le gouvernement a souhaité taxer les dépôts.

Le point intéressant de l’analyse de Diamond et Dybvig est de montrer que même si les retraits ne concernent initialement qu’un nombre limité d’épargnants, ils peuvent induire une ruée vers les guichets de l’ensemble des déposants en raison des prophéties autoréalisatrices et d’absence de coordination. Supposons qu’une proportion des épargnants décident de vouloir retirer leurs dépôts. Si les autres déposants commencent à douter de la capacité de la banque à faire face aux demandes de retraits, il est alors rationnel pour eux d’aller retirer leurs dépôts. Si ces déposants arrivent trop tard, ils ne pourront plus accéder à leur argent dans la mesure où le principe de retrait étant celui de la file d’attente (premiers arrivés, premiers servis).

À partir de ce moment-là, tous les déposants vont se ruer sur les guichets bancaires pour retirer leurs dépôts. La banque ne pourra servir toutes ces demandes et elle se retrouvera face à une situation d’illiquidité qui peut même se transformer en un risque de solvabilité (si la banque doit vendre ses actifs en urgence pour obtenir de la liquidité). Il est possible que le phénomène se diffuse rapidement aux autres banques, par exemple si les déposants qui ont des comptes dans plusieurs banques vont retirer leurs fonds dans les autres banques.

Bien que ce modèle soit très simple, il permet d’éclairer en partie la pénurie actuelle de carburants. La pénurie s’explique en premier lieu par les grèves qui ont impacté plusieurs raffineries. Néanmoins, les grèves ne permettent pas d’expliquer les ruptures observées dans plusieurs stations-service, notamment dans des zones initialement non servies par les raffineries fermées. Une explication des pénuries tient aux phénomènes de prophéties autoréalisatrices, mises à jour dans le modèle de Diamond et Dybvig.

Les solutions des « Nobel »…

Comme dans le cas des banques, les stations-service n’ont qu’une quantité limitée d’essence et le principe qui s’applique est celui de la file d’attente. Face aux nouvelles alarmantes, de nombreux automobilistes ont anticipé une incapacité des stations à pouvoir servir tout le monde. Ils se sont rués vers les pompes même si leurs besoins étaient limités, épuisant les stocks et créant de fait une situation de pénuries.

Il est utile de pousser l’analogie un peu plus loin en étudiant les propositions de solutions avancées (ou ignorées) par Diamond et Dybvig pour voir comment elles pourraient s’appliquer dans le cas de pénurie des carburants. Les deux économistes proposent deux solutions pour contrer la ruée vers les guichets.

La première solution est un système d’assurance qui permet à chaque citoyen d’avoir une couverture de son épargne en cas de faillite de sa banque (100 000 euros par banque et par déposant au sein de l’Union européenne). L’objectif de ce dispositif est surtout préventif, pour éviter qu’une panique apparaisse, mais s’avère inutile dès que la crise s’est matérialisée.

La seconde solution est plus utile en cas de panique. Elle consiste à empêcher les agents à retirer de l’argent au-delà d’un certain seuil. En pratique, cette solution a pris la forme d’un montant de plafond de retrait. Une solution similaire a été appliquée dans certaines stations-service en limitant la capacité maximale lors de chaque plein ou en interdisant le remplissage de réservoirs annexes. Le risque est alors que les automobilistes « paniqués » multiplient les passages à la pompe.

Une solution plus proche du modèle de Diamond et Dybvig serait de mettre en œuvre des « bons carburant » qui seraient rattachés à chaque automobiliste ou véhicule et pourraient être modulés selon les activités (prioritaires ou non), voire avec la possibilité d’être échangés. Cette solution est peut-être théoriquement attrayante mais reste techniquement très difficile à mettre en œuvre dans un délai aussi court.

… et les autres

Il est également intéressant d’étudier des solutions non envisagées par Diamond et Dybvig. Les auteurs ignorent dans leur analyse le rôle de la création monétaire (ce qui est une limite de leur modèle). Face à des crises de liquidité, la banque centrale peut injecter de la liquidité dans le système bancaire afin de donner de l’oxygène aux banques.

En ce qui concerne l’essence, le gouvernement a ainsi commencé à recourir aux stocks stratégiques afin de réduire la tension. Néanmoins, l’analogie avec le système bancaire a ses limites. Contrairement à la monnaie de banque centrale, le carburant ne se crée pas ex nihilo. Cette solution implique donc de réduire ces stocks avec le risque de se trouver dépourvu si la crise perdure.

Enfin, il est utile de se demander pourquoi des économistes n’ont pas pensé à la régulation par les prix. Une solution aux deux problèmes serait de modifier le mode d’allocation de la ressource selon un principe de prix plutôt que de rationnement (file d’attente). Concrètement, les banques pourraient facturer les retraits en proportion du montant retiré ou alors jouer sur le prix des carburants.

Il ressort d’ailleurs que les prix à la pompe ont connu une hausse depuis le début de la pénurie, notamment dans les zones les plus tendues.

Cette solution a deux limites essentielles. D’une part, augmenter les prix est politiquement explosif dans la situation actuelle d’inflation. Ce choix reviendrait à donner la priorité aux plus aisés au risque d’accroître les tensions et donc l’origine du problème. D’autre part, on peut douter que la régulation par les prix soit le meilleur outil en situation de panique, lorsque les incitations économiques perdent de leur efficacité.

L’expérience vécue pourrait servir pour anticiper les futures crises afin de juguler au plus vite les phénomènes d’anticipations autoréalisatrices qui sont au cœur des difficultés actuelles.

Electricité : une Agence nationale indépendante pour réguler les prix ?

Electricité : une  Agence nationale indépendante pour réguler les prix ?

 

Marchés et planification, c’est la proposition des  économistes Etienne Beeker, Dominique Finon et Jacques Percebois préconisent, dans une tribune au « Monde », la création d’une agence nationale indépendante chargée d’acheter la totalité de l’électricité de gros aux producteurs et de la revendre aux distributeurs, de façon à stabiliser les prix tout en garantissant à la filière des horizons d’investissement.

Une idée intéressante mais qui pose la question de la réalité de l’indépendance d’une telle agence vis-à-vis d’une énergie au caractère très stratégique surtout pour la France qui a choisi une voie particulière  NDLR

 

Le modèle actuel du marché européen de l’électricité présente deux défauts importants : le mode de formation des prix de court terme sur un marché horaire, ce qui expose les consommateurs à un risque excessif de volatilité des prix comme on le voit actuellement, et le défaut d’incitation à investir dans tous les types d’équipement, dont ceux contribuant à la transition énergétique.

Pour remédier à ces défauts, une solution efficace combinant planification et marché existe : il s’agit du modèle de l’« acheteur central », qui reprend des propositions d’amélioration envisagées par Bruxelles dans sa communication du 18 mai « REPowerEU », en poussant leur logique jusqu’au bout.

Commençons par les défauts. Les prix de gros du kilowattheure (kWh) résultent de l’organisation en marché « à pas horaires », où le prix s’aligne heure par heure sur le coût marginal de la dernière unité de production appelée à fournir sur le réseau européen interconnecté, souvent une centrale à gaz.

Cette organisation du marché présente le triple inconvénient de donner des prix de court terme ne reflétant pas les coûts de production des kWh, de suivre la volatilité des prix des combustibles (ce qui expose les consommateurs à des épisodes prolongés de prix élevés) et enfin de rendre impossibles les anticipations de long terme pour un investisseur potentiel.

Ce dernier point explique que le marché à terme (à un horizon plurimensuel) associé au marché « spot » (au « pas horaire » et journalier) ne puisse pas offrir de produits de couverture de risques à horizon éloigné, à l’inverse des marchés de matières premières.

L’Agence de coopération des régulateurs de l’énergie (ACER), que la Commission européenne a mandatée pour analyser les problèmes d’organisation des marchés électriques, considère pourtant que cette organisation « garantit un approvisionnement en électricité efficace et sûr dans des conditions de marché relativement normales », et à ce titre mérite d’être conservée (« ACER’s final assessement of the EU wholesale electricity market design », avril 2022).

L’ACER met alors en garde contre des mesures pour protéger les consommateurs, comme les plafonds de prix demandés par l’Espagne (ce qui vient d’être accepté pour le gaz) et la France, car ils généreraient trop de distorsions du fonctionnement du marché intégré. Elle recommande de n’utiliser que les mesures compensatoires que l’on connaît (chèque énergie, déductions fiscales).

Le rapport reconnaît toutefois que les aspects de long terme ne sont pas suffisamment pris en compte pour assurer la transition énergétique.

Réguler salaire et statut du dirigeant d’entreprise

Réguler salaire et statut du dirigeant d’entreprise

 

Dans sa chronique, le professeur en sciences de gestion Armand Hatchuel s’appuie sur la polémique autour de la rémunération du PDG de Stellantis pour questionner la définition juridique des missions d’un dirigeant.

 

Il faudrait remercier le conseil d’administration de Stellantis (fusion de PSA et Fiat Chrysler) pour une décision qui, en faisant l’unanimité contre elle, a sonné l’alerte. Pouvoirs publics, responsables de l’opposition et observateurs ont jugé que la rémunération du PDG, Carlos Tavares, était choquante et injustifiable.

Même les actionnaires de Stellantis ont émis un avis défavorable. Et, si la question des salaires excessifs des dirigeants est ancienne, la réprobation générale a été si forte que le président de la République s’est prononcé, le 14 avril, pour un encadrement de ces rémunérations à l’échelle européenne.

On peut craindre cependant que l’alerte soit vite oubliée. Les administrateurs de Stellantis ne se sont pas souvenus qu’en 2013 Philippe Varin, alors président du directoire de PSA, avait renoncé à une retraite chapeau qui contrastait de façon inacceptable avec les sacrifices demandés aux salariés. Au-delà de l’indignation du moment, cette réforme aboutira si elle repose sur une conception partagée et responsable du chef d’entreprise.

Il faut d’abord contester les idées reçues habituelles. Comme l’alignement sur un « prix de marché mondial » élevé du dirigeant, ou l’idée que le talent de ce dernier est la seule cause du succès de son entreprise. En effet, les rémunérations excessives étaient rares dans la deuxième partie du XXᵉ siècle, et pourtant rien ne permet de dire que les dirigeants de l’époque étaient moins talentueux ou moins sollicités.

Les rémunérations ont ensuite explosé dans les années 1990, quand la doctrine actionnariale de l’entreprise est devenue dominante et prescrivait d’aligner la rémunération des dirigeants sur l’intérêt des actionnaires. Au fondement du salaire du dirigeant, il n’y avait plus les multiples responsabilités vis-à-vis des personnels, de l’écosystème de l’entreprise ou des territoires. Seuls comptaient les résultats financiers de l’entreprise.

Mais ces critiques ne suffiront pas. Pour justifier la limitation des salaires des dirigeants – par exemple, à un certain multiple du salaire minimal – plusieurs travaux soutiennent qu’il faut inscrire dans le droit une définition différente du « chef d’entreprise », afin que ses devoirs soient reconnus par statut (Stéphane Vernac, « Que peuvent attendre les travailleurs d’un statut du dirigeant d’entreprise ? », Revue de droit du travail, Dalloz, 2017, page 519). Car le droit ne connaît que le gérant de société, défini comme la personne autorisée à signer des contrats au nom de cette dernière, ou le représentant de l’employeur tenu de respecter le droit du travail…

Démocratie : Obama veut réguler les réseaux sociaux

 

L’ex chef d’État (2009-2017) s’est étendu sur le phénomène de la désinformation, et s’est reproché de ne pas avoir suffisamment réalisé «à quel point nous étions devenus réceptifs aux mensonges et aux théories du complot» avant l’élection de Donald Trump, qui lui a succédé. «Poutine n’a pas fait ça. Il n’a pas eu besoin. Nous nous le sommes fait à nous-mêmes», a-t-il ajouté, évoquant les campagnes de manipulation des électeurs orchestrées depuis la Russie. «Nous venons de voir un président en exercice nier des résultats électoraux clairs et aider à inciter une insurrection violente contre la capitale de la nation», a-t-il assené, en référence à Donald Trump, qui n’a pas reconnu la victoire de Joe Biden fin 2020, et a encouragé ses partisans avant l’assaut du Capitole le 6 janvier 2021, qui a fait plusieurs morts. «Ce doit être notre sonnette d’alarme pour réagir.»

Barack Obama a donc appelé à une réforme des lois qui gouvernent les réseaux sociaux, pour qu’ils soient plus responsables et plus transparents, expliquant que le problème au cœur de la désinformation était moins «ce que les gens publient» que «les contenus que ces plateformes promeuvent». La preuve selon lui qu’elles ne sont pas «neutres» et que les algorithmes devraient être soumis à des contrôles de sécurité par une autorité de régulation, au même titre que les voitures, aliments et autres produits de consommation. Il a ensuite détaillé une série de valeurs qui devraient à son avis guider la modération des contenus, comme le renforcement de la démocratie et le respect des différences. «Les outils ne nous contrôlent pas. Nous pouvons les contrôler», a-t-il conclu.

 

Comment réguler l’instabilité monétaire ?

Comment réguler l’instabilité monétaire ?

 

 

L’économiste Laurent Berrebi attire l’attention, dans une tribune au « Monde », sur la nécessité de réguler la monnaie de transaction, qui se retrouve dans l’économie réelle sous forme d’inflation, et la monnaie patrimoniale, une monnaie de bulles hautement inéquitable.

La régulation de l’instabilité monétaire par le moyen classique de l’inflation ou par le phénomène des bulles ? Les seuls moyens de réguler ? NDLR

Tribune.

 

 La crise sociale, politique, voire identitaire qui ne cesse de s’aggraver au fil des ans depuis plus d’une décennie n’est-elle pas finalement le résultat d’une science économique en pleine tourmente ?

Cette crise du savoir et de la connaissance économiques ne porte-t-elle pas en elle ce schisme au sein des communautés nationales entre, d’un côté, l’élite, les sachants ou ceux qui sont censés savoir, et, de l’autre, le peuple, les non-sachants ou ceux qui sont censés ne pas savoir ?

Le mal-être grandissant de la classe moyenne est hautement compréhensible. La création de richesse est en berne. Elle est pénalisée par la spéculation et par une politique monétaire inéquitable. Est-ce un hasard si le progrès technique n’a jamais été aussi faible depuis la seconde guerre mondiale que durant cette dernière décennie, qui a vu dans les économies développées s’installer une politique monétaire d’assouplissement quantitatif (« quantitative easing ») créant une quantité de monnaie sans précédent, et ce avant même le Covid ?

La distribution de cette « richesse » est restée toujours anormalement inéquitable au détriment du travail : elle entretient l’illusion d’une croissance impressionnante des profits des entreprises, alors même qu’elle n’est que la conséquence d’une diminution de la part de la main-d’œuvre dans un régime de croissance en réalité toujours plus faible.

Mais les sachants ne veulent ni voir ni entendre ces tendances lourdes, parce qu’ils ne les comprennent tout simplement pas. Elles n’appartiennent en effet à aucune théorie économique. C’est uniquement lorsque le retour du terrain est mauvais et que le peuple gronde qu’ils prennent conscience de la réalité d’un système malade. Malheureusement, souvent à titre provisoire, parce qu’ils sont tout simplement dépourvus de boussole et de guide économique.

 

La science économique n’arrivant plus à expliquer ce qui se passe aujourd’hui, elle ne peut pas leur proposer la régulation capable de préserver la stabilité de la communauté.

Nous avons besoin d’un cadre théorique nouveau qui élargisse celui que nous connaissons aujourd’hui et qui complète la théorie existante. Nous avons besoin d’une nouvelle vision de la stabilité économique et sociale et des crises, qui comprenne l’instabilité monétaire fondamentale de nos économies libérales, instabilité qu’il faut absolument contrôler afin de ne pas connaître « la grande crise », celle qui pourrait emporter tout le système.

Ce nouveau cadre théorique, que l’on peut nommer « nouvelle économie patrimoniale », met en évidence l’existence de deux régimes monétaires. L’un classique, inflationniste, est celui que l’on connaissait dans les années 1970 à 1990. L’autre non classique, de bulles, est celui que l’on connaît depuis plus de vingt ans, hautement inéquitable : la révolution des nouvelles technologies de l’information bénéficie essentiellement à ceux qui détiennent du capital.

Cryptomonnaies: La nécessité de réguler

 Cryptomonnaies:  La nécessité de réguler

 

L’économiste Karel Lannoo juge, dans une tribune au « Monde », que l’Union européenne devrait considérer les cryptomonnaies comme des instruments financiers, et non comme une catégorie distincte d’actifs.

 

Tribune. Les cryptomonnaies seront bientôt soumises à un système de supervision dans l’Union européenne (UE) : la Commission de Bruxelles se prépare, en effet, à proposer une directive sur les marchés de crypto-act

ifs, dite « directive MiCA ». Selon les propositions de la Commission, seules les cryptomonnaies autorisées dans l’UE pourront être vendues. Une cryptomonnaie pouvant prendre différentes formes, elles-mêmes soumises à différentes formes de supervision, le sujet est complexe à comprendre pour les consommateurs, et il est tout aussi difficile à traiter pour les superviseurs européens.


Déjà présentes depuis quelques années, les cryptomonnaies deviennent de plus en plus populaires, malgré le fait qu’elles ne soient soumises à aucune forme de surveillance. Il est difficile, voire impossible, pour un investisseur ou un utilisateur ordinaire de déterminer s’il s’agit d’une escroquerie à la Ponzi, de coquilles de blanchiment d’argent, de stablecoins (« monnaies stables ») bien conçues ou de véritables actifs numériques. On ignore également, en général, où elles sont basées, comment elles sont organisées et qui en est le gérant…

La Commission européenne est la première organisation internationale à proposer un cadre réglementaire spécifique. Certains membres de l’UE disposent déjà d’une législation spéciale pour les crypto-actifs et les cryptomonnaies, mais il n’existe aucun accord international à ce sujet. D’autres pays, comme les Etats-Unis ou Hongkong, appliquent la législation existante des valeurs mobilières. Cela conduit à un cadre très flou pour une innovation comme la cryptomonnaie. Un consommateur ne sait guère si une protection existe, surtout pour les transactions qui ont lieu en dehors de l’UE.

Pour la Commission européenne, les cryptomonnaies fonctionnent sur la blockchain (sécurisation numérique) ou une technologie de registre distribué (DLT), et peuvent prendre trois formes, suivant un degré de surveillance correspondant : les tokens (gadgets virtuels), les stablecoins, composées de monnaies de réserve, et la monnaie numérique pure, qui offre toujours un taux de change fixe en monnaie forte. La monnaie numérique peut uniquement être émise par des banques ou des sociétés fintech qui disposent d’une licence existante, les stablecoins uniquement par ceux qui respectent des exigences minimales (très faibles) en matière de capital.

Les cryptomonnaies non européennes, comme le diem ou le novi de Facebook, le bitcoin ou l’ethereum, devront s’enregistrer sous l’une de ces formes pour être admises sur le marché européen. Un système de reconnaissance mutuelle n’est pas prévu, car les réglementations sont trop différentes au niveau international. Le consommateur risque d’en faire les frais, car il ne verra aucune différence entre une crypto de l’UE et une crypto internationale, mais recevra quand même de la publicité sur les médias sociaux pour les cryptos non réglementées.

Réguler les plates-formes: Un enjeu démocratique

Réguler les plates-formes: Un enjeu démocratique 

Réguler le contenu des réseaux sociaux doit moins passer par la contrainte que par la préservation des droits individuels face aux géants du Web, estime le juriste Winston Maxwell dans une tribune au « Monde ».

 

Tribune.

La haine en ligne, mais aussi les contenus illicites de toute nature et les infox préoccupent les régulateurs du monde entier. Selon un récent rapport de la Commission européenne, un tiers des contenus haineux en ligne signalés ne sont pas supprimés par les réseaux sociaux. Ces réseaux sont quotidiennement mis en cause, soit parce qu’ils ne font pas assez pour maîtriser la viralité des contenus préjudiciables, soit parce qu’ils en font trop, en éliminant certains contenus et utilisateurs sans autre forme de procès. Certains comparent Facebook, avec sa « Cour suprême » privée, à un Etat souverain. Les grandes plates-formes ont un rôle structurant dans notre débat public et sont devenues, comme la radio et la télévision, des médias ayant une forte influence sur la société. Il ne s’agit pas, bien sûr, de réguler ces réseaux comme la télévision, car le rôle des réseaux sociaux est différent, et une régulation trop stricte créerait une ingérence intolérable dans la liberté d’expression. Mais le besoin d’un encadrement réglementaire est devenu flagrant, sur deux fronts.

 

Le premier front consiste à inciter les réseaux sociaux à trouver des solutions, notamment algorithmiques, pour réduire la présence et la viralité de contenus haineux. Le projet de règlement européen Digital Services Act, actuellement en négociation à Bruxelles, obligerait les plates-formes à effectuer un diagnostic interne sur les risques systémiques créés par leurs services et à proposer des solutions pour réduire ces risques. Devançant le règlement européen, la loi française du 24 août 2021 impose aux réseaux sociaux de mettre en place des mesures techniques et organisationnelles permettant de fluidifier le traitement des signalements, sous le contrôle du Conseil supérieur de l’audiovisuel (CSA). En matière de régulation des contenus, l’Etat doit rester le plus neutre possible, afin de minimiser l’impact sur la liberté d’expression.

Dans les années 1990, on croyait que la multiplication des points de vue sur Internet était la meilleure garantie d’une liberté d’expression saine (la théorie du « marketplace of ideas »). La législation américaine (Communications Decency Act, adopté en 1996) et européenne (directive « Commerce électronique », en 2000) est construite sur cette théorie de laisser faire. Aujourd’hui, nous nous rendons compte que la quantité des points de vue n’est pas une garantie suffisante, car sans un minimum d’encadrement, cette abondance peut conduire à des dérives mettant en péril l’objectif même de la liberté d’expression, à savoir la préservation du débat démocratique. D’où la nécessité de redonner vie à la régulation audiovisuelle, et en France au rôle du CSA, pour réguler les réseaux sociaux en tant que médias à forte influence, tout en s’efforçant de préserver l’espace de liberté inédit créé par ces plates-formes.

Antitrust : « Biden veut réguler la concurrence

Antitrust : « Biden veut réguler la concurrence

 

Parce que la mondialisation et la révolution numérique ont bouleversé la vie des Américains, la politique actuelle menée par Joe Biden vise à ramener les Etats-Unis aux sources de la cohésion sociale, estime le politiste Yannick Mireur, dans une tribune au « Monde ».(extrait)

 

Tribune.

Le décret présidentiel sur la concurrence du 9 juillet 2021 résume le profil politique de Joe Biden, et ouvre un nouveau cycle de l’économie politique américaine, qui alterne depuis plus de cent ans en faveur du marché ou de sa régulation. L’objectif, à travers cet outil typiquement américain de l’antitrust, est de favoriser la compétitivité, mais aussi l’équité dans la poursuite du rêve américain.

Pragmatique, sensible aux réalités économiques, M. Biden n’a pas combattu le tournant libéral du Parti démocrate sous Clinton puis Obama, mais n’a pas rompu avec l’aile proche des syndicats et de la question ouvrière.

Son intuition et la raison sont cependant mieux alignées aujourd’hui autour d’un constat simple : le capitalisme américain a besoin d’être ressourcé et il le sera en stimulant la concurrence ; le pacte social a besoin d’être retrempé et il le sera dans une économie qui n’exacerbe pas les épreuves de la vie.

En favorisant la concurrence au bénéfice du pouvoir d’achat des familles, l’antitrust peut être un instrument de justice sociale. Joe Biden parle de « politique étrangère des classes moyennes » parce que la mondialisation et la révolution numérique suggèrent de lier explicitement la condition sociale des Américains ordinaires à l’environnement international, où le fait majeur des vingt dernières années est l’avènement de la Chine.

C’est cette tension sino-américaine, extériorisée par Trump, plus que les GAFA (Google, Apple, Facebook, Amazon) et leur emprise sur leurs utilisateurs, qui détermine ce choix de l’antitrust. L’Amérique doit garder la tête du peloton économique pour continuer d’être une grande puissance, or depuis quarante ans la concurrence émulatrice n’a cessé de s’y éroder.

Le document de la Maison Blanche le rappelle en préambule : « Pendant des décennies, les fusions d’entreprises se sont accélérées. Dans 75 % des industries américaines, un plus petit nombre de grandes entreprises contrôlent plus que ce qu’elles contrôlaient il y a vingt ans. (…) Au total, on estime aujourd’hui que des prix plus élevés et des salaires plus bas causés par le manque de concurrence coûtent au foyer américain médian 5 000 dollars par an ».

Alors que Ronald Reagan avait utilisé la dérégulation pour revigorer un marché entravé par la bureaucratie, Biden recourt à l’aiguillon de la concurrence. L’industrie numérique de la tech et ses GAFA en situation de quasi-monopole appellent une régulation, comme on le fit après 1900 pour le pétrole puis les télécommunications

Taxe carbone : Pour réguler l’impact du commerce sur le climat

Taxe carbone : Pour réguler l’impact du commerce sur le climat

 

Les chercheurs Carole Mathieu et Christian de Perthuis rappellent, dans une tribune au « Monde », les enjeux du projet de taxe carbone aux frontières que la Commission européenne présentera le 14 juillet.

 

Tribune(  Extrait).

 

 

L’idée de base est simplissime : appliquer un prix aux émissions de CO2 pour accélérer la transition énergétique. Tant que ce prix n’est pas universel, il risque de pénaliser à court terme les zones économiques ajoutant à leurs coûts de production celui du CO2. L’ajustement à la frontière consiste à corriger cette distorsion, en obligeant les importateurs à s’acquitter du même coût carbone que celui supporté par les producteurs domestiques.

Depuis 2005, l’Union européenne (UE) tarifie les émissions de CO2 des installations industrielles et énergétiques situées sur son territoire via un système de quotas échangeables. Jusqu’à présent, aucune étude empirique n’a pu montrer la moindre perte de compétitivité des secteurs sous quotas, qui serait susceptible de provoquer une délocalisation des émissions.

Deux raisons à cela : le prix du CO2 sur le marché est resté à des niveaux modérés, et les industries les plus exposées à ce risque de « fuite carbone » ont été protégées par un dispositif d’allocation gratuite de quotas.

Mais le contexte est en train de changer. Fin 2020, l’UE a officiellement rehaussé la cible de baisse des émissions à l’horizon 2030 (– 55 % relativement à 1990 contre – 40 % antérieurement). Une simple annonce qui a déjà porté le prix du quota au-dessus de 50 euros par tonne de CO2, creusant sérieusement l’écart avec le reste du monde.

Avec ces changements réglementaires, les « fuites de carbone » deviennent une menace, et l’ajustement aux frontières une nécessité. Sa mise en œuvre appelle deux observations. Techniquement, il convient d’éviter les effets de déport sur les produits transformés. Si demain les importations d’acier de l’UE supportent un prélèvement à la frontière, ce sont les consommateurs européens qui paieront.

Intelligence artificielle : Bruxelles veut réguler

  • Intelligence artificielle : Bruxelles veut réguler
  • Bruxelles doit dévoiler mercredi 21 avril dans l’après-midi un projet de réglementation pour faire la course en tête dans cette révolution industrielle, tout en rassurant les Européens.
  • «Qu’il soit question d’agriculture de précision, de diagnostics médicaux plus fiables ou de conduite autonome sécurisée, l’intelligence artificielle nous ouvrira de nouveaux mondes. Mais ces mondes ont aussi besoin de règles», avait déclaré en septembre la présidente de la Commission européenne, Ursula von der Leyen, dans son discours sur l’état de l’Union. L’exécutif européen, qui a fait du numérique une priorité, entend honorer la promesse de la présidente de placer «l’humain au centre» de son projet législatif.
    • Bruxelles est convaincue que l’intelligence artificielle, et ses techniques d’automatisation à base de logiciels et de données, ne pourront se développer qu’en apaisant les craintes des Européens. L’UE a raté la révolution de l’Internet grand public et ne possède aucun champion équivalent aux cinq géants américains Google, Apple, Facebook, Amazon et Microsoft, les fameux Gafam, ou à leurs équivalents chinois Baidu, Alibaba, Tencent et Xiaomi. Mais rien n’est perdu concernant la révolution provoquée par l’irruption massive de l’informatique dans les industries où l’Europe excelle comme les transports, l’agriculture ou le médical.
    • Les systèmes de notation citoyenne prohibés
    • Le projet de règlement, que l’AFP a pu consulter, prévoit d’interdire un nombre restreint d’utilisations qui menacent les droits fondamentaux. Seront prohibés les systèmes de «surveillance généralisée» de la population, ceux «utilisés pour manipuler le comportement, les opinions ou les décisions» des citoyens. Des autorisations dérogatoires sont cependant prévues pour la lutte antiterroriste et la sécurité publique. Les applications militaires ne sont pas concernées.

La Chine : le parti communiste veut réguler les géants technologiques chinois

La Chine : le parti communiste veut réguler  les géants technologiques chinois

L’Administration chinoise d’État pour la régulation du marché (SAMR)  a déclaré que les dernières directives «arrêteraient les comportements monopolistiques dans l’économie des plates-formes et protégeraient une concurrence loyale sur le marché».

L’avis indiquait également qu’il empêcherait les entreprises de fixer les prix, de restreindre les technologies et d’utiliser des données et des algorithmes pour manipuler le marché. Dans une question-réponse accompagnant l’avis, SAMR a déclaré que les rapports de comportement anti-monopole liés à Internet avaient augmenté et qu’il était confronté à des défis pour réglementer l’industrie.

«Le comportement est plus caché, l’utilisation de données, d’algorithmes, de règles de plate-forme, etc., rend plus difficile la découverte et la détermination de ce que sont les accords de monopole», a-t-il déclaré.

La Chine a commencé ces derniers mois à resserrer le contrôle de ses géants de la technologie. Et pour bien se faire comprendre le parti communiste a exercé des pressions sur les patrons des grands groupes a commencé par le patron d’Alibaba.

L’objectif du parti communiste et de lutter contre les situations monopolistiques mais tout autant d’empêcher les patrons de grandes entreprises chinoises de peser sur la ligne politique du parti

En décembre, les régulateurs ont lancé une enquête antitrust sur Alibaba Group à la suite de la suspension dramatique du plan d’offre publique initiale de 37 milliards de dollars de sa filiale de paiement, Ant Group.

À l’époque, les régulateurs avaient mis en garde la société contre des pratiques telles que l’obligation pour les commerçants de signer des pactes de coopération exclusifs au détriment d’autres plates-formes Internet.

« Comment réguler les Gafa ? (Joëlle Toledano, économiste)

« Comment réguler les Gafa ? (Joëlle Toledano, économiste)

 

 

Dans son dernier ouvrage, l’économiste Joëlle Toledano, professeur émérite à l’université Paris-Dauphine, prône un « changement d’approche » de la régulation européenne, pour « enfin faire respecter l’état de droit » aux géants du Net américains. Entretien dans la Tribune.

 

- Votre dernier livre décortique comment les Gafa [Google, Apple, Facebook, Amazon, ndlr] ont tissé leur toile jusqu’à étouffer la concurrence dans leurs secteurs respectifs. Pendant des années, ils ont échappé aux filets des régulateurs, notamment en Europe, qui est devenue une colonie numérique des Etats-Unis. Pourquoi la régulation ne fonctionne-t-elle pas avec eux ?

JOËLLE TOLEDANO - Mon livre dresse effectivement un constat d’échec de la régulation jusqu’à présent, qui n’agit qu’a posteriori une fois les dérives identifiées. Contrairement aux autres plateformes numériques, chacun de ces empires a réussi à sa façon à étendre ses activités de façon à créer de puissants écosystèmes qui sont devenus des places fortes. Les pratiques abusives de chacun des quatre Gafa sont largement connues et documentées, sans même parler de leur expertise pour l’optimisation fiscale, de l’impact d’Amazon sur le commerce et les emplois, ou encore des énormes défis démocratiques posés par les contenus haineux et les fake news sur les réseaux sociaux.

Je pense que le problème des régulateurs du XXè siècle est qu’ils arrivent toujours un peu après la bataille, à moins que les Gafa, qui sont des entreprises visionnaires, aient toujours un temps d’avance sur tout le monde. Pourquoi les autorités de la concurrence ont-elles autorisé Facebook à acquérir Instagram et WhatsApp, ce qui a offert à Mark Zuckerberg un quasi-monopole sur les réseaux sociaux ? Parce que les règles que devaient appliquer les autorités de concurrence pour évaluer et éventuellement refuser de telles acquisitions étaient beaucoup trop strictes. Nos outils de régulation sont inadaptés car ils n’empêchent pas ces acteurs non seulement de façonner des empires économiques et financiers d’une puissance inédite, mais aussi d’abuser de leurs positions et d’étouffer la concurrence.

L’enseignement que j’en tire est que pour réguler efficacement les Gafa, il faut monter en compétence et se donner les moyens de comprendre comment ils fonctionnent. Pour cela, il faut d’abord aller au cœur de leur modèle économique, c’est-à-dire inspecter sous le capot des algorithmes, s’attaquer à l’opacité qui entoure les relations économiques à l’intérieur des écosystèmes, et comprendre la façon dont s’effectue le partage de la valeur dans la publicité ou sur les places de marché. Ensuite, il faut identifier et interdire un certain nombre de pratiques qui nuisent à la concurrence. Enfin, il faut, entreprise par entreprise, prendre des mesures pour rendre possible à nouveau la concurrence.

Le constat que je dresse est donc sévère mais je ne suis pas fataliste pour autant. Je pense que réguler les Gafa est possible, mais seulement si on s’en donne les moyens intellectuels et politiques. Par contre, cela nécessite de changer profondément d’approche, et de se retrousser sérieusement les manches.

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol