Archive pour le Tag 'régulation'

Finances-Cryptomonnaie : enfin une régulation en France ?

Finances-Cryptomonnaie : enfin une régulation en France ?

Il serait temps que la France -et plus généralement l’Europe- mette en place une régulation pour empêcher toutes les arnaques qui tournent autour du mirage des superprofits des cryptomonnaies. Aujourd’hui encore n’importe qui peut en effet jouer un rôle d’intermédiaire financier pour encourager les différents monnaies numériques et promettre aussi de mirifiques profits. Notons d’ailleurs que certains de ses promoteurs sont partis avec la caisse. On comprendrait mal qu’il y ait une réglementation très drastique pour obtenir le statut d’établissement bancaire et que des acteurs financiers sans compétence et sans honorabilité puisse intervenir sans contrainte sur les marchés financiers.

La Cour des comptes appelle à renforcer la réglementation autour des cryptoactifs et notamment le système d’octroi des agréments autorisant les acteurs du marché à se lancer en France, selon un rapport publié mardi 19 décembre. En l’état actuel de la réglementation, le lancement des activités des « prestataires de services sur actifs numériques » (PSAN) est conditionné à un enregistrement auprès de l’Autorité des marchés financiers (AMF).

L’enregistrement permet « d’établir un socle de contrôle minimal relatif à l’honorabilité des acteurs, à leur compétence et à leur capacité à respecter les dispositions concernant la lutte contre le blanchiment et le financement des activités illicites », explique le rapport. Un second niveau existe, mais il n’est qu’optionnel. Il permet aux PSAN d’obtenir de l’AMF « un agrément optionnel, à condition qu’ils disposent de procédures de gestion interne plus exigeantes, attestant leur maîtrise des risques financiers et offrant aux investisseurs un niveau de transparence plus satisfaisant », détaille la Cour des comptes.

Cryptomonnaie : enfin une régulation en France

Cryptomonnaie : enfin une régulation en France

Il serait temps que la France -et plus généralement l’Europe- mette en place une régulation pour empêcher toutes les arnaques qui tournent autour du mirage des superprofits des cryptomonnaies. Aujourd’hui encore n’importe qui peut en effet jouer un rôle d’intermédiaire financier pour encourager les différents monnaies numériques et promettre aussi de mirifiques profits. Point notons d’ailleurs que certains de ses promoteurs sont partis avec la caisse. On comprendrait mal qu’il y ait une réglementation très drastique pour obtenir le statut d’établissement bancaire et que des acteurs financiers sans compétence et sans honorabilité puisse intervenir sans contrainte sur les marchés financiers.

La Cour des comptes appelle à renforcer la réglementation autour des cryptoactifs et notamment le système d’octroi des agréments autorisant les acteurs du marché à se lancer en France, selon un rapport publié mardi 19 décembre. En l’état actuel de la réglementation, le lancement des activités des « prestataires de services sur actifs numériques » (PSAN) est conditionné à un enregistrement auprès de l’Autorité des marchés financiers (AMF).

L’enregistrement permet « d’établir un socle de contrôle minimal relatif à l’honorabilité des acteurs, à leur compétence et à leur capacité à respecter les dispositions concernant la lutte contre le blanchiment et le financement des activités illicites », explique le rapport. Un second niveau existe, mais il n’est qu’optionnel. Il permet aux PSAN d’obtenir de l’AMF « un agrément optionnel, à condition qu’ils disposent de procédures de gestion interne plus exigeantes, attestant leur maîtrise des risques financiers et offrant aux investisseurs un niveau de transparence plus satisfaisant », détaille la Cour des comptes.

Régulation des prix de l’électricité : la folie européenne continue

Alors que la France demande à pouvoir décider elle-même de la régulation des prix de l’électricité, l’Europe s’y oppose toujours. En cause évidemment l’obstruction de certains pays qui ne souhaitent pas que la France bénéficie de son avantage compétitif pour l’économie liée à la production nucléaire.

En effet, tandis que le gouvernement tricolore se bat pour pouvoir réguler le parc nucléaire d’EDF après 2025, via l’accès à des contrats à prix fixes garantis par l’Etat (CfD), le texte rédigé par la présidence espagnole (à la tête du Conseil jusque fin décembre) et dévoilé ce mercredi supprime purement et simplement cette possibilité. Or, c’est bien cette version qui sera présentée aux ambassadeurs des Vingt-Sept le 13 octobre, puis aux ministres de l’Énergie réunis à Luxembourg le 17 octobre.

Concrètement, pour éviter tout avantage comparatif à la France sur les autres pays du Vieux continent, seuls les nouveaux réacteurs, construits trois ans après l’entrée en vigueur de la réforme du marché de l’électricité, auront accès aux prix garantis par les CfD si ils demandent un soutien public. En d’autres termes, rien dans cette ébauche n’autorise l’Etat à administrer les tarifs issus du parc historique d’EDF.

A priori, ceux-ci devraient donc se voir soumis au prix (aujourd’hui exorbitants) du marché, au détriment des consommateurs français, professionnels comme particuliers.

Il ne s’agit donc pas d’une bataille technologique ou écologique mais d’une lutte économique visant à pénaliser la France en raison de son avantage de compétitivité nucléaire sur l’électricité.

Pour preuve déclarations ciel de l’Allemagne: « Ce que je crains, ce n’est pas qu’ [elle] possède des centrales nucléaires. Ce que je crains, c’est que l’exploitant des centrales nucléaires puisse proposer des prix bon marché, inférieurs à la valeur du marché », avait d’ailleurs clarifié le vice-chancelier allemand à l’Économie, Robert Habeck, lors d’un événement à Rostock, dans le nord du pays, en septembre.

Fin septembre, Emmanuel Macron avait même promis aux Français d’annoncer une reprise du « contrôle du prix de notre électricité » dès le mois d’octobre.

D’après un rapport de la Commission de la régulation de l’énergie , la France compte sur des coûts de production autour de 60 euros le MWh. Or, le gouvernement entend obliger EDF à vendre à un tarif proche de ses coûts de production, alors que les cours de marché flirtent autour de 150 euros le MWh pour 2025.

Prix Electricité : revoir la régulation

Prix Electricité : revoir la régulation

par
Jean Pascal Brivady
Professeur, EM Lyon Business School

Abdel Mokhtari
Economiste, Chargé de cours, EM Lyon Business School dans The Conversation

La modification du contexte géopolitique et la perspective d’un monde moins ouvert ont remis sur le devant de la scène le concept de souveraineté. Relocaliser de nombreuses productions industrielles, considérées comme stratégiques (molécules pharmaceutiques ou chimiques, semi-conducteurs, construction automobile, voire certaines matières premières comme le lithium par exemple) fait partie de l’agenda public. Les groupes industriels concernés ne seront cependant enclins à rapatrier leur production que dans la mesure où les investissements permettent de rester compétitif sur leurs marchés.

Stabilité de l’environnement règlementaire, qualité des infrastructures, niveau d’éducation de la population, possibilité de disposer de subventions, tous ces paramètres entrent en ligne de compte au moment de prendre pareille décision. D’autres facteurs sont de nature plus économique, parmi lesquels, dans le cas précis de l’industrie, le coût de l’électricité et sa maîtrise sur le long terme.

La France et l’Allemagne l’avaient bien compris en optant chacun pour une solution garantissant sur plus de 20 ans, des prix bas de l’électricité via la construction du parc électro nucléaire en France et l’accès au gaz russe en Allemagne. Cet équilibre a été brutalement rompu par le déclenchement de la guerre en Ukraine.

Or, le conflit ne semble pas une simple parenthèse : deux tendances de fond sont en effet d’ores et déjà à l’œuvre. D’une part, la transition écologique accélérée dans laquelle s’est engagée l’Europe va entrainer une hausse de 35 % environ de la demande au-delà de 2030, ce qui suppose à la fois une augmentation des capacités, le passage à une production décarbonée, et une adaptation du réseau de transport.

D’autre part, les concurrents économiques de l’Europe investissent massivement pour garantir la compétitivité de leurs industries. Les États-Unis ont, par exemple, opté pour l’option la plus simple qui consiste à attribuer des subventions massives, dans le cadre notamment de l’Inflation Reduction Act. Pour rester dans le jeu, l’Union européenne est donc aujourd’hui contrainte de réagir.

Plusieurs facteurs déterminent le prix de l’électricité. Une partie a trait aux infrastructures. On note, par exemple, un effet d’expérience en cas de passage du prototype à un ensemble d’unités. Dans le cas des réacteurs pressurisés européens (EPR), l’Ademe estime le coût du mégawattheure à 110-120 euros pour le seul site de Flamanville, susceptible d’être ramené à 70 euros à compter de la 4e unité mise en service.

L’innovation intervient également. Par exemple, l’évolution technologique des éoliennes a permis de multiplier leur puissance par 60 entre 1985 et 2015. Il en résulte une baisse régulière du prix de production moyen de 130-190 euros en 2000 à 60-110 euros actuellement.

Outre le coût des matières premières, l’état de santé financière des opérateurs joue également. Ce sont néanmoins des évolutions de nature fiscale qui ont le plus fait varier le prix du mégawattheure au cours de la dernière décennie.

À 15 ans, les différents scénarios anticipent une accélération de la croissance de la demande en électricité résultant d’une part de la transition énergique (habitat, transport) et d’autre part de la relocalisation industrielle. De là résulterait une inadéquation durable entre l’offre et la demande compte tenu des incertitudes inhérentes au déploiement des nouvelles infrastructures (en termes de coûts et de délais), d’autant plus que la transition énergétique requiert principalement de l’électricité décarbonée.

Ces scénarios laissent anticiper à la fois une hausse tendancielle des prix mais également une forte augmentation de la volatilité. Mettre en place les conditions d’une offre d’électricité durablement compétitive suppose donc de maîtriser ces deux risques.

Une faible volatilité des prix permet aux producteurs de pouvoir garantir sur le très long terme le remboursement des dettes destinées à financer les infrastructures. Il s’agirait donc d’une invitation à investir, notamment pour une transition verte. Pour les clients consommateurs, cela permet de mieux prévoir et donc de maîtriser leurs dépenses.

Pour la limiter, plusieurs options sont ouvertes : diversifier le mix de production en faveur des capacités dont la part de coût variable est la plus faible possible, développer des solutions de « stockage » de l’électricité, ou surdimensionner la capacité de production par rapport à la demande attendue. Toutes ont en commun une mise en œuvre longue et complexe, et le risque d’accroitre sensiblement les coûts de production. La meilleure solution consiste donc à améliorer les mécanismes du marché actuel, en particulier avec le développement sa composante à long terme (maturités supérieures à 2 ans)

Pour ce qui est du niveau des prix, deux aspects nous paraissent source de réflexion. Le premier a trait à l’ouverture à la concurrence, impulsée par une directive de 1996. Le postulat consiste à considérer qu’une concurrence accrue présente un impact positif sur les prix à long terme. Il a poussé à réduire la position des opérateurs historiques pour faire place à de nouveaux entrants. En France, par exemple, avec « l’accès régulé à l’électricité nucléaire historique » (Arenh), les concurrents d’EDF peuvent accéder à la rente issue de la production des centrales nucléaires à des conditions fixées par l’administration.

Le bilan s’avère globalement négatif. En premier lieu, l’évolution du prix moyen de vente du mégawattheure à l’industrie en Europe depuis 1991 démontre qu’il n’y a pas de relation significative entre niveau de la concurrence et prix, puisque ce dernier reste avant tout conditionné par des facteurs de nature conjoncturelle. Ensuite, en cas de crise, la volatilité est hors de contrôle. Enfin, la situation financière de l’opérateur historique est fortement pénalisée et handicape d’autant sa capacité à investir.

L’autre postulat suppose une optimisation de la capacité de production, donc que la réponse à une demande supplémentaire provienne de la dernière unité mise en production – en l’espèce pour des raisons techniques, des centrales thermiques et soit donc valorisée sur la base du coût marginal de cette dernière unité. Or c’est justement ce mode de calcul qui est à l’original de l’envolée du prix du mégawattheure et de l’explosion de la volatilité. Il convient donc de mettre en œuvre un autre mode de calcul à défaut de quoi le coût de la volatilité viendra gonfler de manière disproportionnée, l’inflation induite par la hausse de la demande.

Parmi les solutions envisageables, outre les changements relatifs à l’organisation de la production décrits précédemment, certains acteurs ont formulé des propositions au moment de l’invasion de l’Ukraine. Le gouvernement grec, notamment, a soumis en juillet 2022 à l’Union européenne, un modèle visant à segmenter le marché de gros en deux compartiments distincts.

D’un côté, il y aurait les centrales à coûts marginaux faibles mais à coûts fixes élevés, produisant lorsqu’elles sont disponibles (nucléaires et énergie renouvelables). De l’autre côté, les centrales à coûts variables élevés (qui produisent à partir des combustibles fossiles), qui produiraient à la demande et contribueraient à équilibrer le marché en complément des productions évoquées précédemment. Les premières ne seraient plus rémunérées sur la base des coûts marginaux, mais recevraient un prix couvrant leur coût moyen de long terme, appelé Levelized Cost of Electricity. Le prix payé par le consommateur résulterait d’une moyenne pondérée des prix observés dans chacun des deux compartiments du marché.

Ce système présente l’avantage de rémunérer les producteurs en fonction de leur coût réel de production, plutôt que de se baser sur le coût des centrales fossiles et provoquer ainsi une baisse du coût moyen de l’électricité. De plus, en lissant les anticipations des prix futurs, elle devrait mécaniquement réduire la volatilité potentielle.

Voilà pourquoi, pour faire de la maîtrise du prix de l’énergie un socle de la compétitivité industrielle, il parait nécessaire de remettre en cause des postulats qui ont prévalu à l’organisation de la production sur les 20 dernières années et qui ont eu pour effet d’affaiblir les anciens monopoles sans véritable contrepartie mesurable sur le plan économique. Et ce alors que le défi de la transition énergétique passe par un effort d’investissement colossal, dont le succès repose, au-delà du cadre que nous venons de décrire, sur une parfaite coordination sur les plans technique, industriel et institutionnel. Si les acteurs privés ont leur place dans le dispositif, le rôle du maître d’œuvre sera déterminant.

Prix Electricité : repenser la régulation

Prix Electricité : repenser la régulation

par
Jean Pascal Brivady
Professeur, EM Lyon Business School

Abdel Mokhtari
Economiste, Chargé de cours, EM Lyon Business School dans The Conversation

La modification du contexte géopolitique et la perspective d’un monde moins ouvert ont remis sur le devant de la scène le concept de souveraineté. Relocaliser de nombreuses productions industrielles, considérées comme stratégiques (molécules pharmaceutiques ou chimiques, semi-conducteurs, construction automobile, voire certaines matières premières comme le lithium par exemple) fait partie de l’agenda public. Les groupes industriels concernés ne seront cependant enclins à rapatrier leur production que dans la mesure où les investissements permettent de rester compétitif sur leurs marchés.

Stabilité de l’environnement règlementaire, qualité des infrastructures, niveau d’éducation de la population, possibilité de disposer de subventions, tous ces paramètres entrent en ligne de compte au moment de prendre pareille décision. D’autres facteurs sont de nature plus économique, parmi lesquels, dans le cas précis de l’industrie, le coût de l’électricité et sa maîtrise sur le long terme.

La France et l’Allemagne l’avaient bien compris en optant chacun pour une solution garantissant sur plus de 20 ans, des prix bas de l’électricité via la construction du parc électro nucléaire en France et l’accès au gaz russe en Allemagne. Cet équilibre a été brutalement rompu par le déclenchement de la guerre en Ukraine.

Or, le conflit ne semble pas une simple parenthèse : deux tendances de fond sont en effet d’ores et déjà à l’œuvre. D’une part, la transition écologique accélérée dans laquelle s’est engagée l’Europe va entrainer une hausse de 35 % environ de la demande au-delà de 2030, ce qui suppose à la fois une augmentation des capacités, le passage à une production décarbonée, et une adaptation du réseau de transport.

D’autre part, les concurrents économiques de l’Europe investissent massivement pour garantir la compétitivité de leurs industries. Les États-Unis ont, par exemple, opté pour l’option la plus simple qui consiste à attribuer des subventions massives, dans le cadre notamment de l’Inflation Reduction Act. Pour rester dans le jeu, l’Union européenne est donc aujourd’hui contrainte de réagir.

Plusieurs facteurs déterminent le prix de l’électricité. Une partie a trait aux infrastructures. On note, par exemple, un effet d’expérience en cas de passage du prototype à un ensemble d’unités. Dans le cas des réacteurs pressurisés européens (EPR), l’Ademe estime le coût du mégawattheure à 110-120 euros pour le seul site de Flamanville, susceptible d’être ramené à 70 euros à compter de la 4e unité mise en service.

L’innovation intervient également. Par exemple, l’évolution technologique des éoliennes a permis de multiplier leur puissance par 60 entre 1985 et 2015. Il en résulte une baisse régulière du prix de production moyen de 130-190 euros en 2000 à 60-110 euros actuellement.

Outre le coût des matières premières, l’état de santé financière des opérateurs joue également. Ce sont néanmoins des évolutions de nature fiscale qui ont le plus fait varier le prix du mégawattheure au cours de la dernière décennie.

À 15 ans, les différents scénarios anticipent une accélération de la croissance de la demande en électricité résultant d’une part de la transition énergique (habitat, transport) et d’autre part de la relocalisation industrielle. De là résulterait une inadéquation durable entre l’offre et la demande compte tenu des incertitudes inhérentes au déploiement des nouvelles infrastructures (en termes de coûts et de délais), d’autant plus que la transition énergétique requiert principalement de l’électricité décarbonée.

Ces scénarios laissent anticiper à la fois une hausse tendancielle des prix mais également une forte augmentation de la volatilité. Mettre en place les conditions d’une offre d’électricité durablement compétitive suppose donc de maîtriser ces deux risques.

Une faible volatilité des prix permet aux producteurs de pouvoir garantir sur le très long terme le remboursement des dettes destinées à financer les infrastructures. Il s’agirait donc d’une invitation à investir, notamment pour une transition verte. Pour les clients consommateurs, cela permet de mieux prévoir et donc de maîtriser leurs dépenses.

Pour la limiter, plusieurs options sont ouvertes : diversifier le mix de production en faveur des capacités dont la part de coût variable est la plus faible possible, développer des solutions de « stockage » de l’électricité, ou surdimensionner la capacité de production par rapport à la demande attendue. Toutes ont en commun une mise en œuvre longue et complexe, et le risque d’accroitre sensiblement les coûts de production. La meilleure solution consiste donc à améliorer les mécanismes du marché actuel, en particulier avec le développement sa composante à long terme (maturités supérieures à 2 ans)

Pour ce qui est du niveau des prix, deux aspects nous paraissent source de réflexion. Le premier a trait à l’ouverture à la concurrence, impulsée par une directive de 1996. Le postulat consiste à considérer qu’une concurrence accrue présente un impact positif sur les prix à long terme. Il a poussé à réduire la position des opérateurs historiques pour faire place à de nouveaux entrants. En France, par exemple, avec « l’accès régulé à l’électricité nucléaire historique » (Arenh), les concurrents d’EDF peuvent accéder à la rente issue de la production des centrales nucléaires à des conditions fixées par l’administration.

Le bilan s’avère globalement négatif. En premier lieu, l’évolution du prix moyen de vente du mégawattheure à l’industrie en Europe depuis 1991 démontre qu’il n’y a pas de relation significative entre niveau de la concurrence et prix, puisque ce dernier reste avant tout conditionné par des facteurs de nature conjoncturelle. Ensuite, en cas de crise, la volatilité est hors de contrôle. Enfin, la situation financière de l’opérateur historique est fortement pénalisée et handicape d’autant sa capacité à investir.

L’autre postulat suppose une optimisation de la capacité de production, donc que la réponse à une demande supplémentaire provienne de la dernière unité mise en production – en l’espèce pour des raisons techniques, des centrales thermiques et soit donc valorisée sur la base du coût marginal de cette dernière unité. Or c’est justement ce mode de calcul qui est à l’original de l’envolée du prix du mégawattheure et de l’explosion de la volatilité. Il convient donc de mettre en œuvre un autre mode de calcul à défaut de quoi le coût de la volatilité viendra gonfler de manière disproportionnée, l’inflation induite par la hausse de la demande.

Parmi les solutions envisageables, outre les changements relatifs à l’organisation de la production décrits précédemment, certains acteurs ont formulé des propositions au moment de l’invasion de l’Ukraine. Le gouvernement grec, notamment, a soumis en juillet 2022 à l’Union européenne, un modèle visant à segmenter le marché de gros en deux compartiments distincts.

D’un côté, il y aurait les centrales à coûts marginaux faibles mais à coûts fixes élevés, produisant lorsqu’elles sont disponibles (nucléaires et énergie renouvelables). De l’autre côté, les centrales à coûts variables élevés (qui produisent à partir des combustibles fossiles), qui produiraient à la demande et contribueraient à équilibrer le marché en complément des productions évoquées précédemment. Les premières ne seraient plus rémunérées sur la base des coûts marginaux, mais recevraient un prix couvrant leur coût moyen de long terme, appelé Levelized Cost of Electricity. Le prix payé par le consommateur résulterait d’une moyenne pondérée des prix observés dans chacun des deux compartiments du marché.

Ce système présente l’avantage de rémunérer les producteurs en fonction de leur coût réel de production, plutôt que de se baser sur le coût des centrales fossiles et provoquer ainsi une baisse du coût moyen de l’électricité. De plus, en lissant les anticipations des prix futurs, elle devrait mécaniquement réduire la volatilité potentielle.

Voilà pourquoi, pour faire de la maîtrise du prix de l’énergie un socle de la compétitivité industrielle, il parait nécessaire de remettre en cause des postulats qui ont prévalu à l’organisation de la production sur les 20 dernières années et qui ont eu pour effet d’affaiblir les anciens monopoles sans véritable contrepartie mesurable sur le plan économique. Et ce alors que le défi de la transition énergétique passe par un effort d’investissement colossal, dont le succès repose, au-delà du cadre que nous venons de décrire, sur une parfaite coordination sur les plans technique, industriel et institutionnel. Si les acteurs privés ont leur place dans le dispositif, le rôle du maître d’œuvre sera déterminant.

Énergie–Electricité : repenser la régulation

Énergie–Electricité : repenser la régulation

par
Jean Pascal Brivady
Professeur, EM Lyon Business School

Abdel Mokhtari
Economiste, Chargé de cours, EM Lyon Business School dans The Conversation

La modification du contexte géopolitique et la perspective d’un monde moins ouvert ont remis sur le devant de la scène le concept de souveraineté. Relocaliser de nombreuses productions industrielles, considérées comme stratégiques (molécules pharmaceutiques ou chimiques, semi-conducteurs, construction automobile, voire certaines matières premières comme le lithium par exemple) fait partie de l’agenda public. Les groupes industriels concernés ne seront cependant enclins à rapatrier leur production que dans la mesure où les investissements permettent de rester compétitif sur leurs marchés.

Stabilité de l’environnement règlementaire, qualité des infrastructures, niveau d’éducation de la population, possibilité de disposer de subventions, tous ces paramètres entrent en ligne de compte au moment de prendre pareille décision. D’autres facteurs sont de nature plus économique, parmi lesquels, dans le cas précis de l’industrie, le coût de l’électricité et sa maîtrise sur le long terme.

La France et l’Allemagne l’avaient bien compris en optant chacun pour une solution garantissant sur plus de 20 ans, des prix bas de l’électricité via la construction du parc électro nucléaire en France et l’accès au gaz russe en Allemagne. Cet équilibre a été brutalement rompu par le déclenchement de la guerre en Ukraine.

Or, le conflit ne semble pas une simple parenthèse : deux tendances de fond sont en effet d’ores et déjà à l’œuvre. D’une part, la transition écologique accélérée dans laquelle s’est engagée l’Europe va entrainer une hausse de 35 % environ de la demande au-delà de 2030, ce qui suppose à la fois une augmentation des capacités, le passage à une production décarbonée, et une adaptation du réseau de transport.

D’autre part, les concurrents économiques de l’Europe investissent massivement pour garantir la compétitivité de leurs industries. Les États-Unis ont, par exemple, opté pour l’option la plus simple qui consiste à attribuer des subventions massives, dans le cadre notamment de l’Inflation Reduction Act. Pour rester dans le jeu, l’Union européenne est donc aujourd’hui contrainte de réagir.

Plusieurs facteurs déterminent le prix de l’électricité. Une partie a trait aux infrastructures. On note, par exemple, un effet d’expérience en cas de passage du prototype à un ensemble d’unités. Dans le cas des réacteurs pressurisés européens (EPR), l’Ademe estime le coût du mégawattheure à 110-120 euros pour le seul site de Flamanville, susceptible d’être ramené à 70 euros à compter de la 4e unité mise en service.

L’innovation intervient également. Par exemple, l’évolution technologique des éoliennes a permis de multiplier leur puissance par 60 entre 1985 et 2015. Il en résulte une baisse régulière du prix de production moyen de 130-190 euros en 2000 à 60-110 euros actuellement.

Outre le coût des matières premières, l’état de santé financière des opérateurs joue également. Ce sont néanmoins des évolutions de nature fiscale qui ont le plus fait varier le prix du mégawattheure au cours de la dernière décennie.

À 15 ans, les différents scénarios anticipent une accélération de la croissance de la demande en électricité résultant d’une part de la transition énergique (habitat, transport) et d’autre part de la relocalisation industrielle. De là résulterait une inadéquation durable entre l’offre et la demande compte tenu des incertitudes inhérentes au déploiement des nouvelles infrastructures (en termes de coûts et de délais), d’autant plus que la transition énergétique requiert principalement de l’électricité décarbonée.

Ces scénarios laissent anticiper à la fois une hausse tendancielle des prix mais également une forte augmentation de la volatilité. Mettre en place les conditions d’une offre d’électricité durablement compétitive suppose donc de maîtriser ces deux risques.

Une faible volatilité des prix permet aux producteurs de pouvoir garantir sur le très long terme le remboursement des dettes destinées à financer les infrastructures. Il s’agirait donc d’une invitation à investir, notamment pour une transition verte. Pour les clients consommateurs, cela permet de mieux prévoir et donc de maîtriser leurs dépenses.

Pour la limiter, plusieurs options sont ouvertes : diversifier le mix de production en faveur des capacités dont la part de coût variable est la plus faible possible, développer des solutions de « stockage » de l’électricité, ou surdimensionner la capacité de production par rapport à la demande attendue. Toutes ont en commun une mise en œuvre longue et complexe, et le risque d’accroitre sensiblement les coûts de production. La meilleure solution consiste donc à améliorer les mécanismes du marché actuel, en particulier avec le développement sa composante à long terme (maturités supérieures à 2 ans)

Pour ce qui est du niveau des prix, deux aspects nous paraissent source de réflexion. Le premier a trait à l’ouverture à la concurrence, impulsée par une directive de 1996. Le postulat consiste à considérer qu’une concurrence accrue présente un impact positif sur les prix à long terme. Il a poussé à réduire la position des opérateurs historiques pour faire place à de nouveaux entrants. En France, par exemple, avec « l’accès régulé à l’électricité nucléaire historique » (Arenh), les concurrents d’EDF peuvent accéder à la rente issue de la production des centrales nucléaires à des conditions fixées par l’administration.

Le bilan s’avère globalement négatif. En premier lieu, l’évolution du prix moyen de vente du mégawattheure à l’industrie en Europe depuis 1991 démontre qu’il n’y a pas de relation significative entre niveau de la concurrence et prix, puisque ce dernier reste avant tout conditionné par des facteurs de nature conjoncturelle. Ensuite, en cas de crise, la volatilité est hors de contrôle. Enfin, la situation financière de l’opérateur historique est fortement pénalisée et handicape d’autant sa capacité à investir.

L’autre postulat suppose une optimisation de la capacité de production, donc que la réponse à une demande supplémentaire provienne de la dernière unité mise en production – en l’espèce pour des raisons techniques, des centrales thermiques et soit donc valorisée sur la base du coût marginal de cette dernière unité. Or c’est justement ce mode de calcul qui est à l’original de l’envolée du prix du mégawattheure et de l’explosion de la volatilité. Il convient donc de mettre en œuvre un autre mode de calcul à défaut de quoi le coût de la volatilité viendra gonfler de manière disproportionnée, l’inflation induite par la hausse de la demande.

Parmi les solutions envisageables, outre les changements relatifs à l’organisation de la production décrits précédemment, certains acteurs ont formulé des propositions au moment de l’invasion de l’Ukraine. Le gouvernement grec, notamment, a soumis en juillet 2022 à l’Union européenne, un modèle visant à segmenter le marché de gros en deux compartiments distincts.

D’un côté, il y aurait les centrales à coûts marginaux faibles mais à coûts fixes élevés, produisant lorsqu’elles sont disponibles (nucléaires et énergie renouvelables). De l’autre côté, les centrales à coûts variables élevés (qui produisent à partir des combustibles fossiles), qui produiraient à la demande et contribueraient à équilibrer le marché en complément des productions évoquées précédemment. Les premières ne seraient plus rémunérées sur la base des coûts marginaux, mais recevraient un prix couvrant leur coût moyen de long terme, appelé Levelized Cost of Electricity. Le prix payé par le consommateur résulterait d’une moyenne pondérée des prix observés dans chacun des deux compartiments du marché.

Ce système présente l’avantage de rémunérer les producteurs en fonction de leur coût réel de production, plutôt que de se baser sur le coût des centrales fossiles et provoquer ainsi une baisse du coût moyen de l’électricité. De plus, en lissant les anticipations des prix futurs, elle devrait mécaniquement réduire la volatilité potentielle.

Voilà pourquoi, pour faire de la maîtrise du prix de l’énergie un socle de la compétitivité industrielle, il parait nécessaire de remettre en cause des postulats qui ont prévalu à l’organisation de la production sur les 20 dernières années et qui ont eu pour effet d’affaiblir les anciens monopoles sans véritable contrepartie mesurable sur le plan économique. Et ce alors que le défi de la transition énergétique passe par un effort d’investissement colossal, dont le succès repose, au-delà du cadre que nous venons de décrire, sur une parfaite coordination sur les plans technique, industriel et institutionnel. Si les acteurs privés ont leur place dans le dispositif, le rôle du maître d’œuvre sera déterminant.

Electricité : repenser la régulation

Electricité : repenser la régulation

par
Jean Pascal Brivady
Professeur, EM Lyon Business School

Abdel Mokhtari
Economiste, Chargé de cours, EM Lyon Business School dans The Conversation

La modification du contexte géopolitique et la perspective d’un monde moins ouvert ont remis sur le devant de la scène le concept de souveraineté. Relocaliser de nombreuses productions industrielles, considérées comme stratégiques (molécules pharmaceutiques ou chimiques, semi-conducteurs, construction automobile, voire certaines matières premières comme le lithium par exemple) fait partie de l’agenda public. Les groupes industriels concernés ne seront cependant enclins à rapatrier leur production que dans la mesure où les investissements permettent de rester compétitif sur leurs marchés.

Stabilité de l’environnement règlementaire, qualité des infrastructures, niveau d’éducation de la population, possibilité de disposer de subventions, tous ces paramètres entrent en ligne de compte au moment de prendre pareille décision. D’autres facteurs sont de nature plus économique, parmi lesquels, dans le cas précis de l’industrie, le coût de l’électricité et sa maîtrise sur le long terme.

La France et l’Allemagne l’avaient bien compris en optant chacun pour une solution garantissant sur plus de 20 ans, des prix bas de l’électricité via la construction du parc électro nucléaire en France et l’accès au gaz russe en Allemagne. Cet équilibre a été brutalement rompu par le déclenchement de la guerre en Ukraine.

Or, le conflit ne semble pas une simple parenthèse : deux tendances de fond sont en effet d’ores et déjà à l’œuvre. D’une part, la transition écologique accélérée dans laquelle s’est engagée l’Europe va entrainer une hausse de 35 % environ de la demande au-delà de 2030, ce qui suppose à la fois une augmentation des capacités, le passage à une production décarbonée, et une adaptation du réseau de transport.

D’autre part, les concurrents économiques de l’Europe investissent massivement pour garantir la compétitivité de leurs industries. Les États-Unis ont, par exemple, opté pour l’option la plus simple qui consiste à attribuer des subventions massives, dans le cadre notamment de l’Inflation Reduction Act. Pour rester dans le jeu, l’Union européenne est donc aujourd’hui contrainte de réagir.

Plusieurs facteurs déterminent le prix de l’électricité. Une partie a trait aux infrastructures. On note, par exemple, un effet d’expérience en cas de passage du prototype à un ensemble d’unités. Dans le cas des réacteurs pressurisés européens (EPR), l’Ademe estime le coût du mégawattheure à 110-120 euros pour le seul site de Flamanville, susceptible d’être ramené à 70 euros à compter de la 4e unité mise en service.

L’innovation intervient également. Par exemple, l’évolution technologique des éoliennes a permis de multiplier leur puissance par 60 entre 1985 et 2015. Il en résulte une baisse régulière du prix de production moyen de 130-190 euros en 2000 à 60-110 euros actuellement.

Outre le coût des matières premières, l’état de santé financière des opérateurs joue également. Ce sont néanmoins des évolutions de nature fiscale qui ont le plus fait varier le prix du mégawattheure au cours de la dernière décennie.

À 15 ans, les différents scénarios anticipent une accélération de la croissance de la demande en électricité résultant d’une part de la transition énergique (habitat, transport) et d’autre part de la relocalisation industrielle. De là résulterait une inadéquation durable entre l’offre et la demande compte tenu des incertitudes inhérentes au déploiement des nouvelles infrastructures (en termes de coûts et de délais), d’autant plus que la transition énergétique requiert principalement de l’électricité décarbonée.

Ces scénarios laissent anticiper à la fois une hausse tendancielle des prix mais également une forte augmentation de la volatilité. Mettre en place les conditions d’une offre d’électricité durablement compétitive suppose donc de maîtriser ces deux risques.

Une faible volatilité des prix permet aux producteurs de pouvoir garantir sur le très long terme le remboursement des dettes destinées à financer les infrastructures. Il s’agirait donc d’une invitation à investir, notamment pour une transition verte. Pour les clients consommateurs, cela permet de mieux prévoir et donc de maîtriser leurs dépenses.

Pour la limiter, plusieurs options sont ouvertes : diversifier le mix de production en faveur des capacités dont la part de coût variable est la plus faible possible, développer des solutions de « stockage » de l’électricité, ou surdimensionner la capacité de production par rapport à la demande attendue. Toutes ont en commun une mise en œuvre longue et complexe, et le risque d’accroitre sensiblement les coûts de production. La meilleure solution consiste donc à améliorer les mécanismes du marché actuel, en particulier avec le développement sa composante à long terme (maturités supérieures à 2 ans)

Pour ce qui est du niveau des prix, deux aspects nous paraissent source de réflexion. Le premier a trait à l’ouverture à la concurrence, impulsée par une directive de 1996. Le postulat consiste à considérer qu’une concurrence accrue présente un impact positif sur les prix à long terme. Il a poussé à réduire la position des opérateurs historiques pour faire place à de nouveaux entrants. En France, par exemple, avec « l’accès régulé à l’électricité nucléaire historique » (Arenh), les concurrents d’EDF peuvent accéder à la rente issue de la production des centrales nucléaires à des conditions fixées par l’administration.

Le bilan s’avère globalement négatif. En premier lieu, l’évolution du prix moyen de vente du mégawattheure à l’industrie en Europe depuis 1991 démontre qu’il n’y a pas de relation significative entre niveau de la concurrence et prix, puisque ce dernier reste avant tout conditionné par des facteurs de nature conjoncturelle. Ensuite, en cas de crise, la volatilité est hors de contrôle. Enfin, la situation financière de l’opérateur historique est fortement pénalisée et handicape d’autant sa capacité à investir.

L’autre postulat suppose une optimisation de la capacité de production, donc que la réponse à une demande supplémentaire provienne de la dernière unité mise en production – en l’espèce pour des raisons techniques, des centrales thermiques et soit donc valorisée sur la base du coût marginal de cette dernière unité. Or c’est justement ce mode de calcul qui est à l’original de l’envolée du prix du mégawattheure et de l’explosion de la volatilité. Il convient donc de mettre en œuvre un autre mode de calcul à défaut de quoi le coût de la volatilité viendra gonfler de manière disproportionnée, l’inflation induite par la hausse de la demande.

Parmi les solutions envisageables, outre les changements relatifs à l’organisation de la production décrits précédemment, certains acteurs ont formulé des propositions au moment de l’invasion de l’Ukraine. Le gouvernement grec, notamment, a soumis en juillet 2022 à l’Union européenne, un modèle visant à segmenter le marché de gros en deux compartiments distincts.

D’un côté, il y aurait les centrales à coûts marginaux faibles mais à coûts fixes élevés, produisant lorsqu’elles sont disponibles (nucléaires et énergie renouvelables). De l’autre côté, les centrales à coûts variables élevés (qui produisent à partir des combustibles fossiles), qui produiraient à la demande et contribueraient à équilibrer le marché en complément des productions évoquées précédemment. Les premières ne seraient plus rémunérées sur la base des coûts marginaux, mais recevraient un prix couvrant leur coût moyen de long terme, appelé Levelized Cost of Electricity. Le prix payé par le consommateur résulterait d’une moyenne pondérée des prix observés dans chacun des deux compartiments du marché.

Ce système présente l’avantage de rémunérer les producteurs en fonction de leur coût réel de production, plutôt que de se baser sur le coût des centrales fossiles et provoquer ainsi une baisse du coût moyen de l’électricité. De plus, en lissant les anticipations des prix futurs, elle devrait mécaniquement réduire la volatilité potentielle.

Voilà pourquoi, pour faire de la maîtrise du prix de l’énergie un socle de la compétitivité industrielle, il parait nécessaire de remettre en cause des postulats qui ont prévalu à l’organisation de la production sur les 20 dernières années et qui ont eu pour effet d’affaiblir les anciens monopoles sans véritable contrepartie mesurable sur le plan économique. Et ce alors que le défi de la transition énergétique passe par un effort d’investissement colossal, dont le succès repose, au-delà du cadre que nous venons de décrire, sur une parfaite coordination sur les plans technique, industriel et institutionnel. Si les acteurs privés ont leur place dans le dispositif, le rôle du maître d’œuvre sera déterminant.

Régulation géographique des médecins : le cas allemand

Régulation géographique des médecins : le cas allemand

par
Matthias Brunn
Chercheur affilié en sciences politiques au LIEPP – Sciences Po, Sciences Po dans The Conversation

Dans le débat actuel sur la liberté d’installation des médecins en France et les « déserts médicaux », les expériences à l’étranger sont utilisées de manière très variable par les défenseurs comme les détracteurs d’une régulation plus stricte que celle qui existe aujourd’hui.

Concrètement, à l’heure actuelle, un médecin libéral en France peut s’installer où le veut. Néanmoins, l’« Accessibilité potentielle localisée » ou APL (établie selon le nombre de médecins généralistes jusqu’à 65 ans, le temps d’accès pour les patients, etc.) commence à être prise en compte au sein des « Territoires vie-santé » qui maillent le pays (voir la carte ci-dessous).

Il y a ainsi des incitations financières pour promouvoir une installation dans une zone « sous-dense » en personnel médical. En parallèle, l’idée de restreindre l’installation en zone « sur-dense » se développe et alimente des propositions parfois très discutées. Les polémiques les plus récentes concernent l’ajout d’une quatrième année à l’internat de médecine générale, assortie de l’obligation de l’effectuer en cabinet de ville. Dans un Territoire de vie-santé sous-dense, un habitant a accès à moins de 2,5 consultations par an ; 3,8 millions de personnes étaient concernées en 2018, contre 2,5 millions en 2015.

L’Allemagne, voisin le plus proche géographiquement, est doté d’un système de régulation de l’installation parmi les plus stricts au monde. Pourtant, il est très peu évoqué dans le débat français. Au-delà de la barrière linguistique, la faible diffusion de l’évaluation des politiques en place outre-Rhin ne facilite pas les échanges d’expériences.

Cet article décrypte le système allemand actuel, et son historique, et donne un aperçu des effets. En outre, il discute la transférabilité de ces enseignements vers la France.

Les bases de la « planification des besoins » (Bedarfsplanung) sont jetées en 1976 avec l’introduction de statistiques sur la répartition des praticiens sur le territoire. Une évolution majeure a lieu en 1993 avec le découpage du pays en 395 zones de planification et la fixation de « densités cibles » pour 14 catégories de médecins (généralistes, neurologues et psychiatres, etc.).

L’objectif est d’éviter les zones sur-denses en médecins. L’installation n’est possible que si ce seuil de densité n’est pas dépassé de plus de 10 %.

Depuis 2013, le calcul du seuil est plus fin et tient compte de la structure démographique (âge et sexe) de la population. L’objectif est désormais, aussi, d’éviter les zones sous-denses.

En 2021, est lancée une dernière évolution du mode de calcul. Sont intégrés progressivement l’état de santé dans le territoire (basé sur les données administratives fournies par les médecins), les distances (en voiture) entre population et cabinets, puis la multiplication des zones de planification, notamment pour les généralistes (actuellement environ 883 zones).

Un point important est à souligner : cette politique contraignante est largement acceptée par les organisations de médecins. Il faut noter que, au sein des comités de pilotage régionaux (associations de médecins conventionnés et caisses d’Assurance maladie) et au niveau du cadrage fédéral (un comité regroupant essentiellement les médecins, les caisses et les hôpitaux sous supervision légale du ministère de la Santé), ces organisations contribuent à l’évolution du dispositif.

Depuis 1999, la régulation de l’installation est par ailleurs étendue aux psychologues exerçant en tant que psychothérapeutes dans le cadre de leur conventionnement avec l’Assurance maladie. À l’instar des médecins, en échange du bénéfice du remboursement de leur prise en charge, les psychothérapeutes acceptent certaines contraintes, y compris la limitation de l’installation.

Concrètement, en 2021, 31 300 psychologues-psychothérapeutes et 152 000 médecins conventionnés étaient concernés en Allemagne par ce système de maîtrise de l’installation.

Ce système a jusqu’ici donné de bons résultats qui, s’ils ne bénéficient pas d’évaluations scientifiques, sont basés sur des données assez robustes quant à ses effets. La discussion autour de cette politique est en effet essentiellement basée sur des rapports rédigés par des instituts privés et financés par les différentes parties prenantes.

Une expertise approfondie et indépendante publiée en 2018 a conclu que l’accès est très bon pour la plupart des habitants en Allemagne : 99,8 % de la population est à moins de dix minutes de voiture d’un généraliste, et 99,0 % à moins de 30 minutes pour la plupart des spécialistes. Il s’agit, bien entendu, d’un indicateur d’accès purement géographique, en supposant qu’une voiture est à disposition. En ce qui concerne la disponibilité des médecins, la majorité des personnes interrogées ont répondu qu’elles obtiennent des rendez-vous en quelques jours seulement.

En France, une étude de 2017 a trouvé des chiffres relativement proches pour les généralistes : 98 % de la population est à moins de dix minutes en voiture. Faute de méthode identique, les autres données de ces deux études ne sont pas comparables. Il ne faut non plus occulter les différences systémiques entre les deux pays, qui empêchent de conclure que les résultats parfois divergents ne seraient dus qu’à la régulation de l’installation.

Le débat sur le « manque » de médecins (Ärztemangel) est moins intense en Allemagne qu’en France. Et pour cause : s’il existe aussi des différences régionales, l’Allemagne recensait, en 2020, 40 % de médecins de plus que l’Hexagone – par rapport à la population et tous secteurs confondus (hôpital, ambulatoire, etc.) (voir tableau).

La question de la ruralité ne se pose pas non plus de la même manière dans les deux pays. Dans la « campagne profonde », en Allemagne, on n’est jamais très loin d’un centre urbain. Cela se traduit, schématiquement, par une densité de la population presque deux fois plus élevée qu’en France.

L’Allemagne compte 4,5 médecins en exercice par 1000 habitants contre 3,2 pour la France dont la population est deux fois moins dense

Par conséquent, un médecin s’installant dans la campagne allemande ne se sent pas (automatiquement) éloigné d’un certain nombre de services publics, culturels, etc. Cela renvoie à l’idée, dans le débat en France, que les « déserts médicaux » sont aussi, en partie, des « déserts de service public et privé ».

Il convient également de souligner que, si la limitation de l’installation n’est pas contestée, ce sont les médecins allemands eux-mêmes qui la mettent en œuvre.

Ils disposent en effet de larges compétences pour gérer l’organisation de leur exercice : de la formation (définition des cursus pour les études de médecine, etc.) à la permanence de soins, en passant par la distribution du budget ambulatoire. Ils sont en négociation quasi permanente avec l’Assurance maladie et sont bien représentés au niveau politique. L’intégration institutionnelle des médecins, par les organes les représentant, est donc forte.

Cette intégration entraîne toutefois une grande complexité afin que le périmètre et les compétences de chaque partenaire (associations de médecins conventionnés, caisses d’Assurance maladie, Comité fédéral commun…) soit clairement défini.

En Allemagne, la rémunération repose essentiellement sur un système de capitation : une somme fixe pour chaque patient pris en charge par un médecin, par trimestre. S’y ajoute, en sus, une rémunération à l’acte, dont le montant baisse en fonction du nombre d’actes prodigués. On parle de « dégression » : plus il y a des actes, moins élevé est le prix par acte. Comme mentionné plus haut, ce sont les médecins eux-mêmes qui gèrent cette enveloppe dite « à moitié fermée ».

A contrario, en France, domine toujours la rémunération à l’acte qui est non dégressive, et donc à prix fixe.

Des différences empêchant toute transférabilité ?

A priori non, car il existe tout de même de nombreuses similitudes rendant les deux systèmes comparables dans une certaine mesure.

À la différence d’autres systèmes tels que celui en vigueur en Angleterre, France et Allemagne offrent un accès assez peu restreint à de nombreux spécialistes en dehors de l’hôpital. En France, cependant, le « parcours de soins » incite financièrement les patients à passer d’abord par un généraliste – hors gynécologues, ophtalmologues, psychiatres et stomatologues, qui sont accessibles directement sans pénalité financière.

Les deux pays introduisent aussi de plus en plus de dispositifs semblables, qui redessinent l’organisation du système de soins : des maisons ou centres de santé regroupant plusieurs professionnels, des soins plus coordonnés pour les patients atteints de maladies chroniques, l’usage de référentiels pour améliorer la qualité, etc.

Dans l’organisation du système de soins, on note également, en Allemagne comme en France, que l’État est de plus en plus pilote de ces politiques. Ce qui est lié à la notion de contrôle budgétaire, devenue une préoccupation primordiale et un moyen de cadrer les changements du système de santé.

Limiter l’installation des médecins : une politique efficace mais complexe

L’exemple allemand montre que la limitation de l’installation est une politique efficace… mais qui ne peut être mise en place qu’au prix d’un mille-feuille administratif assez épais. Chaque nouvelle modification, comme en 2021, venant ajouter (encore) des variables dans un modèle de planification déjà très complexe. Il faut donc multiplier la collecte, la remontée et l’analyse de données, les concertations, etc.

Mais il faut surtout retenir que cet outil a été mis en place (et a longtemps servi) pour « corriger » les zones sur-denses dans un pays plutôt bien doté en médecins et lits d’hôpitaux. Cette planification a été conçue afin de maîtriser les coûts et éviter une compétition trop élevée entre médecins qui opèrent avec le système d’enveloppe à moitié fermée. Cette trajectoire structure encore les débats et les actions en Allemagne.

Or, ce sont les zones sous-denses qui sont au cœur des débats en France. À titre d’exemple, la densité de médecins généralistes est de 46 % plus élevée dans la région la plus dotée (PACA), par rapport à la moins dotée (Centre), en 2021. Afin de pallier aux « déserts médicaux », il conviendrait plus de se pencher sur les outils incitatifs. Ceux qui existent sont par ailleurs assez similaires dans les deux pays : aide financière à l’installation, ouverture de sites de formation ou d’antennes d’universités dans les territoires ruraux, incitation au recrutement d’internes, etc.

L’approche outre-Rhin apporte donc des pistes de réflexion qui méritent d’être analysées. Toutefois, afin de mener un débat éclairé, il est essentiel de distinguer les notions de zone sous- versus sur-dense, et de tenir compte des spécificités du système de notre voisin – proche… mais pas tout à fait similaire.

L’auteur remercie Lucie Kraepiel, doctorante au CSO (Centre de sociologie des organisations) et assistante de recherche à l’axe santé du LIEPP (Laboratoire interdisciplinaire d’évaluation des politiques publiques) de Sciences Po, pour sa relecture de cet article.

Déserts médicaux : les politiques de régulation géographiques insuffisantes

Déserts médicaux : les politiques de régulation géographiques insuffisantes

Les politiques de régulation géographiques insuffisantes estime le député socialiste Guillaume Garot, co-signataire d’une proposition de loi transpartisane pour lutter contre les déserts médicaux ( intreview JDD).
Le socialiste Guillaume Garot porte, avec plus de 200 députés de tous bords, un texte transpartisan sur la même thématique.


Pourquoi est-il essentiel à vos yeux d’avancer dans le sens de cette régulation ?

La désertification médicale nourrit un sentiment d’abandon très fort qui fait le terreau de l’abstention aux élections ou, pire, de l’extrémisme. Il est impératif de pouvoir refonder le pacte républicain en garantissant à chacun l’accès à des soins près de chez lui. Notre République s’est construite, après 1945, par cette formidable promesse d’égalité de tous à la santé. Il existe aujourd’hui des entailles profondes à ce pacte ; il s’agit donc de le rebâtir avec des mesures fortes et nécessaires.

Cette liberté ne serait pas remise en cause dans son fondement, mais elle serait adaptée aux défis du moment

Concrètement, en quoi consiste la régulation que vous défendez ?</strong
Il s’agit d’encadrer la liberté d'installation de nos médecins. Cette liberté ne serait pas remise en cause dans son fondement, mais elle serait adaptée aux défis du moment. Concrètement, nous disons aux médecins : « N’allez plus vous installer là où l’offre de soins est correctement pourvue, mais allez là où vous voudrez où vos patients vous attendent. »

Certains voient dans votre mesure une coercition, une manière de contraindre les médecins…
Est-ce que les pharmaciens, les infirmiers, les kinés nous parlent de coercition lorsque, eux aussi, sont soumis à une régulation de leur installation et de l’exercice de leurs pratiques ?

Cette mesure ne figure pas dans le texte de Frédéric Valletoux. Quelle va être votre attitude en commission ?
Nous présenterons des amendements pour enrichir le texte et faire en sorte que la régulation, qui est attendue par beaucoup de Français, puisse voir le jour à l’issue du débat dans l’hémicycle qui doit permettre de rassembler une majorité. Ce sentiment d’urgence traverse beaucoup de bancs aujourd’hui. Notre proposition de loi réunit 205 co-signataires issus des neuf groupes de l’Assemblée nationale, des Républicains à La France insoumise ! Il faut traiter ces problèmes. Tout ce que nous avons fait les uns et les autres, depuis des années, n’a pas produit les effets attendus.

Il y a aujourd’hui un autre texte qui, opportunément, est mis dans le débat ; nous l’amendrons

Les politiques fondées sur l’incitation à l’installation ont été utiles mais n’ont pas été suffisantes. Nous devons aujourd’hui passer une nouvelle étape. Il faudra discuter des modalités avec les professionnels, mais nous avons besoin d’actionner ce levier de la régulation. Je reconnais que nous sommes face à un problème de nombre de médecins – il faut en former davantage –, mais nous avons aussi un problème de répartition. C’est le sens de notre mesure.

Mais votre proposition de loi n’est pas inscrite à l’ordre du jour du Parlement…
Nous le regrettons. Alors qu’elle est déjà le fruit d’un compromis entre les différentes sensibilités. Dans nos groupes de travail, il a fallu se mettre d’accord alors que nous n’étions pas dans les mêmes logiques politiques. L’inscription à l’ordre du jour n’a hélas pas été le choix de la présidente de l’Assemblée nationale. Il y a aujourd’hui un autre texte qui, opportunément, est mis dans le débat ; nous l’amendrons.

En avez-vous discuté avec Frédéric Valletoux ?
Oui, à de nombreuses reprises. Le travail est respectueux et les échanges de qualité. Sur beaucoup de sujets, nous pouvons nous retrouver : l’idée d’un préavis obligatoire avant le départ d’un médecin, la limitation du cumul des aides à l’installation, la démocratisation de l’accès aux études de médecine… Sur ça, il y a des terrains d’entente. Après, il reste en effet le sujet de la régulation de l’installation. Le débat aura lieu en séance publique, dans l’hémicycle. Ne le craignons pas. Que chacun s’exprime et que l’Assemblée vote.

François Braun reste opposé à la régulation. Après c’est le ministre qui parle, et l’Assemblée nationale parlera aussi

Vous avez rencontré le ministre de la Santé, François Braun, mercredi. Quelle est sa position ?
Il reste opposé à la régulation. Après c’est le ministre qui parle, et l’Assemblée nationale parlera aussi. Emmanuel Macron a également parlé. Je dis au ministre et aux députés de la majorité : « Regardez ce que le président de la République a dit dans des termes qui ne sont pas si éloignés de ce que nous proposons. » Dans La Nouvelle République en avril, il déclarait ne pas croire à la « coercition nationale » mais affirmait « penser qu’il faut être plus contraignant dans des zones qui sont déjà très richement dotées ».

Ce qu’il s’est passé cette semaine en commission des affaires sociales sur les retraites peut-il avoir un impact sur l’examen de la proposition de loi de Frédéric Valletoux ?
C’est possible. Mais je le redis, nous sommes dans une démarche ouverte pour aboutir à de vraies mesures. Il y a certes l’étape en commission – qui n’est, au vu de sa composition, pas très ouverte à la régulation –, mais il y a surtout le débat en séance publique la semaine suivante. Quant au 8 juin (le jour de l’examen de la proposition de loi Liot sur la réforme des retraites, NDLR), ce sera un autre rendez-vous important pour chacun des parlementaires.

Déserts médicaux–: Le ministre contre la régulation géographique

Déserts médicaux–: Le ministre contre la régulation géographique


Le ministre de la santé est clairement contre la régulation géographique qui est envisagée à l’assemblée nationale. De ce point de vue, il se fait le porte-parole de la médecine libérale qui s’oppose à l’intervention de l’État pour mieux répartir les jeunes médecins. Le ministre propose surtout des assistants médicaux pour libérer du temps et le recrutement de médecins étrangers. . «Il faut fluidifier tout cela. Un assistant médical permet à un médecin généraliste de suivre 10% de patients en plus. Un assistant dentaire permet à un dentiste de prendre 30% de patients en plus», a affirmé le ministre, rappelant que la pénurie de soignants est un problème mondial.

François Braun veut «étendre ce qui existe déjà pour les chercheurs avec le dispositif «Passeport Talents», aux métiers de la médecine et de la pharmacie». Concrètement, ces professionnels de santé étrangers, qui auraient «un contrat avec un établissement», disposeraient de «13 mois pour passer l’examen de validation des connaissances. S’ils réussissent, ils obtiendraient un titre de séjour de 4 ans leur permettant de faire venir leur famille».

Le ministre de la santé s’est ensuite montré très ambigu concernant la lutte contre les stupéfiants. La cigarette électronique pourrait, malgré les doutes sur sa toxicité, finir par être reconnue comme l’un des outils du sevrage tabagique. C’est en tout cas le message du ministre de la Santé, dimanche 28 mai, qui envisage sa prescription et son remboursement par la sécurité sociale. Il s’est cependant dit déterminé à lutter contre les addictions, s’est déclaré dimanche favorable à l’interdiction des «puffs», cigarettes électroniques jetables prisées des jeunes. Mais il envisage d’ouvrir aux pharmaciens la prescription de certains substituts nicotiniques sous forme de cigarettes électroniques. Interrogé sur un éventuel remboursement par la Sécu, François Braun a répondu que le sujet était «sur la table dans le cadre du prochain plan antitabac» du gouvernement, prévu sur la période 2023-2028.

Santé : Le ministre contre la régulation géographique

Santé : Le ministre contre la régulation géographique


Le ministre de la santé est clairement contre la régulation géographique qui est envisagée à l’assemblée nationale. De ce point de vue, il se fait le porte-parole de la médecine libérale qui s’oppose à l’intervention de l’État pour mieux répartir les jeunes médecins. Le ministre propose surtout des assistants médicaux pour libérer du temps et le recrutement de médecins étrangers. . «Il faut fluidifier tout cela. Un assistant médical permet à un médecin généraliste de suivre 10% de patients en plus. Un assistant dentaire permet à un dentiste de prendre 30% de patients en plus», a affirmé le ministre, rappelant que la pénurie de soignants est un problème mondial.

François Braun veut «étendre ce qui existe déjà pour les chercheurs avec le dispositif «Passeport Talents», aux métiers de la médecine et de la pharmacie». Concrètement, ces professionnels de santé étrangers, qui auraient «un contrat avec un établissement», disposeraient de «13 mois pour passer l’examen de validation des connaissances. S’ils réussissent, ils obtiendraient un titre de séjour de 4 ans leur permettant de faire venir leur famille».

Le ministre de la santé s’est ensuite montré très ambigu concernant la lutte contre les stupéfiants. La cigarette électronique pourrait, malgré les doutes sur sa toxicité, finir par être reconnue comme l’un des outils du sevrage tabagique. C’est en tout cas le message du ministre de la Santé, dimanche 28 mai, qui envisage sa prescription et son remboursement par la sécurité sociale. Il s’est cependant dit déterminé à lutter contre les addictions, s’est déclaré dimanche favorable à l’interdiction des «puffs», cigarettes électroniques jetables prisées des jeunes. Mais il envisage d’ouvrir aux pharmaciens la prescription de certains substituts nicotiniques sous forme de cigarettes électroniques. Interrogé sur un éventuel remboursement par la Sécu, François Braun a répondu que le sujet était «sur la table dans le cadre du prochain plan antitabac» du gouvernement, prévu sur la période 2023-2028.

Intelligence artificielle : une régulation nécessaire pour la protection de la démocratie

Intelligence artificielle : une régulation nécessaire pour la protection de la démocratie

Par Julie Martinez, rapporteure générale de la Commission France Positive dans la tribune


Nous sommes aujourd’hui à un moment charnière de notre histoire pour au moins deux raisons. La première concerne le bouleversement disruptif généré par la découverte du grand public de ChatGPT, chatbot conçu par la société américaine OpenAI. Alors que l’IA se développe à une vitesse fulgurante, elle impacte soudainement notre manière de communiquer et de prendre des décisions quotidiennes, y compris politiques (1).

La seconde raison est plus latente, elle couve en effet depuis quelques décennies, et concerne l’affaiblissement certain de notre modèle démocratique aux yeux des citoyens. L’évolution politique des dernières décennies exprime avec force les errances de notre démocratie libérale et la nécessité de renforcer notre vigilance collective pour la préserver des menaces qui l’affaiblissent, parmi lesquelles la désinformation. Sans nier les dangers liés à l’IA, que nous devons résoudre et encadrer urgemment, cette technologie pourrait être un allié solide des gouvernements dans la résolution de la crise démocratique que nous traversons aujourd’hui.

L’IA est actuellement un danger réel en matière de désinformation
Pour contrer des développements jugés trop rapides et dangereux pour l’humanité, un groupe de chercheurs en IA, dont font partie Stephen Hawking et Elon Musk, a lancé une pétition le mois dernier visant à obtenir une pause dans le développement de cette technologie (2). Ils appelaient à une réglementation internationale stricte pour encadrer le développement de l’IA, à la fois pour empêcher ses conséquences néfastes et favoriser son utilisation positive pour le bien de l’humanité.

Ces risques sont en effet majeurs (3), a fortiori dans un contexte d’affaiblissement de notre système démocratique, renforcé par la désinformation – ces fameuses « fake news » qui circulent déjà avec force en ligne. Comme l’a récemment souligné le Global Risks Report (4), la désinformation est devenue une menace majeure pour la stabilité politique et la confiance dans les institutions. Les réseaux sociaux et médias en ligne sont particulièrement vulnérables à ces manipulations, étant conçus pour maximiser l’engagement des utilisateurs en leur présentant des contenus viraux, susceptibles de les intéresser, indépendamment de leur véracité. Dans ce contexte, la désinformation est devenue une arme redoutable pour influencer l’opinion publique et perturber les processus démocratiques.

L’IA aggrave considérablement ces risques, en facilitant la génération automatisée de contenus falsifiés, de plus en plus sophistiqués. Les récents progrès dans le domaine des GAN (5) ont permis de créer des images et des vidéos hyper-réalistes, semant la confusion dans l’opinion publique, tel que l’illustre la génération d’une fausse photographie d’Emmanuel Macron devant des poubelles en feux pendant les dernières manifestations contre la réforme des retraites (6).

Pour protéger nos démocraties contre les conséquences désastreuses de la désinformation renforcée par l’IA, des mesures règlementaires doivent être prises urgemment – et les gouvernements dans le monde planchent déjà sur le sujet. Ces mesures juridiques, souvent ex-ante, apparaissent déjà comme trop tardives au regard des récents développements disruptifs de l’IA et mettent en évidence le décalage entre la législation et les avancées technologiques.

Orienter l’IA pour soigner notre démocratie
Dans notre quête pour réglementer l’IA, nous ne devons pas oublier l’alliée solide qu’elle peut être demain. L’avenir de notre démocratie dépend de la manière dont nous investirons collectivement aujourd’hui dans les « bonnes » finalités qu’elle doit poursuivre, en allant au-delà des quelques initiatives règlementaires internationales en cours qui visent souvent à limiter les effets négatifs générés par l’IA. Comme toute technologie, elle n’est en effet qu’un médium, puissant, permettant d’atteindre des finalités qui, elles, doivent être repensées. Plus particulièrement, il faudra augmenter nos efforts de recherche en civic tech démocratique, continuer d’inciter les plateformes en ligne à améliorer leurs politiques de lutte contre la désinformation et les citoyens à développer leur esprit critique et leur capacité à évaluer les sources d’information. Ces défis relevés, l’IA pourra contribuer à soigner notre démocratie du grand mal du siècle.

L’exemple de Taiwan est à cet égard particulièrement significatif. En recourant à l’IA pour lutter contre la désinformation, Taiwan est devenu l’un des gouvernements les plus avancés dans la mise en place de mécanismes numériques de protection de la démocratie. Face à une campagne de désinformation massive en 2018 menée par la Chine, visant à influencer les élections locales, le Commandement des forces d’information, de communication et d’électronique a été renforcé par des procédés utilisant de puissants algorithmes, permettant l’analyse en temps réel et la détection de fausses informations en ligne. Le système est également capable de prédire les sujets qui pourraient faire l’objet d’une désinformation dans l’avenir (7).

Rien n’est plus fragile que la démocratie. Des menaces similaires existent déjà sur notre territoire et nécessitent une action rapide et décisive de la part de nos gouvernements pour soigner notre mal démocratique, y compris par l’IA.

______

(1) Avertissant sur le tsunami technologique qui s’apprêtait à déferler sur le monde, Sam Altman – CEO d’OpenAI, concluait dès 2021 une de ses tribunes de la façon suivante : « Les changements à venir sont imparables. Si nous les accueillons et les planifions, nous pouvons les utiliser pour créer une société beaucoup plus juste, plus heureuse et plus prospère. L’avenir peut être d’une grandeur presque inimaginable. » (Traduction proposée par l’auteur). Sam Altman, Moore’s Law for Everything, 16 Mars 2021

(2) Future of Life Institute, Pause Giant AI Experiments: An Open Letter, 22 Mars 2023

(3) O’Neil, C. Weapons of math destruction: How big data increases inequality and threatens democracy. Broadway Books, 2016

(4) Forum Economique Mondial, The Global Risks Report 2022, 17e Edition

(5) En francais, les réseaux antagonistes génératifs. Il s’agit d’une classe d’algorithmes d’apprentissage non supervisé.

(6) Si elles peuvent paraitre absurdes pour une partie de la population, ces images (- et bien d’autres !) ont un véritable impact et ont fait le tour du monde. Ces risques sont d’autant plus préoccupants que la confiance dans les institutions et les médias traditionnels est en déclin dans le monde.

(7) L’IA y est aussi utilisée pour renforcer la participation citoyenne grâce à une plateforme en ligne permettant aux citoyens de proposer des idées de politiques publiques et de voter pour celles qu’ils jugent les plus pertinentes. Les données collectées sont ensuite analysées par l’IA pour évaluer les opinions et décisions des citoyens, qui sont ensuite prises en compte dans le processus décisionnel gouvernemental.

Carbone: La facture aux ménages comme régulation

Carbone: La facture aux ménages comme régulation !

Finalement les économistes libéraux et les écolos se seront tenus par la main faire émerger la taxation européenne du carbone qui en faites ne sera qu’une taxation de plus payée par les ménages. Les économistes sont contents, ils ont monétarisé le CO2 et permettent de réguler la pollution par le marché ( La théorie du fameux signal prix) et les écolos se figurent que cela pourra réduire la pollution.

Le seul problème c’est que la dimension sociale n’a pas été prise en compte car pour l’essentiel les ménages sont condamnés à recourir aux énergie et aux moyens existants. Seule la régulation progressive peut permettre des changements des modes de consommation et en amont de production. Le reste se résume à la création d’un impôt en plus.

Le Parlement européen puis le conseil des ministres ont donc adopté cette semaine la réforme du marché carbone, qui s’étendra dès 2027 au chauffage et au carburant pour les particuliers et risque forcément d’aboutir à une hausse des factures. Même si la mesure sera assortie d’un fonds social censé accompagner les ménages les plus touchés par cette tarification du CO2, le spectre d’une révolte des Gilets jaunes n’est pas loin. Car dans le même temps, le Vieux continent subit déjà une inflation incontrôlable.

L’union européenne a en effet adopté mardi l’essentiel de l’ambitieux plan climat de l’Union, baptisé « Green Deal », qui comporte l’extension du marché carbone pour les particuliers. Un point aussi crucial que controversé, alors que les prix de l’énergie atteignent déjà des sommets depuis plus d’un an, grignotant un peu plus le pouvoir d’achat des consommateurs.

Aujourd’hui, ce système de tarification du CO2 concerne uniquement les industriels : pour les encourager à réduire leurs rejets de gaz à effet de serre, ceux-ci doivent acheter, depuis 2005, des « permis à polluer » qui couvrent 40% des émissions du Vieux continent, et dont le nombre diminue chaque année. Seulement voilà : avec la nouvelle réforme, les ménages devront eux aussi « faire leur part », puisqu’un prix du CO2 s’appliquera également dès 2027 sur le carburant routier et le chauffage des bâtiments. Et contrairement à une taxe carbone classique, dont l’évolution est fixée par la loi, le prix serait déterminé par l’offre et la demande, donc fluctuant et imprévisible.

Régulation de l’ électricité: face à la spéculation, renationaliser toute la filière

Régulation de l’ électricité: face à la spéculation, renationaliser toute la filière

Deux élément sont responsables de la crise de l’électricité en France; d’une part l’abandon de la filière nucléaire pour récupérer les voix de quelques écolos bobos, d’autre part le fait d’avoir substitué un marché anarchique aux tarifs règlementés; Des dizaines et des dizaines d’entreprises qui ne produisent rien, qui ne distribuent rien ont pu ainsi réaliser des surper-profits scandaleux qui ont contribué à la crise de l’électricité. Résultat , alors qu’on payait le megawh 70 euros, le particulier paye désormais environ 140 euros et les TPE 240 euros, cela en dépit du bouclier tarifaire.

« En voulant concilier ouverture à la concurrence et préservation pour les consommateurs du bénéfice de la compétitivité du parc nucléaire existant, l’organisation des marchés de l’électricité a abouti à une construction complexe et régulièrement remise en cause », Observe de manière très diplomatique la Cour des comptes dans un rapport sur l’organisation des marchés de l’électricité.

Plus grave encore, « la combinaison des principaux outils d’intervention publique ne garantit plus l’atteinte des objectifs initiaux de la loi Nome en termes de stabilité et de compétitivité des prix .

EDF est contraint de fournir ses concurrents au prix de 42 € le mégawatt heure pour un prix d’achat à l’étranger qui a pu atteindre jusqu’à 1000 € au sommet de la crise.

Cette régulation des prix a été voulue par l’Allemagne qui alors comptait sur le faible coût du pétrole russe comme ressource principale afin de concurrencer la France sur le plan énergétique . La France est prisonnière d’un système dénoncé y compris par la Cour des Comptes alors qu’elle produit l’énergie la moins chère du monde quand évidemment on ne ferme pas de centrales nucléaires. .

Les rapporteurs de la rue Cambon pointent en particulier la méthode de calcul des tarifs réglementés d’EDF établie par la Commission de régulation de l’énergie (CRE). Comme l’avait déjà souligné l’UFC-Que Choisir en mai 2021, ils démontrent qu’en intégrant le coût d’approvisionnement des fournisseurs alternatifs sur les marchés de gros dès qu’ils n’ont plus d’Arenh (1), elle fait fortement augmenter le tarif réglementé, le déconnectant de plus en plus des coûts de production du parc nucléaire d’EDF.
Ainsi révisé, le tarif réglementé est trop exposé au marché, il n’est plus à même d’assurer la stabilité des prix aux consommateurs. Sans le bouclier tarifaire mis en place par le gouvernement, il aurait ainsi bondi de 35 % TTC le 1er février dernier. La Cour des comptes appelle à réformer son mode de calcul pour le protéger des variations des prix de marché.

Autre outil mis en cause, celui de l’Arenh, qui impose à EDF de fournir jusqu’à 100 TWh d’électricité produite par son parc nucléaire à ses concurrents au prix de 42 € le mégawattheure. Si ce dispositif a privé EDF de 7 milliards de revenus sur la période 2011-2021, il lui a cependant permis de couvrir largement ses coûts. Mais ils vont augmenter fortement en 2022 du fait de la faible production de son parc nucléaire. La Cour souligne que les mécanismes de régulation ne fonctionnent plus, que ce soit en France ou en Europe.

Enfin, le mécanisme de capacité qui rémunère le dernier moyen de production appelé pour faire face aux pointes de consommation « est à l’origine de transferts financiers qui peuvent excéder les nécessités de la sécurité d’approvisionnement ». Coût estimé à la charge des consommateurs : de 500 millions à 1,2 milliard par an.

La Cour des comptes conclut que ces trois outils d’intervention publique ne sont pas maîtrisés et qu’ils ne garantissent plus l’atteinte des objectifs initiaux de la loi Nome. Elle recommande une nouvelle régulation pérenne qui supprimerait les effets pervers des mécanismes en place et protégerait les consommateurs de la volatilité des prix.

Crise de société et regulation

Crise de société et regulation.

par Thibaut Duvillier, Revue interdisciplinaire d’études juridiques (extrait)

Cet article vise à éclairer le concept de crise au regard des théories de sociologie du droit. Partant de précurseurs comme Max Weber et Emile Durkheim, nous prêterons une attention toute particulière aux théories de Niklas Luhmann et de Jürgen Habermas en essayant de mettre en lumière le sens du mot crise ou la lecture que ces auteurs en donnent. Cet exposé se présente sous la forme d’une contribution à la mise en application de concepts sociologiques, tantôt traditionnels (Weber et Durkheim), tantôt contemporains (Luhmann et Habermas), au regard de la crise du droit et de la société à laquelle nous assistons. Dans le cas de Weber et Durkheim, le but n’est donc pas tant d’actualiser les modèles heuristiques de ces quelques grandes figures de la sociologie du droit que de manifester la pertinence analytique de ces théories dans le cadre de recherches socio-juridiques actuelles destinées à mieux comprendre les mécanismes de crises juridique et sociétale.

Auparavant, il nous semble nécessaire d’attirer l’attention des lecteurs sur le sens du mot crise, sur son utilisation dans différents domaines, ainsi que de mettre en exergue les risques liés à la banalisation d’un tel concept. Ensuite, afin de mieux percevoir les composantes de la crise de droit et de société, il convient d’expliquer brièvement ce que recouvrent les mutations sociétales qui traversent autant que structurent nos sociétés contemporaines. Enfin, entrant dans le vif du sujet, nous analysons, dans un premier temps, la crise juridico-sociétale au regard des concepts de droit formel/matériel et rationnel/irrationnel formulés par Weber et de ceux de droit répressif/restitutif énoncés par Durkheim pour, dans un second temps, la confronter aux conceptions procédurale et systémique actuelles développées par Habermas et Luhmann. Après avoir mis en lumière l’importance du développement de l’espace public et de ses limites et dans un souci d’une meilleure compréhension du modèle de crise, nous nous permettons d’examiner la complémentarité des théories de type autopoïétique de Luhmann et de type communicationnelle d’Habermas. En guise de conclusion, nous essayons, sous la forme d’hypothèses, tant de circonscrire les sources et problèmes posés par la crise juridique et sociétale telle qu’elle est construite dans le cadre de cet article que de rendre compte d’un certain nombre de propositions de solutions à celle-ci.

Introduction

La crise du lien social, la crise de la modernité, la crise du contrat social, la crise de l’État de droit, la crise de l’État providence, la crise de l’État social, le développement d’un État sécuritaire. Il devient rare de trouver une étude quelque peu scientifique sans y voir apparaître une de ces expressions. Elles reflètent certes une réalité depuis longtemps observée mais son utilisation abusive ne risque-t-elle pas de banaliser l’ampleur du phénomène ? Poussons la provocation plus loin en osant affirmer que toute étude scientifique relative à la sociologie des rapports sociaux au sens le plus large du terme ne serait potentiellement crédible que s’il est fait référence à cette notion de crise.

Ces expressions (crise de la société, crise du droit), presque galvaudées au fil du temps, perdent leur sens premier. En effet, faut-il rappeler la signification originaire du mot “crise” : période momentanée, transitoire d’un état à un autre. S’il y a crise, le changement et la stabilité

Ces concepts sont particulièrement mis en évidence dans le… doivent logiquement lui succéder. En effet, la crise ne constitue qu’un point de rupture dans la continuité. De même, il est erroné de parler de crise économique si celle-ci perdure depuis plus de trente ans. Afin d’éviter de porter le flan à la critique, nous convenons bien volontiers qu’il s’agit en fait d’une question de référence par rapport à l’échelle du temps. Le moteur de la crise que nous traversons réside dans la combinaison de l’accroissement apparemment irréductible de la complexité, d’une part, et l’accélération du rythme de changement social, d’autre part. Dès lors, en simplifiant notre raisonnement, comment changer le changement ? Autrement dit, comment agir sur les éléments changeants afin de les rendre plus stables ?

Nous comprenons que l’expression “crise de régulation” renvoie aux attentes régulatrices projetées dans le droit à défaut de pouvoir être rencontrées par l’État et le marché. Cette crise de société se rapporte à la complexité croissante qui l’affecte. C’est pour cette raison que nous avons choisi plus particulièrement l’approche systémique de Luhmann afin de mieux comprendre le processus relationnel établi entre le système juridique, politique et économique essentiellement.

Mais le mot crise garde-t-il toute sa signification au regard de l’usage qu’il en est fait ?

De même, ce risque de banalisation se trouve présent dans la problématique de l’extension de la notion des droits de l’homme. Si l’on se réfère à l’une des classifications en matière de droits de l’homme, on peut en distinguer de trois types. A chacun d’eux correspond ce que l’on appelle une génération. La première génération des droits civils et politiques (droits-libertés) correspond à l’image de l’État libéral, la seconde, celle des droits sociaux, culturels et économiques (droits-créances), au modèle de l’État providence et la troisième, où figurent notamment le droit à la paix et le droit au développement (droits culturels collectifs ou droits-solidarités), à « l’ère post-moderne de l’absorption de l’État au sein de “l’arène internationale” »

S’il est intellectuellement possible, et même heureux, de penser les droits de l’homme dans une perspective plurielle, il paraît moins sûr qu’un État puisse garantir la satisfaction de ces droits pour tous les citoyens. De plus, dès lors qu’aucune échelle de valeur sémantique n’indique la procédure de réalisation d’un choix entre ces différents droits, comment déterminer les droits primordiaux à assurer ? Dans ce cadre, un État démocratique pourra-t-il encore juger du taux de couverture des droits d’un État totalitaire, sachant que lui-même ne respecte pas scrupuleusement l’entièreté des droits de l’homme ? A l’instar de la structure pyramidale de l’ordre juridique de Hans Kelsen, pourrait-on concevoir une pyramide des droits de l’homme ? Pourrait-on imaginer, selon le modèle procédural de décision politique de Jürgen Habermas, un consensus autour des priorités en matière de droits de l’homme ? Si le concept de droits de l’homme soulève actuellement quelques divergences d’interprétation, que dire du terme encore plus équivoque de “génération”.

En démographie, une génération équivaut à 25 années. se succèdent tout en se superposant, il arrive un moment où la première génération cède sa place à la seconde. Or, tel n’est pas le but poursuivi.

9André-Jean Arnaud confirme cette hypothèse en affirmant que les chercheurs en sociologie constatent des violations des droits de l’homme qui, en réalité, ne sont que « le résultat d’une perception occidentale d’un concept à valeur universelle interprété de manière relativement diverse selon les cultures »

A.-J. Arnaud, M.-J. Farinas Dulce, Introduction à l’analyse…. Cette problématique des droits de l’homme nous permet d’ailleurs de mettre en exergue les limites de l’universalité de la philosophie moderne de la justice explicitées ultérieurement dans ce travail.

Cependant, si l’on reprend une autre typologie où le nombre de types de droits de l’homme s’élève à six, est-il encore possible de penser les droits de l’homme comme une notion univoque ? L’articulation qui unit ces droits civils, politiques, sociaux, moraux, universalistes et culturels ne peut dès lors se concevoir que dans une perspective “d’absolu plural”. La mise en œuvre d’une démocratie nécessite de satisfaire l’ensemble de ces droits mais, au regard de la réalité, ils apparaissent clairement antinomiques. Sans hiérarchiser ces droits, il est cependant possible de leur accorder un statut particulier. Ainsi, en ce qui nous concerne, l’accent est mis sur le développement de droits politiques tendant à accroître la participation à l’espace public. C’est à cet endroit d’ailleurs que se régleront les antinomies entre les autres droits. Nous reparlerons plus loin dans cet article de cet espace public conçu comme lieu de concertation et de discussion.

I – Les mutations sociétales

L’effacement du législatif devant la prééminence de l’exécutif lors du développement de l’État providence et l’extension du pouvoir judiciaire lors de la crise de ce dernier constituent les principales transformations au niveau de l’évolution de la nature de l’État de droit. Même si l’on ne demeure pas attaché à la stricte séparation des pouvoirs, n’est-il pas dangereux d’observer une délégation de responsabilités croissante laissée aux juges quant à l’interprétation de textes de plus en plus complexes et nombreux, une absence remarquée du législatif et un renforcement de la technocratie ? Habermas confirme ces propos en présentant la crise du droit comme double : « il s’agit du fait que la loi parlementaire perd de sa force d’obligation et que le principe de séparation des pouvoirs est mis en péril »

J. Habermas, Droit et démocratie. Paris, Gallimard, 1997, p.…. La restauration de l’espace public par le respect des conditions d’une discussion gouvernée par “la situation idéale de parole” nous semble essentiel afin de revitaliser les débats parlementaires qui, le plus souvent, restent clivés, majorité contre opposition. Jürgen Habermas ne restreint pas l’espace public à l’enceinte du Parlement. Tout espace public peut être régi par une sorte de discipline de vote prônée par Habermas et caractérisée par une réelle prise de parole précédant la prise de décision. Mais, comme nous le soulignerons ultérieurement, la discussion n’est pas le seul moyen de se poser comme acteur et décidant du procès politique. D’ailleurs, comment réveiller la conscience citoyenne et mobiliser les acteurs sociaux à s’engager dans le processus démocratique, alors même que les assemblées du Peuple se caractérisent par une absence, voire une désertion de plus en plus flagrante de leurs représentants ? Même si le Parlement ne représente qu’une strate de l’espace public, il n’en est pas pour autant le lieu le moins important du point de vue de l’effet des décisions qui y sont prises.

La mondialisation de l’ensemble des différents sous-systèmes et, plus particulièrement, le système économique (l’impuissance à contrôler le marché en tant qu’instrument de régulation), le système politique (« mutations d’échelle de la souveraineté »)

J.-L. Génard, “La justice en contexte”, in Le rapport des… et celui des moyens de télécommunications (le développement impressionnant du réseau Internet par exemple) constitue également un des défis majeurs de gestion auquel le système social dans son ensemble est et sera confronté. Ainsi, pour une question de terminologie, André-Jean Arnaud préfère le terme de globalisation à celui d’“internationalisation” utilisée par les juristes pour décrire les échanges transcendant les frontières des États nations puisque « le recours (…) à la notion de “globalisation des échanges” réside précisément dans le fait qu’on veut faire comprendre (…) que les nations sont (…) exclues des échanges dont on parle »

Pour une justification plus explicite de la terminologie….

La mondialisation de l’économie, la limitation de la politique gouvernementale par le carcan juridico-économique européen, les “Affaires” de “dysfonctionnements” institutionnels et de corruption d’hommes politiques, la lenteur et la pesanteur d’un appareil d’État bureaucratique symbolisent aux yeux des citoyens l’impuissance du politique à faire face à ces mutations sociétales. Au niveau théorique, l’approche autopoïétique de Luhmann rend compte de ce phénomène.

On peut illustrer les limites de l’action étatique dans la prégnance de la question sociale

J. Commaille, Les nouveaux enjeux de la question sociale,… au cœur des débats socio-politiques. En contrecarrant la libre concurrence, les aides de l’État aux entreprises économiquement défaillantes sont jugées illégales au regard du droit européen. L’État-nation, en se fondant dans un système juridique et économique supranational, trouve son interventionnisme largement déterminé par les directives européennes.

Cependant, le facteur qui reflète le mieux le danger de l’arbitraire au niveau de l’exécutif réside dans le développement du phénomène technocratique. Symbole de la fracture du contrat social, la technocratie risque d’occulter la distanciation communicationnelle croissante entre le citoyen et le politique. L’hypertrophie de la sphère technocratique issue des divers pouvoirs exécutifs existant au sein du même État, associée à l’eurocratie au niveau supranational constitue un réel danger démocratique dans la mesure où le citoyen n’est plus impliqué (ou ne s’implique plus) au sein des processus décisionnels de la cité. En ce qui concerne le pouvoir judiciaire, le danger se situe tant au niveau d’un formalisme exacerbé que d’une marge d’interprétation et d’un pouvoir discrétionnaire trop large. Dans le dernier cas, c’est au niveau de la clarté de la prise de décision du juge que se situe le danger. Dès lors, il importe de rechercher un “droit flexible” sans tomber dans le travers d’un “droit trop flou”.

A un niveau plus microsociologique, l’expression des revendications qui ont suivi l’Affaire Dutroux en Belgique et qui se sont notamment manifestées lors la marche blanche du 20 octobre 1996 [13]

B. Rihoux, S. Walgrave, L’année blanche : un million de… mérite aussi le statut de mutation sociétale.

La méfiance des citoyens à l’égard des institutions se traduisit par des attaques répétées à l’encontre d’une justice dite “à deux vitesses”, “bureaucratique” et par la mise en avant de droits à une justice plus “rapide”, plus “efficace”, plus “humaine”, plus “transparente”. S’il est clair que ces slogans ne sont pas dénués de toute vérité, il nous faut bien mettre en exergue quelques-unes des confusions qu’ils véhiculent. Qu’est-ce qu’une justice plus “transparente”, plus “efficace” ?

Une justice plus humaine implique a priori une prise en considération par le juge des particularités de l’interaction sociale qu’il a à réguler. Or, certains puristes du droit regrettent que le législateur accorde au juge cette possibilité d’interpréter l’esprit de la loi. Certes, le juge ne raisonne, fort heureusement, pas comme une “machine à subsomptions” mais, avec l’intrusion de valeurs éthiques, morales, religieuses voire politiques, ne risque-t-on pas d’assister à une justice “individualisée” qui, si elle peut faire le bonheur des justiciables à court terme, ne pourra, à moyen et long terme, garantir aucune sécurité juridique. Cet élément demeure pourtant un des piliers de notre État de droit. On se trouve ici en présence du débat qui oppose, d’une part, des normativistes comme Hans Kelsen ou, dans une moindre mesure, Max Weber et, d’autre part, les représentants du Mouvement du droit libre dont un des représentants les plus connus se nomme Eugen Ehrlich. Quant à la revendication à une justice plus rapide, le danger est grand de chercher à résoudre les litiges de manière fordiste (à la chaîne) au risque de rejeter au second plan les droits de la défense…..

A première vue, le problème sociétal majeur renvoie au manque de cohérence que revêt le système juridique et qui recouvre l’idée d’integrity de Dworkin. Face à la complexité croissante du droit et de la réalité sociale et de leur inadéquation, le juge herculéen s’improvise peu à peu “législateur de second rang”. A la loi générale, abstraite, reproductible et répétitive se substitue la décision particulière fondée sur l’examen du dossier dans toute sa singularité. Cependant, comme le souligne François Ost, le dieu Hermès, figure emblématique de la réconciliation de la “vérité révélée” et de la “réalité négociée” par l’intermédiaire de la communication en réseau, « paraît le mieux rendre compte de la complexité des phénomènes juridiques contemporains » Bref, le droit contemporain est polycentrique et complexe. Le réseau complexe dont il est issu tend à alourdir la tâche du juge chargé de reconstruire le droit, de lui redonner cohérence afin de pouvoir l’appliquer. Même s’il n’appartient pas au juge, sur un plan strictement constitutionnel de légitimité démocratique, de repenser “l’accumulation anarchique des règles de droit”

A.-J. Arnaud, M.-J. Farinas Dulce, op. cit., p. 233., il est compréhensible qu’il tente néanmoins de redonner sens à ce désordre juridique. En effet, c’est à lui que revient le rôle de juger, c’est-à-dire de rechercher la solution qui satisfasse les parties en présence tout en respectant les lois qui régissent la vie en société. Si l’on passe du stade de la stricte séparation des pouvoirs à celui, purement pragmatique, de la pratique judiciaire au quotidien, il paraît indéniable que « la tâche des juges pourrait bien se révéler totalement insurmontable dans nos sociétés complexes »

.
Le droit est polycentrique ; il est de plus en plus souvent négocié plutôt qu’imposé. Les modes de transaction, de concertation ou encore de médiation rendent compte de ce phénomène. Ces initiatives placent les acteurs du procès sur une nouvelle scène, avec de nouveaux rôles. Le développement de cet espace public privilégiant la discussion fondée sur la recherche du meilleur argument n’est susceptible de porter ses fruits que si les divers acteurs de ce jeu en connaissent les règles. Dans le cadre de la conception procédurale du droit, ces acteurs doivent être conscients des principes qui guident l’éthique de la discussion. Sans nul doute, c’est au juge qu’incombera ce rôle d’arbitre et de garant du respect de ces principes. Sans nul doute, cette participation des justiciables au processus d’application des règles de droit ne peut que renforcer le sentiment de citoyenneté responsable. Si les citoyens s’engagent dans un processus similaire au niveau de la formulation de ces règles, le législateur devra-t-il aussi s’effacer pour s’accommoder du rôle d’arbitre ?

C’est donc au niveau de la cohérence de l’ordre juridique, d’une part, et des rôles et des attentes qui y correspondent, d’autre part, que se situe notre discours. Discours qui trouvera dans la théorie luhmanienne un écho positif, puisque la notion d’attente y occupe une place considérable.

De l’observation de cette crise du droit moderne, fondée principalement sur la simplicité, la raison naturelle, et l’universalité, ne peut-on émettre l’hypothèse suivante ? Face à un désordre juridique pesant, le juge ne serait-il pas tenté de rechercher la bonne réponse du droit au cas qui lui est soumis dans des considérations davantage morales que juridiques

Concernant ce processus de “remoralisation du monde” par le…. Dès lors, en atténuant la séparation droit-morale et en favorisant l’inflation de décisions propres à la situation particulière que le magistrat a été amené à juger, ne risque-t-on pas de renforcer l’incohérence régnant au niveau de l’ordonnancement des sources du droit ? On se rend compte ici des dangers de l’émergence d’un cercle vicieux au sein du système juridique.

Notes
[1]
Cet article est également disponible depuis le 16/11/1999 sur le site Internet du Réseau Européen Droit et Société hébergé par la Maison des Sciences de l’Homme de Paris (http://www.msh-paris.fr/red&s/index.htm).
[2]
E. Le Roy, “Crises, mondialisation, complexité sociale. Spécificités des situations et généralités des pratiques”, in S. Tessier (sous dir. de), A la recherche des enfants des rues, Paris, Karthala, 1998.
[3]
A.-J. Arnaud, Crise contemporaine de nos sociétés, crise du droit et réflexion juridique, Conférence prononcée le 23 novembre 1981 au Centre de philosophie du droit de l’Université del Zulia, Maracaïbo, Venezuela, Internet Réseau Européen Droit et Société.
[4]
Ces concepts sont particulièrement mis en évidence dans le domaine de la sociologie des organisations. Même si nous ne pensons pas directement à l’idée d’une transposition efficace des instruments de régulation organisationnelle à une méta-organisation, l’État, il nous faut bien constater, notamment dans l’organisation de colloques et dans la rédaction d’ouvrages collectifs, “l’intrusion” de sociologues de l’organisation dans le domaine de la régulation étatique et de la sociologie politique.
[5]
B. Frydman, G. Haarscher, Philosophie du droit, Paris, Dalloz, 1998, p. 117.
[6]
B. Frydman, G. Haarscher, op. cit.
[7]
En démographie, une génération équivaut à 25 années.
[8]
A.-J. Arnaud, M.-J. Farinas Dulce, Introduction à l’analyse sociologique des systèmes juridiques, Bruxelles, Bruylant, 1998, p. 202.
[9]
J. Habermas, Droit et démocratie. Paris, Gallimard, 1997, p. 459.
[10]
J.-L. Génard, “La justice en contexte”, in Le rapport des citoyens à la justice : composantes de la problématique, Bruxelles, Centre d’études sociologiques (FUSL) – Centre interdisciplinaire d’études juridiques (FUSL) – Département de sociologie (UCL), 1999, p. 15.
[11]
Pour une justification plus explicite de la terminologie utilisée cf. A.-J. Arnaud, M.-J. Farinas Dulce, op. cit., p. 286
[12]
J. Commaille, Les nouveaux enjeux de la question sociale, Paris, Hachette, 1997.
[13]
B. Rihoux, S. Walgrave, L’année blanche : un million de citoyens blancs : qui sont-ils ? Que veulent-ils ?, Bruxelles, EVO, 1997.
[14]
F. Ost, “Le rôle du droit : de la vérité révélée à la réalité négociée”, in G. Timsit, A. Claisse, N. Belloubet-Frier (sous dir. de), Les Administrations qui changent. Innovations techniques ou nouvelles logiques ?, Paris, PUF, 1996, p. 73. Pour plus de détails, le lecteur peut aussi se rapporter à la contribution de François Ost intitulée “Jupiter, Hercule, Hermès : trois modèles de juge”, in P. Bouretz, La force du droit (sous dir. de), Paris, Esprit, 1991, p. 241-272.
[15]
F. Ost, op. cit., p. 73.
[16]
A.-J. Arnaud, M.-J. Farinas Dulce, op. cit., p. 233.
[17]
B. Frydman, G. Haarscher, op. cit., p. 61.
[18]
Concernant ce processus de “remoralisation du monde” par le droit, le lecteur peut se référer à J.-L. Génard, “La justice en contexte”, op. cit., p. 38-40.
[19]
J. Habermas, op. cit., p. 460.
[20]
Weber définit le droit comme un ordre légitime dont “la validité est garantie extérieurement par l’éventualité d’une contrainte (physique ou psychique) exercée par une instance humaine, spécialement instituée à cet effet, qui force au respect de l’ordre et châtie la violation”, in A.-J. Arnaud, M.-J. Farinas Dulce, op. cit., p. 75.
[21]
Durkheim caractérise le droit comme “l’organisation sociale dans son aspect le plus stable et le plus durable”, in A.-J. Arnaud, M.-J. Farinas Dulce, op. cit., p. 48.
[22]
E. Durkheim, De la division du travail social, Paris, PUF, 1973 (1893), p. 29-30.
[23]
E. Durkheim, op. cit., p. 29.
[24]
J. Chevallier, “De quelques usages du concept de régulation”, in M. Miaille (sous dir. de), La régulation entre droit et politique, Paris, L’Harmattan, 1995, p. 71.
[25]
Séminaire “Obéir et désobéir. Le citoyen face à la loi” organisé par le Centre de Philosophie du Droit de l’Université Libre de Bruxelles, année académique 1998/1999.
[26]
A.-J. Arnaud, M.-J. Farinas Dulce, op. cit., p. 133.
[27]
Sur le caractère autoréférentiel du droit chez Luhmann et chez Kelsen, le lecteur peut se référer à A. Carrino, “Max Weber et Hans Kelsen”, in C.-M. Herrera (sous dir. de), Le droit, le politique autour de Max Weber, Hans Kelsen, Carl Schmitt, Paris, L’Harmattan, 1995, p. 197.
[28]
Cette distinction entre Law in Books et Law in Action s’inscrit dans le mouvement du “réalisme juridique nord-américain”. Proposée par Roscoe Pound et reprise notamment par Oliver W. Holmes, cette double conception du droit rend parfaitement compte de l’écart qui peut exister entre les règles juridiques telles qu’elles sont écrites dans les livres et les règles juridiques telles qu’elles sont appliquées par les juges (ce que l’on appelle aussi les règles réelles ou real rule).
[29]
Ph. Gérard, Droit et démocratie. Réflexions sur la légitimité du droit dans la société démocratique, Bruxelles, FUSL, 1995, p. 58.
[30]
J. Habermas, op. cit., p. 80.
[31]
J. Habermas, op. cit., p. 253.
[32]
J. Commaille, op. cit., p. 131.
[33]
J. Habermas, op. cit., p. 66.
[34]
H. Willke, “Diriger la société par le droit”, in Archives de philosophie du droit, Tome 31, 1986, p. 193.
[35]
H. Willke, ibidem, p. 191.
[36]
J. Lenoble, Droit et communication, Paris, Éd. du Cerf, 1994, p. 16.
Mis en ligne sur Cairn.info le 08/09/2019

https://doi.org/10.3917/riej.045.0027

12345...7



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol