Archive pour le Tag 'quel'

Quel prix pour l’électricité en France

Quel prix pour l’électricité en France 

 

Marine Godelier s’interroge sur le rôle de la régulation en France dans un papier très intéressant de la Tribune (extrait)

 

Le mécanisme de l’ARENH pousse EDF à vendre sur les marchés de l’électricité à un prix très avantageux pour les fournisseurs alternatifs, afin de permettre aux concurrents de l’opérateur historique de proposer des offres compétitives. (Crédits : Reuters)

Alors que les tarifs réglementés de vente d’électricité en France devaient bondir de près de 12% début 2022, soit un surcoût annuel de 150 euros, la hausse sera finalement limitée à 4% l’an prochain. C’est ce qu’a promis le 30 septembre dernier le Premier ministre, Jean Castex, au journal télévisé de France 2. En l’état, cela passera vraisemblablement par une diminution provisoire des taxes sur l’électricité, de manière à alléger la facture des ménages.

Pourtant, en parallèle, une autre demande se renforce de la part d’associations de défense des consommateurs et de l’industrie : doubler la mesure d’un relèvement du plafond de l’ARENH (accès régulé à l’électricité nucléaire historique), afin de bénéficier de plus d’énergie à bas coût, au moins le temps que la crise passe. Notamment pour les entreprises, puisque leurs minimaux de taxation sont fixés par la Commission européenne, et non par l’Etat. Mais la solution n’est « pas envisageable », avait mis au clair fin septembre la secrétaire d’Etat à la Biodiversité, Bérangère Abba.

Qu’est-ce que l’ARENH, et pourquoi le gouvernement refuse-t-il, pour l’heure, d’y toucher ? Cet acronyme peu connu du grand public se trouve en fait au coeur du fonctionnement du marché de l’électricité en France, et de la manière dont son prix est déterminé. Concrètement, il permet depuis 2011 aux fournisseurs « alternatifs » (c’est-à-dire autres qu’EDF), qui ne peuvent posséder aucune centrale nucléaire, de proposer à leurs clients des prix compétitifs en achetant de l’électricité auprès d’EDF à prix coûtant (sans bénéfice pour ce dernier), plutôt qu’à celui, fluctuant, du marché. Ce tarif étant fixé par les pouvoirs publics à 42 euros le mégawatt heure (MWh), l’ARENH représente logiquement un avantage considérable pour ces opérateurs au moment où les cours s’envolent à plus de 110 euros le MWh.

A l’origine, le rôle de l’ARENH est de permettre une libéralisation du marché de l’électricité, autrefois à la main d’EDF. Et pour cause, ce dernier bénéficiant d’une électricité compétitive liée à l’exploitation historique de son parc nucléaire, aux coûts désormais amortis, il disposait d’un avantage considérable sur ses concurrents potentiels.

« Le but était donc qu’EDF perde des parts de marché, et que les autres en gagnent », explique Jacques Percebois, économiste et directeur Centre de recherche en économie et droit de l’énergie (CREDEN).

Le mécanisme était bien sûr encadré : la production nucléaire s’élevant à environ 400 TwH par an à l’époque, « il a été décidé que les fournisseurs alternatifs pourraient accéder à prix coûtant à 25% de celle-ci », développe Jacques Percebois. Le plafond de l’ARENH a ainsi été fixé à 100 TwH d’électricité à prix régulé pour tous les concurrents d’EDF, au tarif de 42 euros le MWh. De quoi leur permettre de jouer à armes égales avec l’opérateur historique, et de maintenir une concurrence, que certains qualifient d’artificielle.

Seulement voilà : depuis 2011, cette concurrence a explosé, jusqu’à atteindre près de 80 fournisseurs alternatifs aujourd’hui en France. Mathématiquement, le plafond de 100 TwH restant inchangé, chacun d’entre eux bénéficie de moins d’ARENH qu’auparavant. Si leurs demandes excèdent ce volume global, et c’était le cas ces dernières années, le trop perçu fait l’objet d’un écrêtement, se répercutant sur la facture des consommateurs. « Ils demandent donc que le plafond soit revalorisé à 150 TWh », précise Jacques Percebois.

Mais EDF, aux profits déjà bridés par l’ARENH, serait forcément perdant. « On parle de plusieurs centaines de millions d’euros », précise Nicolas Golberg, senior manager Energie à Colombus Consulting.

« Si le plafond augmente à 150 TWh, le tarif de 42 euros augmentera forcément en même temps, pour compenser ces pertes », ajoute Jacques Percebois.

Surtout que le coût du nucléaire a augmenté, ne serait-ce qu’à cause de l’inflation - les prix ayant grimpé de 15% environ depuis 2010. « Par conséquent, l’ARENH devrait au moins être aux alentours de 48 euros le MWh », fait valoir Jacques Percebois. De quoi pousser EDF à vouloir « remplacer » ce dispositif « asymétrique » qui l’ « impacte structurellement », glisse-t-on chez l’opérateur historique. Une position assumée par le président d’EDF, Jean-Bernard Levy, qui fustige régulièrement le mécanisme, le qualifiant de « poison » pour la rentabilité du groupe.

D’autant que certains fournisseurs alternatifs « profitent » de ce système, en ne demandant une part d’ARENH que lorsque les prix sur le marché de gros augmentent, et dépassent le tarif réglementé de 42 euros / MWh. « En 2016, plus personne ne voulait acheter d’ARENH, car le prix du marché est ponctuellement descendu à 38 euros le MWh », précise Jacques Percebois. « Le fait qu’ils n’aient pas l’obligation d’acheter des parts d’AREHN quand les prix sont en-dessous du tarif réglementé fait que nous sommes toujours perdants », dénonce-t-on chez EDF.

« C’est un jeu qui se fait toujours au détriment d’EDF et en faveur des alternatifs », abonde Emmanuel Autier, manager associé Energie chez BearingPoint.

« Dans l’idéal, il faudrait un système sélectif, qui ne profite qu’à ceux qui en ont vraiment besoin, plutôt que ceux qui ont une attitude spéculative et joue sur le marché de court terme », répond Nicolas de Warren, président de l’UNIDEN (Union des industries utilisatrices d’énergie), une association chargée de défendre les intérêts des entreprises énergivores, qui demande un relèvement du plafond à 150 TWh.

Reste qu’EDF « refait aujourd’hui un peu ses marges » du fait de l’explosion des cours, car l’électricité qu’il vend sur le marché de gros, en dehors de l’ARENH, vaut bien plus cher que ce qu’elle a coûté sur le marché européen interconnecté de l’énergie. Un phénomène qui pousse par exemple l’UFC-Que Choisir à demander à « faire primer le pouvoir d’achat des consommateurs sur les intérêts mercantiles d’EDF ».

 

Marine Godelier

Risque de crise cyber majeure : Quel rôle de l’État

Risque de crise cyber majeure : Quel rôle de l’État ?

Par Jean-Jacques Quisquater, université de Louvain, Ecole Polytechnique de Louvain et MIT, et Charles Cuvelliez, université de Bruxelles, Ecole Polytechnique de Bruxelles. ( L’Opinion, extrait)

 

Tribune

 

Tout au long de la crise du Covid-19, c’est l’Etat qui a joué un rôle d’assurance et d’assureur sans le savoir au départ en prenant en charge les coûts générés par l’arrêt forcé de l’économie. Les puristes diront qu’une assurance couvre un dommage matérialisé sauf que l’Etat l’a couvert au fur et à mesure qu’il se matérialisait.

Dans son analyse annuelle 2021 des risques futurs, AXA n’est pas loin d’évoquer un scénario similaire où les assureurs seront tout aussi démunis face à l’ampleur d’une autre crise, une crise cyber qui paralysera toute l’économie via, par exemple, le système financier qui serait bloqué. On n’a aujourd’hui que peu de compréhension des conséquences si un maillon systémique du système financier était bloqué.

Qui doit couvrir les dommages?

Une crise cyber partira peut-être d’une institution donnée couverte par une assurance cyber, pourquoi pas, mais ses effets se propageront peut-être à toute une industrie, à toute une économie sans faire dans le détail. Qui doit couvrir les dommages dans ce cas. Tout comme le Covid-19, ce sera à l’Etat de jouer ce rôle.

On dirait que l’opinion s’y prépare puisque le risque cyber est listé comme risque n°1 aux Etats-Unis et n°2 en Europe. AXA a interrogé pour ce faire 2.500 experts en risque dans 60 pays. Il leur était demandé de choisir leur top des risques parmi un choix de 25.

Il n’est évidemment pas étonnant que les risques climatiques, les risques cyber et les risques santé occupent le top 3. Mais même si le Covid-19 a représenté la matérialisation, une année et demie durant, de l’un d’entre eux, c’est tout même le climat qui est donné comme le risque le plus urgent. Quant au risque de santé, c’est moins la pandémie que les maladies chroniques et l’exposition aux substances toxiques qui est vue comme le plus problématique pour le public qui a aussi été interrogé (20.000 personnes dans 15 pays).

Risques technologiques

Dans notre société toujours plus numérique et technologique, il n’est pas étonnant non plus que les risques technologiques soient mis en avant à coté des risques cyber. Les risques éthiques liés à l’usage des technologies qui autorisent toujours plus d’intrusion dans la vie (privée) ou qui provoquent des biais algorithmiques occupent le devant des préoccupations. Il y aussi les risques économiques et non plus éthiques liés à la technologie qui ont grimpé de 8 places dans le classement, en comparaison de 2020. Il s’agit de la prévalence toujours plus grande des cryptomonnaies dans l’attente d’un grand crash sans parler des conséquences sur la consommation d’énergie et l’empreinte carbone. Par contre, les technologies futuristes disruptives comme l’ordinateur quantique ou les systèmes autonomes ou même les manipulations génétiques n’ont pas l’air de préoccuper les experts.

Les risques liés à la stabilité financière sont montés de la position n°9 en 2020 à la position n°8 cette année. En 2018 et 2019, ce risque n’était même pas dans le top 10. Ce sont les politiques monétaires et fiscales non orthodoxes menées pendant le Covid-19 qui ont fait exploser les dépenses publiques qui expliquent cette peur. C’est le côté Terra Incognita dans lequel nous sommes plongés. Pour l’instant, tout va bien. Sur la forme que prendra la matérialisation d’un risque impactant la stabilité financière, on évoque autant l’existence d’une bulle financière que l’effondrement du système financier mondial.

C’est intéressant de voir comment la perception du risque diffère entre spécialistes et le grand public. Pour ce dernier, arrive en premier les pandémies et les maladies infectieuses.  Le changement climatique vient en deuxième position. Arrive ensuite le terrorisme (du fait de sa charge émotionnelle) et, en quatrième position, les cyberrisques. Le terrorisme n’arrive qu’en septième position pour les experts. Chaque continent a aussi son top risque préféré : l’Amérique voit le cyberrisque d’abord. Il faut dire que la vague d’attaque cyber que les Etats-Unis ont vu déferler n’y est pas pour rien (on n’a encore rien vu en Europe, ceci dit). En Europe, c’est le risque climatique qui inquiète le plus. Les pandémies et les maladies infectieuses dominent en Asie et en Afrique.

Perception de la vulnérabilité aux risques

Autre angle intéressant de cette édition 2021, la perception de la vulnérabilité aux risques. En 2021, les experts se sentent plus vulnérables aux risques de santé, environnementaux et technologiques. Ceci correspond parfaitement à l’actualité. Pour l’environnement, on a vu comme le confinement a tout à coup diminué tant d’atteintes à l’environnement, comme la pollution. Avec le tout au télétravail et au numérique pour compenser le confinement, on a aussi compris combien les risques technologiques se cachaient derrière ces usages. Enfin, la réalité du risque santé était bien là avec la pandémie.

Par contre, tant le public (75% des personnes interrogées) que les experts risques (87 %) continuent à faire confiance aux scientifiques et académiques pour gérer ou limiter les crises. Rassurant en ces temps d’infox mais pourvu que les scientifiques ne se trompent pas et ne s’érigent pas en autorité morale qu’ils n’ont pas à être avec des prises de position tapageuses. La jeune génération pense aussi qu’on viendra toujours à bout des crises, qu’aucune ne nous arrêtera. Ce sont aussi les jeunes qui sont le plus sensibles aux risques climatiques.

AXA pointe aussi un risque géopolitique qui émerge des risques climatiques avec la course au leadership pour la transition verte entre la Chine et l’Occident. On sait bien que les métaux stratégiques pour la transition énergétique se trouvent en Chine. On se rappellera que le leadership britannique au XIXe siècle venait de leur contrôle du charbon et que celui des USA vient de leur contrôle sur le pétrole quand même plus pratique.

Arrêt d’infrastructures critiques et ransomwares

Si on demande de détailler ce qu’il faut entendre par risque cyber, 47 % des réponses se dirigent vers un arrêt d’infrastructures critiques et 21% pour les ransomwares. Et c’est là qu’AXA explique que la prévalence des attaques cyber va les transformer en équivalent Covid-19. Le contexte cyber risque d’escalader, explique AXA. L’opinion publique des pays occidentaux appelle ses dirigeants à réagir de plus en plus fermement aux attaques, ce qui peut amener une politique de confrontation qui dépasse l’espace cyber.  A cela s’ajoute un poids réglementaire qui s’accroit : interdiction de payer les rançons, limitation des cryptomonnaies, … ce sont autant de marge de manœuvre réduite pour les entreprises pour faire face à une attaque cyber. Quant à la pandémie, elle a mis en évidence l’interdépendance entre risques santé et risque environnementaux. Les incendies créent des problèmes respiratoires, les virus s’échappent des zones tropicales, ….

Bien sûr, on peut se poser la question de la pertinence d’une telle analyse : le bais du déjà-vu opère. On croit qu’un risque qui s’est matérialisé dans le passé aura plus de chances de se reproduire mais il ne s’agit ici que d’identifier les risques majeurs émergents et pour tous ceux-là, les signes prémonitoires de leur matérialisation sont déjà présents et beaucoup ont leur cause de la main de l’homme.

Après la débâcle en Afghanistan, quel bouclier américain ?

Après la débâcle en Afghanistan, quel bouclier américain ?

 

Après la débâcle en Afghanistan, la présence américaine amène des pays notamment  d’Asie à s’interroger sur leur dépendance vis-à-vis des Etats-Unis.

(Article du monde, extrait)

 


L’onde de choc de la débâcle américaine amène pourtant des pays notamment d’Asie à s’interroger sur leur dépendance envers les Etats-Unis, qui s’avère une garantie de sécurité insuffisante s’ils ne disposent pas eux-mêmes de capacités pour se défendre et, surtout, s’ils ne se ménagent pas d’autres options que le suivisme. C’est moins la fiabilité de l’engagement américain que les décisions unilatérales de Washington qui inquiètent Séoul et Tokyo.

Des raisons durables à la présence américaine en Corée du Sud et au Japon écartent l’hypothèse d’un retrait : la guerre de Corée, suspendue à un simple armistice en 1953 – ce qui en fait le plus long conflit où sont impliqués les Etats-Unis –, et la menace nucléaire du Nord, qui dispose désormais de capacités intercontinentales. Le Japon, lui, reste la « clé du Pacifique » pour contenir la Chine, comme au moment de la guerre froide.

Vu de Séoul et de Tokyo, le retour des talibans à Kaboul ne suscite pas les mêmes inquiétudes qu’aux Etats-Unis et en Europe sur la résurgence d’un foyer terroriste : « Contrairement aux puissances occidentales, la Corée du Sud n’a pas d’intérêt stratégique en Afghanistan », estime Ku Mi-seon, de l’université de l’Ohio (Etats-Unis). Pour Masayuki Tadokoro, de l’université Keio, à Tokyo, « le Japon n’ayant jamais été une cible du terrorisme islamiste, le retour au pouvoir des talibans n’a pas d’implications géopolitiques pour Tokyo, sinon par son effet sur les relations entre la Chine et les Etats-Unis ».

Au lendemain d’une autre défaite des Etats-Unis – la chute de Saigon, en 1975, au terme de la guerre du Vietnam –, la Corée du Sud et le Japon, qui avaient été les bases arrière de l’offensive américaine, avaient cherché à rebattre les cartes. Le président sud-coréen, Park Chung-hee, avait lancé un programme clandestin d’armement nucléaire – auquel Washington mit le holà – et le Japon avait ouvert le spectre de sa diplomatie en signant, en 1978, un traité de paix et d’amitié avec la Chine, après avoir normalisé les relations entre les deux pays en 1972.

Voitures à Hydrogène : quel avenir ?

Voitures à  Hydrogène : quel avenir ?

Le handicap des voitures électriques c’est évidemment l’énorme poids mort des batteries aussi la question de la performance sans parler  de la problématique écologique.( Extraction des métaux et Recyclage). D’où l’idée d’utiliser l’hydrogène via des piles à combustible. Un article des Échos rappelle la problématique.

La pile à combustible va désormais concurrencer les batteries dans les véhicules électriques. Reste à faire baisser les coûts, produire de l’hydrogène propre et mailler le territoire de stations.

Le véhicule électrique à batteries rechargeables pourrait-il être envoyé à la retraite de façon prématurée ? Certes, il s’en est vendu quelque 2,2 millions l’an dernier, mais malgré les énormes investissements des constructeurs, les ventes ne décollent pas vraiment et les batteries sont toujours pointées du doigt : coût environnemental élevé, autonomie trop limitée et temps de recharge trop long. En face, le véhicule fonctionnant avec une pile à combustible alimentée en hydrogène sort à peine des limbes mais présente de sérieux atouts. L’Agence internationale de l’énergie (AIE), longtemps réservée sur l’hydrogène, a publié en juin dernier un rapport qui lui est très favorable, notamment dans le domaine des transports : « Le moment est venu d’exploiter le potentiel de l’hydrogène pour jouer un rôle clef dans un environnement énergétique propre, sûr et sécurisé. »

La Californie vise un million de véhicules électriques à hydrogène à l’horizon 2030. Même objectif pour la Chine, qui possède pourtant la moitié du parc mondial de véhicules électriques mais met désormais le cap sur l’hydrogène. C’est aussi une priorité nationale au Japon et en Corée. Car après une vingtaine d’années pour mettre au point la technologie, les premiers véhicules commerciaux, ceux de Toyota et de Hyundai, ont été lancés en 2014. Aujourd’hui la réglementation s’est adaptée et les arguments écologiques de la pile à combustible font mouche. Elle produit de l’électricité à partir de l’hydrogène embarqué dans un réservoir et de l’oxygène de l’air. Si bien que le véhicule ne produit ni gaz à effet de serre ni particule et ne rejette que de l’eau. En outre, faire un plein d’hydrogène prend 3 minutes au plus.

Encore faut-il avoir une station sous la main. C’est le point crucial. Le Japon et l’Allemagne ont déjà installé plusieurs dizaines de stations, tout comme la Californie et la Chine, qui prévoient d’en avoir un millier à l’horizon 2030. La France est plus timide et ne voit aujourd’hui circuler que 400 véhicules. Lancé par Nicolas Hulot, le plan national de déploiement de l’hydrogène pour la transition écologique privilégie les projets de transports en commun et de flotte captive. A l’image de Versailles, des Hauts-de-France ou de Pau où des bus fonctionnant à hydrogène entrent en service. « L’usage du véhicule hydrogène par les particuliers n’est pas prioritaire à cause du maillage de stations qu’il exige. Mieux vaut se concentrer sur les applications spécifiques comme les flottes, les professionnels ou les bus », justifie Maxime Pasquier, spécialiste du sujet à l’Ademe. Une approche trop timide pour les partisans de l’hydrogène au premier rang desquels l’Association française pour l’hydrogène et les piles à combustible (Afhypac). « L’hydrogène règle le problème de la voiture électrique et des problèmes posés par les batteries. Avec 2 milliards d’euros, soit le tiers du coût d’une ligne TGV, on construit un réseau d’un millier de stations. C’est d’abord un choix politique », s’agace Pierre-Etienne Franc, vice-président hydrogène énergie chez Air Liquide.

 Pas si simple, réplique Maxime Pasquier : « Les énergéticiens ont évidemment intérêt à distribuer de l’hydrogène. Encore faut-il le faire dans de bonnes conditions environnementales. Il faut avoir une vision globale depuis la production de l’énergie primaire jusqu’à la consommation. » En effet l’hydrogène, essentiellement produit à partir de gaz naturel, ne constitue pas encore la panacée écologique. Sans parler du rendement de la pile à combustible qui est inférieur à celui d’une batterie. Conséquence, en intégrant les émissions liées à la production d’hydrogène, une voiture à pile à combustible dégage autant de CO2 qu’une automobile à moteur thermique.

Cependant, les choses pourraient évoluer très vite puisque l’on sait produire un hydrogène « vert », certes plus cher, grâce à l’électrolyse. « Il n’y a pas de verrou technologique et les coûts vont baisser avec le passage à l’échelle industrielle », assure Florence Lambert, directrice du CEA-Liten. D’autant que les scientifiques travaillent déjà sur la technologie suivante, l’électrolyse à haute température. Dans son projet Zero Emission Valley, qui porte sur 20 stations et un millier de véhicules, la région Auvergne-Rhône-Alpes prévoit ainsi de produire l’hydrogène grâce à 15 électrolyseurs répartis sur le territoire.

L’autre atout majeur de la voiture à hydrogène, c’est l’absence de particules. « Cela permet de résoudre immédiatement un gros problème de santé publique dans une ville comme Paris », insiste Mathieu Gardies, cofondateur de Hype. La jeune entreprise, soutenue par Air Liquide et qui a passé un partenariat avec Toyota, possède une flotte de 120 taxis à hydrogène Mirai et devrait en faire rouler 600 dès l’année prochaine . « L’hydrogène, c’est le pétrole de demain sans l’inconvénient de la géopolitique. La France a un véritable savoir-faire industriel avec beaucoup de brevets au CEA mais aussi au CNRS. Il faut y aller car le monde ne va pas attendre », analyse Florence Lambert.

L’hydrogène vert pourrait aussi devenir plus abondant et moins cher de 30 % d’ici à 2030 grâce aux énergies renouvelables, estime l’AIE. « Les prix de l’électricité solaire ou éolienne ont tellement baissé que des pays pourraient en consacrer une partie à produire de l’hydrogène », prédit Paul Lucchese, pionnier du secteur au sein du CEA et président de l’Hydrogen Implementing Agreement (HIA) au sein de l’Agence internationale de l’énergie (AIE) : « Le Japon passe déjà des accords avec la Nouvelle-Zélande, le Chili ou Brunei. »

L’intérêt des pays émergents

Quant à la pile à combustible, elle devrait aussi voir ses coûts baisser, estime Pierre Forté, fondateur de la société Pragma Industries, spécialiste du vélo à hydrogène (voir ci-dessous) : « Le coût d’une batterie est lié pour 70 % au prix de ses matériaux quand celui d’une pile à combustible dépend pour 90 % de son processus de fabrication. Sous réserve qu’une rupture intervienne dans le monde des batteries, je suis donc persuadé que les piles à combustible seront à terme beaucoup moins chères. »

L’avenir de l’hydrogène dans la mobilité dépendra pourtant d’abord des infrastructures. « Je ne crois pas à un développement massif dans le véhicule léger à un horizon visible, en raison des coûts de déploiement pour assurer un réseau dense de stations de recharge. Il faudrait pour cela des volontés politiques coordonnées à un niveau international », estime Patrice Geoffron, professeur au Laboratoire d’économie de Dauphine et spécialiste de l’énergie. On pourrait voir une répartition des rôles : au véhicule à batterie la mobilité urbaine et à celui à hydrogène les trajets longue distance.

A moins que les réseaux électriques finissent par jouer les arbitres. « Dans bien des pays émergents on pousse l’hydrogène en avant car les réseaux électriques ne sont pas suffisamment stables pour assurer la recharge des batteries », observe Fabio Ferrari, président de Symbio, un fabricant de piles à combustible créé à partir de recherches menées aux CEA, filiale de Michelin et dont Faurecia devrait devenir coactionnaire d’ici la fin de l’année. Un problème qui pourrait à long terme s’étendre aux pays européens, estime Paul Lucchese : « C’est un aspect qu’on oublie, mais qu’adviendra-t-il lorsque des millions de véhicules électriques auront besoin d’une recharge rapide ? »

Il fut l’une des vedettes du G7 de Biarritz au mois d’août dernier. Développé et fabriqué parPragma Industries, une jeune entreprise locale, Alpha est le premier vélo fonctionnant grâce à l’hydrogène. Le système est logé dans le cadre. La bonbonne de gaz alimente la pile à combustible qui fournit l’électricité au petit moteur placé au niveau du moyeu, comme sur n’importe quel vélo électrique. Pragma,mis en avant par la région Nouvelle-Aquitaine, a profité de l’événement pour mettre 200 vélos à disposition des participants. Un succès puisqu’ils ont parcouru près de 4.500 kilomètres en quatre jours. Avec une autonomie de 150 kilomètres et bientôt 200 kilomètres pour un prix de 7.000 euros, qui va descendre à 4.000 euros l’an prochain, ils ne sont pas destinés aux particuliers. « Nous ne vendons pas seulement un vélo mais un écosystème complet de mobilité durable », résume Pierre Forté, le fondateur de l’entreprise. Pragma Industries a ainsi déjà vendu une centaine de vélos et des bornes de rechargement à plusieurs municipalités comme Bayonne, Saint-Lô, Cherbourg ou Chambéry. Quant aux 200 vélos présentés à Biarritz, ils ont été acquis par le groupe Engie Cofely. « Grâce au coup de projecteur du G7, nous avons beaucoup de contacts provenant du Kazakhstan, d’Inde, de Chine ou du Mexique, dans lesquels le réseau est insuffisant pour recharger les vélos électriques classiques », assure Pierre Forté.

Énergie–Fusion nucléaire : quel avenir ?

Énergie–Fusion nucléaire : quel avenir ?

Par Greg De Temmerman, Mines ParisTech (*)

Un laboratoire américain vient d’annoncer de nouveaux résultats en fusion nucléaire « inertielle », avec une production d’énergie de 1,3 mégajoule. Que représente cette avancée pour la fusion, cette « éternelle » énergie du futur ?

Entre le mégaprojet ITER, dont la construction avance mais qui a connu des débuts difficiles, les projets lancés par différents pays, les initiatives privées qui se multiplient et qui annoncent des réacteurs de fusion d’ici 10 ou 15 ans, et les résultats obtenus par le Lawrence Livermore National Laboratory le 8 août 2021, il est difficile d’y voir clair. Voici un petit tour d’horizon pour mettre tout ceci en perspective.

Confinement magnétique ou inertiel : deux voies possibles pour la fusion nucléaire

Il existe deux façons d’utiliser l’énergie nucléaire : la fission qui est à l’œuvre dans les centrales nucléaires actuelles, et la fusion.

La réaction de fusion entre le deutérium et le tritium, deux isotopes de l’hydrogène, produit un neutron et un atome d’hélium. Alors que dans la fission, des atomes lourds d’uranium sont cassés en plus petits atomes pour libérer de l’énergie, la fusion nucléaire est le processus opposé : on transforme des atomes légers en des atomes plus lourds pour libérer de l’énergie. Gregory de Temmerman, Fourni par l’auteur

Un réacteur de fusion est un amplificateur de puissance : la réaction de fusion doit produire plus d’énergie qu’il n’en faut pour chauffer le plasma à la température requise et le confiner. Le record actuel a été obtenu en 1997 par le « Joint European Torus » ou JET au Royaume-Uni, où une puissance de 16 mégawatts a été générée par la fusion magnétique, mais il a fallu 23 mégawatts pour la déclencher.

Obtenir enfin un gain supérieur à 1 et démontrer la faisabilité de la production d’énergie par la fusion est un objectif majeur de différents projets en cours.

Il y a deux voies possibles pour réaliser la fusion nucléaire : le confinement magnétique qui utilise des aimants puissants pour confiner le plasma pendant des durées très longues, et le confinement inertiel qui utilise des lasers très puissants mais très brefs pour comprimer le combustible et le faire réagir. Historiquement, la fusion magnétique a été privilégiée, car la technologie nécessaire pour la fusion inertielle (lasers notamment) n’était pas disponible. Cette dernière nécessite également des gains bien plus élevés pour compenser l’énergie consommée par les lasers.

Les deux plus gros projets sont le National Ignition Facility du Lawrence Livermore National Laboratory (NIF) aux USA et le Laser MégaJoule en France, dont les applications sont principalement militaires (simulations d’explosion nucléaires) et financées par les programmes de défense. Le NIF poursuit également des recherches pour l’énergie.

Le NIF utilise 192 faisceaux laser, d’une énergie totale de 1,9 mégajoule et d’une durée de quelques nanosecondes, pour déclencher la réaction de fusion selon une approche dite « indirecte ». En effet, le combustible est placé à l’intérieur d’une capsule métallique de quelques millimètres, qui, chauffée par les lasers, qui émet des rayons X. Ceux-ci chauffent et compriment le combustible. L’alignement des lasers est plus aisé que si ceux-ci visaient directement la cible, mais seule une partie de leur énergie est convertie en rayons X et sert au chauffage.

Le NIF a récemment fait l’objet d’une forte attention médiatique après un record de production d’énergie obtenu le 8 août 2021. Durant cette expérience, une énergie de 1,3 mégajoule a été produite, la valeur la plus élevée jamais enregistrée par cette approche.

Le gain global de 0,7 égale le record obtenu par JET en 1997 par confinement magnétique, mais si on s’intéresse au bilan énergétique du combustible lui-même (cible d’hydrogène), on comprend l’excitation dans le domaine. Celui-ci a en effet absorbé 0,25 mégajoule (la conversion laser-rayons X entraîne des pertes) et généré 1,3 mégajoule : la fusion a donc généré une bonne partie de la chaleur nécessaire à la réaction, s’approchant de l’ignition. Un réacteur devra atteindre des gains bien plus élevés (supérieurs à 100) pour être économiquement intéressant.

Le confinement magnétique est la voie privilégiée pour l’énergie, car il offre de meilleures perspectives de développement et bénéficie d’un retour d’expérience plus important.

La grande majorité des recherches se concentre sur le tokamak, une configuration inventée en URSS dans les années 1960 où le plasma est confiné sous la forme d’un tore par un champ magnétique puissant. C’est la configuration choisie par ITER, réacteur de démonstration en construction à Cadarache dans le sud de la France, dont l’objectif est de démontrer un gain de 10 – le plasma sera chauffé par 50 mégawatts de puissance et doit générer 500 mégawatts de puissance fusion. Si ce projet titanesque impliquant 35 nations a connu des débuts difficiles, la construction avance à rythme soutenu et le premier plasma est attendu officiellement pour fin 2025, avec une démonstration de la fusion prévue vers la fin des années 2030.

Le Royaume-Uni a récemment lancé le projet STEP (Spherical Tokamak for Electricity Production) qui vise à développer un réacteur connecté au réseau dans les années 2040. La Chine poursuit avec CFETR un ambitieux programme visant à démontrer la production électrique et de tritium dans les années 2040. Enfin, l’Europe prévoit après ITER un démonstrateur tokamak (DEMO) pour les années 2050, ce qui implique un déploiement seulement dans la deuxième partie du siècle.

Une autre configuration – le stellarator – est explorée notamment en Allemagne avec Wendelstein-7X qui démontre de très bons résultats. Si le confinement dans un stellarator est en deçà de ce qu’un tokamak peut atteindre, sa stabilité intrinsèque et les résultats récents en font une alternative sérieuse.

 

Les initiatives privées

En parallèle de ces projets publics, on entend de plus en plus parler d’initiatives privées, parfois soutenues par des grands noms comme Jeff Bezos ou Bill Gates. L’entreprise la plus ancienne (TAE) a été fondée en 1998 mais une accélération s’est produite après 2010 et on compte en 2021 environ une trentaine d’initiatives ayant attiré environ 2 milliards de dollars de capitaux au total. La majorité de ces initiatives promettent un réacteur dans les 10 ou 20 prochaines années et se posent comme une alternative à la lenteur de la filière classique.

Illustration du déploiement de la fusion nucléaire selon deux scénarios, plus ou moins rapides. Fourni par l’auteur

Elles utilisent les développements technologiques récents (aimants supraconducteurs à haute température par ex), ou diverses configurations dont certaines n’avaient jamais été vraiment explorées : General Fusion utilise par exemple des pistons pour compresser le combustible. Si les résultats ne sont pas toujours publiés dans la littérature scientifique, on voit régulièrement des annonces démontrant des progrès réels. Si l’une de ces entreprises venait à démontrer la production d’énergie dans les délais promis, cela pourrait fortement accélérer les possibilités d’utiliser la fusion nucléaire.

Il faut cependant garder en tête que le développement d’un premier réacteur est certes extrêmement important, mais que le déploiement d’une flotte de réacteur prendra du temps. Si on regarde les taux de déploiement du photovoltaïque, de l’éolien, et du nucléaire, on constate que dans leur phase de croissance exponentielle le taux de croissance de la puissance installée était entre 20 et 35 % par an. Si on suppose que la fusion parvient à suivre le même rythme, on voit que la fusion, en suivant la ligne ITER-DEMO, pourrait représenter 1 % de la demande énergétique mondiale (valeur 2019) vers 2090. Si on considère un réacteur dans les années 2030, ce seuil pourrait être atteint vers 2060 et la fusion pourrait jouer un rôle plus important dans la deuxième partie du siècle. La fusion reste donc une aventure au long cours.

_____

(*) Par Greg De Temmerman, Chercheur associé à Mines ParisTech-PSL. Directeur général de Zenon Research, Mines ParisTech.

La version originale de cet article a été publiée sur The Conversation.

Énergie–L’hydrogène blanc : quel avenir ?

Énergie–L’hydrogène blanc :  quel avenir ?

il y a en quelque sorte trois couleurs d’hydrogène. Hydrogène grise  provenant des hydrocarbures, l(hydrogène vert produit surtout par l’électrolyse de l’eau avec des énergies non polluantes mais aussi l’hydrogène blanc ou hydrogène naturel. Un article d’H2Mobile fait le point sur la question .

 

Appelé aussi « hydrogène natif » ou « hydrogène naturel », l’hydrogène blanc est en quelque sorte un don de la terre. Trois phénomènes géologiques différents en sont à l’origine. Tout d’abord l’altération hydrothermal de minéraux ferreux via une réaction d’oxydoréduction. Ensuite par radiolyse d’une eau riche en éléments comme l’uranium ou le plutonium. Sous l’effet d’un rayonnement ionisant, les molécules d’eau peuvent se rompre et libérer de l’hydrogène. Dernier des 3 phénomènes, le dégazage mantellique.

« Il y a de l’hydrogène naturel dans l’eau à plusieurs milliers de mètres de profondeur. Mais il y a aussi des sources à plus ou moins 100 mètres, comme celle qui a été découverte au Mali en 1987, lors d’une opération de forage pour trouver de l’eau », a lancé Nicolas Pelissier.

Pour le dirigeant de 45-8 Energy, « il ne faut négliger aucune solution pour obtenir de l’hydrogène décarboné ». Aujourd’hui, 95% de l’hydrogène utilisé est obtenu par vaporeformage. Les process sont industrialisés, le rendement est élevé et cette production apparaît très compétitive. Le reste, c’est-à-dire 5%, provient d’opérations d’électrolyse en privilégiant les énergies renouvelables. Cette pratique permet de s’affranchir des fortes émissions de CO2 de la solution par vaporeformage. Mais le coût est multiplié par 3 et le rendement est faible.

« La production d’hydrogène par électrolyse consomme actuellement environ les 2/3 de l’énergie produite. Produire ainsi l’équivalent de l’hydrogène actuellement consommé en France nécessiterait près de 100 TWh d’électricité. Même avec des avancées technologiques importantes, l’électrolyse seule ne suffira pas », a souligné Nicolas Pelissier.

Parce qu’il est produit naturellement par la planète, l’hydrogène natif ne cause aucune émission de CO2.  L’exploiter est compétitif par rapport au vaporeformage, notamment en co-valorisation.

« L’hydrogène disponible à partir de puits n’est pas pur. Il est mélangé avec d’autres gaz qui sont toujours un peu les mêmes. En particulier l’azote qu’on trouve déjà dans l’atmosphère. Mais aussi l’hélium. Dans ce second cas, les coûts d’exploitation de l’hydrogène natif peuvent être couverts par la production d’hélium dont les usages sont en plein essor  », a expliqué Nicolas Pelissier. « Des membranes sont développées spécifiquement pour séparer les 2 gaz », a-t-il précisé par la suite. Pour ce spécialiste en gaz industriels valorisés en circuit court, l’hydrogène natif doit être consommé localement, les unités de stockage ne prenant alors que la taille de hangars agricoles. Idem pour l’hélium qu’il est difficile de stocker et transporter.

Si l’hydrogène naturel suscite de plus en plus l’intérêt d’industriels (dont Engie, partenaire de 45-8 Energy) et de politiques, c’est en particulier parce que l’on découvre tous les jours de nouvelles sources dans le monde. En juillet 2020, l’ancien sénateur du Rhône, René Trégouët soutenait que « les estimations du flux naturel d’hydrogène sont importantes et pourraient répondre à l’ensemble des besoins en hydrogène du monde ». La filière naissante pour ce produit naturel n’est pourtant pas incluse à ce jour dans la stratégie nationale H2 vers 2030 dotée d’une enveloppe de 7,2 milliards d’euros.

Au niveau mondial, le village malien de Bourakébougou fait un peu figure d’exception. Depuis 30 ans, il crache un gaz qui contient une concentration d’hydrogène proche de 98 %. Le projet pilote qui l’entoure permet d’alimenter tout le village en électricité. Le puits fournit 1.300 m3 de gaz H2 blancs par jour. Sur 800 km², 25 autres installations ont été implantées, présentant les mêmes concentrations. « Pas besoin de matériel dimensionné pour les forages pétroliers. Les puits d’extraction de l’hydrogène naturel sont assimilables à ceux pour l’eau. Leur vanne peut être dissimulée dans un simple buisson », a comparé Nicolas Pelissier.

En France, l’hydrogène naturel est présent sous 3 formes différentes.Tout d’abord dans des puits, sans atteindre les concentrations exceptionnelles du village malien de Bourakébougou. Ainsi à Bugey (concentration de 0,47 à 5,24%), dans le fossé Rhénan (6%), le Jura externe (2,5%) et dans le bassin de Paris (3%). Des fuites ont été constatées dans une faille géologique du Cotentin, dans les Pyrénées, ainsi que dans les fossés Rhénan et Bressan.

L’hydrogène blanc est aussi présent dans de l’eau (mofettes) à Buis-les-Baronnies et à Molières-Glandaz, 2 territoires de la Drôme. Dans les fossé Rhénan et Bressan, l’hydrogène est présent à seulement 1 mètre de profondeur. La présence du gaz peut parfois être détectée par des vues du ciel et autres techniques d’imagerie du sous-sol. Ainsi, au cœur des vignobles de Côte-d’Or, lorsque les ceps poussent difficilement dans des zones plus ou moins grandes en formes de cercles.

L’exploration est une activité essentielle pour 45-8 Energy. Elle permet d’identifier et analyser différents sites de production d’hydrogène naturel. En France, il faut compter entre 18 et 24 mois pour obtenir un permis d’explorer. Contre 15 jours aux Etats-Unis, par exemple. Dans une démarche globale, la société mosellane développe un portfolio des lieux à explorer à l’échelle européenne. Avec l’objectif de mettre en place une première production pilote sur le territoire à horizon 2025. Chaque cas est analysé à travers plusieurs étapes visant à réduire la liste aux sites les plus prometteurs. Comme celui des Fonts-Bouillants, dans la Nièvre. Là, l’hydrogène natif est combiné avec de l’hélium.

« Les fuites existent sur place depuis l’époque gallo-romaine et n’ont pas baissé en intensité depuis. On espère pouvoir exploiter ce site sur plusieurs dizaines d’années », a indiqué Nicolas Pelissier. Des capteurs ont bien confirmé la présence des 2 gaz.

Consciente que l’exploration géologique peut faire peur aux populations qui pourraient à tort l’assimiler à la fracturation hydraulique, l’équipe de 45-8 Energy a pris l’habitude de rencontrer en amont les riverains, les associations environnementales et les collectivités publiques. Et ce, même si une phase de consultation est déjà légalement prévue avant l’attribution du permis d’explorer.

« Il existe en France 51.000 puits à eau. Pour récupérer l’hydrogène et l’hélium dans la Nièvre, il n’est pas besoin de travaux très différents. D’ailleurs nous faisons appel aux mêmes professionnels pour effectuer des puits compacts avec des foreuses géotechniques sur chenillettes », a détaillé Nicolas Pelissier. 45-8 Energy privilégie ainsi la co-valorisation. « Nous espérons nous installer sur des friches industrielles. La production finale serait stockée sur place, dans un hangar agricole. Le coût énergétique, de purification et de compression dépend du mix en présence et de la pression d’origine du gaz. C’est au cas par cas », a-t-il révélé.

Quels volumes d’hydrogène natif dans les sous-sols français, européens et mondiaux ? Il est déjà impossible d’obtenir des chiffres fiables et précis concernant le pétrole enfoui, alors que des prospections existent depuis des dizaines d’années pour lui. Les estimations sont donc plus compliquées encore pour l’H2 naturel qui commence à peine à disposer d’une filière dédiée. Le 26 mars a été officiellement lancée l’initiative EartH2 pour l’hydrogène du sous-sol. Elle permettra de fédérer les acteur académiques et industriels « de manière à faciliter l’émergence de projets collaboratifs et ambitieux ». Mais aussi de promouvoir l’apport du sous-sol en matière d’hydrogène auprès des décideurs régionaux, nationaux et européens.

L’hydrogène blanc : quel avenir ?

L’hydrogène blanc :  quel avenir ?

il y a en quelque sorte trois couleurs d’hydrogène. Hydrogène grise  provenant des hydrocarbures, l(hydrogène vert produit surtout par l’électrolyse de l’eau avec des énergies non polluantes mais aussi l’hydrogène blanc ou hydrogène naturel. Un article d’H2Mobile fait le point sur la question .

 

Appelé aussi « hydrogène natif » ou « hydrogène naturel », l’hydrogène blanc est en quelque sorte un don de la terre. Trois phénomènes géologiques différents en sont à l’origine. Tout d’abord l’altération hydrothermal de minéraux ferreux via une réaction d’oxydoréduction. Ensuite par radiolyse d’une eau riche en éléments comme l’uranium ou le plutonium. Sous l’effet d’un rayonnement ionisant, les molécules d’eau peuvent se rompre et libérer de l’hydrogène. Dernier des 3 phénomènes, le dégazage mantellique.

« Il y a de l’hydrogène naturel dans l’eau à plusieurs milliers de mètres de profondeur. Mais il y a aussi des sources à plus ou moins 100 mètres, comme celle qui a été découverte au Mali en 1987, lors d’une opération de forage pour trouver de l’eau », a lancé Nicolas Pelissier.

Pour le dirigeant de 45-8 Energy, « il ne faut négliger aucune solution pour obtenir de l’hydrogène décarboné ». Aujourd’hui, 95% de l’hydrogène utilisé est obtenu par vaporeformage. Les process sont industrialisés, le rendement est élevé et cette production apparaît très compétitive. Le reste, c’est-à-dire 5%, provient d’opérations d’électrolyse en privilégiant les énergies renouvelables. Cette pratique permet de s’affranchir des fortes émissions de CO2 de la solution par vaporeformage. Mais le coût est multiplié par 3 et le rendement est faible.

« La production d’hydrogène par électrolyse consomme actuellement environ les 2/3 de l’énergie produite. Produire ainsi l’équivalent de l’hydrogène actuellement consommé en France nécessiterait près de 100 TWh d’électricité. Même avec des avancées technologiques importantes, l’électrolyse seule ne suffira pas », a souligné Nicolas Pelissier.

Parce qu’il est produit naturellement par la planète, l’hydrogène natif ne cause aucune émission de CO2.  L’exploiter est compétitif par rapport au vaporeformage, notamment en co-valorisation.

« L’hydrogène disponible à partir de puits n’est pas pur. Il est mélangé avec d’autres gaz qui sont toujours un peu les mêmes. En particulier l’azote qu’on trouve déjà dans l’atmosphère. Mais aussi l’hélium. Dans ce second cas, les coûts d’exploitation de l’hydrogène natif peuvent être couverts par la production d’hélium dont les usages sont en plein essor  », a expliqué Nicolas Pelissier. « Des membranes sont développées spécifiquement pour séparer les 2 gaz », a-t-il précisé par la suite. Pour ce spécialiste en gaz industriels valorisés en circuit court, l’hydrogène natif doit être consommé localement, les unités de stockage ne prenant alors que la taille de hangars agricoles. Idem pour l’hélium qu’il est difficile de stocker et transporter.

Si l’hydrogène naturel suscite de plus en plus l’intérêt d’industriels (dont Engie, partenaire de 45-8 Energy) et de politiques, c’est en particulier parce que l’on découvre tous les jours de nouvelles sources dans le monde. En juillet 2020, l’ancien sénateur du Rhône, René Trégouët soutenait que « les estimations du flux naturel d’hydrogène sont importantes et pourraient répondre à l’ensemble des besoins en hydrogène du monde ». La filière naissante pour ce produit naturel n’est pourtant pas incluse à ce jour dans la stratégie nationale H2 vers 2030 dotée d’une enveloppe de 7,2 milliards d’euros.

Au niveau mondial, le village malien de Bourakébougou fait un peu figure d’exception. Depuis 30 ans, il crache un gaz qui contient une concentration d’hydrogène proche de 98 %. Le projet pilote qui l’entoure permet d’alimenter tout le village en électricité. Le puits fournit 1.300 m3 de gaz H2 blancs par jour. Sur 800 km², 25 autres installations ont été implantées, présentant les mêmes concentrations. « Pas besoin de matériel dimensionné pour les forages pétroliers. Les puits d’extraction de l’hydrogène naturel sont assimilables à ceux pour l’eau. Leur vanne peut être dissimulée dans un simple buisson », a comparé Nicolas Pelissier.

En France, l’hydrogène naturel est présent sous 3 formes différentes.Tout d’abord dans des puits, sans atteindre les concentrations exceptionnelles du village malien de Bourakébougou. Ainsi à Bugey (concentration de 0,47 à 5,24%), dans le fossé Rhénan (6%), le Jura externe (2,5%) et dans le bassin de Paris (3%). Des fuites ont été constatées dans une faille géologique du Cotentin, dans les Pyrénées, ainsi que dans les fossés Rhénan et Bressan.

L’hydrogène blanc est aussi présent dans de l’eau (mofettes) à Buis-les-Baronnies et à Molières-Glandaz, 2 territoires de la Drôme. Dans les fossé Rhénan et Bressan, l’hydrogène est présent à seulement 1 mètre de profondeur. La présence du gaz peut parfois être détectée par des vues du ciel et autres techniques d’imagerie du sous-sol. Ainsi, au cœur des vignobles de Côte-d’Or, lorsque les ceps poussent difficilement dans des zones plus ou moins grandes en formes de cercles.

L’exploration est une activité essentielle pour 45-8 Energy. Elle permet d’identifier et analyser différents sites de production d’hydrogène naturel. En France, il faut compter entre 18 et 24 mois pour obtenir un permis d’explorer. Contre 15 jours aux Etats-Unis, par exemple. Dans une démarche globale, la société mosellane développe un portfolio des lieux à explorer à l’échelle européenne. Avec l’objectif de mettre en place une première production pilote sur le territoire à horizon 2025. Chaque cas est analysé à travers plusieurs étapes visant à réduire la liste aux sites les plus prometteurs. Comme celui des Fonts-Bouillants, dans la Nièvre. Là, l’hydrogène natif est combiné avec de l’hélium.

« Les fuites existent sur place depuis l’époque gallo-romaine et n’ont pas baissé en intensité depuis. On espère pouvoir exploiter ce site sur plusieurs dizaines d’années », a indiqué Nicolas Pelissier. Des capteurs ont bien confirmé la présence des 2 gaz.

Consciente que l’exploration géologique peut faire peur aux populations qui pourraient à tort l’assimiler à la fracturation hydraulique, l’équipe de 45-8 Energy a pris l’habitude de rencontrer en amont les riverains, les associations environnementales et les collectivités publiques. Et ce, même si une phase de consultation est déjà légalement prévue avant l’attribution du permis d’explorer.

« Il existe en France 51.000 puits à eau. Pour récupérer l’hydrogène et l’hélium dans la Nièvre, il n’est pas besoin de travaux très différents. D’ailleurs nous faisons appel aux mêmes professionnels pour effectuer des puits compacts avec des foreuses géotechniques sur chenillettes », a détaillé Nicolas Pelissier. 45-8 Energy privilégie ainsi la co-valorisation. « Nous espérons nous installer sur des friches industrielles. La production finale serait stockée sur place, dans un hangar agricole. Le coût énergétique, de purification et de compression dépend du mix en présence et de la pression d’origine du gaz. C’est au cas par cas », a-t-il révélé.

Quels volumes d’hydrogène natif dans les sous-sols français, européens et mondiaux ? Il est déjà impossible d’obtenir des chiffres fiables et précis concernant le pétrole enfoui, alors que des prospections existent depuis des dizaines d’années pour lui. Les estimations sont donc plus compliquées encore pour l’H2 naturel qui commence à peine à disposer d’une filière dédiée. Le 26 mars a été officiellement lancée l’initiative EartH2 pour l’hydrogène du sous-sol. Elle permettra de fédérer les acteur académiques et industriels « de manière à faciliter l’émergence de projets collaboratifs et ambitieux ». Mais aussi de promouvoir l’apport du sous-sol en matière d’hydrogène auprès des décideurs régionaux, nationaux et européens.

Fusion nucléaire : quel avenir ?

Fusion nucléaire : quel avenir ?

Par Greg De Temmerman, Mines ParisTech (*)

Un laboratoire américain vient d’annoncer de nouveaux résultats en fusion nucléaire « inertielle », avec une production d’énergie de 1,3 mégajoule. Que représente cette avancée pour la fusion, cette « éternelle » énergie du futur ?

Entre le mégaprojet ITER, dont la construction avance mais qui a connu des débuts difficiles, les projets lancés par différents pays, les initiatives privées qui se multiplient et qui annoncent des réacteurs de fusion d’ici 10 ou 15 ans, et les résultats obtenus par le Lawrence Livermore National Laboratory le 8 août 2021, il est difficile d’y voir clair. Voici un petit tour d’horizon pour mettre tout ceci en perspective.

Confinement magnétique ou inertiel : deux voies possibles pour la fusion nucléaire

Il existe deux façons d’utiliser l’énergie nucléaire : la fission qui est à l’œuvre dans les centrales nucléaires actuelles, et la fusion.

La réaction de fusion entre le deutérium et le tritium, deux isotopes de l’hydrogène, produit un neutron et un atome d’hélium. Alors que dans la fission, des atomes lourds d’uranium sont cassés en plus petits atomes pour libérer de l’énergie, la fusion nucléaire est le processus opposé : on transforme des atomes légers en des atomes plus lourds pour libérer de l’énergie. Gregory de Temmerman, Fourni par l’auteur

Un réacteur de fusion est un amplificateur de puissance : la réaction de fusion doit produire plus d’énergie qu’il n’en faut pour chauffer le plasma à la température requise et le confiner. Le record actuel a été obtenu en 1997 par le « Joint European Torus » ou JET au Royaume-Uni, où une puissance de 16 mégawatts a été générée par la fusion magnétique, mais il a fallu 23 mégawatts pour la déclencher.

Obtenir enfin un gain supérieur à 1 et démontrer la faisabilité de la production d’énergie par la fusion est un objectif majeur de différents projets en cours.

Il y a deux voies possibles pour réaliser la fusion nucléaire : le confinement magnétique qui utilise des aimants puissants pour confiner le plasma pendant des durées très longues, et le confinement inertiel qui utilise des lasers très puissants mais très brefs pour comprimer le combustible et le faire réagir. Historiquement, la fusion magnétique a été privilégiée, car la technologie nécessaire pour la fusion inertielle (lasers notamment) n’était pas disponible. Cette dernière nécessite également des gains bien plus élevés pour compenser l’énergie consommée par les lasers.

Les deux plus gros projets sont le National Ignition Facility du Lawrence Livermore National Laboratory (NIF) aux USA et le Laser MégaJoule en France, dont les applications sont principalement militaires (simulations d’explosion nucléaires) et financées par les programmes de défense. Le NIF poursuit également des recherches pour l’énergie.

Le NIF utilise 192 faisceaux laser, d’une énergie totale de 1,9 mégajoule et d’une durée de quelques nanosecondes, pour déclencher la réaction de fusion selon une approche dite « indirecte ». En effet, le combustible est placé à l’intérieur d’une capsule métallique de quelques millimètres, qui, chauffée par les lasers, qui émet des rayons X. Ceux-ci chauffent et compriment le combustible. L’alignement des lasers est plus aisé que si ceux-ci visaient directement la cible, mais seule une partie de leur énergie est convertie en rayons X et sert au chauffage.

Le NIF a récemment fait l’objet d’une forte attention médiatique après un record de production d’énergie obtenu le 8 août 2021. Durant cette expérience, une énergie de 1,3 mégajoule a été produite, la valeur la plus élevée jamais enregistrée par cette approche.

Le gain global de 0,7 égale le record obtenu par JET en 1997 par confinement magnétique, mais si on s’intéresse au bilan énergétique du combustible lui-même (cible d’hydrogène), on comprend l’excitation dans le domaine. Celui-ci a en effet absorbé 0,25 mégajoule (la conversion laser-rayons X entraîne des pertes) et généré 1,3 mégajoule : la fusion a donc généré une bonne partie de la chaleur nécessaire à la réaction, s’approchant de l’ignition. Un réacteur devra atteindre des gains bien plus élevés (supérieurs à 100) pour être économiquement intéressant.

Le confinement magnétique est la voie privilégiée pour l’énergie, car il offre de meilleures perspectives de développement et bénéficie d’un retour d’expérience plus important.

La grande majorité des recherches se concentre sur le tokamak, une configuration inventée en URSS dans les années 1960 où le plasma est confiné sous la forme d’un tore par un champ magnétique puissant. C’est la configuration choisie par ITER, réacteur de démonstration en construction à Cadarache dans le sud de la France, dont l’objectif est de démontrer un gain de 10 – le plasma sera chauffé par 50 mégawatts de puissance et doit générer 500 mégawatts de puissance fusion. Si ce projet titanesque impliquant 35 nations a connu des débuts difficiles, la construction avance à rythme soutenu et le premier plasma est attendu officiellement pour fin 2025, avec une démonstration de la fusion prévue vers la fin des années 2030.

Le Royaume-Uni a récemment lancé le projet STEP (Spherical Tokamak for Electricity Production) qui vise à développer un réacteur connecté au réseau dans les années 2040. La Chine poursuit avec CFETR un ambitieux programme visant à démontrer la production électrique et de tritium dans les années 2040. Enfin, l’Europe prévoit après ITER un démonstrateur tokamak (DEMO) pour les années 2050, ce qui implique un déploiement seulement dans la deuxième partie du siècle.

Une autre configuration – le stellarator – est explorée notamment en Allemagne avec Wendelstein-7X qui démontre de très bons résultats. Si le confinement dans un stellarator est en deçà de ce qu’un tokamak peut atteindre, sa stabilité intrinsèque et les résultats récents en font une alternative sérieuse.

 

Les initiatives privées

En parallèle de ces projets publics, on entend de plus en plus parler d’initiatives privées, parfois soutenues par des grands noms comme Jeff Bezos ou Bill Gates. L’entreprise la plus ancienne (TAE) a été fondée en 1998 mais une accélération s’est produite après 2010 et on compte en 2021 environ une trentaine d’initiatives ayant attiré environ 2 milliards de dollars de capitaux au total. La majorité de ces initiatives promettent un réacteur dans les 10 ou 20 prochaines années et se posent comme une alternative à la lenteur de la filière classique.

Illustration du déploiement de la fusion nucléaire selon deux scénarios, plus ou moins rapides. Fourni par l’auteur

Elles utilisent les développements technologiques récents (aimants supraconducteurs à haute température par ex), ou diverses configurations dont certaines n’avaient jamais été vraiment explorées : General Fusion utilise par exemple des pistons pour compresser le combustible. Si les résultats ne sont pas toujours publiés dans la littérature scientifique, on voit régulièrement des annonces démontrant des progrès réels. Si l’une de ces entreprises venait à démontrer la production d’énergie dans les délais promis, cela pourrait fortement accélérer les possibilités d’utiliser la fusion nucléaire.

Il faut cependant garder en tête que le développement d’un premier réacteur est certes extrêmement important, mais que le déploiement d’une flotte de réacteur prendra du temps. Si on regarde les taux de déploiement du photovoltaïque, de l’éolien, et du nucléaire, on constate que dans leur phase de croissance exponentielle le taux de croissance de la puissance installée était entre 20 et 35 % par an. Si on suppose que la fusion parvient à suivre le même rythme, on voit que la fusion, en suivant la ligne ITER-DEMO, pourrait représenter 1 % de la demande énergétique mondiale (valeur 2019) vers 2090. Si on considère un réacteur dans les années 2030, ce seuil pourrait être atteint vers 2060 et la fusion pourrait jouer un rôle plus important dans la deuxième partie du siècle. La fusion reste donc une aventure au long cours.

_____

(*) Par Greg De Temmerman, Chercheur associé à Mines ParisTech-PSL. Directeur général de Zenon Research, Mines ParisTech.

La version originale de cet article a été publiée sur The Conversation.

Nucléaire : quel avenir pour des centrales au thorium

Nucléaire : quel avenir pour des centrales au thorium

 

Un article du site Sciences et Avenir évoque les perspectives d’avenir pour les centrales nucléaires au thorium ; une solution possible mais pas miraculeuse. (Extrait)

 

« Le thorium est trois à quatre fois plus abondant dans la croûte terrestre que l’uranium, et notamment chez les pays qui sont susceptibles de construire des réacteurs dans le futur, comme l’Inde, le Brésil et la Turquie », explique Martha Crawford-Heitzmann, directrice de la recherche, du développement et de l’innovation du géant français du nucléaire Areva.

« En cas de construction de nouveaux réacteurs, ces pays pourraient nous demander des solutions au thorium », ajoute-t-elle.

Areva a signé avec le belge Solvay, en décembre, un accord incluant un programme de recherche et de développement pour étudier l’exploitation de ce minerai comme combustible potentiel de centrales nucléaires.

Des réacteurs expérimentaux au thorium avaient été construits dès le milieu des années 1950, mais les recherches mises entre parenthèses au profit de l’uranium.

« Elles étaient motivées par la crainte d’une pénurie d’uranium. Puis elles ont ralenti, notamment en France où l’on a pu fermer le cycle de l’uranium en mettant en place un système de recyclage du combustible usé », selon Mme Crawford-Heitzmann.

Si les recherches reprennent aujourd’hui, c’est parce que l’abondance de la ressource profiterait à certains pays, comme l’Inde qui, avec environ un tiers des réserves mondiales, s’est clairement engagée dans la voie du thorium dans le cadre de son ambitieux programme de développement nucléaire civil.

En revanche, pas de bouleversement en vue dans une France très nucléarisée. « De nombreux pays ont investi des milliards et des milliards d’euros dans des infrastructures industrielles qui dépendent de l’uranium. Ils cherchent à les amortir et n’ont pas envie de les remplacer », souligne Mme Crawford-Heitzmann.

Les avantages ne sont pas suffisamment décisifs pour sauter le pas. « L’intérêt du thorium ne prend tout son sens que dans des réacteurs très innovants, comme ceux à sels fondus, qui sont encore à l’étude papier », selon le chargé de mission CNRS Sylvain David, qui travaille sur un tel projet à l’Institut de physique nucléaire d’Orsay.

Evolution plutôt que révolution

Principal inconvénient du thorium: il n’est pas naturellement fissile, contrairement à l’uranium 235 utilisé dans les réacteurs actuels. Ce n’est qu’après absorption d’un neutron qu’il produit une matière fissile, l’uranium 233, nécessaire pour déclencher la réaction en chaîne dans le réacteur. Pour amorcer un cycle thorium, il faut donc de l’uranium ou du plutonium (issu de l’activité des centrales).

« Sans compter qu’il faudra plusieurs dizaines d’années pour accumuler suffisamment de matière fissile pour pouvoir démarrer un cycle », souligne le Commissariat à l’énergie atomique (CEA).

Les risques ne sont pas non plus nuls. Certes, les combustibles au thorium fondent à une température plus élevée, retardant le risque de fusion du coeur du réacteur en cas d’accident. « Mais on ne peut pas dire que c’est le cycle magique où il n’y a plus de déchets, plus de risques, plus Fukushima », insiste M. David.

L’uranium 233 est fortement irradiant, ce qui nécessiterait « des usines beaucoup plus compliquées, avec des blindages pour respecter les règles de radioprotection », selon le CEA.

Quant à dire que les déchets sont moins radioactifs, « ce n’est pas exact: la radioactivité est plus faible à certaines périodes, et plus forte à d’autres. Il n’y a pas un avantage absolument décisif à cet égard ».

Résultat: la production industrielle d’énergie grâce au thorium n’est pas pour demain.

« Je ne pense pas qu’on aura des réacteurs avant 20 ou 30 ans. Et cela se fera progressivement, en complément au cycle fermé », prédit Martha Crawford-Heitzmann. D’autant plus qu’avec le cycle fermé uranium-plutonium, « la ressource nucléaire est assurée pour des siècles ».

Dans cette optique, le CEA développe un prototype de réacteur à neutrons rapides refroidis au sodium, baptisé « Astrid », qui grâce à l’uranium 238 permet d’utiliser plusieurs fois le plutonium et même d’en produire plus qu’il n’en consomme par « surgénération ».

Or, l’uranium 238 représente 99,3% du minerai d’uranium et « de grandes quantités ont déjà été extraites des mines, dont on ne sait pas quoi faire », souligne M. David.

Quel financement du plan européen de relance

  • Quel financement du plan européen de relance
  • «Les recettes générées par l’accord sur la fiscalité internationale pourraient en partie irriguer le budget européen» selon Eulalia Rubio, chercheuse ( L’Opinion, extrait)
  • Comment comprendre la décision de la Commission de reporter à octobre les propositions pour créer de nouvelles ressources propres ?
  • La conjoncture politique a évolué depuis l’accord interinstitutionnel sur la création de nouvelles ressources propres, trouvé en décembre 2020. Le projet de taxe numérique a été remis à plus tard dans le contexte des négociations à l’OCDE sur la fiscalité internationale, sous la pression des Etats-Unis qui craignaient que ce projet dissuade le Congrès d’adopter l’accord, espéré en octobre. La Commission a donc fait le choix de le laisser de côté, ce qui paraît logique politiquement, vu l’importance de garantir l’adoption de l’accord global – essentiel pour mettre un frein à la course au moins-disant fiscal – et vu la faiblesse du mécanisme qu’elle s’apprêtait à proposer, qui n’aurait pas rapporté beaucoup au budget européen.
  • En quoi consistait ce mécanisme ?
  • Selon la dernière fuite en date, la Commission planchait sur une taxe de 0,3 % sur les bénéfices des entreprises du secteur du numérique avec un chiffre d’affaires de plus de 50 millions d’euros, ce qui aurait rapporté moins de 2 milliards d’euros par an, bien loin de l’ambition de sa première proposition.
  • Quelles étaient les autres propositions potentielles de ressources propres ?
  • Le mécanisme d’ajustement carbone aux frontières qui a, lui aussi, subi des perturbations, entre la nécessité de sa compatibilité avec les règles de l’Organisation mondiale du commerce (OMC), la question des quotas gratuits pour l’industrie et les réticences internationales. La Commission n’envisage sa mise en place qu’en 2026 pour des recettes qui devraient être modestes. Enfin, la réforme du marché carbone (ETS) proposée ce mois-ci, avec notamment son extension au transport routier et au bâtiment, pourrait rapporter beaucoup, mais elle est controversée politiquement et une partie des recettes additionnelles sera utilisée comme compensation pour les ménages les plus vulnérables via un nouveau fonds social pour le climat. Tout cela mis bout à bout montre pourquoi la Commission, qui doit trouver 15 milliards par an à partir de 2028 pour rembourser la dette Covid, a préféré remettre à plus tard sa proposition.
  • « Si l’accord sur la taxation minimale à 15 % des multinationales est validé, les Etats européens mettront la main sur environ 50 milliards de recettes supplémentaires par an, ce qui est considérable »
  • Est-ce à dire que la promesse de nouvelles ressources propres pour rembourser l’emprunt lié au fonds de relance ne sera pas tenue ?
  • Pour l’instant, 2028 paraît bien loin pour les responsables politiques. Mais plus on s’en approchera, plus les Etats membres vont commencer à réfléchir autrement, en voyant les estimations d’augmentation de leurs contributions nationales, faute de nouvelles ressources propres. Pour l’heure, on ne peut nier qu’il reste beaucoup d’obstacles, mais il faut aussi noter que la Commission a raison de se concentrer sur la grande bataille de la fiscalité internationale. Si l’accord sur la taxation minimale à 15 % des multinationales est validé, les Etats européens mettront la main sur environ 50 milliards de recettes supplémentaires par an, ce qui est considérable. De là à penser qu’une partie de ces dernières pourrait irriguer le budget européen, il n’y a qu’un pas, que la Commission a déjà préparé en planifiant pour 2023 une proposition sur un cadre commun européen pour la fiscalité des entreprises qui s’annonce ambitieuse. Mais, avant, la Commission doit convaincre l’Irlande, la Hongrie et l’Estonie, qui font partie des neuf pays récalcitrants, de s’engager dans l’accord à l’OCDE. C’est d’autant plus important qu’une fois l’accord trouvé, il faudra l’unanimité au niveau européen pour le mettre en œuvre.
  • Le Parlement européen est-il fondé à contester devant la Cour de justice le report de la proposition de nouvelles ressources propres ?
  • Juridiquement sans doute, car la feuille de route fait partie de l’accord interinstitutionnel sur le budget, un texte juridiquement contraignant. Politiquement par contre, j’ai des doutes. A mon sens, il ne faut pas faire de la feuille de route un totem, mais plutôt voir comment atteindre son objectif final : avoir des ressources propres supplémentaires en 2028 afin de rembourser la dette européenne. De ce point de vue, la Commission a raison de se concentrer sur l’accord à l’OCDE, sur lequel on pourrait éventuellement bâtir une nouvelle ressource propre. Cela n’implique pas abandonner la proposition de taxe digitale, mais il me paraît politiquement plus judicieux de l’utiliser comme une menace pour favoriser l’accord plutôt que de la mettre en place préventivement comme le voudrait le Parlement.

Énergie-Hydrogène : quel avenir ?

  • Énergie-Hydrogène : quel avenir ?
    • par Frédéric Gonand professeur d’économie à l’Université Paris Dauphine-PSL dans l’Opinion. 
    • L’hydrogène comme source d’énergie : l’hypothèse est relancée et prend beaucoup d’ampleur. Les attraits de la solution ne manquent pas. La combustion de l’hydrogène n’émet pas de CO2 ni de particules fines. L’hydrogène favorise le développement des sources intermittentes d’énergie électrique (éolien, photovoltaïque) grâce au stockage de leur pic de production d’électricité transformé en gaz par électrolyse de l’eau. Il peut être transporté par les gazoducs déjà existant et qui ont actuellement besoin d’être remplis. Il peut contribuer à renforcer la sécurité énergétique.
    • Dans le secteur de l’énergie, l’hydrogène produit par électrolyse à partir d’eau et d’électricité peut être combiné avec du CO2 pour produire du méthane de synthèse utilisable notamment dans la chimie. C’est le power-to-gas. Toutefois, ces transformations en série butent sur des problèmes physiques qui dégradent l’intérêt économique de l’activité. La transformation d’électricité en hydrogène consomme environ 30 % de l’énergie initiale, et celle en méthane de synthèse n’a un rendement que de 60 % au mieux. Ces pertes liées à la conversion contribuent à des coûts de production élevés de la filière : le coût complet de production d’hydrogène d’origine renouvelable est le triple, voir le quadruple, de celui du gaz naturel.
    • Coût d’investissement. Même si la tendance est à la baisse, l’écart est très important. L’hydrogène est aussi plus coûteux à liquéfier que le gaz naturel, donc plus coûteux à transporter sur longue distance. Au total, les coûts d’investissement élevés du power-to-gas ne peuvent être amortis qu’à condition de fonctionner au moins 50 % du temps – or de tels besoins de modulation ne devraient apparaître que vers 2035. Le modèle d’affaire ne deviendrait soutenable qu’en cas de décarbonation totale du secteur de l’énergie, et/ou à partir d’une taxe carbone supérieure à 300 euros/tCO2.
    • A moins long terme, la demande d’hydrogène pourrait décoller dans la sidérurgie. La production d’une tonne d’acier émet environ 1,5 tonne de CO2. La sidérurgie fabrique de la fonte en réduisant les oxydes de fer grâce à la combustion du coke : elle est responsable aujourd’hui de 7 % des émissions mondiales de CO2. La R&D du secteur développe de nouveaux hauts fourneaux électriques à gaz naturel qui réduisent de plus de moitié les émissions de CO2, et même des hauts fourneaux à hydrogène qui suppriment pratiquement toutes les émissions.
    • Le tournant est amorcé : Thyssenkrupp Steel Europe envisage, dans le cadre de sa stratégie tkH2steel, une conversion d’environ un tiers de sa capacité de production totale. A long terme, il pourrait être possible de produire tout l’acier primaire avec de l’hydrogène. De grandes quantités d’électricité à faible teneur en carbone seraient alors nécessaires (environ 2 500 TWh/an, soit 10 % de la production mondiale d’électricité), si possible à bas prix. Au final, les transformations de la production d’acier pourraient faire naître d’ici dix ans une demande structurelle importante pour l’hydrogène et l’électricité… et rentabiliseraient alors le power-to-gas.
    • Frédéric Gonand est professeur d’économie à l’Université Paris Dauphine-PSL.

Hydrogène : quel avenir ?

  • Hydrogène : quel avenir ?
    • par Frédéric Gonand professeur d’économie à l’Université Paris Dauphine-PSL dans l’Opinion. 
    • L’hydrogène comme source d’énergie : l’hypothèse est relancée et prend beaucoup d’ampleur. Les attraits de la solution ne manquent pas. La combustion de l’hydrogène n’émet pas de CO2 ni de particules fines. L’hydrogène favorise le développement des sources intermittentes d’énergie électrique (éolien, photovoltaïque) grâce au stockage de leur pic de production d’électricité transformé en gaz par électrolyse de l’eau. Il peut être transporté par les gazoducs déjà existant et qui ont actuellement besoin d’être remplis. Il peut contribuer à renforcer la sécurité énergétique.
    • Dans le secteur de l’énergie, l’hydrogène produit par électrolyse à partir d’eau et d’électricité peut être combiné avec du CO2 pour produire du méthane de synthèse utilisable notamment dans la chimie. C’est le power-to-gas. Toutefois, ces transformations en série butent sur des problèmes physiques qui dégradent l’intérêt économique de l’activité. La transformation d’électricité en hydrogène consomme environ 30 % de l’énergie initiale, et celle en méthane de synthèse n’a un rendement que de 60 % au mieux. Ces pertes liées à la conversion contribuent à des coûts de production élevés de la filière : le coût complet de production d’hydrogène d’origine renouvelable est le triple, voir le quadruple, de celui du gaz naturel.
    • Coût d’investissement. Même si la tendance est à la baisse, l’écart est très important. L’hydrogène est aussi plus coûteux à liquéfier que le gaz naturel, donc plus coûteux à transporter sur longue distance. Au total, les coûts d’investissement élevés du power-to-gas ne peuvent être amortis qu’à condition de fonctionner au moins 50 % du temps – or de tels besoins de modulation ne devraient apparaître que vers 2035. Le modèle d’affaire ne deviendrait soutenable qu’en cas de décarbonation totale du secteur de l’énergie, et/ou à partir d’une taxe carbone supérieure à 300 euros/tCO2.
    • A moins long terme, la demande d’hydrogène pourrait décoller dans la sidérurgie. La production d’une tonne d’acier émet environ 1,5 tonne de CO2. La sidérurgie fabrique de la fonte en réduisant les oxydes de fer grâce à la combustion du coke : elle est responsable aujourd’hui de 7 % des émissions mondiales de CO2. La R&D du secteur développe de nouveaux hauts fourneaux électriques à gaz naturel qui réduisent de plus de moitié les émissions de CO2, et même des hauts fourneaux à hydrogène qui suppriment pratiquement toutes les émissions.
    • Le tournant est amorcé : Thyssenkrupp Steel Europe envisage, dans le cadre de sa stratégie tkH2steel, une conversion d’environ un tiers de sa capacité de production totale. A long terme, il pourrait être possible de produire tout l’acier primaire avec de l’hydrogène. De grandes quantités d’électricité à faible teneur en carbone seraient alors nécessaires (environ 2 500 TWh/an, soit 10 % de la production mondiale d’électricité), si possible à bas prix. Au final, les transformations de la production d’acier pourraient faire naître d’ici dix ans une demande structurelle importante pour l’hydrogène et l’électricité… et rentabiliseraient alors le power-to-gas.
    • Frédéric Gonand est professeur d’économie à l’Université Paris Dauphine-PSL.

Conseil d’Etat: Quel avenir ?

Conseil d’Etat: Quel avenir ? 

 

La dualité des ordres de juridiction – justice judiciaire et justice administrative – est de fait caduque. Tout en appelant à les fusionner, l’ex-magistrat Philippe Mettoux insiste sur le rôle et le savoir spécifiques que doit conserver cette institution créée par Napoléon.

 

Tribune.

 

Deux éminents professeurs de droit Martin Collet et Camille Broyelle s’inquiètent, dans une tribune au Monde, La critique du Conseil d’Etat « vise à détruire l’institution sans jamais poser la véritable question : et le coup d’après, quel est-il ? », publiée le 13 avril 2021, que « des discours antiélite et antisystème ambiants », qui peuvent notamment s’exprimer en soutien à la réforme de l’Ecole nationale d’administration (ENA), ne sapent le crédit et détruisent insidieusement cette institution remarquable, imaginée par Napoléon, il y a plus de deux cents ans, qu’est le Conseil d’Etat.

Dans leur « scénario catastrophe », les deux universitaires imaginent « la suppression du Conseil d’Etat et l’attribution de ses compétences au juge judiciaire »« la dévolution de ses missions de conseil juridique à des cabinets d’avocats ou d’audit » et se révèlent des avocats zélés d’un dualisme juridictionnel qui n’a plus guère de sens, ni même de réalité.


Au moment même où la haute juridiction prend un ascendant juridictionnel important et assume un rôle de régulateur social évident (la dernière illustration étant la suspension des règles de calcul du montant de l’allocation-chômage), n’est-ce pas un leurre en effet de considérer que droit public et droit privé sont les deux piliers intangibles du système juridique français ?

L’apparente clarté de cette affirmation n’est-elle pas qu’un « faux-semblant » ou un « mirage », selon les propres termes d’un autre professeur de droit de grand renom, Roland Drago ? Nous vivons en réalité, non pas sous l’empire du principe de dualité des ordres de juridiction (justice judiciaire et justice administrative, la première sous l’autorité de la Cour de cassation et la seconde sous celle du Conseil d’Etat), mais déjà sous celui d’un unique ordre de juridictions, répété deux fois, dupliqué, redondant.

Sans méconnaître la puissance de l’enracinement de la séparation du public et du privé dans l’imaginaire juridique français, reconnaissons que la distinction se meurt, voire qu’elle est morte… Certes, tel un beau jardin à la française, notre système juridique s’est organisé en constituant des ensembles spécifiques et autonomes de règles, mais la réalité d’un dualisme juridique entre droit public et droit privé est vite devenue trompeuse.

 

Plus encore, la multiplicité des hypothèses dans lesquelles le juge judiciaire applique le droit administratif, voire – plus rarement – l’inverse, a achevé la confusion. Le droit administratif est à l’évidence un « droit spécial », mais le monopole de son application par le juge administratif a été depuis longtemps aboli. Tantôt appliquée par le juge administratif, tantôt appliquée par le juge judiciaire, cette dualité de la justice administrative révèle, par là même, la faiblesse de la dualité des ordres juridictionnels et la contredit même.

Quel front républicain ?

Quel front républicain ?

 

L’historien Gilles Candar retrace, dans une tribune au « Monde », l’histoire de la « défense républicaine » depuis ses origines, en 1885, et suggère de s’inspirer aujourd’hui de cette tradition en assumant les clivages existants, avec « clarté et simplicité ».

 

 Tribune

Les origines du « front républicain », lointaines, remontent au moins à 1885. La République semble alors solidement installée, détenant tous les pouvoirs institutionnels et étayée par de grandes lois fondatrices dans tous les domaines (liberté de la presse, de réunion, d’association syndicale, lois scolaires, autorisation du divorce…) après avoir triomphé aux élections en 1881. 

La crise politique, sociale et morale des années 1880 (difficultés économiques, chômage et misère, phylloxéra, scandales, etc.), l’union des oppositions de droite (royalistes et bonapartistes) provoquent la surprise du 4 octobre 1885. Au premier tour des élections législatives passent 176 conservateurs contre 127 républicains seulement. Il faut réagir dans l’urgence, et pour le second tour, deux semaines plus tard, les républicains de toutes les nuances s’unissent dans la plupart des départements.

Dans celui de la Seine, une même liste regroupe des républicains modérés et libéraux, des radicaux et des socialistes révolutionnaires, comme l’ancien communard Camélinat et le syndicaliste des ouvriers de la mine Basly. Nous ne sommes pourtant que quelques années après la Commune : beaucoup de sang a coulé, et il en coulera encore un peu entre ces hommes. Radicaux et modérés viennent de s’affronter durement (Ferry contre Clemenceau, à propos de la politique coloniale et sur à peu près tous les sujets). Ils ne concluent aucun accord de gouvernement, mais s’entendent simplement sur la répartition éventuelle des futurs sièges de députés chargés d’élaborer la loi, y compris par de franches et rudes confrontations, mais entre républicains !

La défense de la République est alors prioritaire. La méthode se révèle efficace : au second tour, selon les décomptes de l’historien Jean-Marie Mayeur, la droite fait encore élire 25 députés, mais les républicains conservent une majorité, certes très composite, avec plus de 380 sièges au total.

Ce succès instaure la tradition de la discipline républicaine avec des formes qui s’adaptent aux circonstances : désistements, parfois partage des circonscriptions, fusion des listes dans les cas où le mode de scrutin le permet.

Des exceptions sont nombreuses, dénoncées comme telles, parfois en vain, et l’argument est répété dans bien des occasions. Pour l’essentiel, l’union des républicains est invoquée et, de fait, sert avec succès contre les boulangistes en 1889, contre les nationalistes et antidreyfusards au temps de la « défense républicaine » de Waldeck-Rousseau (1899-1902), contre une droite jugée trop complaisante envers les Ligues au moment du Front populaire (1935-1938).

 

 

Finances-Bitcoin et cryptomonnaies : quel avenir

Finances-Bitcoin et cryptomonnaies : quel avenir

Un article dePaul Vigna Dans le Wall Street Journal qui s’interrogent sur l’avenir du bitcoins et plus généralement des cryptomonnaies (Extrait)

Pour beaucoup d’investisseurs, en annonçant sur le réseau social à l’oiseau que Tesla n’accepterait plus le bitcoin pour le paiement de ses voitures électriques, le milliardaire a provoqué la plus forte baisse subie cette année par la cryptomonnaie. Début juin, Elon Musk en a remis une couche en publiant un tweet dans lequel figuraient un mème évoquant une rupture amoureuse, #bitcoin et un émoji « cœur brisé ». Le bitcoin a perdu 30 % depuis le tweet du 12 mai.

Dimanche, Elon Musk a déclaré que Tesla accepterait les paiements en bitcoin quand le data mining se mettrait davantage aux énergies renouvelables.

Lundi, la cryptomonnaie s’est adjugé quelque 8 % par rapport à son cours de vendredi, à environ 39 816 dollars. Le milliardaire a également indiqué que Tesla n’avait cédé qu’environ 10 % de son stock de bitcoins en fin de premier trimestre et que l’objectif était de prouver que la cryptomonnaie « pouvait être liquidée facilement, sans perturber le marché ».

Fin mars, le constructeur automobile détenait l’équivalent de 1,3 milliard de dollars en bitcoins ; les achats annoncés en février avaient pour but « de diversifier et optimiser le rendement de la trésorerie », a-t-il précisé.

Rares sont les entreprises qui se ruent sur le bitcoin. D’après un sondage réalisé en février dernier par le cabinet Gartner, seuls 5 % des directeurs financiers interrogés prévoyaient d’acheter du bitcoin pour leur entreprise cette année

Le spécialiste des logiciels MicroStrategy et une poignée d’autres sociétés, dont le fournisseur d’applications de paiement Square, ont réalisé des investissements similaires. Certains affirment qu’ils ont choisi le bitcoin comme réserve de valeur, dépeignant la cryptomonnaie en version moderne de l’or.

Mais détenir du bitcoin peut constituer un risque comptable : la cryptomonnaie et les autres actifs numériques sont considérés comme des « actifs incorporels à durée de vie indéfinie », et non comme des devises. Si leur valeur passe en dessous du prix d’achat, même de façon temporaire, l’entreprise doit passer une dépréciation.

Il faut aussi réaliser un test de dépréciation au moins une fois par an (ou dès que le cours passe en dessous de la valeur comptable). Le bitcoin était du genre volatil, les revalorisations trimestrielles sont devenues la règle. Une fois la charge comptable passée, la juste valeur de l’actif est ajustée. En revanche, si le cours monte, l’entreprise ne peut pas enregistrer de gain, elle doit pour cela attendre de céder l’actif.

Tesla, qui n’a pas répondu aux demandes de commentaire, devrait enregistrer un bénéfice de 96 cents par action au deuxième trimestre, selon les analystes interrogés par FactSet.

Conjuguée à ce type de traitement comptable, la volatilité du bitcoin complique la tâche des responsables qui veulent gérer les avoirs en cryptomonnaies comme on gère de la trésorerie, ce qui les rend moins pertinentes comme actifs de réserve, souligne Jennifer Stevens, professeur de comptabilité à l’université d’Ohio.

« La comptabilisation ne cadre pas tellement avec l’objectif sous-jacent », indique-t-elle.

De toute façon, rares sont les entreprises qui se ruent sur le bitcoin. D’après un sondage réalisé en février dernier par le cabinet Gartner, seuls 5 % des directeurs financiers interrogés prévoyaient d’acheter du bitcoin pour leur entreprise cette année. Et 84 % des responsables sondés indiquaient qu’ils n’avaient jamais envisagé d’en détenir.

Tesla a annoncé un premier investissement de 1,5 milliard de dollars en bitcoin le 8 février, sans préciser combien le constructeur en avait acheté ni à quel cours moyen. Sa politique d’investissement avait été modifiée en janvier et, entre le 1er janvier et le 8 février, le bitcoin valait en moyenne autour de 35 400 dollars, selon CoinDesk, ce qui signifie qu’après réduction de la position, Tesla détient probablement autour de 37 000 bitcoins.

Lundi soir, la cryptomonnaie valait un peu moins de 40 000 dollars, après être tombée à 30 202 dollars en mai.

Selon Dan Ives, analyste chez Wedbush Securities, il est donc fort probable que Tesla passe une dépréciation sur son portefeuille de bitcoins ce trimestre.

Pour lui, les achats ont probablement été réalisés en janvier et sont donc aujourd’hui détenus à perte.

« Si le bitcoin vaut autour ou moins de 30 000 dollars [à la fin du deuxième trimestre], la dépréciation risque d’être importante », prévient-il. Elle pourrait être du même ordre que la plus-value de 101 millions de dollars que Tesla a enregistrée au premier trimestre sur des cessions d’actifs, selon lui.

« Ce qui était un atout pour le groupe est devenu un frein », résume-t-il.

De fait, ces derniers temps, les résultats de Tesla ont été dopés par des gains non récurrents. Outre la plus-value sur la cession des bitcoins au premier trimestre, le groupe a gagné 518 millions de dollars en vendant des crédits aux autres constructeurs automobiles pour leur permettre d’atteindre leurs objectifs d’émissions.

Ces opérations lui ont permis d’enregistrer un bénéfice net de 438 millions de dollars, soit 93 cents par action.

Si tel devait être le cas, Tesla ne serait pas la première entreprise contrainte de passer une dépréciation importante sur son portefeuille de bitcoins.

 

(Traduit à partir de la version originale en anglais par Marion Issard)

Quel dialogue entre politiques et artistes

 

 

L’acteur et directeur d’un centre dramatique national Robin Renucci s’interroge, dans une tribune pour « le Monde », sur les conditions d’un tel dialogue en précisant n’avoir choisi d’affirmer « aucun engagement public face aux sollicitations ».

 

Tribune. La campagne électorale bat son plein. Chacune et chacun aura bientôt, en conscience, à faire son choix dans les urnes. Il en va de la liberté républicaine et du droit de chaque citoyenne et citoyen de faire savoir, ou pas, s’il entend soutenir publiquement l’un ou l’autre parti.

Réalisateur, directeur d’un centre dramatique national, président d’association, acteur sur scène et à l’écran, à ce titre connu du public, j’ai choisi, pour ma part, de n’affirmer aucun engagement public face aux sollicitations. Je ne souhaite pas participer à cette forme de « pipolisation » de la politique qui consisterait à ce que des personnalités, plus ou moins médiatiques, montrent le chemin à suivre à un peuple égaré, en brandissant l’étendard d’un candidat, d’un parti.


Pour autant, j’ai accepté de dialoguer avec les équipes de plusieurs candidates et candidats sur quelques thèmes pour lesquels, avec d’autres, nous militons depuis des années : les questions de l’art et de la culture dans nos vies, de l’éducation populaire, de la transmission, de la laïcité…

Pour ce faire, j’ai répondu aux invitations qui m’étaient adressées lors de rencontres publiques, en présence de professionnels de l’art, de la culture et des médias, comme j’ai accepté le dialogue dans les colonnes de journaux, ou encore avec de nombreux militants. Les débats peuvent être parfois rugueux et, je l’espère, utiles.

J’en tire au moins quelques réflexions…

Entre le silence prudent – trop prudent – et la libre parole exposée – trop exposée – quelle peut être la place d’un véritable dialogue républicain entre artistes et politiques ? N’aurions-nous, modestes saltimbanques, que le choix de nous cacher (l’artiste silencieux, mystérieux, hors du temps et du conflit politique, neutre dans l’adversité pour préserver la pureté de son art et – surtout – de son image) ou celui de l’allégeance (poser sur la photo, adhérer au comité, ajouter son nom à la liste…) ?

 

Où et comment mener le débat public indispensable entre artistes et politiques sans aussitôt se trouver enrôlé ? Les politiques ont-ils réellement besoin de ce « soutien » des artistes pour consolider leur position électorale ? Est-ce le rôle de l’artiste de contribuer à la vie politique de cette manière, surtout lorsqu’il démontre, au quotidien, combien il est engagé dans l’action citoyenne ? Qui soutient qui, en vérité, dans ce jeu de notoriétés supposées ? Certains journalistes, enfin, ne trouvent-ils pas là un « angle » facile, amalgamant, dans un fourre-tout « people », à la fois des comédiens, des académiciens, des auteurs, des sportifs, des chanteurs, des vedettes de télévision… qu’aucune idée commune sur le monde et sur l’art ne rassemble pourtant ?

Bitcoin et cryptomonnaies : quel avenir

Un article dePaul Vigna Dans le Wall Street Journal qui s’interrogent sur l’avenir du bitcoins et plus généralement des cryptomonnaies (Extrait)

Pour beaucoup d’investisseurs, en annonçant sur le réseau social à l’oiseau que Tesla n’accepterait plus le bitcoin pour le paiement de ses voitures électriques, le milliardaire a provoqué la plus forte baisse subie cette année par la cryptomonnaie. Début juin, Elon Musk en a remis une couche en publiant un tweet dans lequel figuraient un mème évoquant une rupture amoureuse, #bitcoin et un émoji « cœur brisé ». Le bitcoin a perdu 30 % depuis le tweet du 12 mai.

Dimanche, Elon Musk a déclaré que Tesla accepterait les paiements en bitcoin quand le data mining se mettrait davantage aux énergies renouvelables.

Lundi, la cryptomonnaie s’est adjugé quelque 8 % par rapport à son cours de vendredi, à environ 39 816 dollars. Le milliardaire a également indiqué que Tesla n’avait cédé qu’environ 10 % de son stock de bitcoins en fin de premier trimestre et que l’objectif était de prouver que la cryptomonnaie « pouvait être liquidée facilement, sans perturber le marché ».

Fin mars, le constructeur automobile détenait l’équivalent de 1,3 milliard de dollars en bitcoins ; les achats annoncés en février avaient pour but « de diversifier et optimiser le rendement de la trésorerie », a-t-il précisé.

Rares sont les entreprises qui se ruent sur le bitcoin. D’après un sondage réalisé en février dernier par le cabinet Gartner, seuls 5 % des directeurs financiers interrogés prévoyaient d’acheter du bitcoin pour leur entreprise cette année

Le spécialiste des logiciels MicroStrategy et une poignée d’autres sociétés, dont le fournisseur d’applications de paiement Square, ont réalisé des investissements similaires. Certains affirment qu’ils ont choisi le bitcoin comme réserve de valeur, dépeignant la cryptomonnaie en version moderne de l’or.

Mais détenir du bitcoin peut constituer un risque comptable : la cryptomonnaie et les autres actifs numériques sont considérés comme des « actifs incorporels à durée de vie indéfinie », et non comme des devises. Si leur valeur passe en dessous du prix d’achat, même de façon temporaire, l’entreprise doit passer une dépréciation.

Il faut aussi réaliser un test de dépréciation au moins une fois par an (ou dès que le cours passe en dessous de la valeur comptable). Le bitcoin était du genre volatil, les revalorisations trimestrielles sont devenues la règle. Une fois la charge comptable passée, la juste valeur de l’actif est ajustée. En revanche, si le cours monte, l’entreprise ne peut pas enregistrer de gain, elle doit pour cela attendre de céder l’actif.

Tesla, qui n’a pas répondu aux demandes de commentaire, devrait enregistrer un bénéfice de 96 cents par action au deuxième trimestre, selon les analystes interrogés par FactSet.

Conjuguée à ce type de traitement comptable, la volatilité du bitcoin complique la tâche des responsables qui veulent gérer les avoirs en cryptomonnaies comme on gère de la trésorerie, ce qui les rend moins pertinentes comme actifs de réserve, souligne Jennifer Stevens, professeur de comptabilité à l’université d’Ohio.

« La comptabilisation ne cadre pas tellement avec l’objectif sous-jacent », indique-t-elle.

De toute façon, rares sont les entreprises qui se ruent sur le bitcoin. D’après un sondage réalisé en février dernier par le cabinet Gartner, seuls 5 % des directeurs financiers interrogés prévoyaient d’acheter du bitcoin pour leur entreprise cette année. Et 84 % des responsables sondés indiquaient qu’ils n’avaient jamais envisagé d’en détenir.

Tesla a annoncé un premier investissement de 1,5 milliard de dollars en bitcoin le 8 février, sans préciser combien le constructeur en avait acheté ni à quel cours moyen. Sa politique d’investissement avait été modifiée en janvier et, entre le 1er janvier et le 8 février, le bitcoin valait en moyenne autour de 35 400 dollars, selon CoinDesk, ce qui signifie qu’après réduction de la position, Tesla détient probablement autour de 37 000 bitcoins.

Lundi soir, la cryptomonnaie valait un peu moins de 40 000 dollars, après être tombée à 30 202 dollars en mai.

Selon Dan Ives, analyste chez Wedbush Securities, il est donc fort probable que Tesla passe une dépréciation sur son portefeuille de bitcoins ce trimestre.

Pour lui, les achats ont probablement été réalisés en janvier et sont donc aujourd’hui détenus à perte.

« Si le bitcoin vaut autour ou moins de 30 000 dollars [à la fin du deuxième trimestre], la dépréciation risque d’être importante », prévient-il. Elle pourrait être du même ordre que la plus-value de 101 millions de dollars que Tesla a enregistrée au premier trimestre sur des cessions d’actifs, selon lui.

« Ce qui était un atout pour le groupe est devenu un frein », résume-t-il.

De fait, ces derniers temps, les résultats de Tesla ont été dopés par des gains non récurrents. Outre la plus-value sur la cession des bitcoins au premier trimestre, le groupe a gagné 518 millions de dollars en vendant des crédits aux autres constructeurs automobiles pour leur permettre d’atteindre leurs objectifs d’émissions.

Ces opérations lui ont permis d’enregistrer un bénéfice net de 438 millions de dollars, soit 93 cents par action.

Si tel devait être le cas, Tesla ne serait pas la première entreprise contrainte de passer une dépréciation importante sur son portefeuille de bitcoins.

 

(Traduit à partir de la version originale en anglais par Marion Issard)

Quel est notre attachement aux libertés ?

Quel est notre attachement aux libertés ?

 

Le sociologue Jean-Claude Kaufmann s’interroge dans le Monde  sur notre véritable attachement aux libertés .

Tribune

Beaucoup s’inquiètent de la montée de la délation dans notre pays, terme qui évoque les heures sombres du régime de Vichy. Le garde des sceaux lui-même s’en émeut. Il est pourtant le garant de l’autorité judiciaire. La délation aurait-elle changé de sens ? S’exercerait-elle désormais, non pour renforcer un régime autoritaire, mais du bas vers le haut, du peuple colérique des réseaux sociaux contre les « élites-caviar » − tendance truffe pour les repas de Christophe Leroy [soupçonné d’avoir organisé, à Paris, de luxueux repas clandestins?

 

Face à la crise, le jeu des alliances et des oppositions d’idées s’est fortement recomposé dans la population. Autour d’un large marais indécis et quelque peu anesthésié, attendant la suite des événements et l’hypothétique sortie du tunnel, deux groupes fourbissent leurs armes de façon contradictoire.

A un extrême, les impatients, qui refoulent leur colère ou qui n’en peuvent plus du désir de se retrouver et de faire la fête, les artisans ruinés, les jeunes interdits de vivre leur jeunesse. Un gigantesque réservoir de passions tristes qui alimente la rage antisystème et les dérives complotistes, attendant leur heure pour s’exprimer. La seule image de repas réservés à la haute société, en période de confinement pour le bon peuple, a un effet ravageur, sonnant l’hallali contre le fantomatique « ministre aux cheveux gris » (évoqué de manière incertaine dans une émission de télévision par un serveur censé avoir travaillé lors d’un repas clandestin).

Mais n’en déplaise à Éric Dupond-Moretti, on ne peut qualifier cette traque et ces dénonciations de délation. Il s’agit bien davantage d’une reprise et d’un développement de ce que nous avions déjà connu dans la période des « gilets jaunes ». La délation n’est pas seulement une dénonciation. Elle s’inscrit dans une soumission à l’autorité et se donne pour objectif de renforcer cette autorité.

Nous trouvons là le deuxième groupe d’opinion, à l’extrême opposé. Celui qui, face à la crise, face au risque de la maladie et de la mort, rêve de rien d’autre que de mettre la démocratie entre parenthèses pour un temps. De s’en remettre à un pouvoir centralisé et efficace pour combattre le virus, notre seul et unique ennemi dans la période actuelle. Cette structuration de type militaire exige que nous appliquions les consignes et que tous marchent au même pas. Que les déviants, les irresponsables, les provocateurs et les simples insouciants soient sanctionnés. En particulier les fêtes clandestines de la jeunesse, qui sont donc dénoncées par le voisinage. Ces délateurs sont plutôt âgés, craignant pour leur santé, nantis, de droite, mais pas seulement.

Covid: 3 000 nouveaux lits de réanimation, avec quel personnel ?

Covid: 3 000 nouveaux lits de réanimation, avec quel personnel ?

 

Pour Bertrand Dureuil,Chef du pôle réanimations anesthésie SAMU (CHU de Rouen) et Jean-Paul Mira, Chef de service de médecine intensive-réanimation (AP-HP ; hôpital Cochin) la demande du chef de l’Etat de lits supplémentaires suppose de disposer du personnel suffisant, alertent, dans une tribune au « Monde », les présidents des deux conseils nationaux professionnels de réanimation, qui formulent des recommandations pour une mise en œuvre de cette mesure.

 

Tribune.

La circulation du coronavirus n’est actuellement pas contrôlée. Face à ce constat, le président Emmanuel Macron a proposé de nouvelles mesures visant au freinage de la troisième vague, mais également au renforcement de notre système de santé avec notamment la création de 3 000 lits de réanimation. Cela permettrait de porter à 10 000 le nombre des lits de réanimation alors que plus de 5 000 d’entre eux sont déjà occupés par des patients souffrant de formes graves du Covid-19. Si personne ne peut contester la nécessité de renforcer les capacités des hôpitaux en lits de réanimation, nous nous interrogeons sur la mise en œuvre pratique de cette mesure.

 

En effet, la création de 3 000 lits de réanimation dans les prochains jours sous-entend que nous disposions d’environ 4 800 à 6 000 nouveaux infirmiers, mais aussi d’aides-soignants, de kinésithérapeutes, de psychologues et de médecins supplémentaires. Cette demande en personnels intervient dans un contexte de pénurie de personnels soignants médicaux et paramédicaux antérieur à la crise, et dans celui d’une grande fatigue des professionnels de santé.

Compétences professionnelles

Au-delà de l’aspect quantitatif, déjà préoccupant, se pose la question de la compétence en soins critiques de ces personnels de renfort tout particulièrement pour ce qui concerne les infirmiers. En effet, les compétences professionnelles indispensables pour travailler dans l’environnement technique très complexe de la réanimation auprès de patients dont l’évolution est suivie en continue ne s’acquièrent pas en quelques jours. Ces observations conduisent les conseils nationaux professionnels d’anesthésie-réanimation, médecine péri-opératoire et médecine Intensive et réanimation à rappeler trois recommandations, déjà formulées en juillet 2020, pour que notre système de soins critiques soit effectivement en condition de mieux s’adapter en situation de crise sanitaire :

Premièrement, la reconnaissance des compétences très spécifiques des infirmiers des services de réanimation qui, aujourd’hui, ne sont absolument pas prises en compte et valorisées en France. Alors que de nouveaux lits sont à ouvrir, ces personnels non reconnus s’interrogent sur leur départ des unités de réanimation.

« Aujourd’hui, la réserve soignante est encore un projet et nous ne disposons pas de soignants “familiarisés” au quotidien avec les soins critiques »

Deuxièmement, le renforcement du ratio actuel infirmier/patient en réanimation, qui doit être porté de 1 infirmier pour 2,5 patients à 1 infirmier pour 2 patients. Cette mesure, justifiée par la charge en soins très lourde, permettrait, en cas de crise et d’extension de nos réanimations, de disposer de davantage d’infirmiers experts en réanimation pour encadrer les personnels venus en renfort. Aujourd’hui, le nombre insuffisant de nos infirmiers experts est un frein à l’ouverture de nouveaux lits de réanimation.

Mayotte : quel avenir ?

Mayotte : quel avenir ?

 

Mieux insérer les femmes, les jeunes et les natifs de l’étranger – venant des Comores – sur le marché du travail à Mayotte permettrait de lutter plus efficacement contre la pauvreté, estime, dans une tribune au « Monde », l’économiste François Hermet.

 

Tribune.

 

Violence et pauvreté vont souvent de pair. Les débats autour de la commémoration du 10e anniversaire de la départementalisation de Mayotte sont révélateurs de l’exaspération d’une population toujours frappée par les inégalités et la pauvreté. Afin de réduire celles-ci, l’essentiel des mesures continue de s’articuler autour de l’augmentation des transferts publics, orientés notamment vers la santé et l’éducation.

Ce mécanisme est supposé reproduire à Mayotte un processus de rattrapage du niveau de vie, déjà initié pour les quatre premiers départements d’outre-mer (DOM), vers la moyenne métropolitaine.


Néanmoins, cette efficacité des transferts doit être relativisée : parmi les causes reconnues de la pauvreté figure celle relative à l’exclusion du marché du travail. Le diagnostic du marché du travail constitue alors un préalable pour s’assurer de la cohérence des politiques mises en place sur cet étroit territoire (374 km²) du canal de Mozambique.

Au niveau macroéconomique, c’est sur le marché du travail que se forme, en effet, la principale source de revenu des ménages ; et il existe un consensus chez les économistes pour considérer que c’est fondamentalement le « bon » fonctionnement de ce marché qui détermine à terme la capacité d’une économie à produire de la richesse et du bien-être pour la population.

Les administrations publiques, plus de la moitié du PIB

Il est donc manifeste que le développement de « l’île aux parfums » se jugera à l’aune de sa capacité à insérer sa population de façon durable dans l’emploi. Malgré une croissance forte de l’ordre de 7 % par an ces dernières années, Mayotte reste aujourd’hui structurellement à mi-chemin entre pays du Sud et pays du Nord. Coexistent une activité de subsistance (agriculture, pêche) et une activité de services principalement non marchands dominée par des administrations publiques (plus de la moitié du produit intérieur brut).


Il n’est pas certain que cette forte croissance économique, dopée par d’importants transferts publics, se retrouve ipso facto dans les chiffres de l’emploi et du chômage. Cela requiert par exemple une certaine proximité de la population locale avec les emplois créés.

A Mayotte, les statistiques disponibles montrent qu’une grande partie de la population est touchée par le chômage. Déjà le plus élevé d’Europe, le taux de chômage officiel aux alentours de 30 % sous-estime nettement la situation car il repose sur une faible participation au marché du travail.

12345



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol