Archive pour la Catégorie 'caburant-énergie'

Politique énergétique: L’incompétence et l’hypocrisie

Politique énergétique: L’incompétence et l’hypocrisie

Réunis en commission des affaires économiques mardi 3 juin, les députés ont rejeté le texte actant la relance du nucléaire français qui souhaitait notamment construire six nouveaux EPR d’ici à 2026.
(Lucie Robequain dans la Tribune)

La France doit marcher sur deux jambes pour garantir son avenir énergétique  : elle a besoin de nucléaire autant que de renouvelables. Dans un cas comme dans l’autre, elle montre un talent assez rare à marquer contre son camp. La semaine qui s’achève en a encore donné la preuve  : à la surprise générale, les députés réunis en commission des affaires économiques ont rejeté le texte qui actait la relance du nucléaire français, à l’aide de la construction de six EPR à l’horizon 2026.

Dans un attelage totalement improbable, les élus du Nouveau Front populaire et du Rassemblement national ont ainsi voté dans le même sens, pour des raisons diamétralement opposées  : les premiers pensent que la relance du nucléaire va excessivement loin, les seconds pas assez. Les deux se sont donc associés pour torpiller les objectifs français et retarder encore un peu plus la construction de nouvelles centrales.

Il est fort probable que les ambitions nucléaires françaises soient rétablies à la mi-juin lors du débat parlementaire en séance publique. Mais cet épisode en dit long sur l’irresponsabilité d’une partie de la classe politique, qui brade les intérêts nationaux par la voie d’un amendement adopté en catimini.

Ce sont ces mêmes élus qui courent les plateaux télé pour réclamer une électricité moins chère, et une ­certaine forme d’autonomie par ­rapport à la Chine et aux États-Unis. À ­l’Assemblée, ils ne font qu’affaiblir la France. Le nucléaire est l’un des rares atouts que le monde nous envie et la clé de notre relance économique. Or notre programmation énergétique accuse déjà deux ans de retard.

La France continuera d’acheter du gaz des États-Unis, de Russie ou du Qatar pour pourvoir à ses besoins.
Le décret permettant de lancer les nouveaux chantiers nucléaires — la fameuse PPE — devait être adopté en juin 2023, et n’a cessé d’être reporté depuis. Conséquence  : aucun chantier ne peut démarrer. La France continuera d’acheter du gaz des États-Unis, de Russie ou du Qatar pour pourvoir à ses besoins.

Le développement des énergies renouvelables est tout aussi laborieux. Le groupe Engie espérait construire en Gironde le plus grand parc solaire ­d’Europe, Horizeo, en rasant des centaines d’hectares de forêt. Tout laisse penser qu’il y renoncera dans les prochaines semaines. De fait, le principe de « zéro artificialisation nette » (ZAN) oblige les collectivités locales à limiter leur consommation d’espaces. Or les 680 hectares d’Horizeo impliquent d’artificialiser une partie de la forêt landaise. Aucun élu local ne soutient le projet.

Engie aimerait que l’Élysée vole à son secours et le libère des contraintes de la loi ZAN. Sa directrice générale, Catherine MacGregor, met tout son poids dans la balance  : elle dénonce les ravages de l’« absurdité administrative » et rappelle que ce projet est essentiel pour atteindre les objectifs français en matière d’énergies renouvelables tels qu’ils ont été transmis à Bruxelles. Notre pays, ­rappelons-le, est le seul parmi les Vingt-Sept à ne pas respecter ses engagements pour l’instant.

Énergie: L’incompétence et l’hypocrisie

Énergie: L’incompétence et l’hypocrisie

Réunis en commission des affaires économiques mardi 3 juin, les députés ont rejeté le texte actant la relance du nucléaire français qui souhaitait notamment construire six nouveaux EPR d’ici à 2026.
(Lucie Robequain dans la Tribune)

La France doit marcher sur deux jambes pour garantir son avenir énergétique  : elle a besoin de nucléaire autant que de renouvelables. Dans un cas comme dans l’autre, elle montre un talent assez rare à marquer contre son camp. La semaine qui s’achève en a encore donné la preuve  : à la surprise générale, les députés réunis en commission des affaires économiques ont rejeté le texte qui actait la relance du nucléaire français, à l’aide de la construction de six EPR à l’horizon 2026.

Dans un attelage totalement improbable, les élus du Nouveau Front populaire et du Rassemblement national ont ainsi voté dans le même sens, pour des raisons diamétralement opposées  : les premiers pensent que la relance du nucléaire va excessivement loin, les seconds pas assez. Les deux se sont donc associés pour torpiller les objectifs français et retarder encore un peu plus la construction de nouvelles centrales.

Il est fort probable que les ambitions nucléaires françaises soient rétablies à la mi-juin lors du débat parlementaire en séance publique. Mais cet épisode en dit long sur l’irresponsabilité d’une partie de la classe politique, qui brade les intérêts nationaux par la voie d’un amendement adopté en catimini.

Ce sont ces mêmes élus qui courent les plateaux télé pour réclamer une électricité moins chère, et une ­certaine forme d’autonomie par ­rapport à la Chine et aux États-Unis. À ­l’Assemblée, ils ne font qu’affaiblir la France. Le nucléaire est l’un des rares atouts que le monde nous envie et la clé de notre relance économique. Or notre programmation énergétique accuse déjà deux ans de retard.

La France continuera d’acheter du gaz des États-Unis, de Russie ou du Qatar pour pourvoir à ses besoins.
Le décret permettant de lancer les nouveaux chantiers nucléaires — la fameuse PPE — devait être adopté en juin 2023, et n’a cessé d’être reporté depuis. Conséquence  : aucun chantier ne peut démarrer. La France continuera d’acheter du gaz des États-Unis, de Russie ou du Qatar pour pourvoir à ses besoins.

Le développement des énergies renouvelables est tout aussi laborieux. Le groupe Engie espérait construire en Gironde le plus grand parc solaire ­d’Europe, Horizeo, en rasant des centaines d’hectares de forêt. Tout laisse penser qu’il y renoncera dans les prochaines semaines. De fait, le principe de « zéro artificialisation nette » (ZAN) oblige les collectivités locales à limiter leur consommation d’espaces. Or les 680 hectares d’Horizeo impliquent d’artificialiser une partie de la forêt landaise. Aucun élu local ne soutient le projet.

Engie aimerait que l’Élysée vole à son secours et le libère des contraintes de la loi ZAN. Sa directrice générale, Catherine MacGregor, met tout son poids dans la balance  : elle dénonce les ravages de l’« absurdité administrative » et rappelle que ce projet est essentiel pour atteindre les objectifs français en matière d’énergies renouvelables tels qu’ils ont été transmis à Bruxelles. Notre pays, ­rappelons-le, est le seul parmi les Vingt-Sept à ne pas respecter ses engagements pour l’instant.

Transition énergétique: Le rôle indispensable de l’IA ?

Transition énergétique: Le rôle indispensable de l’IA ?

En 2024, les énergies décarbonées dépassent les 40 % de la production d’électricité, tandis que le pétrole recule sous les 30 % de la consommation globale. Pourtant, les émissions de CO₂ continuent d’augmenter. Cette contradiction souligne un enjeu central : la croissance de la demande mondiale d’électricité. L’IA, à la fois source de consommation (via les data centers) et levier d’optimisation, pourrait devenir un acteur clé. Par Oliver Sartor, Chef Economiste chez Voltalis (*)
Oliver Sartor
dans La Tribune

Dans un monde où les informations contradictoires se bousculent au gré des communiqués, il est souvent difficile de se faire une idée précise de l’efficacité de la transition énergétique en cours. Ainsi, alors que pour la première fois depuis 50 ans, le pétrole a représenté l’an dernier moins de 30 % de la consommation mondiale d’énergie et que les énergies décarbonées dépassent désormais les 40 % de la production d’électricité, les émissions de gaz à effet de serre, elles, ont encore progressé de 0,8 % en 2024.

Cette apparente contradiction vient du fait que, même si les productions d’énergie décarbonées ont crû de manière exponentielle, la consommation globale d’énergie dans le monde — en particulier d’électricité — a jusqu’à ce jour augmenté davantage. D’où cette interrogation récurrente autour d’un possible « piège de la surcroissance de la consommation » : serons-nous capables de satisfaire cette demande massive d’électricité avec le seul développement de nombreuses sources d’énergies propres, ou devrons-nous continuer à être dépendant des centrales au charbon et au gaz ?

Paradoxe que semble confirmer un rapport récent de l’Agence Internationale de l’Énergie qui analyse les impacts de l’activité de l’Intelligence artificielle sur nos systèmes énergétiques. La consommation mondiale d’électricité liée aux data centers devrait plus que doubler d’ici 2030 pour atteindre 945 TWh, soit une augmentation équivalente à l’actuelle consommation électrique de l’Allemagne ! Et tripler d’ici 2035, pour atteindre +1200 TWh, soit cette fois la consommation d’électricité de l’Inde…

À première vue, ces niveaux de croissance imposent des défis colossaux aux pays qui, comme les États-Unis, souhaitent héberger une partie disproportionnée des data centers sur leur territoire. Mais une lecture plus nuancée de la problématique est toutefois possible, et ce à deux niveaux.

Premièrement, il faut remettre en perspective la consommation d’énergie de l’IA : la demande globale d’électricité plafonnait en 2023 autour de 30 000 TWh. Dans un scénario vraisemblable où celle-ci augmenterait de 800 TWh d’ici 2035, la croissance liée à la seule activité de l’Intelligence artificielle ne représenterait que 2,7 % d’augmentation de la demande mondiale. Le défi n’est donc pas insurmontable pour la transition énergétique globale.

Deuxièmement, la demande d’électricité que génère l’IA en tant que telle n’est pas le problème majeur. Le vrai sujet c’est l’impact des véhicules électriques, du chauffage et de la climatisation, et des autres usages domestiques qui vont non seulement augmenter la demande en électricité, mais également la faire fluctuer de manière beaucoup plus intense au sein de nos réseaux de transmission et de distribution. À cela s’ajoute le fait que nos systèmes électriques vont également être soumis à l’intermittence des énergies renouvelables, au fait que celles-ci vont produire parfois trop, parfois pas assez, en fonction de l’heure, du jour, de la semaine ou du mois.

L’enjeu majeur de la transition énergétique est donc de réussir à « piloter » la demande d’électricité pour l’orienter aux bons moments : au maximum quand l’énergie est disponible et au minimum quand le soleil et le vent produisent quelques mois.

On ne peut toutefois pas demander aux consommateurs d’être constamment réactifs aux aléas météorologiques. C’est là qu’intervient tout le potentiel de l’Intelligence artificielle, elle permet un pilotage autonome et dynamique de tous ces nouveaux équipements électriques, en fonction des besoins précis du système.

Désormais, différents facteurs se conjuguent pour allier de multiples technologies digitales au sein d’une même plateforme de pilotage : la réduction du coût des capteurs intelligents, les avancées techniques de l’internet of things (IoT) qui permet le contrôle et le pilotage automatique des appareils, et le cloud computing utilisant des algorithmes ultrapuissants capables d’ajuster la puissance électrique en temps réel, de manière très flexible, sans affecter le confort du consommateur.

Climatiseurs, pompes à chaleur, radiateurs, ballons d’eau chaude, voitures électriques ou encore batteries, vont devenir ainsi de véritables petites « centrales électriques virtuelles » pour piloter la demande à grande échelle. Grâce à l’apport des algorithmes, elles pourront ainsi soulager le réseau électrique lors des phases de pics de consommation — ce qui évitera d’avoir à relancer de polluantes et couteuses centrales à charbon ou à gaz — mais également prendre le relai le moment venu pour alimenter le réseau quand la production des renouvelables diminuera.

L’ultime ironie c’est que si l’Intelligence artificielle va peser sur la demande mondiale d’électricité via ses data centers, elle va surtout grandement contribuer à l’alléger en multipliant les solutions digitales qui soulageront la consommation. C’est de loin ce qui parait le plus prometteur aujourd’hui.

_______

(*) Oliver Sartor est économiste en chef chez Voltalis. Fort de 15 ans d’expérience dans la transition vers les énergies propres, il a notamment travaillé comme membre de groupes de réflexion, consultant et dans le secteur financier. Il possède une expertise en matière de gestion de la demande, de marchés de l’électricité, d’industrie et de commerce à bilan carbone neutre, de marchés de l’énergie et du carbone, et de politique climatique de l’UE.

Oliver Sartor

Nucléaire : l’avenir de la fusion

Nucléaire : l’avenir de la fusion


Pour faire le point sur les défis scientifiques et technologiques de la fusion, pour mieux comprendre comment les chercheurs et chercheuses vivent le fait de s’impliquer dans des projets de si longue haleine, Elsa Couderc, cheffe de rubrique Sciences et Technologies à The Conversation France, a rencontré Yannick Marandet. Chercheur en physique des plasmas, il a longtemps été directeur de la Fédération française de recherche sur la fusion par confinement magnétique (FR-FCM) et co-dirige aujourd’hui un grand projet de recherche sur les supraconducteurs et la fusion, financé par France 2030.

The Conversation : Vous travaillez sur la fusion nucléaire depuis vingt-cinq ans et vous avez pris diverses responsabilités pour coordonner les efforts français sur la fusion nucléaire, principalement orientés aujourd’hui vers la collaboration internationale ITER. Est-ce que vous pouvez commencer par nous expliquer ce qu’est la fusion nucléaire ?

Yannick Marandet : La fusion nucléaire, ce sont des réactions nucléaires qui sont à l’œuvre dans les étoiles, notamment dans le Soleil. C’est un peu comme des Lego : on assemble des petits noyaux pour en faire des plus gros. Ce sont en fait les processus par lesquels les éléments chimiques dont on est tous constitués, dont la Terre est constituée – comme le carbone, le fer ou l’oxygène – se sont formés dans des générations d’étoiles précédentes. D’où la fameuse expression, « Nous sommes tous des poussières d’étoiles ».

Ces réactions de fusion permettent de fabriquer des atomes plus gros, et ce faisant, elles libèrent de l’énergie contenue dans les noyaux que l’on assemble. Ainsi, dans une étoile en phase de vie normale, quatre noyaux d’hydrogène s’assemblent (l’élément le plus léger de l’Univers, un proton) pour faire un noyau d’hélium.

En fait, le terme hélium vient d’Hélios, car l’hélium a été découvert initialement en observant une éclipse solaire, en 1868. C’est intéressant de penser qu’on a trouvé de l’hélium dans notre étoile avant de l’observer sur Terre. Mais ce n’est qu’une fois qu’on a découvert cet élément sur notre planète, en 1895, qu’on a pu le peser et se rendre compte qu’il est un peu plus léger que quatre noyaux d’hydrogène – de l’ordre de 1 % plus léger. Cette masse perdue durant la transformation de l’hydrogène en hélium a été convertie en énergie : c’est la célèbre formule d’Einstein, E=mc2.

Comment est née l’idée d’utiliser ces phénomènes au cœur des étoiles pour générer de la chaleur, et donc de l’électricité ?

Y. M. : L’idée d’imiter ce qui se passe dans les étoiles est arrivée assez vite. Mais il faut savoir que les réactions de fusion nucléaire entre atomes d’hydrogène qui ont lieu dans les étoiles sont très inefficaces : les premières étapes de ces réactions sont tellement lentes qu’on ne peut même pas en mesurer la vitesse !

Il a donc d’abord fallu comprendre qu’on ne peut pas faire exactement ce que fait le Soleil, mais qu’on peut essayer de faire mieux, en utilisant des réactions qui sont plus rapides. Pour cela, il faut d’abord étudier comment marche une réaction de fusion.

Il faut d’abord faire se rapprocher les noyaux atomiques… malheureusement, ceux-ci se repoussent spontanément – plus ils sont gros, plus ils sont chargés et plus ils se repoussent. On a vu que la fusion de noyaux d’hydrogène à l’œuvre dans les étoiles n’est pas très efficace et, pour ces raisons, les réactions de fusion entre les isotopes de l’hydrogène ont été considérées. Les noyaux de ces isotopes ont par définition la même charge que l’hydrogène, mais contiennent un ou deux neutrons.

La solution actuelle – celle que l’on doit utiliser dans ITER – est arrivée dans le cadre du projet Manhattan – le projet de recherche du gouvernement américain qui visait à construire une bombe atomique, entre 1939 et 1947. Celui-ci se concentrait évidemment sur la fission nucléaire, mais ils ont assez vite pensé à rajouter une dose de fusion par-dessus. Pendant cette période, d’énormes progrès ont été faits en physique nucléaire parce qu’il y a eu de très gros moyens, très focalisés… ce qui a bénéficié au domaine de la fusion, même si c’est un héritage dont on n’aime pas nécessairement se réclamer.

Quoi qu’il en soit, quand les chercheurs du projet Manhattan ont commencé à faire fonctionner des réacteurs nucléaires, ils ont produit du tritium – l’isotope le plus lourd de l’hydrogène, avec deux neutrons. Et quelqu’un s’est rendu compte que le deutérium et le tritium, pour des raisons d’abord mystérieuses à l’époque, fusionnaient 100 fois plus vite que deux noyaux de deutérium.

Une réaction de fusion exploitable pour en faire de l’électricité avait été découverte.

Quand on fait une réaction deutérium-tritium, ça fait un noyau d’hélium cinq, extrêmement instable, qui se désintègre en un hélium quatre et un neutron. Ceux-ci vont extrêmement vite – l’énergie qu’on a perdue en masse se retrouve dans l’énergie de mouvement. En freinant ces particules, par collision dans la paroi de la machine, on va récupérer cette énergie, faire chauffer de l’eau et faire tourner des turbines.

Cette réaction deutérium-tritium a un énorme avantage, c’est qu’elle est beaucoup plus probable, et donc rapide, que les autres réactions de fusion nucléaire, comme la fusion de deux hydrogènes, observée dans le Soleil et dont on parlait précédemment… mais elle pose deux défis.

Le premier, c’est qu’elle utilise du tritium, qui est radioactif. Le problème n’est pas tant sa dangerosité, qui est limitée, mais plutôt sa demi-vie (le temps nécessaire pour que la moitié des atomes se désintègrent naturellement), qui n’est que de douze ans. De ce fait, c’est un élément très rare. Il faut le fabriquer pour s’en servir comme combustible – dans ITER par exemple, même si le plasma contiendra de l’ordre d’un gramme de tritium, il faudra stocker quelques kilogrammes sur site.

Le deuxième défaut de cette réaction, c’est qu’elle génère des neutrons de 14 mégaélectronvolts. Cette échelle peut sembler un peu absconse quand on n’a pas l’habitude de la manipuler : ce qu’il faut retenir, c’est que ces neutrons sont très énergétiques, suffisamment pour transformer des impuretés dans la paroi en éléments radioactifs. Et ça, c’est un défi – à tel point qu’aujourd’hui, un domaine de recherche entier est dévolu à développer des matériaux sans ces impuretés.

Pour la fusion deutérium-tritium, il faut utiliser ce neutron énergétique pour bombarder du lithium, et ainsi récupérer du tritium : on résout à la fois le problème d’approvisionnement en tritium et on produit de la chaleur supplémentaire par ces réactions.

Si l’on compare à une centrale à charbon de 300 MW électrique, qui brûle de 1 million à 2 millions de tonnes par an, l’avantage de la fusion est évident : il faut 30 kg de deutérium (l’océan en contient en quantité) et une centaine de kilos de lithium par an. Tout ça sans production de gaz à effet de serre ni déchets autres que la machine elle-même, et sans risques d’emballement.

Mais c’est aussi pour s’affranchir des problèmes liés aux neutrons énergétiques que différentes start-ups promettent aujourd’hui ce qu’on appelle la fusion « aneutronique », exploitant des réactions de fusion dans lesquelles on ne produit pas (ou peu) de neutrons. En n’utilisant pas de tritium, on aurait un carburant qui ne serait pas radioactif et pas (ou peu) de neutrons en sortie. La réaction de choix pour faire ça, c’est de fusionner un proton avec du bore (élément chimique dont le noyau compte cinq protons)… mais elle nécessite de monter à des températures dix à cent fois plus élevées que celles envisagées dans ITER, ce qui veut dire que ces start-ups devront obtenir des plasmas extrêmement performants.

À quelle température a lieu la réaction deutérium-tritium, celle qui doit être utilisée dans ITER ?

Y. M. : Cent cinquante millions de degrés ! Cette température est un vrai défi pour les scientifiques aujourd’hui.

Les plans initiaux de développement de la fusion, dans les années 1940 et 1950, étaient très optimistes… En effet, à l’époque, on ne connaissait pas très bien ce qu’on appelle aujourd’hui la « physique des plasmas ». À 150 millions de degrés, un gaz d’hydrogène de deutérium-tritium n’est plus un gaz ! C’est ce qu’on appelle un « plasma », c’est-à-dire un milieu suffisamment énergétique, suffisamment chaud, pour que tous les électrons soient arrachés de leurs noyaux. On se retrouve avec une soupe d’électrons et d’ions.

On pourrait penser que cette soupe est similaire à un gaz ; mais la grosse différence avec des molécules dans un gaz est que les particules chargées se sentent les unes les autres à grande distance. Ainsi, dans un plasma, si on bouscule un électron quelque part, tous les électrons autour vont le sentir, et bouger également… on comprend bien qu’il peut se passer des choses très intéressantes du point de vue de la physique !

Mais plus complexes aussi, surtout du point de vue des applications. Parce qu’un plasma est quelque chose d’assez compliqué à maîtriser, qui devient très vite turbulent.

Et justement, vous avez réalisé votre thèse au début des années 2000, sur l’analyse des plasmas turbulents. Quelles étaient les problématiques à l’époque ?

Y. M. : J’ai fait ma thèse sur la caractérisation de plasmas, en collaboration avec des collègues d’une expérience de fusion appelée à l’époque « Tore Supra » au CEA Cadarache, dans les Bouches-du-Rhône (cette machine est devenue West). J’analysais la lumière émise par les plasmas. Nous avions l’expertise d’analyse, de spectroscopie, et Tore Supra fournissait des plasmas ; ils avaient besoin de mieux comprendre ce qu’ils voyaient.

Une des grandes questions de la recherche sur la fusion a toujours été celle de la qualité du confinement. On utilise des champs magnétiques, générés par des électroaimants, qui confinent les particules chargées dans la machine. En effet, vous l’aurez compris, pour avoir des réactions de fusion, il faut chauffer le plasma. Mais c’est comme à la maison : si on allume les radiateurs à fond mais qu’on laisse les fenêtres ouvertes, la température dans la pièce ne va pas monter beaucoup. Si on ferme les fenêtres, ça va aller mieux, et si on isole mieux la maison, la température va monter plus haut pour la même puissance de radiateur. Dans notre cas, les champs magnétiques jouent un rôle d’isolant. Il faut réussir à isoler suffisamment pour que la température monte à 150 millions de degrés au cœur de la machine et que les réactions de fusion se produisent – après cela, ce sont ces réactions elles-mêmes qui chauffent le plasma.

La qualité de l’isolation est un peu la raison pour laquelle les gens étaient optimistes au départ : on pensait que la chaleur s’échapperait par conduction, c’est-à-dire sans mouvement du plasma, comme quand on pose quelque chose de chaud à un endroit, et que la chaleur passe dans les objets autour. En réalité, le plasma se met en mouvement, comme quand on chauffe de l’eau dans une casserole : il y a des cellules de convection dans la casserole, de la turbulence, qui font que l’eau monte, redescend, et que ça se mélange beaucoup mieux que par conduction ; ce qui mène à une perte de chaleur. Comprendre cette turbulence dans les plasmas est un fil directeur des études sur la fusion depuis longtemps.

La problématique de ma thèse était de mieux caractériser la turbulence en regardant certaines propriétés de la lumière émise par le plasma.

Comment ces problématiques ont-elles évolué au fil de votre carrière ?

Y. M. : La question du confinement magnétique du plasma est globalement beaucoup mieux comprise… mais, encore aujourd’hui, il reste des points difficiles.

En effet, on sait que lorsqu’on dépasse une certaine puissance de chauffage dans le plasma, celui-ci s’organise de manière un peu différente, dans un régime où cette fameuse turbulence qui nous embête se « suicide » au bord du plasma : elle génère elle-même des écoulements qui la suppriment. Ça permet de beaucoup mieux confiner le plasma, et ce régime de fonctionnement (au-dessus d’une certaine puissance de chauffe) a été appelé « le mode H », pour high confinement. C’est le mode d’opération qui a été prévu dans ITER.

Néanmoins, bien que l’on ait compris des aspects importants de son fonctionnement, on ne sait toujours pas prédire avec précision à quel niveau de chauffage la transition vers le mode H va se produire. Des lois empiriques, fondées sur les résultats des expériences actuelles, sont utilisées pour extrapoler à ITER. Cette situation n’est pas si inhabituelle, les avions volent bien que nous n’ayons pas percé tous les secrets de la turbulence autour des ailes. Mais mieux on comprend, plus on peut optimiser.

Pourquoi le mode H résiste-t-il aux efforts des physiciens depuis quarante ans ?

Y. M. : Très probablement parce qu’il implique des interactions entre des phénomènes à différentes échelles. Dans l’espace, on doit comprendre des mécanismes depuis les échelles millimétriques jusqu’au mètre ou à la dizaine de mètres (la taille de la machine) ; et dans le temps, depuis la fraction de microsecondes jusqu’à plusieurs secondes. Il est difficile de capturer toutes ces échelles de manière globale, de les intégrer les unes aux autres, de façon suffisamment générale pour être prédictives.

Ici aussi, on est dans une situation qui est très intéressante du point de vue de la physique, mais qui nécessite une modélisation extrêmement détaillée au niveau des processus microscopiques, car nous avons affaire à des milieux hors d’équilibre. La physique est très riche parce qu’elle implique des particules, des champs électromagnétiques, dans des configurations géométriques complexes. Elle est aussi très « non linéaire ». Pour simplifier, ceci signifie qu’on ne peut pas résoudre les équations à la main, de façon exacte : on approxime les solutions numériquement, avec des ordinateurs. La puissance de calcul disponible sur les très gros calculateurs a ainsi permis de grands progrès.

Ceci étant, malgré ces frustrations au niveau de la compréhension théorique, les expériences ont progressé et les performances des machines comme les tokamaks ont été multipliées par 100 000 depuis les années 1970 (en termes de « triple produit », une métrique qui mesure de la qualité de l’isolation).

La qualité de l’isolation tient-elle à la puissance des aimants ?

Y. M. : En partie. Disons que si on est capable de faire des champs magnétiques plus élevés, en principe, on est capable d’avoir un meilleur confinement. Mais, sur ITER, on a déjà poussé les champs magnétiques proche de la limite pour la technologie d’aimants utilisée, d’autant plus qu’il faut magnétiser un volume gigantesque – ITER fait 800 mètres cubes.

On utilise donc le second facteur pour améliorer l’isolation : on augmente la taille. Pensez au thé – on laisse le thé dans la théière parce qu’il y refroidit moins vite que dans une petite tasse. C’est pour ça que les machines comme ITER, les tokamaks, ont eu tendance à grossir avec les années. On peut dire que la taille d’ITER est directement liée à la technologie d’aimants utilisée.

Aujourd’hui, on entend pourtant parler de start-ups qui veulent faire des machines, des tokamaks, plus petites…

Y. M. : Tout à fait, avec l’idée que cela réduira très significativement le coût de construction. L’idée est d’utiliser une autre technologie d’aimants, plus récente que celle utilisée dans ITER et qui doit encore faire ses preuves. ITER utilise des électro-aimants supraconducteurs, c’est-à-dire à base de matériaux n’opposant aucune résistance au passage d’un courant électrique. On peut faire passer des courants gigantesques, des dizaines de milliers d’ampères, sans perte par chauffage… ce qui permet de faire des aimants très puissants. Mais pour être supraconducteurs, ces matériaux doivent être refroidis à -269 °C et ne doivent pas être plongés dans des champs magnétiques au-dessus de typiquement douze tesla (l’unité des champs magnétiques)

Dans les années 1980, des matériaux supraconducteurs à haute température critiques ont été découverts. Ces matériaux fonctionnent déjà bien à -195 °C, pour le grand public, c’est toujours très froid, mais cela simplifie beaucoup le refroidissement, car on peut utiliser de l’azote liquide.

Et si on utilise ces mêmes supraconducteurs entre -269 °C et -250 °C – ce qui est tout à fait possible, mais nécessite un frigo plus cher et plus encombrant –, on peut faire passer des courants deux fois plus importants que dans les supraconducteurs classiques et générer des champs magnétiques deux fois plus intenses… ce qui permet en principe de réduire la taille de la machine, sans perdre en qualité d’isolation !

VERS DES TOTAMAKS PLUS PETITS
La stratégie de certaines start-ups est de réduire la taille des tokamaks en utilisant des aimants supraconducteurs à plus haute température critique, dans lesquels on puisse faire passer des courants plus forts à basse température.
Il y a quelques années, ces matériaux extrêmement difficiles à fabriquer à une échelle industrielle sont devenus relativement mûrs. CFS, une spin-off du Massachusetts Institute of Technology (MIT), s’est mis en tête de développer un aimant de tokamak sur la base d’un matériau appelé Rebco (pour « Rare Earth Baryum Copper Oxyde »). Ils ont démontré qu’ils pouvaient générer un champ magnétique deux fois plus élevé que les aimants d’ITER. Ils construisent maintenant une machine qui s’appelle Sparc.
La start-up chinoise Energy Singularity a utilisé les mêmes matériaux pour faire un champ magnétique encore un peu plus intense, en 2024.
Un des débats actuels – assez vif – sur la possibilité de réduire la taille des tokamaks porte sur la résistance mécanique de la machine dans son ensemble. En effet, avec ces aimants si puissants, il y a de telles forces qui s’appliquent dans le tokamak qu’il faut vraiment ruser pour que le bâti soit assez résistant – en caricaturant, s’il faut tant d’acier pour tenir les aimants en place qu’on atteint la taille d’ITER, on n’aura rien gagné.
À supposer que tout ça fonctionne, on se demande ensuite si, en faisant une machine plus petite on ne risque pas d’accentuer d’autres défis. C’est tout l’enjeu des années à venir, et Sparc est une expérience très intéressante !
C’est pour cela qu’un gros projet a été lancé au niveau français, un « PEPR » (un programme et équipement prioritaire de recherche) appelé SupraFusion, et dont vous êtes un des co-directeurs ?

Y. M. : Oui, SupraFusion s’attaque exactement à cette question : maîtriser la technologie des aimants supraconducteurs à haute température pour développer des applications sociétales – sachant que c’est la fusion qui est en train de tirer l’industrialisation de ces technologies avancées d’aimants supraconducteurs.

Que peut-on faire d’autre avec des aimants supraconducteurs à haute température ?

Y. M. : Il y a déjà un câble électrique d’alimentation de la gare Montparnasse qui utilise ces technologies-là, qui permettent de faire des câbles très compacts – très utiles lorsqu’il y a peu de place, en milieu urbain. On envisage aussi des dispositifs électrotechniques qui permettent de renforcer la stabilité des réseaux électriques (des « limiteurs de courant ») ; mais aussi des génératrices d’éoliennes plus légères, plus efficaces. En santé, on pourrait faire des IRM plus petits voire portables. En physique des particules, de nouveaux accélérateurs.

L’idée, c’est d’utiliser la fusion comme aiguillon – ce qu’on appelle l’« effet Formule 1 ». On s’attaque à quelque chose d’extrêmement difficile pour tirer l’innovation, et on attend un ruissellement sur beaucoup d’autres applications qui sont moins exigeantes.

Est-ce que vous sentez une évolution dans la perception de la fusion nucléaire par rapport à vos débuts ?

Y. M. : Quand je suis arrivé, c’était une phase un petit peu plus compliquée, la décision de construire ITER n’était pas acquise.

Enfant, je rêvais de devenir astrophysicien, mais j’ai finalement choisi de travailler sur la fusion parce que je voulais contribuer plus directement à la société.

Ceci dit, le chemin à parcourir vers l’énergie de fusion restait assez flou pour moi. J’étais focalisé sur ma thématique de recherche et il faut du temps pour acquérir une vision plus large des problématiques en jeu. L’importance du défi scientifique et l’impact qu’aura l’énergie de fusion étaient déjà bien perçus, mais cela restait avant tout pour moi un problème de physique, dont l’ambition me fascinait. Lors de mon postdoc à l’Université de Floride, je me souviens avoir été approché par un collègue qui m’a expliqué travailler avec une entreprise privée de fusion, Tri-Alpha Energy, et m’a encouragé à les rejoindre. Je crois que j’ai dû le dévisager comme s’il était un extraterrestre, cela me semblait complètement décalé ! Cette entreprise existe toujours (TAE Technologies) et génère des revenus en commercialisant des appareils d’imagerie médicale développés dans le cadre de ses recherches sur la fusion.

À l’heure actuelle, de nombreuses start-ups travaillent sur la fusion. Leur existence change la perception qu’ont le public et les décideurs : la physique est suffisamment comprise, et le travail sur ITER a suffisamment fait progresser la technologie pour se lancer dans la bataille de la commercialisation dès maintenant. Les années à venir vont être très intéressantes.

Il me semble, par ailleurs, observer la montée en puissance d’un courant de pensée hostile au progrès scientifique en général et à la fusion en particulier. Se doter d’une nouvelle source d’énergie est perçu comme néfaste – on s’entête dans une forme de fuite en avant alors qu’il faudrait juste être plus sobre. Il s’agit là d’une question de choix de société et le rôle des scientifiques est d’informer ces choix – pour ce qui concerne l’énergie, ma conviction est qu’il est plus sage de se donner les moyens d’agir. S’il devient vital d’extraire du CO2 de l’atmosphère en masse, les besoins énergétiques seront gigantesques et la fusion ne sera pas de trop !

Mais l’actualité de ces dernières années, à la fois géopolitique et climatique, a refocalisé l’attention du grand public sur la question de l’énergie, bien plus qu’au moment où j’ai débuté ma carrière. Il me semble que la fusion est perçue comme une partie de la solution. À mon sens le seul danger est que son développement soit utilisé comme prétexte pour ne pas réduire les émissions de gaz à effet de serre dès maintenant. Les moyens mis dans la fusion peuvent paraître énormes du point de vue de la recherche, mais il faut les comparer au coût de notre système énergétique. Il est alors clair que les ressources mises dans la fusion ne vont pas étouffer la transition énergétique.

Enfin, le projet ITER résulte de discussions entre Reagan et Gorbatchev – il y avait vraiment l’idée de développer cette source d’énergie dans un but de paix. Cette dimension de collaboration scientifique entre grandes puissances pour des applications au bénéfice de tous existe encore dans le monde multipolaire d’aujourd’hui et contribue à donner une image positive de la fusion magnétique.

Est-ce différent de faire de la recherche sur la fusion nucléaire dans un pays où la fission est si bien installée, par rapport à un pays où le mix énergétique n’inclut pas ou peu de fission ?

Y. M. : C’est une question intéressante. L’énergie de fusion sera une énergie pilotable décarbonée, qui est donc très utile pour stabiliser les réseaux électriques et garantir la continuité de l’alimentation. Il en va de même pour les centrales nucléaires actuelles, mais les réserves en uranium sont limitées, surtout dans un contexte de forte croissance du secteur. L’approvisionnement en uranium est l’une des raisons pour lesquelles la France relance aujourd’hui le programme de « réacteurs à neutrons rapides », une technologie de fission nucléaire. Certaines promesses de ces réacteurs sont similaires à celles de la fusion (avec sa capacité à produire de l’électricité pendant très longtemps sur les réserves actuelles, etc.) et ces réacteurs à neutrons rapides ont déjà produit de l’électricité en France (Superphénix). Par contre, cette technologie présente des risques comparables à ceux des centrales nucléaires actuelles. Quoi qu’il en soit, leur relance joue certainement un rôle sur la perception de l’utilité de la fusion à moyen terme au niveau des acteurs français du domaine.

Si l’on regarde ce qui se passe ailleurs, le Royaume-Uni investit lourdement dans la fusion et construit des réacteurs nucléaires EPR français en parallèle. La Chine a les moyens de développer toutes les technologies de front : les variantes de la fission, et plusieurs projets de fusion majeurs. De fait, on estime que la Chine dépense plus de 1,5 milliard d’euros par an pour son programme fusion, devant les États-Unis et l’Europe.

La situation est différente en Allemagne, qui est sortie du nucléaire et où la production pilotable est essentiellement assurée par des centrales au charbon et au gaz, qui émettent des quantités importantes de gaz à effet de serre. L’Allemagne s’est dotée récemment d’une feuille de route ambitieuse pour la fusion, dans l’optique de décarboner à terme cette part pilotable.

Le fait est que si la France investit lourdement dans l’énergie nucléaire, elle investit également dans la fusion : dans le projet ITER dont les retombées économiques sont majeures (6 milliards d’euros de contrats pour les industriels français à ce jour) et, en parallèle, dans l’étape suivante, à travers le projet de PEPR et le soutien à une start-up française du domaine, située à Grenoble, Renaissance Fusion.

Avec la fusion, les échéances semblent toujours lointaines – on parle de plasma dans ITER en 2035, de génération d’électricité pour alimenter le réseau à la fin du siècle. Est-ce que vous avez l’impression de vivre dans le futur en travaillant sur quelque chose qui n’arrivera pas d’ici la fin de votre carrière ?

Y. M. : Quelqu’un a comparé ça aux constructeurs de cathédrales. On travaille sur un projet dont les fruits ne seront pas nécessairement disponibles dans la durée de notre vie. On se met au service de quelque chose de plus grand. C’est une forme d’humilité, chacun apporte sa pierre ! Alors, il y a les boutades habituelles sur la fusion (« C’est pour dans trente ans et ça le restera »)… mais ce que je constate, c’est qu’il y a beaucoup de progrès, comme je vous le disais, sur les performances depuis les années 1970.

En ce moment, on progresse sur des aspects importants, comme le record de durée de plasma réalisé dans West cette année (1 337 secondes, soit 22 minutes).

En termes de performance sur le gain de fusion, les progrès ont été portés par nos collègues de la fusion inertielle, qui utilisent des lasers et ont obtenu des gains nets supérieurs à 1, c’est à dire que le plasma a produit plus d’énergie que ce qui lui a été apporté par les lasers. Sur ce point, pour la fusion magnétique, nous sommes dans une phase de latence, le temps qu’ITER soit finalisé. Je pense qu’une des raisons pour lesquelles ça prend autant de temps, c’est que les objectifs d’ITER sont extrêmement ambitieux : puisque on veut faire dix fois mieux qu’aujourd’hui en termes de performance, et le faire pendant mille secondes pour s’approcher du fonctionnement d’une centrale… alors que les records de performance actuels, en termes de gain, ont été atteints pour moins d’une seconde.

En d’autres termes, vous cherchez à faire dix fois mieux pendant mille fois plus longtemps…

Y. M. : Oui, et c’est important, parce que certaines start-ups promettent des choses bien plus tôt, mais sur des durées de plasma beaucoup plus courtes. Les résultats seront très intéressants, mais cela leur permet d’éviter pour l’instant des problèmes que l’on aura de toute façon, un jour ou l’autre, dans une centrale.

Mais je pense qu’on travaille en fait en parallèle, car ces start-ups poussent des technologies qui pourraient s’avérer clé pour la suite. Ma conviction, c’est que grâce à ces efforts combinés, l’étape « post-ITER » va beaucoup accélérer.

Prix du pétrole: de nouveau en recul

Prix du pétrole: de nouveau en recul

Le prix du baril de Brent de la mer du Nord, pour livraison en juillet, a lâché 0,81% à 66,09 dollars. Son équivalent américain, le baril de West Texas Intermediate, pour livraison en juin, a perdu 0,82% à 63,15 dollars.

L’effet des discussions entre la Chine et les États-Unis sur les taxes douanières aura été de courte durée sur la tendance à la hausse des prix du pétrole. Le baril retrouve ses prix bas en raison des inquiétudes sur la croissance mondiale notamment aux États-Unis.

L’augmentation des surtaxes douanières «entraînera des difficultés économiques et freinera une croissance saine de la demande de pétrole», projettent les experts du secteur. «Avec le ralentissement de l’élan actuel, les marchés prennent en compte le fait que l’Organisation des pays exportateurs de pétrole et ses alliés (Opep+) augmente sa production», ce qui ravive les inquiétudes d’une offre trop abondantes, selon Bart Melek.

Le cartel est censé annuler ses réductions volontaires de production en mai et juin, passant à un rythme de 411.000 barils par jour (b/j), contre 137.000 b/j initialement prévu. «Il existe un consensus croissant sur le fait que les stocks mondiaux de pétrole vont gonfler cette année, et seront plus élevés qu’en 2024».

Mercredi, le marché a aussi réagi à la marge à la hausse inattendue des stocks de pétrole aux États-Unis pour la semaine achevée le 9 mai. Selon l’Agence américaine sur l’énergie, ces réserves ont augmenté de 3,5 millions de barils, alors que les analystes tablaient au contraire sur une baisse d’environ 2,2 millions de barils, d’après la médiane d’un consensus établi par l’agence Bloomberg.

Passer la publicité

Energie-Nouveau recul des prix du pétrole

Energie-Nouveau recul des prix du pétrole


Les cours du pétrole ont terminé encore en baisse , plombés par les craintes de ralentissement économique provoqué par la guerre commerciale entre Washington et Pékin, ainsi que par les incertitudes quant à une possible augmentation de production de l’Opep+.

Le prix du baril de Brent de la mer du Nord, pour livraison en juin, en baisse à 64,11 dollars.

Le baril de la mer du Nord, pour livraison en juin, dont c’était le dernier jour de cotation, a perdu 1,76% à 63,12 dollars.

Son équivalent américain, le baril de West Texas Intermediate, pour livraison en juin, a dévissé de 3,66% à 58,21 dollars, soit son plus bas niveau en clôture depuis 2021.

Des nouvelles données économiques en provenance mardi des États-Unis ont également participé à miner les cours du brut, dont un indice évaluant la confiance des consommateurs américains. Selon ce baromètre, leur confiance a continué de dégringoler, tombant à «un niveau pas atteint depuis le début de la pandémie de Covid». «Le ralentissement des dépenses au cours des prochains mois (pourrait) également peser sur les prix du pétrole», puisqu’il lesterait la demande, a souligné M. Lipow.

En outre, «les prix du brut continuent à se contracter alors que le marché tente d’évaluer la possibilité que l’Organisation des pays exportateurs de pétrole et ses alliés (Opep+) augmente sa production», a estimé dans une note Phil Flynn, analyste de Price Futures Group. «Le marché attend la réunion de l’Opep+ du 5 mai (…) pour voir si (le cartel) va accélérer sa production, et donc augmenter l’offre».

Nouveau recul des prix du pétrole

Nouveau recul des prix du pétrole


Les cours du pétrole ont terminé encore en baisse mardi, plombés par les craintes de ralentissement économique provoqué par la guerre commerciale entre Washington et Pékin, ainsi que par les incertitudes quant à une possible augmentation de production de l’Opep+.

Le prix du baril de Brent de la mer du Nord, pour livraison en juin, a perdu 2,44% à 64,25 dollars. Son équivalent américain, le baril de West Texas Intermediate, pour livraison le même mois, a lâché 2,63% à 60,42 dollars.

Des nouvelles données économiques en provenance mardi des États-Unis ont également participé à miner les cours du brut, dont un indice évaluant la confiance des consommateurs américains. Selon ce baromètre, leur confiance a continué de dégringoler, tombant à «un niveau pas atteint depuis le début de la pandémie de Covid». «Le ralentissement des dépenses au cours des prochains mois (pourrait) également peser sur les prix du pétrole», puisqu’il lesterait la demande, a souligné M. Lipow.

En outre, «les prix du brut continuent à se contracter alors que le marché tente d’évaluer la possibilité que l’Organisation des pays exportateurs de pétrole et ses alliés (Opep+) augmente sa production», a estimé dans une note Phil Flynn, analyste de Price Futures Group. «Le marché attend la réunion de l’Opep+ du 5 mai (…) pour voir si (le cartel) va accélérer sa production, et donc augmenter l’offre».

Carburants : les prix chutent en France

Carburants : les prix chutent en France

Les prix à la pompe en France ont chuté la semaine dernière, selon les dernières données du ministère de la Transition écologique, rendues publiques ce lundi. En date du vendredi 11 avril, le litre de gazole coûtait 5,5 centimes d’euro de moins que la semaine précédente, et s’affichait ainsi à 1,5749 euro. Il touche ainsi un plus bas depuis plus fin 2021, soit plus de trois ans, avant le déclenchement de la guerre en Ukraine qui avait fait s’envoler les prix de l’énergie.

Du côté de l’essence, le prix du litre de sans-plomb 95-E10 s’effondre de 4,9 centimes, à 1,6802 euro, au plus bas depuis septembre 2024. Le sans-plomb 95 s’affiche lui à 1,7192 euro, en chute de 5,4 centimes sur une semaine. Le sans-plomb 98 est en repli de 4,4 centimes, à 1,7864 euro.

Les cours du pétrole ont dégringolé à la suite du «jour de la libération», le 2 avril : lors des quatre séances suivantes, le baril de Brent de la mer du Nord, pour livraison en juin, a baissé de plus de 17%, tombant même sous les 60 dollars, au plus bas depuis février 2021. Son équivalent américain, le baril de West Texas Intermediate, pour livraison en mai, a lui reflué de plus de 18%.

Énergie : l’Académie des sciences contre la nouvelle programmation (PPE)

Énergie : l’Académie des sciences contre la nouvelle programmation (PPE)

L’Académie des sciences démolit la nouvelle programmation pluriannuelle de l’énergie (PPE3) que le gouvernement s’apprête à entériner par décret. Ce document stratégique, qui fixe la trajectoire énergétique du pays pour 2025-2035, est jugé «peu rigoureux», «incohérent» et déraisonnablement favorable aux énergies renouvelables.

La PPE3 est accusée de surestimer les besoins en électricité de l’Hexagone. alors que la consommation électrique française ne cesse de baisser, passant de 480 TWh, en 2017, à 449 TWh en 2024. Résultat : le scénario proposé créerait «des surcapacités considérables, coûteuses et inutiles», avec un excédent d’offre «dépassant les 100 TWh», s’alarme l’Académie.

L’avis suggère donc au gouvernement de refaire ses calculs, estimant que ce document «n’a pas non plus le niveau de rigueur attendu d’une production des services de l’État».

Autre critique majeure : la place accordée aux renouvelables (EnR), jugée irréaliste. La PPE3 mise en effet sur une augmentation massive du solaire et de l’éolien, dont la production passerait de 73 TWh en 2023 à 254-274 TWh en 2035. Une orientation risquée, selon l’Académie, qui rappelle le caractère «intermittent» et «non pilotable» de ces sources d’énergie, introduisant une «volatilité accrue des prix de l’électricité». «Cette évolution entraînerait des surcapacités considérables, coûteuses et inutiles, générant un excédent d’offre par rapport à la demande dépassant les 100 TWh, et surtout un taux excessif de production d’électricité non pilotable proche de 40%», note l’avis.

À la place, l’Académie défend une «production nucléaire substantielle (360-400 TWh), source d’énergie bas-carbone de stock, à la fois massive et pilotable». Elle plaide également pour le «maintien des objectifs de construction de nouveaux réacteurs EPR». Le débat prévu au Parlement sur la PPE fin avril, comme l’avait annoncé le premier ministre, François Bayrou.

Droits de douane supprimés contre l’achat de 350 milliards de dollars d’hydrocarbures

Droits de douane US supprimés contre l’achat de 350 milliards de dollars d’hydrocarbures

Trump voudrait que les 27 importent pour 350 milliards de dollars d’hydrocarbures en échange d’une levée totale des droits de douane sur leurs exportations.

Cette semaine, le très imprévisible président américain a demandé aux (méchants) Européens d’acheter pour 350 milliards de dollars d’énergie, moyennant quoi, la totalité des tarifs de douane pourraient être supprimés.

«Les Européens vont devoir nous acheter de l’énergie, parce qu’ils en ont besoin», a affirmé Donald Trump devant un parterre de journalistes, avant de préciser le montant : 350 milliards.

Pétrole : en recul

Pétrole : en recul

 

Des mouvements de yo-yo pour le pétrole dans les prix sont actuellement en baisse mais la tendance devrait se maintenir autour de 80 $. Les cours du pétrole ont reculé mercredi, affaiblis par un rebond des stocks américains de brut et par les nouvelles évolutions autour de l’instauration de droits de douane aux États-Unis. Le prix du baril de Brent de la mer du Nord, pour livraison en mars, a baissé de 1,17% à 76,58 dollars. Le cours de son équivalent américain, le baril de West Texas Intermediate (WTI), pour livraison le même mois, a perdu 1,56% à 72,62 dollars.

Début janvier, les prix du Brent et du WTI ont dépassé 80 dollars le baril. Les opérateurs attendent désormais la réunion de l’Organisation des pays exportateurs de pétrole et ses alliés (Opep+) lundi prochain, à l’occasion d’un comité ministériel conjoint de suivi (JMMC). La semaine dernière, M. Trump a demandé au cartel, en visant notamment l’Arabie saoudite, de faire baisser les prix du pétrole en augmentant sa production.

Facteur supplémentaire de baisse des prix: selon certains analystes, l’alliance Opep+ pourrait être plus encline à ne pas repousser de nouveau la réintroduction des 2,2 millions de barils de réductions de production consenties par huit des pays membres (dont l’Arabie saoudite et la Russie).

 

Passer la publicité
Passer la publicité
La rédaction vous conseille

Électricité : une baisse des prix de 15 % ?

Électricité : une baisse des prix de 15 % ?

 

Une baisse des tarifs  de 15 % pourrait concerner concerne au total 20 millions de ménages au tarif réglementé de vente de l’électricité auxquels s’ajoutent les quatre millions de ménages dont les contrats sont indexés sur le TRV.

Pour les 10 millions de ménages ayant opté pour un autre type de contrat, notamment les offres de marché, la CRE ( Commission de régulation) rappelle qu’ils ont « généralement d’ores et déjà bénéficié de la baisse des prix de marché depuis plusieurs mois, ce qui leur permet d’avoir aujourd’hui un contrat largement en-dessous des TRVE. » La commission de régulation de l’énergie estime toutefois que les fournisseurs alternatifs seront toujours capables de formuler des offres attractives.

« La plupart d’entre eux pourraient voir leur facture augmenter avec les hausses du TURPE (tarif de réseau) et des taxes, selon leur contrat et la politique commerciale de leur fournisseur, réduisant de fait l’écart avec le TRVE. »

Interrogée sur l’évolution future du tarif réglementé de vente, la CRE indique ne pas être en capacité de savoir l’orientation des prix de l’électricité qui reste soumise à « beaucoup trop d’inconnues » et dépendra des niveaux observés en 2025.

Quelques jours avant la censure de son gouvernement début décembre, l’ancien Premier ministre Michel Barnier avait indiqué renoncer à la hausse de la taxe intérieure sur la consommation d’électricité (TICFE) au-delà de son niveau d’avant-crise. Il avait alors précisé que cette décision se traduirait par une baisse de 14% du tarif réglementé pour les particuliers au lieu de 9%. Alors que la baisse du TRV atteint finalement 15%, Emmanuelle Wargon précise que le chiffre de 14% a « toujours été provisoire »:

Trump contre le développement de toutes nouvelles éoliennes

Trump contre le développement de toutes nouvelles éoliennes

Il y avait, en 2023, plus de 90.000 éoliennes sur le territoire américain, Il n’y en aura plus de car trame vient de décider d’arrêter tout développement. En cause leur inefficacité énergétique et surtout leurs coûts. Notons que le même débat agite la France bien que Bayrou ait réaffirmé la primauté indiscutable de l’énergie nucléaire.

Selon un rapport du Congrès, ces incitations fiscales ont coûté 17,9 milliards de dollars au gouvernement américain sur la période allant de 2019 à 2023.

Outre le coût, le promoteur immobilier leur reproche leur laideur ainsi que les problèmes qu’ils causent aux baleines, selon lui. Outre un veto sur les nouvelles éoliennes, Donald Trump a estimé mercredi que «les milliers (d’éoliennes) inactives ou cassées devraient être démontées au plus vite».

Les sanctions américaines contre la Russie font monter le cours du pétrole

Les sanctions américaines contre la Russie font monter le cours du pétrole

 

Les  États-Unis s’apprêteraient à prendre des mesres contre la «flotte fantôme» russe ( (Navires qui circulent déjà avec de faux pavillons pour éviter les sanctions déjà prises), ce qui pourrait avoir un impact sur les exportations pétrolières du Kremlin. Vers 14H20 GMT (15H20 à Paris), le prix du baril de Brent de la mer du Nord, pour livraison en mars, monte de 4,50% à 80,38 dollars. Son équivalent américain, le baril de West Texas Intermediate, pour livraison en février, augmente de 4,80% à 77,47 dollars. «Les États-Unis devraient annoncer prochainement de nouvelles sanctions contre la Russie», affirment les analystes de DNB, «y compris sur de nombreux pétroliers, ce qui perturbera davantage les exportations de brut russe».

 

Énergie renouvelable : la France devant l’Allemagne !

Environnement-Énergie renouvelable : la France devant l’Allemagne !

Il y a les discours sur fond idéologique mais il y a aussi les réalités. L’Allemagne qui ne cesse de critiquer la France pour sa politique énergétique en réalité  a eu moins recours aux énergies renouvelables que la France. Notons par parenthèse le revirement de certains responsables allemands vis-à-vis des perspectives du nucléaire. Cela d’autant plus que actuellement l’Allemagne importe de l’électricité nucléaire française.

 

Selon de nouvelles données d’Eurostat, les énergies renouvelables ont représenté 22,3% de la consommation énergétique finale de la France en 2023, contre 21,5% pour l’Allemagne. Si l’on se concentre sur l’électricité, l’Hexagone reste sur le podium des plus faibles émetteurs de gaz à effet de serre.

Selon EDF, puisqu’en 2023, l’atome participait à plus de 65% de la production d’électricité du pays.

12345...100



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol