Archive pour le Tag 'avenir'

Page 5 sur 11

Avenir Ferroviaire : la grande pagaille avec la libéralisation partielle des TER

Avenir Ferroviaire : la grande pagaille avec la libéralisation partielle des TER

 

A terme, il faut sans doute s’attendre à une grande pagaille à la libéralisation partielle décidée par certaines régions concernant les TER ( trains régionaux de la SNCF.) Ainsi seront transférés des morceaux de lignes, des fuseaux horaires ou des portions de desserte qui risquent  de ne pas favoriser la qualité globale de la desserte. En cause pour les régions qui financent l’essentiel de ses transports le cout jugé exorbitant de la SNCF.

 

Le vrai problème sera celui de la compétitivité et de la rentabilité bien sûr tout autant que celui de l’affectation des créneaux horaires, créneaux  théoriques mais aussi créneaux pratiques  puisque sur les mêmes lignes souvent vont circuler des trains de marchandises, des trains de voyageurs rapides et des trains régionaux.

La pire contradiction concernant la libéralisation du transport de voyageurs sera de voir la SNCF concurrencer à l’étranger les compagnies concurrentes et inversement de voir les sociétés étrangères venir bousculer la concurrence nationale en France. Bref la différence risque de se faire sur les aspects sociaux puisque les autres coûts seront difficilement compressibles.

Les textes prévoient des transferts et des modifications du statut des personnels avec  le risque de produire de nombreux conflits. Cette vague de libéralisation a été tentée au Royaume-Uni et s’est terminée par un énorme fiasco avec la nécessité de reprise par l’État d’un réseau en décomposition.

Le problème, c’est que la plupart des régions n’ont aucune compétence technique en matière de transport ferroviaire et vont rapidement constater les dérives par rapport  au contrat initial.

Les transports régionaux appelés TER ont été transférés aux régions essentiellement pour des motifs financiers. Il s’agissait de transposer le coût important de ces dessertes aux régions qui assument les trois quarts du financement. Or la question n’est pas uniquement financière mais aussi technique, sociale et commerciale.

De ce point de vue ,l’État n’a jamais été en capacité d’imposer des normes précises notamment en  matière de gestion à la SNCF et l’entreprise n’a pas non plus fait les efforts nécessaires pour mettre en place des conditions d’exploitation adaptées à la nature de  es transports. Résultat : le risque ,comme pour le fret, est un jour que nombre ces dessertes soit transférées sur route.

Triple responsabilité : celle de l’État qui ne sait pas assurer sa tutelle, celle de région incompétente, celle de cheminots corporatistes bloqués sur des conditions d’exploitation d’il y a 50 ans. La libéralisation envisagée par certaines régions pose aussi la question de la continuité de nombre de dessertes sur d’autres régions.

Avenir automobiles autonomes: moitié voitures, moitié smartphones …mais prix double ?

Avenir automobiles  autonomes: moitié voitures, moitié smartphones …mais prix double ?

Le Figaro consacre un papier sur les perspectives d’avenir du véhicule automobile qui sera en grande partie autonome et électrique : moitié-moitié. Mais le prix, lui, risque d’être le double. Une vision complètement technocratique.. Il y a d’abord la question de l’autonomie qui ne sera réellement résolue que lorsque les automobiles disposeront de sites propres ( leur s infrastructures réservées) comme le train ou le métro.

Ce n’est évidemment pas pour demain car il faudrait remplacer la totalité du réseau routier. Au mieux il y a quelques navettes sur des itinéraires protégés. La deuxième critique qu’on peut adresser à cette vision est la sophistication informatique. Les mêmes spécialistes prévoient d’ailleurs que la moitié du prix des automobiles du futur sera justifiée par ses équipements informatiques. En réalité pour l’essentiel des gadgets maintenus et largement développés pour justifier des prix très hauts.

Dans une perspective responsable vis-à-vis de l’environnement on doit au contraire déshabiller l’automobile de tous ces gadgets particulièrement coûteux pour la collectivité comme pour l’usager. L’automobile doit redevenir ce qu’il est : tout simplement un moyen de mobilité adaptée au type de flux , au poids de la charge et la vitesse autorisée. En clair une voiture déshabillée  des gadgets  et charges inutiles pour en réduire le prix de moitié et non le multiplier par deux.

Avenir véhicules autonomes: moitié voitures, moitié smartphones …mais prix double ?

Avenir véhicules autonomes: moitié voitures, moitié smartphones …mais prix double ?

Le Figaro consacre un papier sur les perspectives d’avenir du véhicule automobile qui sera en grande partie autonome et électrique : moitié-moitié. Mais le prix, lui, risque d’être le double. Une vision complètement technocratique.. Il y a d’abord la question de l’autonomie qui ne sera réellement résolue que lorsque les automobiles disposeront de sites propres ( leur s infrastructures réservées) comme le train ou le métro.

Ce n’est évidemment pas pour demain car il faudrait remplacer la totalité du réseau routier. Au mieux il y a quelques navettes sur des itinéraires protégés. La deuxième critique qu’on peut adresser à cette vision est la sophistication informatique. Les mêmes spécialistes prévoient d’ailleurs que la moitié du prix des automobiles du futur sera justifiée par ses équipements informatiques. En réalité pour l’essentiel des gadgets maintenus et largement développés pour justifier des prix très hauts.

Dans une perspective responsable vis-à-vis de l’environnement on doit au contraire déshabiller l’automobile de tous ces gadgets particulièrement coûteux pour la collectivité comme pour l’usager. L’automobile doit redevenir ce qu’il est : tout simplement un moyen de mobilité adaptée au type de flux , au poids de la charge et la vitesse autorisée. En clair une voiture déshabillée  des gadgets  et charges inutiles pour en réduire le prix de moitié et non le multiplier par deux.

Avenir automobile « Le logiciel va tout changer » !

Avenir  automobile « Le logiciel va tout changer » !!! (Roland Berger)

Éric Kirstetter, associé senior chez Roland Berger et spécialiste de l’automobile explique que le logiciel va tout changer dans la voiture du futur. Une stratégie qui peut largement se discuter dans la mesure où l’automobile se bourre  surtout d’informatique pour justifier le maintien de prix à un très haut niveau. En effet ,nombre de ces éléments de l’architecture logicielle sont inutiles et poseront de graves difficultés d’entretien au garagiste du coin. D’où aussi l’accroissement des dépenses d’entretien.En outre l’objectif devrait être de déshabiller l’automobile de tous les gadgets inutiles qui alourdit son poids et son prix et contribuent un bilan carbone encore plus négatif.

 

Extrait de l’interview d’Éric Kirstetter à la Tribune

 

Depuis plusieurs mois, l’actualité automobile est émaillée d’annonces autour des logiciels. En début d’année, Volkswagen a annoncé un plan d’envergure pour reprendre la main sur cette technologie. On a du mal à imaginer l’ampleur de la thématique…

ÉRIC KIRSTETTER - Ce qui est en jeu, c’est l’architecture logicielle de la voiture du futur. C’est une fusée à quatre étages. Le premier étage, c’est ce qu’on appelle le hardware, également appelés les calculateurs. Ce sont eux qui font fonctionner les équipements de la voiture. Le deuxième étage, c’est le middleware, autrement intitulé operating system [le système d'exploitation, Ndlr]. Si on devait comparer une voiture à un ordinateur, c’est ce qui équivaudrait à Windows. Il est nécessaire pour faire fonctionner tous les équipements d’une voiture, du moteur au châssis, en passant par la partie digitale des commandes de bord, ou le GPS. Le troisième étage, ce sont les applications. Elles gèrent tous les équipements de la voiture pour la faire fonctionner et créer « l’expérience utilisateur » (donner une expérience de conduite propre à la marque, proposer une interface utilisateur intuitive et agréable à utiliser…). Enfin, le quatrième étage, c’est le cloud. Cette technologie va s’imposer demain lorsque tous les véhicules seront connectés.

Le cloud est une technologie récente. Que va-t-il changer dans le modèle de l’architecture logicielle d’un véhicule ?

Il va tout changer. Demain, les voitures connectées auront accès à des données qui seront extérieures à la voiture, laquelle pourra consolider ces données pour définir des fonctionnalités spécifiques, en fonction du profil du conducteur, ou des réglages particuliers d’un véhicule. Typiquement, si vous entrez l’adresse d’un restaurant sur votre GPS, la voiture sera capable de vérifier si le temps de trajet, mis à jour en temps réel via les données livrées par le cloud, vous permettra d’arriver à l’heure avant la fermeture du restaurant; dans le cas contraire, le système pourra alors vous proposer des solutions alternatives. L’autre rupture que va apporter le cloud, c’est qu’il va permettre d’externaliser la puissance de calcul nécessaire au fonctionnement de la voiture. Cela va totalement changer la place des calculateurs présents dans une voiture. Aujourd’hui, on compte, en fonction des modèles, entre 50 et 70 calculateurs. Chaque fonction est réalisée avec un calculateur spécifique, celui-ci est vendu par un tier-one [le plus souvent un équipementier, Ndlr] avec des capteurs et des actionneurs. Demain, les calculs seront davantage centralisés dans de plus gros calculateurs de plus haute performance, qui couvriront plusieurs fonctions. Ces calculateurs vont se répartir aux quatre coins de la voiture pour centraliser les fonctionnalités et réduire le câblage des voitures.

Tout sera donc géré de l’extérieur ?

Non. Le middleware restera un élément stratégique majeur pour l’automobile de demain. Là aussi, le secteur s’apprête à basculer dans une nouvelle ère. Pour schématiser le monde d’avant: il y avait autant d’operating system que de modèles disponibles sur le marché. Ainsi, un constructeur devait reconstruire un système d’exploitation depuis le début à chaque fois qu’il mettait sur le marché un nouveau modèle. Mais avec le cockpit de plus en plus digital, le cloud, les assistants de conduite de plus en plus gourmands en données, ces systèmes d’exploitation s’avèrent de plus en plus complexes et coûteux à mettre en œuvre, et il est très difficile de réutiliser les applications déjà développées pour la version antérieure du véhicule. La voie générale que semblent suivre les constructeurs, c’est donc de créer un système d’exploitation en propre qui va pouvoir être réutilisé d’un véhicule à l’autre et qui va permettre de réutiliser et d’améliorer facilement les applications qui avaient été développées pour le véhicule précédent. Si on veut une comparaison, on peut dire que les constructeurs développent leur propre système Windows qui leur permet d’améliorer facilement Word et Excel entre chaque véhicule.

Les mini centrale ( SMR) avenir du nucléaire ?

Les mini centrale ( SMR) avenir du nucléaire ?

Suite aux déclarations du président de la république visant à développer les minis centrales nucléaires, certains médias se demandent si cette technologie n’est pas l’avenir de la filière.

Pour certains pays qui importent une grande partie de leur électricité notamment pays en développement peut-être. Les minis centrales sont plus souples, plus évolutives et moins chères que les centrales classiques.

La France par contre a investi l’essentiel de son potentiel dans les grandes centrales d’une puissance actuelle de 900 MW avec les centres classiques et 1600 MW avec l’EPR. Ce parc reste encore à amortir d’autant qu’on y a engagé des travaux considérables destinés à renforcer la sécurité et en même temps à prolonger la vie des installations d’au moins une vingtaine d’années.

Aujourd’hui le nucléaire produit 70 % de l’électricité française. Reste que des minis centrales pourraient être utiles ne serait-ce par exemple que pour compenser le caractère intermittent de certaines énergies. Ce qui éviterait de recourir à des sources très polluantes en carbone.

Il y a évidemment un enjeu de souveraineté économique derrière le nucléaire qui constitue un des atouts technologiques du pays. Un enjeu aussi de compétitivité internationale. Si la France développe son parc et différentes technologies c’est aussi pour les exporter. De ce point de vue la, France était un peu en retard concernant les minis centrales et leur développement vise à compléter l’offre globale de la France dans ce domaine.

Mais ces minis centrales minis centrales ne présentent guère d’intérêt comme moyen de substitution aux centrales actuelles. On peut même dire et reconnaître que l’objectif de réduire la part du nucléaire à 50 % est une sorte d’illusion qui découle d’un marchandage passé entre les écologistes et François Hollande. La fermeture des centrales a essentiellement un but d’affichage politique. C’est une erreur économique, énergétique et même écologique. Le prix à payer pour l’instant a été la fermeture d’une centrale de Fessenheim qui pouvait encore fonctionner pendant 20 ou 30 ans.

Comme déjà indiqué avec les énormes travaux engagés pour renforcer la sécurité du parc actuel d’un cout de l’ordre de 50 milliards, la stratégie pertinente est donc d’amortir les installations actuelles en prolongeant leur durée de vie de 20 à 30 ans au moins et non de les remplacer par des minis centrales qui ne peuvent être pour la France qu’un complément.

Ne parlons pas de l’illusion qui voudrait que des énergies alternatives comme les éoliennes le solaire pourrait remplacer le nucléaire. Certes ces synergies peuvent être utiles comme complément mais certainement pas comme axe stratégique pour l’énergie en France.

Présidentielle 2022 : « offrir un avenir à tous nos enfants » (Hidalgo)

Présidentielle 2022 : « offrir un avenir à tous nos enfants » (Hidalgo)

 

Un slogan qui ne mange pas de pain, celui d’Anne Hidalgo déclarant sa candidature « offrir un avenir à tous nos enfants » et « bâtir une France plus juste »

Un slogan qui se veut très rassembleur puisqu’il pourrait être repris par chacun des candidats tellement il manque de fond. Un slogan sans doute plus adapté pour faire la promotion des yaourts ou d’une marque de lessive que pour constituer une orientation politique.

Créditée actuellement de 7 à 9% des voix selon les sondages, la maire de Paris rejoint une longue liste de candidats à gauche. Outre Jean-Luc Mélenchon, le patron de la France insoumise, sont aussi déclarés Arnaud Montebourg et Fabien Roussel, le chef du Parti communiste. Il faudra aussi compter avec le gagnant de la primaire écologiste, dont le premier tour est organisé à la fin de la semaine.

Voitures à Hydrogène : quel avenir ?

Voitures à  Hydrogène : quel avenir ?

Le handicap des voitures électriques c’est évidemment l’énorme poids mort des batteries aussi la question de la performance sans parler  de la problématique écologique.( Extraction des métaux et Recyclage). D’où l’idée d’utiliser l’hydrogène via des piles à combustible. Un article des Échos rappelle la problématique.

La pile à combustible va désormais concurrencer les batteries dans les véhicules électriques. Reste à faire baisser les coûts, produire de l’hydrogène propre et mailler le territoire de stations.

Le véhicule électrique à batteries rechargeables pourrait-il être envoyé à la retraite de façon prématurée ? Certes, il s’en est vendu quelque 2,2 millions l’an dernier, mais malgré les énormes investissements des constructeurs, les ventes ne décollent pas vraiment et les batteries sont toujours pointées du doigt : coût environnemental élevé, autonomie trop limitée et temps de recharge trop long. En face, le véhicule fonctionnant avec une pile à combustible alimentée en hydrogène sort à peine des limbes mais présente de sérieux atouts. L’Agence internationale de l’énergie (AIE), longtemps réservée sur l’hydrogène, a publié en juin dernier un rapport qui lui est très favorable, notamment dans le domaine des transports : « Le moment est venu d’exploiter le potentiel de l’hydrogène pour jouer un rôle clef dans un environnement énergétique propre, sûr et sécurisé. »

La Californie vise un million de véhicules électriques à hydrogène à l’horizon 2030. Même objectif pour la Chine, qui possède pourtant la moitié du parc mondial de véhicules électriques mais met désormais le cap sur l’hydrogène. C’est aussi une priorité nationale au Japon et en Corée. Car après une vingtaine d’années pour mettre au point la technologie, les premiers véhicules commerciaux, ceux de Toyota et de Hyundai, ont été lancés en 2014. Aujourd’hui la réglementation s’est adaptée et les arguments écologiques de la pile à combustible font mouche. Elle produit de l’électricité à partir de l’hydrogène embarqué dans un réservoir et de l’oxygène de l’air. Si bien que le véhicule ne produit ni gaz à effet de serre ni particule et ne rejette que de l’eau. En outre, faire un plein d’hydrogène prend 3 minutes au plus.

Encore faut-il avoir une station sous la main. C’est le point crucial. Le Japon et l’Allemagne ont déjà installé plusieurs dizaines de stations, tout comme la Californie et la Chine, qui prévoient d’en avoir un millier à l’horizon 2030. La France est plus timide et ne voit aujourd’hui circuler que 400 véhicules. Lancé par Nicolas Hulot, le plan national de déploiement de l’hydrogène pour la transition écologique privilégie les projets de transports en commun et de flotte captive. A l’image de Versailles, des Hauts-de-France ou de Pau où des bus fonctionnant à hydrogène entrent en service. « L’usage du véhicule hydrogène par les particuliers n’est pas prioritaire à cause du maillage de stations qu’il exige. Mieux vaut se concentrer sur les applications spécifiques comme les flottes, les professionnels ou les bus », justifie Maxime Pasquier, spécialiste du sujet à l’Ademe. Une approche trop timide pour les partisans de l’hydrogène au premier rang desquels l’Association française pour l’hydrogène et les piles à combustible (Afhypac). « L’hydrogène règle le problème de la voiture électrique et des problèmes posés par les batteries. Avec 2 milliards d’euros, soit le tiers du coût d’une ligne TGV, on construit un réseau d’un millier de stations. C’est d’abord un choix politique », s’agace Pierre-Etienne Franc, vice-président hydrogène énergie chez Air Liquide.

 Pas si simple, réplique Maxime Pasquier : « Les énergéticiens ont évidemment intérêt à distribuer de l’hydrogène. Encore faut-il le faire dans de bonnes conditions environnementales. Il faut avoir une vision globale depuis la production de l’énergie primaire jusqu’à la consommation. » En effet l’hydrogène, essentiellement produit à partir de gaz naturel, ne constitue pas encore la panacée écologique. Sans parler du rendement de la pile à combustible qui est inférieur à celui d’une batterie. Conséquence, en intégrant les émissions liées à la production d’hydrogène, une voiture à pile à combustible dégage autant de CO2 qu’une automobile à moteur thermique.

Cependant, les choses pourraient évoluer très vite puisque l’on sait produire un hydrogène « vert », certes plus cher, grâce à l’électrolyse. « Il n’y a pas de verrou technologique et les coûts vont baisser avec le passage à l’échelle industrielle », assure Florence Lambert, directrice du CEA-Liten. D’autant que les scientifiques travaillent déjà sur la technologie suivante, l’électrolyse à haute température. Dans son projet Zero Emission Valley, qui porte sur 20 stations et un millier de véhicules, la région Auvergne-Rhône-Alpes prévoit ainsi de produire l’hydrogène grâce à 15 électrolyseurs répartis sur le territoire.

L’autre atout majeur de la voiture à hydrogène, c’est l’absence de particules. « Cela permet de résoudre immédiatement un gros problème de santé publique dans une ville comme Paris », insiste Mathieu Gardies, cofondateur de Hype. La jeune entreprise, soutenue par Air Liquide et qui a passé un partenariat avec Toyota, possède une flotte de 120 taxis à hydrogène Mirai et devrait en faire rouler 600 dès l’année prochaine . « L’hydrogène, c’est le pétrole de demain sans l’inconvénient de la géopolitique. La France a un véritable savoir-faire industriel avec beaucoup de brevets au CEA mais aussi au CNRS. Il faut y aller car le monde ne va pas attendre », analyse Florence Lambert.

L’hydrogène vert pourrait aussi devenir plus abondant et moins cher de 30 % d’ici à 2030 grâce aux énergies renouvelables, estime l’AIE. « Les prix de l’électricité solaire ou éolienne ont tellement baissé que des pays pourraient en consacrer une partie à produire de l’hydrogène », prédit Paul Lucchese, pionnier du secteur au sein du CEA et président de l’Hydrogen Implementing Agreement (HIA) au sein de l’Agence internationale de l’énergie (AIE) : « Le Japon passe déjà des accords avec la Nouvelle-Zélande, le Chili ou Brunei. »

L’intérêt des pays émergents

Quant à la pile à combustible, elle devrait aussi voir ses coûts baisser, estime Pierre Forté, fondateur de la société Pragma Industries, spécialiste du vélo à hydrogène (voir ci-dessous) : « Le coût d’une batterie est lié pour 70 % au prix de ses matériaux quand celui d’une pile à combustible dépend pour 90 % de son processus de fabrication. Sous réserve qu’une rupture intervienne dans le monde des batteries, je suis donc persuadé que les piles à combustible seront à terme beaucoup moins chères. »

L’avenir de l’hydrogène dans la mobilité dépendra pourtant d’abord des infrastructures. « Je ne crois pas à un développement massif dans le véhicule léger à un horizon visible, en raison des coûts de déploiement pour assurer un réseau dense de stations de recharge. Il faudrait pour cela des volontés politiques coordonnées à un niveau international », estime Patrice Geoffron, professeur au Laboratoire d’économie de Dauphine et spécialiste de l’énergie. On pourrait voir une répartition des rôles : au véhicule à batterie la mobilité urbaine et à celui à hydrogène les trajets longue distance.

A moins que les réseaux électriques finissent par jouer les arbitres. « Dans bien des pays émergents on pousse l’hydrogène en avant car les réseaux électriques ne sont pas suffisamment stables pour assurer la recharge des batteries », observe Fabio Ferrari, président de Symbio, un fabricant de piles à combustible créé à partir de recherches menées aux CEA, filiale de Michelin et dont Faurecia devrait devenir coactionnaire d’ici la fin de l’année. Un problème qui pourrait à long terme s’étendre aux pays européens, estime Paul Lucchese : « C’est un aspect qu’on oublie, mais qu’adviendra-t-il lorsque des millions de véhicules électriques auront besoin d’une recharge rapide ? »

Il fut l’une des vedettes du G7 de Biarritz au mois d’août dernier. Développé et fabriqué parPragma Industries, une jeune entreprise locale, Alpha est le premier vélo fonctionnant grâce à l’hydrogène. Le système est logé dans le cadre. La bonbonne de gaz alimente la pile à combustible qui fournit l’électricité au petit moteur placé au niveau du moyeu, comme sur n’importe quel vélo électrique. Pragma,mis en avant par la région Nouvelle-Aquitaine, a profité de l’événement pour mettre 200 vélos à disposition des participants. Un succès puisqu’ils ont parcouru près de 4.500 kilomètres en quatre jours. Avec une autonomie de 150 kilomètres et bientôt 200 kilomètres pour un prix de 7.000 euros, qui va descendre à 4.000 euros l’an prochain, ils ne sont pas destinés aux particuliers. « Nous ne vendons pas seulement un vélo mais un écosystème complet de mobilité durable », résume Pierre Forté, le fondateur de l’entreprise. Pragma Industries a ainsi déjà vendu une centaine de vélos et des bornes de rechargement à plusieurs municipalités comme Bayonne, Saint-Lô, Cherbourg ou Chambéry. Quant aux 200 vélos présentés à Biarritz, ils ont été acquis par le groupe Engie Cofely. « Grâce au coup de projecteur du G7, nous avons beaucoup de contacts provenant du Kazakhstan, d’Inde, de Chine ou du Mexique, dans lesquels le réseau est insuffisant pour recharger les vélos électriques classiques », assure Pierre Forté.

Énergie–Fusion nucléaire : quel avenir ?

Énergie–Fusion nucléaire : quel avenir ?

Par Greg De Temmerman, Mines ParisTech (*)

Un laboratoire américain vient d’annoncer de nouveaux résultats en fusion nucléaire « inertielle », avec une production d’énergie de 1,3 mégajoule. Que représente cette avancée pour la fusion, cette « éternelle » énergie du futur ?

Entre le mégaprojet ITER, dont la construction avance mais qui a connu des débuts difficiles, les projets lancés par différents pays, les initiatives privées qui se multiplient et qui annoncent des réacteurs de fusion d’ici 10 ou 15 ans, et les résultats obtenus par le Lawrence Livermore National Laboratory le 8 août 2021, il est difficile d’y voir clair. Voici un petit tour d’horizon pour mettre tout ceci en perspective.

Confinement magnétique ou inertiel : deux voies possibles pour la fusion nucléaire

Il existe deux façons d’utiliser l’énergie nucléaire : la fission qui est à l’œuvre dans les centrales nucléaires actuelles, et la fusion.

La réaction de fusion entre le deutérium et le tritium, deux isotopes de l’hydrogène, produit un neutron et un atome d’hélium. Alors que dans la fission, des atomes lourds d’uranium sont cassés en plus petits atomes pour libérer de l’énergie, la fusion nucléaire est le processus opposé : on transforme des atomes légers en des atomes plus lourds pour libérer de l’énergie. Gregory de Temmerman, Fourni par l’auteur

Un réacteur de fusion est un amplificateur de puissance : la réaction de fusion doit produire plus d’énergie qu’il n’en faut pour chauffer le plasma à la température requise et le confiner. Le record actuel a été obtenu en 1997 par le « Joint European Torus » ou JET au Royaume-Uni, où une puissance de 16 mégawatts a été générée par la fusion magnétique, mais il a fallu 23 mégawatts pour la déclencher.

Obtenir enfin un gain supérieur à 1 et démontrer la faisabilité de la production d’énergie par la fusion est un objectif majeur de différents projets en cours.

Il y a deux voies possibles pour réaliser la fusion nucléaire : le confinement magnétique qui utilise des aimants puissants pour confiner le plasma pendant des durées très longues, et le confinement inertiel qui utilise des lasers très puissants mais très brefs pour comprimer le combustible et le faire réagir. Historiquement, la fusion magnétique a été privilégiée, car la technologie nécessaire pour la fusion inertielle (lasers notamment) n’était pas disponible. Cette dernière nécessite également des gains bien plus élevés pour compenser l’énergie consommée par les lasers.

Les deux plus gros projets sont le National Ignition Facility du Lawrence Livermore National Laboratory (NIF) aux USA et le Laser MégaJoule en France, dont les applications sont principalement militaires (simulations d’explosion nucléaires) et financées par les programmes de défense. Le NIF poursuit également des recherches pour l’énergie.

Le NIF utilise 192 faisceaux laser, d’une énergie totale de 1,9 mégajoule et d’une durée de quelques nanosecondes, pour déclencher la réaction de fusion selon une approche dite « indirecte ». En effet, le combustible est placé à l’intérieur d’une capsule métallique de quelques millimètres, qui, chauffée par les lasers, qui émet des rayons X. Ceux-ci chauffent et compriment le combustible. L’alignement des lasers est plus aisé que si ceux-ci visaient directement la cible, mais seule une partie de leur énergie est convertie en rayons X et sert au chauffage.

Le NIF a récemment fait l’objet d’une forte attention médiatique après un record de production d’énergie obtenu le 8 août 2021. Durant cette expérience, une énergie de 1,3 mégajoule a été produite, la valeur la plus élevée jamais enregistrée par cette approche.

Le gain global de 0,7 égale le record obtenu par JET en 1997 par confinement magnétique, mais si on s’intéresse au bilan énergétique du combustible lui-même (cible d’hydrogène), on comprend l’excitation dans le domaine. Celui-ci a en effet absorbé 0,25 mégajoule (la conversion laser-rayons X entraîne des pertes) et généré 1,3 mégajoule : la fusion a donc généré une bonne partie de la chaleur nécessaire à la réaction, s’approchant de l’ignition. Un réacteur devra atteindre des gains bien plus élevés (supérieurs à 100) pour être économiquement intéressant.

Le confinement magnétique est la voie privilégiée pour l’énergie, car il offre de meilleures perspectives de développement et bénéficie d’un retour d’expérience plus important.

La grande majorité des recherches se concentre sur le tokamak, une configuration inventée en URSS dans les années 1960 où le plasma est confiné sous la forme d’un tore par un champ magnétique puissant. C’est la configuration choisie par ITER, réacteur de démonstration en construction à Cadarache dans le sud de la France, dont l’objectif est de démontrer un gain de 10 – le plasma sera chauffé par 50 mégawatts de puissance et doit générer 500 mégawatts de puissance fusion. Si ce projet titanesque impliquant 35 nations a connu des débuts difficiles, la construction avance à rythme soutenu et le premier plasma est attendu officiellement pour fin 2025, avec une démonstration de la fusion prévue vers la fin des années 2030.

Le Royaume-Uni a récemment lancé le projet STEP (Spherical Tokamak for Electricity Production) qui vise à développer un réacteur connecté au réseau dans les années 2040. La Chine poursuit avec CFETR un ambitieux programme visant à démontrer la production électrique et de tritium dans les années 2040. Enfin, l’Europe prévoit après ITER un démonstrateur tokamak (DEMO) pour les années 2050, ce qui implique un déploiement seulement dans la deuxième partie du siècle.

Une autre configuration – le stellarator – est explorée notamment en Allemagne avec Wendelstein-7X qui démontre de très bons résultats. Si le confinement dans un stellarator est en deçà de ce qu’un tokamak peut atteindre, sa stabilité intrinsèque et les résultats récents en font une alternative sérieuse.

 

Les initiatives privées

En parallèle de ces projets publics, on entend de plus en plus parler d’initiatives privées, parfois soutenues par des grands noms comme Jeff Bezos ou Bill Gates. L’entreprise la plus ancienne (TAE) a été fondée en 1998 mais une accélération s’est produite après 2010 et on compte en 2021 environ une trentaine d’initiatives ayant attiré environ 2 milliards de dollars de capitaux au total. La majorité de ces initiatives promettent un réacteur dans les 10 ou 20 prochaines années et se posent comme une alternative à la lenteur de la filière classique.

Illustration du déploiement de la fusion nucléaire selon deux scénarios, plus ou moins rapides. Fourni par l’auteur

Elles utilisent les développements technologiques récents (aimants supraconducteurs à haute température par ex), ou diverses configurations dont certaines n’avaient jamais été vraiment explorées : General Fusion utilise par exemple des pistons pour compresser le combustible. Si les résultats ne sont pas toujours publiés dans la littérature scientifique, on voit régulièrement des annonces démontrant des progrès réels. Si l’une de ces entreprises venait à démontrer la production d’énergie dans les délais promis, cela pourrait fortement accélérer les possibilités d’utiliser la fusion nucléaire.

Il faut cependant garder en tête que le développement d’un premier réacteur est certes extrêmement important, mais que le déploiement d’une flotte de réacteur prendra du temps. Si on regarde les taux de déploiement du photovoltaïque, de l’éolien, et du nucléaire, on constate que dans leur phase de croissance exponentielle le taux de croissance de la puissance installée était entre 20 et 35 % par an. Si on suppose que la fusion parvient à suivre le même rythme, on voit que la fusion, en suivant la ligne ITER-DEMO, pourrait représenter 1 % de la demande énergétique mondiale (valeur 2019) vers 2090. Si on considère un réacteur dans les années 2030, ce seuil pourrait être atteint vers 2060 et la fusion pourrait jouer un rôle plus important dans la deuxième partie du siècle. La fusion reste donc une aventure au long cours.

_____

(*) Par Greg De Temmerman, Chercheur associé à Mines ParisTech-PSL. Directeur général de Zenon Research, Mines ParisTech.

La version originale de cet article a été publiée sur The Conversation.

Énergie–L’hydrogène blanc : quel avenir ?

Énergie–L’hydrogène blanc :  quel avenir ?

il y a en quelque sorte trois couleurs d’hydrogène. Hydrogène grise  provenant des hydrocarbures, l(hydrogène vert produit surtout par l’électrolyse de l’eau avec des énergies non polluantes mais aussi l’hydrogène blanc ou hydrogène naturel. Un article d’H2Mobile fait le point sur la question .

 

Appelé aussi « hydrogène natif » ou « hydrogène naturel », l’hydrogène blanc est en quelque sorte un don de la terre. Trois phénomènes géologiques différents en sont à l’origine. Tout d’abord l’altération hydrothermal de minéraux ferreux via une réaction d’oxydoréduction. Ensuite par radiolyse d’une eau riche en éléments comme l’uranium ou le plutonium. Sous l’effet d’un rayonnement ionisant, les molécules d’eau peuvent se rompre et libérer de l’hydrogène. Dernier des 3 phénomènes, le dégazage mantellique.

« Il y a de l’hydrogène naturel dans l’eau à plusieurs milliers de mètres de profondeur. Mais il y a aussi des sources à plus ou moins 100 mètres, comme celle qui a été découverte au Mali en 1987, lors d’une opération de forage pour trouver de l’eau », a lancé Nicolas Pelissier.

Pour le dirigeant de 45-8 Energy, « il ne faut négliger aucune solution pour obtenir de l’hydrogène décarboné ». Aujourd’hui, 95% de l’hydrogène utilisé est obtenu par vaporeformage. Les process sont industrialisés, le rendement est élevé et cette production apparaît très compétitive. Le reste, c’est-à-dire 5%, provient d’opérations d’électrolyse en privilégiant les énergies renouvelables. Cette pratique permet de s’affranchir des fortes émissions de CO2 de la solution par vaporeformage. Mais le coût est multiplié par 3 et le rendement est faible.

« La production d’hydrogène par électrolyse consomme actuellement environ les 2/3 de l’énergie produite. Produire ainsi l’équivalent de l’hydrogène actuellement consommé en France nécessiterait près de 100 TWh d’électricité. Même avec des avancées technologiques importantes, l’électrolyse seule ne suffira pas », a souligné Nicolas Pelissier.

Parce qu’il est produit naturellement par la planète, l’hydrogène natif ne cause aucune émission de CO2.  L’exploiter est compétitif par rapport au vaporeformage, notamment en co-valorisation.

« L’hydrogène disponible à partir de puits n’est pas pur. Il est mélangé avec d’autres gaz qui sont toujours un peu les mêmes. En particulier l’azote qu’on trouve déjà dans l’atmosphère. Mais aussi l’hélium. Dans ce second cas, les coûts d’exploitation de l’hydrogène natif peuvent être couverts par la production d’hélium dont les usages sont en plein essor  », a expliqué Nicolas Pelissier. « Des membranes sont développées spécifiquement pour séparer les 2 gaz », a-t-il précisé par la suite. Pour ce spécialiste en gaz industriels valorisés en circuit court, l’hydrogène natif doit être consommé localement, les unités de stockage ne prenant alors que la taille de hangars agricoles. Idem pour l’hélium qu’il est difficile de stocker et transporter.

Si l’hydrogène naturel suscite de plus en plus l’intérêt d’industriels (dont Engie, partenaire de 45-8 Energy) et de politiques, c’est en particulier parce que l’on découvre tous les jours de nouvelles sources dans le monde. En juillet 2020, l’ancien sénateur du Rhône, René Trégouët soutenait que « les estimations du flux naturel d’hydrogène sont importantes et pourraient répondre à l’ensemble des besoins en hydrogène du monde ». La filière naissante pour ce produit naturel n’est pourtant pas incluse à ce jour dans la stratégie nationale H2 vers 2030 dotée d’une enveloppe de 7,2 milliards d’euros.

Au niveau mondial, le village malien de Bourakébougou fait un peu figure d’exception. Depuis 30 ans, il crache un gaz qui contient une concentration d’hydrogène proche de 98 %. Le projet pilote qui l’entoure permet d’alimenter tout le village en électricité. Le puits fournit 1.300 m3 de gaz H2 blancs par jour. Sur 800 km², 25 autres installations ont été implantées, présentant les mêmes concentrations. « Pas besoin de matériel dimensionné pour les forages pétroliers. Les puits d’extraction de l’hydrogène naturel sont assimilables à ceux pour l’eau. Leur vanne peut être dissimulée dans un simple buisson », a comparé Nicolas Pelissier.

En France, l’hydrogène naturel est présent sous 3 formes différentes.Tout d’abord dans des puits, sans atteindre les concentrations exceptionnelles du village malien de Bourakébougou. Ainsi à Bugey (concentration de 0,47 à 5,24%), dans le fossé Rhénan (6%), le Jura externe (2,5%) et dans le bassin de Paris (3%). Des fuites ont été constatées dans une faille géologique du Cotentin, dans les Pyrénées, ainsi que dans les fossés Rhénan et Bressan.

L’hydrogène blanc est aussi présent dans de l’eau (mofettes) à Buis-les-Baronnies et à Molières-Glandaz, 2 territoires de la Drôme. Dans les fossé Rhénan et Bressan, l’hydrogène est présent à seulement 1 mètre de profondeur. La présence du gaz peut parfois être détectée par des vues du ciel et autres techniques d’imagerie du sous-sol. Ainsi, au cœur des vignobles de Côte-d’Or, lorsque les ceps poussent difficilement dans des zones plus ou moins grandes en formes de cercles.

L’exploration est une activité essentielle pour 45-8 Energy. Elle permet d’identifier et analyser différents sites de production d’hydrogène naturel. En France, il faut compter entre 18 et 24 mois pour obtenir un permis d’explorer. Contre 15 jours aux Etats-Unis, par exemple. Dans une démarche globale, la société mosellane développe un portfolio des lieux à explorer à l’échelle européenne. Avec l’objectif de mettre en place une première production pilote sur le territoire à horizon 2025. Chaque cas est analysé à travers plusieurs étapes visant à réduire la liste aux sites les plus prometteurs. Comme celui des Fonts-Bouillants, dans la Nièvre. Là, l’hydrogène natif est combiné avec de l’hélium.

« Les fuites existent sur place depuis l’époque gallo-romaine et n’ont pas baissé en intensité depuis. On espère pouvoir exploiter ce site sur plusieurs dizaines d’années », a indiqué Nicolas Pelissier. Des capteurs ont bien confirmé la présence des 2 gaz.

Consciente que l’exploration géologique peut faire peur aux populations qui pourraient à tort l’assimiler à la fracturation hydraulique, l’équipe de 45-8 Energy a pris l’habitude de rencontrer en amont les riverains, les associations environnementales et les collectivités publiques. Et ce, même si une phase de consultation est déjà légalement prévue avant l’attribution du permis d’explorer.

« Il existe en France 51.000 puits à eau. Pour récupérer l’hydrogène et l’hélium dans la Nièvre, il n’est pas besoin de travaux très différents. D’ailleurs nous faisons appel aux mêmes professionnels pour effectuer des puits compacts avec des foreuses géotechniques sur chenillettes », a détaillé Nicolas Pelissier. 45-8 Energy privilégie ainsi la co-valorisation. « Nous espérons nous installer sur des friches industrielles. La production finale serait stockée sur place, dans un hangar agricole. Le coût énergétique, de purification et de compression dépend du mix en présence et de la pression d’origine du gaz. C’est au cas par cas », a-t-il révélé.

Quels volumes d’hydrogène natif dans les sous-sols français, européens et mondiaux ? Il est déjà impossible d’obtenir des chiffres fiables et précis concernant le pétrole enfoui, alors que des prospections existent depuis des dizaines d’années pour lui. Les estimations sont donc plus compliquées encore pour l’H2 naturel qui commence à peine à disposer d’une filière dédiée. Le 26 mars a été officiellement lancée l’initiative EartH2 pour l’hydrogène du sous-sol. Elle permettra de fédérer les acteur académiques et industriels « de manière à faciliter l’émergence de projets collaboratifs et ambitieux ». Mais aussi de promouvoir l’apport du sous-sol en matière d’hydrogène auprès des décideurs régionaux, nationaux et européens.

L’hydrogène blanc : quel avenir ?

L’hydrogène blanc :  quel avenir ?

il y a en quelque sorte trois couleurs d’hydrogène. Hydrogène grise  provenant des hydrocarbures, l(hydrogène vert produit surtout par l’électrolyse de l’eau avec des énergies non polluantes mais aussi l’hydrogène blanc ou hydrogène naturel. Un article d’H2Mobile fait le point sur la question .

 

Appelé aussi « hydrogène natif » ou « hydrogène naturel », l’hydrogène blanc est en quelque sorte un don de la terre. Trois phénomènes géologiques différents en sont à l’origine. Tout d’abord l’altération hydrothermal de minéraux ferreux via une réaction d’oxydoréduction. Ensuite par radiolyse d’une eau riche en éléments comme l’uranium ou le plutonium. Sous l’effet d’un rayonnement ionisant, les molécules d’eau peuvent se rompre et libérer de l’hydrogène. Dernier des 3 phénomènes, le dégazage mantellique.

« Il y a de l’hydrogène naturel dans l’eau à plusieurs milliers de mètres de profondeur. Mais il y a aussi des sources à plus ou moins 100 mètres, comme celle qui a été découverte au Mali en 1987, lors d’une opération de forage pour trouver de l’eau », a lancé Nicolas Pelissier.

Pour le dirigeant de 45-8 Energy, « il ne faut négliger aucune solution pour obtenir de l’hydrogène décarboné ». Aujourd’hui, 95% de l’hydrogène utilisé est obtenu par vaporeformage. Les process sont industrialisés, le rendement est élevé et cette production apparaît très compétitive. Le reste, c’est-à-dire 5%, provient d’opérations d’électrolyse en privilégiant les énergies renouvelables. Cette pratique permet de s’affranchir des fortes émissions de CO2 de la solution par vaporeformage. Mais le coût est multiplié par 3 et le rendement est faible.

« La production d’hydrogène par électrolyse consomme actuellement environ les 2/3 de l’énergie produite. Produire ainsi l’équivalent de l’hydrogène actuellement consommé en France nécessiterait près de 100 TWh d’électricité. Même avec des avancées technologiques importantes, l’électrolyse seule ne suffira pas », a souligné Nicolas Pelissier.

Parce qu’il est produit naturellement par la planète, l’hydrogène natif ne cause aucune émission de CO2.  L’exploiter est compétitif par rapport au vaporeformage, notamment en co-valorisation.

« L’hydrogène disponible à partir de puits n’est pas pur. Il est mélangé avec d’autres gaz qui sont toujours un peu les mêmes. En particulier l’azote qu’on trouve déjà dans l’atmosphère. Mais aussi l’hélium. Dans ce second cas, les coûts d’exploitation de l’hydrogène natif peuvent être couverts par la production d’hélium dont les usages sont en plein essor  », a expliqué Nicolas Pelissier. « Des membranes sont développées spécifiquement pour séparer les 2 gaz », a-t-il précisé par la suite. Pour ce spécialiste en gaz industriels valorisés en circuit court, l’hydrogène natif doit être consommé localement, les unités de stockage ne prenant alors que la taille de hangars agricoles. Idem pour l’hélium qu’il est difficile de stocker et transporter.

Si l’hydrogène naturel suscite de plus en plus l’intérêt d’industriels (dont Engie, partenaire de 45-8 Energy) et de politiques, c’est en particulier parce que l’on découvre tous les jours de nouvelles sources dans le monde. En juillet 2020, l’ancien sénateur du Rhône, René Trégouët soutenait que « les estimations du flux naturel d’hydrogène sont importantes et pourraient répondre à l’ensemble des besoins en hydrogène du monde ». La filière naissante pour ce produit naturel n’est pourtant pas incluse à ce jour dans la stratégie nationale H2 vers 2030 dotée d’une enveloppe de 7,2 milliards d’euros.

Au niveau mondial, le village malien de Bourakébougou fait un peu figure d’exception. Depuis 30 ans, il crache un gaz qui contient une concentration d’hydrogène proche de 98 %. Le projet pilote qui l’entoure permet d’alimenter tout le village en électricité. Le puits fournit 1.300 m3 de gaz H2 blancs par jour. Sur 800 km², 25 autres installations ont été implantées, présentant les mêmes concentrations. « Pas besoin de matériel dimensionné pour les forages pétroliers. Les puits d’extraction de l’hydrogène naturel sont assimilables à ceux pour l’eau. Leur vanne peut être dissimulée dans un simple buisson », a comparé Nicolas Pelissier.

En France, l’hydrogène naturel est présent sous 3 formes différentes.Tout d’abord dans des puits, sans atteindre les concentrations exceptionnelles du village malien de Bourakébougou. Ainsi à Bugey (concentration de 0,47 à 5,24%), dans le fossé Rhénan (6%), le Jura externe (2,5%) et dans le bassin de Paris (3%). Des fuites ont été constatées dans une faille géologique du Cotentin, dans les Pyrénées, ainsi que dans les fossés Rhénan et Bressan.

L’hydrogène blanc est aussi présent dans de l’eau (mofettes) à Buis-les-Baronnies et à Molières-Glandaz, 2 territoires de la Drôme. Dans les fossé Rhénan et Bressan, l’hydrogène est présent à seulement 1 mètre de profondeur. La présence du gaz peut parfois être détectée par des vues du ciel et autres techniques d’imagerie du sous-sol. Ainsi, au cœur des vignobles de Côte-d’Or, lorsque les ceps poussent difficilement dans des zones plus ou moins grandes en formes de cercles.

L’exploration est une activité essentielle pour 45-8 Energy. Elle permet d’identifier et analyser différents sites de production d’hydrogène naturel. En France, il faut compter entre 18 et 24 mois pour obtenir un permis d’explorer. Contre 15 jours aux Etats-Unis, par exemple. Dans une démarche globale, la société mosellane développe un portfolio des lieux à explorer à l’échelle européenne. Avec l’objectif de mettre en place une première production pilote sur le territoire à horizon 2025. Chaque cas est analysé à travers plusieurs étapes visant à réduire la liste aux sites les plus prometteurs. Comme celui des Fonts-Bouillants, dans la Nièvre. Là, l’hydrogène natif est combiné avec de l’hélium.

« Les fuites existent sur place depuis l’époque gallo-romaine et n’ont pas baissé en intensité depuis. On espère pouvoir exploiter ce site sur plusieurs dizaines d’années », a indiqué Nicolas Pelissier. Des capteurs ont bien confirmé la présence des 2 gaz.

Consciente que l’exploration géologique peut faire peur aux populations qui pourraient à tort l’assimiler à la fracturation hydraulique, l’équipe de 45-8 Energy a pris l’habitude de rencontrer en amont les riverains, les associations environnementales et les collectivités publiques. Et ce, même si une phase de consultation est déjà légalement prévue avant l’attribution du permis d’explorer.

« Il existe en France 51.000 puits à eau. Pour récupérer l’hydrogène et l’hélium dans la Nièvre, il n’est pas besoin de travaux très différents. D’ailleurs nous faisons appel aux mêmes professionnels pour effectuer des puits compacts avec des foreuses géotechniques sur chenillettes », a détaillé Nicolas Pelissier. 45-8 Energy privilégie ainsi la co-valorisation. « Nous espérons nous installer sur des friches industrielles. La production finale serait stockée sur place, dans un hangar agricole. Le coût énergétique, de purification et de compression dépend du mix en présence et de la pression d’origine du gaz. C’est au cas par cas », a-t-il révélé.

Quels volumes d’hydrogène natif dans les sous-sols français, européens et mondiaux ? Il est déjà impossible d’obtenir des chiffres fiables et précis concernant le pétrole enfoui, alors que des prospections existent depuis des dizaines d’années pour lui. Les estimations sont donc plus compliquées encore pour l’H2 naturel qui commence à peine à disposer d’une filière dédiée. Le 26 mars a été officiellement lancée l’initiative EartH2 pour l’hydrogène du sous-sol. Elle permettra de fédérer les acteur académiques et industriels « de manière à faciliter l’émergence de projets collaboratifs et ambitieux ». Mais aussi de promouvoir l’apport du sous-sol en matière d’hydrogène auprès des décideurs régionaux, nationaux et européens.

Fusion nucléaire : quel avenir ?

Fusion nucléaire : quel avenir ?

Par Greg De Temmerman, Mines ParisTech (*)

Un laboratoire américain vient d’annoncer de nouveaux résultats en fusion nucléaire « inertielle », avec une production d’énergie de 1,3 mégajoule. Que représente cette avancée pour la fusion, cette « éternelle » énergie du futur ?

Entre le mégaprojet ITER, dont la construction avance mais qui a connu des débuts difficiles, les projets lancés par différents pays, les initiatives privées qui se multiplient et qui annoncent des réacteurs de fusion d’ici 10 ou 15 ans, et les résultats obtenus par le Lawrence Livermore National Laboratory le 8 août 2021, il est difficile d’y voir clair. Voici un petit tour d’horizon pour mettre tout ceci en perspective.

Confinement magnétique ou inertiel : deux voies possibles pour la fusion nucléaire

Il existe deux façons d’utiliser l’énergie nucléaire : la fission qui est à l’œuvre dans les centrales nucléaires actuelles, et la fusion.

La réaction de fusion entre le deutérium et le tritium, deux isotopes de l’hydrogène, produit un neutron et un atome d’hélium. Alors que dans la fission, des atomes lourds d’uranium sont cassés en plus petits atomes pour libérer de l’énergie, la fusion nucléaire est le processus opposé : on transforme des atomes légers en des atomes plus lourds pour libérer de l’énergie. Gregory de Temmerman, Fourni par l’auteur

Un réacteur de fusion est un amplificateur de puissance : la réaction de fusion doit produire plus d’énergie qu’il n’en faut pour chauffer le plasma à la température requise et le confiner. Le record actuel a été obtenu en 1997 par le « Joint European Torus » ou JET au Royaume-Uni, où une puissance de 16 mégawatts a été générée par la fusion magnétique, mais il a fallu 23 mégawatts pour la déclencher.

Obtenir enfin un gain supérieur à 1 et démontrer la faisabilité de la production d’énergie par la fusion est un objectif majeur de différents projets en cours.

Il y a deux voies possibles pour réaliser la fusion nucléaire : le confinement magnétique qui utilise des aimants puissants pour confiner le plasma pendant des durées très longues, et le confinement inertiel qui utilise des lasers très puissants mais très brefs pour comprimer le combustible et le faire réagir. Historiquement, la fusion magnétique a été privilégiée, car la technologie nécessaire pour la fusion inertielle (lasers notamment) n’était pas disponible. Cette dernière nécessite également des gains bien plus élevés pour compenser l’énergie consommée par les lasers.

Les deux plus gros projets sont le National Ignition Facility du Lawrence Livermore National Laboratory (NIF) aux USA et le Laser MégaJoule en France, dont les applications sont principalement militaires (simulations d’explosion nucléaires) et financées par les programmes de défense. Le NIF poursuit également des recherches pour l’énergie.

Le NIF utilise 192 faisceaux laser, d’une énergie totale de 1,9 mégajoule et d’une durée de quelques nanosecondes, pour déclencher la réaction de fusion selon une approche dite « indirecte ». En effet, le combustible est placé à l’intérieur d’une capsule métallique de quelques millimètres, qui, chauffée par les lasers, qui émet des rayons X. Ceux-ci chauffent et compriment le combustible. L’alignement des lasers est plus aisé que si ceux-ci visaient directement la cible, mais seule une partie de leur énergie est convertie en rayons X et sert au chauffage.

Le NIF a récemment fait l’objet d’une forte attention médiatique après un record de production d’énergie obtenu le 8 août 2021. Durant cette expérience, une énergie de 1,3 mégajoule a été produite, la valeur la plus élevée jamais enregistrée par cette approche.

Le gain global de 0,7 égale le record obtenu par JET en 1997 par confinement magnétique, mais si on s’intéresse au bilan énergétique du combustible lui-même (cible d’hydrogène), on comprend l’excitation dans le domaine. Celui-ci a en effet absorbé 0,25 mégajoule (la conversion laser-rayons X entraîne des pertes) et généré 1,3 mégajoule : la fusion a donc généré une bonne partie de la chaleur nécessaire à la réaction, s’approchant de l’ignition. Un réacteur devra atteindre des gains bien plus élevés (supérieurs à 100) pour être économiquement intéressant.

Le confinement magnétique est la voie privilégiée pour l’énergie, car il offre de meilleures perspectives de développement et bénéficie d’un retour d’expérience plus important.

La grande majorité des recherches se concentre sur le tokamak, une configuration inventée en URSS dans les années 1960 où le plasma est confiné sous la forme d’un tore par un champ magnétique puissant. C’est la configuration choisie par ITER, réacteur de démonstration en construction à Cadarache dans le sud de la France, dont l’objectif est de démontrer un gain de 10 – le plasma sera chauffé par 50 mégawatts de puissance et doit générer 500 mégawatts de puissance fusion. Si ce projet titanesque impliquant 35 nations a connu des débuts difficiles, la construction avance à rythme soutenu et le premier plasma est attendu officiellement pour fin 2025, avec une démonstration de la fusion prévue vers la fin des années 2030.

Le Royaume-Uni a récemment lancé le projet STEP (Spherical Tokamak for Electricity Production) qui vise à développer un réacteur connecté au réseau dans les années 2040. La Chine poursuit avec CFETR un ambitieux programme visant à démontrer la production électrique et de tritium dans les années 2040. Enfin, l’Europe prévoit après ITER un démonstrateur tokamak (DEMO) pour les années 2050, ce qui implique un déploiement seulement dans la deuxième partie du siècle.

Une autre configuration – le stellarator – est explorée notamment en Allemagne avec Wendelstein-7X qui démontre de très bons résultats. Si le confinement dans un stellarator est en deçà de ce qu’un tokamak peut atteindre, sa stabilité intrinsèque et les résultats récents en font une alternative sérieuse.

 

Les initiatives privées

En parallèle de ces projets publics, on entend de plus en plus parler d’initiatives privées, parfois soutenues par des grands noms comme Jeff Bezos ou Bill Gates. L’entreprise la plus ancienne (TAE) a été fondée en 1998 mais une accélération s’est produite après 2010 et on compte en 2021 environ une trentaine d’initiatives ayant attiré environ 2 milliards de dollars de capitaux au total. La majorité de ces initiatives promettent un réacteur dans les 10 ou 20 prochaines années et se posent comme une alternative à la lenteur de la filière classique.

Illustration du déploiement de la fusion nucléaire selon deux scénarios, plus ou moins rapides. Fourni par l’auteur

Elles utilisent les développements technologiques récents (aimants supraconducteurs à haute température par ex), ou diverses configurations dont certaines n’avaient jamais été vraiment explorées : General Fusion utilise par exemple des pistons pour compresser le combustible. Si les résultats ne sont pas toujours publiés dans la littérature scientifique, on voit régulièrement des annonces démontrant des progrès réels. Si l’une de ces entreprises venait à démontrer la production d’énergie dans les délais promis, cela pourrait fortement accélérer les possibilités d’utiliser la fusion nucléaire.

Il faut cependant garder en tête que le développement d’un premier réacteur est certes extrêmement important, mais que le déploiement d’une flotte de réacteur prendra du temps. Si on regarde les taux de déploiement du photovoltaïque, de l’éolien, et du nucléaire, on constate que dans leur phase de croissance exponentielle le taux de croissance de la puissance installée était entre 20 et 35 % par an. Si on suppose que la fusion parvient à suivre le même rythme, on voit que la fusion, en suivant la ligne ITER-DEMO, pourrait représenter 1 % de la demande énergétique mondiale (valeur 2019) vers 2090. Si on considère un réacteur dans les années 2030, ce seuil pourrait être atteint vers 2060 et la fusion pourrait jouer un rôle plus important dans la deuxième partie du siècle. La fusion reste donc une aventure au long cours.

_____

(*) Par Greg De Temmerman, Chercheur associé à Mines ParisTech-PSL. Directeur général de Zenon Research, Mines ParisTech.

La version originale de cet article a été publiée sur The Conversation.

Avenir de la forêt : la responsabilité des industriels

Avenir de la forêt : la responsabilité des industriels

Par Harold Blanot, propriétaire et professionnel forestier estime que les industriels ont évidemment une responsabilité pour l’avenir des forêts et qu’ils sont acteurs de la préservation de la biodiversité. (Tribune dans l’Opinion).

Harold Blanot (*)

 

D’après un sondage PEFC et BVA, l’immense majorité des Français reconnaît le rôle crucial des forêts pour le climat et se dit favorable à leur entretien durable. Pour 8 Français sur 10, entretenir durablement les forêts, mission assurée par le secteur forestier français, permet de veiller à leur pérennité, de bien accueillir le public, de garantir un bon niveau de production de bois et de préserver la biodiversité. Un constat qui se heurte paradoxalement à une perception méfiante de la gestion forestière, nourrie par l’offensive concertée de différents agitateurs qui dénoncent tous les affres supposés de la mécanisation et de l’exploitation forestière.

Nombreux sont les activistes qui s’insurgent par exemple contre les coupes rases et les plantations d’alignement. Il est nécessaire de rappeler que les coupes rases ne représentent que 0,5% à 0,8% de la surface forestière hexagonale chaque année. Bien souvent, les dizaines de milliers d’hectares de forêt française aménagée en futaie irrégulière, comme le sont les résineux de l’arc Alpin et la plupart des massifs de feuillus hérités de l’Ancien Régime (Tronçais, Bertranges ou Bercé) sont ainsi passées sous silence. La futaie irrégulière est un mode de sylviculture qui consiste à maintenir un couvert arboré permanent, avec un renouvellement progressif des peuplements obtenu par des coupes jardinatoires d’amélioration qui favorisent leur résilience et permettent une diversité des âges, gage d’une récolte régulière de bois à maturité optimale, comme de l’ensemble des qualités intermédiaires des produits forestiers.

Les massifs principalement concernés par les coupes rases sont ceux du Morvan et du Massif Central, très largement issus des plans d’enrésinement du Fonds forestier national (FFN) de l’après-guerre. Ces coupes ne s’apparentent pas à un pillage, il s’agit d’une simple récolte de bois prévue et suivie depuis plusieurs décennies. Certes, la crise sanitaire des scolytes dans les épicéas a conduit à plusieurs coupes rases sanitaires pour contenir les ravageurs, de même que le réchauffement climatique a aussi précipité la récolte d’arbres dépérissants. La majorité des propriétaires publics ou privés auraient préféré conserver ces peuplements quelques décennies de plus pour avoir le choix du schéma sylvicole à leur appliquer. Dans tous les cas, ces surfaces sont reboisées au plus vite, non pas par injonction morale, mais par simple réalité économique. Malgré la réduction drastique des subventions au reboisement relative à l’arrêt du Fonds forestier national en 2000, les forestiers reboisent leurs parcelles. Ils accompagnent les mutations des paysages depuis des décennies, avec une différence notable : la société est de plus en plus déconnectée des réalités de terrain, ce qui contrevient à la compréhension des modalités d’une sylviculture durable.

Les forestiers doivent donc redoubler de pédagogie pour faire comprendre que les plantations d’alignement tant décriées sont impératives pour reboiser et surtout pour permettre un entretien mécanisé des peuplements. Sauf à ce que les militants se découvrent des vocations et des effectifs permettant la réalisation de ce travail avec du personnel à pied et des outils manuels, les avancées mécaniques permettent aujourd’hui de réels progrès pour le confort des travailleurs forestiers, et pallient le manque de personnel criant dans la profession.

Autre avantage de la plantation en ligne, celui de créer des cloisonnements, c’est-à-dire des zones de circulation dédiées aux engins. Ces fameux « monstres mécaniques » ne circulent que dans une infime partie de la forêt – moins de 10% de la surface exploitée – afin de préserver les sols, les peuplements et en garantissant la régénération naturelle. Il s’agit là des fondements de la futaie irrégulière, que certains acteurs appellent de leurs vœux, sans savoir que les forestiers l’ont déjà déployé depuis des décennies. La preuve, après une quarantaine d’années et quelques éclaircies, il est très difficile de retrouver des alignements dans de telles parcelles. N’oublions pas que sans l’industrie de la filière bois, on ne pourrait pas transformer les produits de la récolte et on ne serait pas en mesure de justifier économiquement ces opérations sylvicoles.

Il est vrai que l’effet de ces plantations en ligne est disgracieux pendant quelques années, mais ce n’est que l’adolescence de la forêt, le fameux « âge ingrat ». Ces éclaircies alimentent au fil des ans les différents secteurs de la filière bois : les premières éclaircies de petit bois iront pour la trituration (cartonnerie, papeterie, emballage, panneaux…), et les secondes éclaircies commenceront à produire du bois d’œuvre. Tout cela sans sortir du territoire national, avec une matière première renouvelable et vertueuse en termes de cycle carbone. C’est à se demander si les détracteurs de la filière bois ne seraient pas mandatés par une autre industrie. Après tout, des acteurs de viande de synthèse financent bien des associations de défenses animales. On peut se poser la question.

L’Europe du rail: Un avenir ?

 L’Europe du rail: Un avenir ? 

Levier essentiel d’une politique en faveur du climat, la mobilité ferroviaire au sein de l’Union européenne renforce aussi le « sentiment d’un destin commun », estime la militante écologiste Lorelei Limousin. (le Monde extrait)
Interview 

 

 Si Lorelei Limousin boude l’avion, ce n’est pas seulement par conviction mais aussi « pour le plaisir du train ». La militante écologiste a déjà sillonné la plupart des pays européens par le rail, traversé la Russie et même rejoint la Chine en empruntant le Transsibérien. Elle a aussi transformé sa passion en métier. Après sept ans au Réseau Action Climat (RAC), à Paris, comme responsable des politiques transport, la trentenaire a rejoint le bureau européen de Greenpeace, en 2020, pour défendre le train et le climat à Bruxelles. Si elle dresse un réquisitoire sévère des politiques ferroviaires européennes depuis vingt ans, elle montre aussi que l’Union a des atouts pour remettre l’Europe du train sur ses rails. 

Est-ce si compliqué de voyager en train en Europe ?

Cela dépend du trajet, bien sûr. Pour faire un Paris-Bruxelles ou un Cologne-Amsterdam, vous n’aurez pas trop de difficultés. Les ennuis commencent quand on souhaite voyager sur de plus longues distances, entre Paris et Madrid ou Paris et Berlin, ou bien entre deux grandes villes, Marseille et Barcelone par exemple. Pour la majorité des trajets entre les capitales et les grandes villes, il n’existe plus de ligne directe, que ce soit de jour ou de nuit. Pour voyager de Paris jusqu’à Rome en train, il faut au moins douze heures, alors que le trajet se faisait autrefois en une nuit. C’est encore pire si l’on veut poursuivre son voyage dans des régions plus éloignées. Deux jours et deux nuits sont nécessaires pour rejoindre la Grèce, et le voyage revient beaucoup plus cher qu’en avion.

Comment expliquer la disparition de nombreuses liaisons existantes ?

L’Union européenne dispose d’un réseau très développé et sous-utilisé. L’infrastructure existe entre les grandes villes, pour assurer des trajets longue distance de 1 000 à 2 000 km. L’abandon de ces liaisons est la conséquence d’une volonté politique déterminée et le reflet d’un modèle de société qui valorise la surconsommation, la vitesse et l’individu. Quasiment la moitié des liaisons transfrontalières européennes ayant existé dans le passé ne sont plus opérationnelles. L’ironie de l’histoire, c’est que la SNCF et la Deutsche Bahn ont renoncé à plusieurs trains de nuit en Europe – notamment le Paris-Berlin et le Bruxelles-Copenhague – fin 2014, juste avant la COP21.

 

La tendance générale depuis des décennies est de favoriser les lignes à grande vitesse et les modes de transport routier et aérien. Les politiques publiques sont toutes allées dans le même sens, par la fiscalité, l’aménagement du territoire ou l’attribution de subventions directes. Les gouvernements ont donné la priorité à l’expansion des réseaux autoroutiers, au déploiement phénoménal du transport aérien low cost, dopé aux subventions publiques. Ils ont laissé libre cours aux campagnes publicitaires pour l’avion, qui suscitent de nouveaux désirs et occultent les impacts sur le climat. Le résultat, c’est que le rail ne représente que 7 % du transport de passagers à l’intérieur de l’Europe.

Nucléaire : quel avenir pour des centrales au thorium

Nucléaire : quel avenir pour des centrales au thorium

 

Un article du site Sciences et Avenir évoque les perspectives d’avenir pour les centrales nucléaires au thorium ; une solution possible mais pas miraculeuse. (Extrait)

 

« Le thorium est trois à quatre fois plus abondant dans la croûte terrestre que l’uranium, et notamment chez les pays qui sont susceptibles de construire des réacteurs dans le futur, comme l’Inde, le Brésil et la Turquie », explique Martha Crawford-Heitzmann, directrice de la recherche, du développement et de l’innovation du géant français du nucléaire Areva.

« En cas de construction de nouveaux réacteurs, ces pays pourraient nous demander des solutions au thorium », ajoute-t-elle.

Areva a signé avec le belge Solvay, en décembre, un accord incluant un programme de recherche et de développement pour étudier l’exploitation de ce minerai comme combustible potentiel de centrales nucléaires.

Des réacteurs expérimentaux au thorium avaient été construits dès le milieu des années 1950, mais les recherches mises entre parenthèses au profit de l’uranium.

« Elles étaient motivées par la crainte d’une pénurie d’uranium. Puis elles ont ralenti, notamment en France où l’on a pu fermer le cycle de l’uranium en mettant en place un système de recyclage du combustible usé », selon Mme Crawford-Heitzmann.

Si les recherches reprennent aujourd’hui, c’est parce que l’abondance de la ressource profiterait à certains pays, comme l’Inde qui, avec environ un tiers des réserves mondiales, s’est clairement engagée dans la voie du thorium dans le cadre de son ambitieux programme de développement nucléaire civil.

En revanche, pas de bouleversement en vue dans une France très nucléarisée. « De nombreux pays ont investi des milliards et des milliards d’euros dans des infrastructures industrielles qui dépendent de l’uranium. Ils cherchent à les amortir et n’ont pas envie de les remplacer », souligne Mme Crawford-Heitzmann.

Les avantages ne sont pas suffisamment décisifs pour sauter le pas. « L’intérêt du thorium ne prend tout son sens que dans des réacteurs très innovants, comme ceux à sels fondus, qui sont encore à l’étude papier », selon le chargé de mission CNRS Sylvain David, qui travaille sur un tel projet à l’Institut de physique nucléaire d’Orsay.

Evolution plutôt que révolution

Principal inconvénient du thorium: il n’est pas naturellement fissile, contrairement à l’uranium 235 utilisé dans les réacteurs actuels. Ce n’est qu’après absorption d’un neutron qu’il produit une matière fissile, l’uranium 233, nécessaire pour déclencher la réaction en chaîne dans le réacteur. Pour amorcer un cycle thorium, il faut donc de l’uranium ou du plutonium (issu de l’activité des centrales).

« Sans compter qu’il faudra plusieurs dizaines d’années pour accumuler suffisamment de matière fissile pour pouvoir démarrer un cycle », souligne le Commissariat à l’énergie atomique (CEA).

Les risques ne sont pas non plus nuls. Certes, les combustibles au thorium fondent à une température plus élevée, retardant le risque de fusion du coeur du réacteur en cas d’accident. « Mais on ne peut pas dire que c’est le cycle magique où il n’y a plus de déchets, plus de risques, plus Fukushima », insiste M. David.

L’uranium 233 est fortement irradiant, ce qui nécessiterait « des usines beaucoup plus compliquées, avec des blindages pour respecter les règles de radioprotection », selon le CEA.

Quant à dire que les déchets sont moins radioactifs, « ce n’est pas exact: la radioactivité est plus faible à certaines périodes, et plus forte à d’autres. Il n’y a pas un avantage absolument décisif à cet égard ».

Résultat: la production industrielle d’énergie grâce au thorium n’est pas pour demain.

« Je ne pense pas qu’on aura des réacteurs avant 20 ou 30 ans. Et cela se fera progressivement, en complément au cycle fermé », prédit Martha Crawford-Heitzmann. D’autant plus qu’avec le cycle fermé uranium-plutonium, « la ressource nucléaire est assurée pour des siècles ».

Dans cette optique, le CEA développe un prototype de réacteur à neutrons rapides refroidis au sodium, baptisé « Astrid », qui grâce à l’uranium 238 permet d’utiliser plusieurs fois le plutonium et même d’en produire plus qu’il n’en consomme par « surgénération ».

Or, l’uranium 238 représente 99,3% du minerai d’uranium et « de grandes quantités ont déjà été extraites des mines, dont on ne sait pas quoi faire », souligne M. David.

Avenir de l’industrie automobile : suppression de 100 000 emplois

Avenir de l’industrie automobile : suppression de 100 000 emplois

 

Pour  fabriquer un moteur électrique, il faut 60% de main d’œuvre en moins que pour un diesel.  Conclusion interne ce sera la perte de la moitié des effectifs de l’industrie automobile soit autour de 100 000 d’après l’organisation professionnelle.Soit la moitié des effectifs

 

La France commence à prendre conscience que l’Europe est engagée dans la voie d’une démolition sans précédent de son industrie automobile avec des objectifs beaucoup trop précipités voir même hasardeux. Ainsi la commission européenne souhaiterait  que les véhicules thermiques soient interdits dès 2035. La France préférerait plus trad avec une transition plus douce incluant la prise en compte des véhicules hybrides. La France ne voit pas les choses du même œil et opte de son côté pour une transition plus lente. « Les hybrides rechargeables sont une bonne solution de transition, il faut qu’ils soient une option de transition dans la durée », a indiqué l’Elysée. « On n’a pas acté la fin du moteur thermique en 2035, ça fermerait la porte à l’hybride également ».

Pour 2030, le gouvernement français et la filière militent pour « un objectif réaliste »« autour de 55% de baisse des émissions maximum », soit moins que ce que devrait proposer la Commission européenne.

Le problème majeur c’est que ici 2035 l’industrie européenne notamment française n’aura pas eu le temps de s’assurer de la maîtrise d’un certain nombre de technologies du véhicule électrique notamment concernant les batteries. Du coup les normes européennes pourraient constituer une sorte de porte ouverte à la Chine en Europe pour ses technologies

Le gouvernement prépare d’ailleurs dans ce sens, pour la fin de l’été, un plan d’investissements pour soutenir la transition du marché automobile, selon l’Elysée, un an après la mise en œuvre d’un plan de relance de la filière en mai 2020, doté de huit milliards d’euros. Une « cartographie détaillée de l’impact de cette transition et des moyens de l’Etat qui peuvent être mis en place », filière par filière, doit également être présentée au Premier ministre.

La Plateforme automobile (PFA), qui représente la filière, estime à 17 milliards d’euros l’enveloppe nécessaire pour localiser en France « dans les cinq ans les technologies clés de l’automobile du 21ème siècle ». La plateforme estime à 30% le niveau d’aide publique requis. PFA, qui se fonde sur un rapport du cabinet McKinsey, indique par ailleurs que 6,6 milliards d’euros devront être débloqués pour être investis dans l’installation de bornes de recharges publiques, nécessaires pour les deux millions de véhicules électriques attendus en 2025.

Dans un marché globalement en recul à cause de la pandémie de Covid-19, les voitures électriques progressent mais bien insuffisamment pour compenser la baisse des immatriculation. En cause notamment la fiabilité de la technique électrique et surtout son cou. Nombres de ménage ne sont pas prêts à dépenser 40 à 50 000 € pour changer leur véhicule

1...34567...11



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol