Archive pour le Tag '2050'

Déclin du pétrole : Pas avant 2050 pour l’OPEP

Déclin du pétrole : Pas avant 2050 pour l’OPEP
L’Organisation des pays exportateurs de pétrole prévoit que la demande en or noir continuera de progresser au moins jusqu’en 2050. Ces prévisions contredisent  celles de l’Agence internationale de l’énergie (AIE) et les intentions manifestées dans la Cop 28.
L’OPEP prévoit que la demande en or noir continuera de progresser au moins jusqu’en 2050, un cap symbolique de la lutte contre le changement climatique.

« Ces prévisions soulignent que le fantasme de la sortie progressive du pétrole et du gaz n’est pas conforme à la réalité », a donc déclaré donc l’organisation emmenée par l’Arabie saoudite, et très critique sur le rythme de la transition énergétique.

Afin de satisfaire cette demande grandissante de brut, l’Opep estime par ailleurs à plus de 17.000 milliards de dollars (environ 15,2 milliards d’euros) le montant des investissements cumulés nécessaires pour le secteur, soit quelque 640 milliards de dollars par an en moyenne d’ici 2050, majoritairement dans l’exploration et la production d’or noir.

L’Opep, pour sa part, ne voit pas de recul autre que celui de la demande de charbon, tablant, outre le pétrole, sur une forte progression de l’appétit mondial pour le gaz, derrière toutefois l’éolien et le solaire réunis, qu’elle voit quintupler sur la période 2023-2050.

L’évolution de la demande pétrolière est toutefois très hétérogène, sa croissance étant portée par les pays hors OCDE, au premier rang desquels l’Inde, alors qu’elle baissera à compter de 2030 chez les pays de l’OCDE (principalement des pays développés). A elle seule, l’Inde verrait sa demande croître de 8 mb/j sur 2023-2050.

Ces prévisions de l’Opep vont à rebours des efforts requis pour limiter le réchauffement planétaire. Elles sont également en fort décalage avec les prévisions de l’Agence internationale de l’énergie (AIE), qui anticipe un pic de la demande pour toutes les énergies fossiles – pétrole, gaz et charbon – « dans les prochaines années » de la décennie en cours, grâce au bond des énergies plus propres .

A la COP28 à Dubaï en 2023, le monde s’est accordé pour abandonner progressivement les énergies fossiles et, d’ici 2030, tripler la capacité des renouvelables, afin d’atteindre la neutralité carbone en 2050, conformément aux recommandations des experts du climat.

Dans son rapport, l’Opep salue à ce sujet le « jalon important » qu’a constitué la COP 28, organisée chez un de ses membres à Dubaï, qui avait acté « le début de la fin » des énergies fossiles. Elle s’attend néanmoins à une « pression », tant des décideurs politiques que des populations sur des ambitions « trop élevées » en matière de déploiement des énergies renouvelables ou des véhicules électriques.

 

Interdiction des automobiles thermiques: report de la date de 2035 à 2040 ou 2050 ?

Automobiles -Interdiction des voitures neuves thermiques: report en 2040 ?

 

 

L’objectif visant à atteindre l’interdiction des motorisations thermiques pour les voitures neuves en 2035 semble de plus en plus illusoire si l’on s’en tient à l’évolution du parc automobile. Selon les chiffres du ministère de la Transition écologique, il y aurait plus de 38,9 millions de voitures en circulation en France. Les conducteurs tricolores sont pour la plupart propriétaires d’une citadine (30%), d’une berline (15%) ou d’un SUV (10%).

Concernant la motorisation, Les Français sont encore une majorité écrasante à faire leur plein à la station essence. Le parc automobile français est composé à 93,4% de voitures à moteurs thermiques. Malgré un chiffre en baisse, 53% d’entre elles roulent encore au diesel.
Les voitures électriques (VE) ou hybrides ne représentent que 3,2% du parc français.

Luca de Meo, directeur général de Renault, demande donc officiellement un décalage du calendrier de la fin du moteur thermique en Europe, aujourd’hui fixé à 2035. « Nous avons besoin d’un peu plus de souplesse dans le calendrier », a-t-il expliqué au quotidien Les Échos le 22 juillet. Et le patron opérationnel de Renault d’évoquer la date de 2040 comme possible nouvelle échéance.Notons aussi que les Allemands demande aussi ce report du calendrier. Du coup on évoque la date de 2040 ou 2050

Cette date de fin du moteur thermique représente un symbole très fort. Et c’est pourquoi elle est souvent évoquée, aussi bien par les constructeurs que par les autorités. Mais, en réalité, les regards de l’ensemble des acteurs de l’industrie automobile sont fixés sur des dates beaucoup plus rapprochées. « Ce qui nous inquiète surtout, ce sont les échéances plus rapprochées, à 2025 et 2030 », confirme Marc Mortureux, le directeur général de la Plateforme automobile (PFA), qui regroupe l’ensemble des acteurs français.

 

Stations européennes: 50 % manqueront de neige d’ ici 2050

Stations européennes: 50 % manqueront de neige d’ici 2050

Le chercheur grenoblois Hugues François (INRAE), l’un de ses principaux contributeurs de l’étude publiée par l’INRAE et Météo France sur l’avenir de l’enneigement des stations de ski européennes Estime que au moins la moitié des stations européennes manquerons de neige d’ici 2050. Une véritable catastrophe économique évidemment.

Interview dans le journal la Tribune

Vous avez étudié les scénarii à venir, en matière d’enneigement, de plus de 2.000 stations de ski européennes, dans 28 pays, de la Turquie à l’Islande en passant par les Balkans, la Scandinavie, les Carpates, les Alpes etc. Quelles sont les conclusions ? Devrons-nous faire une croix sur le ski ?

Hugues François – En partant du scenario le plus probable désormais, c’est-à-dire un réchauffement planétaire de plus deux degrés qui devrait être atteint à horizon 2050, il apparaît que 53% des stations européennes seront exposées à un risque qualifié de « très élevé » de manque de neige, sans production de neige. Avec une hausse de + 3 degrés, cette proportion passerait à 75% environ et à 98% dans l’hypothèse d’une hausse de quatre degrés.

Les situations sont très variables selon l’implantation géographique. Plus spécifiquement, dans les Alpes françaises, la proportion est de 31% des stations présentant un très haut risque de faible enneigement avec une hypothèse de + 2 degrés. Dans les Pyrénées, ce sont 89% des stations qui seraient exposées à un très haut niveau de risque de faible enneigement et 80% dans les moyennes montagnes Franco-Suisse (Massif-Central, Vosges et Jura).

Sur quels outils vous êtes-vous appuyés pour arriver à ces conclusions ?

Cette étude repose sur une dynamique de recherche amorcée depuis assez longtemps et qui croise les outils et les compétences de Météo France et de l’Institut national de recherche pour l’agriculture, l’alimentation et l’environnement (INRAE). Nous avons développé des outils de modélisation permettant d’avoir une vision assez précise de ce qu’on peut attendre en matière d’enneigement dans les prochaines décennies, en fonction du changement climatique.

Est-ce que la production de neige artificielle pourrait permettre de compenser ce faible enneigement ?

Il n’est pas possible de généraliser, car la contribution de la production de neige pour s’adapter aux impacts du changement climatique est très hétérogène, en fonction des massifs et à l’intérieur des massifs. La capacité à produire de la neige dépend également des conditions météo locales et varie donc beaucoup d’une station à l’autre. Cela dépend notamment de la latitude et de l’altitude. La production de neige peut avoir un impact positif sur les conditions d’enneigement des domaines skiables mais ne constitue pas une solution générique. En outre, la capacité de production diminue également en fonction du niveau de réchauffement.

Pour donner quelques chiffres, selon nos modélisations, à + 2° de réchauffement planétaire en 2050, la production de neige permettrait de faire passer à 27% la proportion des stations européennes exposées à un haut risque de faible enneigement. Avec 50% des pistes couvertes par les installations de production de neige, la proportion de stations exposées à un risque très élevé passe de 31 à 7% dans les Alpes françaises. Dans les Pyrénées, ce chiffre passe de 89 à 9%. En revanche, dans les moyennes montagnes franco-suisses, l’exposition au risque est réduite de manière moins importante : il passe de 80% de stations exposées à un très haut niveau de risque de faible enneigement à 54%.

Mais cette production de neige artificielle ne participe-t-elle pas elle-même au cycle du réchauffement climatique ?

L’empreinte carbone de la production de neige en elle-même est assez limitée. Cependant, elle ne peut pas être détachée de celle de l’activité touristique et des émissions de gaz à effet de serre principalement dues au transport pour se rendre en station et à l’hébergement durant le séjour au ski. La question est également celle du lien entre le maintien des activités touristiques et les objectifs de décarbonation des économies pour limiter le changement climatique dont les impacts menacent le tourisme de montagne.

Autre point à ne pas négliger sur ce sujet : l’eau. Notre étude évalue le besoin en eau nécessaire pour produire de la neige en fonction du besoin et des conditions climatiques, mais ne tient pas compte de la disponibilité des ressources en eau nécessaires. En outre, notre étude n’évalue pas non plus les conditions de partage de la ressource entre différents usages, y compris pour répondre aux besoins des écosystèmes.

Finalement, quel est le message de cette étude ?

Le principal enjeu est de permettre aux stations d’évaluer les risques auxquelles elles sont exposées face au réchauffement climatique et la capacité de la production de neige pour en limiter les effets et jusqu’à quel point. D’une certaine manière, l’enjeu c’est de rentrer dans une forme de démarche coûts/bénéfices pour évaluer l’opportunité de concentrer les efforts sur le tourisme de neige par rapport à d’autres voies de développement. L’ensemble de ces éléments apporte des données objectivées aux responsables de stations de sports d’hiver pour définir leur stratégie d’adaptation. Jusqu’à quel point investir dans les installations de production ? Dans le renouvellement des remontées mécaniques ?


Sports d’hiver : les stations des Alpes françaises vont-elles tenir le choc face aux crises ?

Il faut savoir que dans un premier temps, le changement climatique a été ignoré par de nombreux professionnels du tourisme de ski. Ceci est sans doute lié aux progrès techniques de la production de neige qui ont amélioré la capacité des gestionnaires à composer avec la variabilité naturelle de l’enneigement d’une année à l’autre, contribuant ainsi à masquer les premiers effets sensibles du réchauffement climatique. Du côté de la recherche, la première étude publiée à l’échelle européenne, au début des années 2000, ne tenait pas compte de la production de neige. Le fait de prendre en compte les pratiques de gestion de l’enneigement utilisées par les stations de sports d’hiver a contribué à la reconnaissance du changement climatique et de ses impacts au sein de la profession.

L’avenir des stations de sports d’hiver est un objet de débat généralement clivant et un des enjeux de nos travaux est d’apporter des éléments factuels comme bases d’échanges aussi constructifs que possible. En France, nos travaux contribuent depuis 2020 à la production du service climatique ClimSnow, en partenariat avec le bureau d’étude Dianeige, qui a été utilisé par plus de 150 stations. Cet outil dresse un état des lieux de l’enneigement et de son évolution projetée sous la forme d’un ensemble de graphiques et de cartes établi pour chaque station.

«  »Ne plus ignorer l’Afrique de plus de 2 milliards d’habitants d’ici 2050 »

« Ne plus ignorer l’Afrique de plus de 2 milliards d’habitants d’ici 2050 »


À la veille de la COP28 pour le Climat, le président du Congo, Denis Sassou Nguesso, s’exprime sur l’urgence climatique et sur la nécessité de réformer les institutions internationales, afin de renforcer la voix de l’Afrique dans le concert des nations. Interview dans la Tribune.

À l’issue du Sommet des trois Bassins dédié à la protection des forêts tropicales des bassins du Congo, d’Amazonie et de l’Asie du Sud-Est, quel est le message que vous souhaitez porter lors de la COP28 de Dubaï ?

DENIS SASSOU NGUESSO – Nous n’avons jamais cessé et nous ne cesserons jamais d’alerter l’opinion internationale sur les conséquences du dérèglement climatique. Il faut agir plus vite ! Dans ce combat, nous avons toujours porté l’accent sur la responsabilité historique des pays industrialisés qui doivent faire face à leurs responsabilités.

Les pays africains payent le plus lourd tribut climatique alors qu’ils ne sont responsables que de 4 % des émissions de gaz à effet de serre. Dans un contexte mondial troublé par la Covid 19, puis par la guerre en Ukraine, les pays développés doivent aider les pays en développement, pour accompagner leur transition climatique qui exige des moyens considérables dont ils sont dépourvus. Tel est le principal message que je porterai lors de la prochaine COP28 pour le Climat. Au lendemain du Sommet des trois Bassins, les pays du Sud sont déterminés à se rendre à Dubaï pour parler d’une seule voix.

En 2017, vous lanciez l’initiative du Fonds Bleu, avec le Roi Mohammed VI du Maroc. De quelle façon ce projet a-t-il évolué ?

Effectivement, le Fonds bleu a été formalisé au Congo, à Oyo, en 2017. Un mémorandum d’entente y a été signé par plus d’une dizaine d’États pour financer des projets de lutte contre le dérèglement climatique. C’est le principal instrument financier de la Commission Climat du Bassin du Congo (CCBC, NDLR). L’étude de préfiguration du fonds a été réalisée ainsi que l’appel à projets. Ces projets ont été identifiés et maintenant, nous attendons les investisseurs qui traînent le pas (…).

Globalement, les engagements financiers promis par les pays riches ne sont pas tenus. Si l’on s’en tient aux informations d’organisations internationales indépendantes comme Oxfam, les aides réellement attribuées sont nettement inférieures aux chiffres publiés. Par ailleurs, ces fonds se présentent essentiellement sous forme de prêts, ce qui alourdit encore un peu plus le poids de la dette sur les pays africains.

Précisément, de quelle façon abordez-vous la question de la dette climatique ?

J’observe un certain nombre de contradictions des pays occidentaux sur le sujet de la dette climatique. Je m’interroge en particulier sur l’inadéquation des moyens financiers engagés, avec l’étendue des objectifs climatiques fixés. Il suffit de comparer leur difficulté à mobiliser les 100 milliards de dollars pour aider les pays du Sud à lutter contre le réchauffement climatique, avec la facilité qu’ils ont eue à débloquer des montants astronomiques en un temps record pour le conflit russo-ukrainien.

En septembre dernier, lors du Sommet États-Unis – Afrique, l’Union africaine obtenait un siège au G20. Dans quelle mesure, cela favorisera-t-il le poids de l’Afrique dans le débat mondial ?

Nous réclamions ce siège depuis des années. Il devrait être officialisé l’année prochaine. C’est un premier pas vers une meilleure considération du continent africain par les institutions internationales. Avec ce siège, nous ne serons plus de simples invités aux débats, mais des participants à part entière. Cela permettra à l’Afrique de s’exprimer sans laisser d’autres acteurs le faire à sa place. De toute façon, il n’est plus possible d’ignorer un continent qui abritera plus de 2 milliards d’habitants d’ici 2050.

Notre continent est jeune et notre jeunesse est de plus en plus éduquée. Notre voix dans le concert des nations doit se faire entendre. C’est le message que j’ai porté en septembre auprès de Joe Biden aux États-Unis, en juillet à Saint-Pétersbourg auprès de Vladimir Poutine, et en Chine auprès de Xi Jinping en août dernier (…).

Les rapports de force évoluent, en matière de géopolitique. La montée en puissance des BRICS illustre bien ce phénomène. Les institutions internationales, en particulier le Conseil de sécurité des Nations unies, doivent suivre cette évolution pour une meilleure représentativité des pays du Sud. Actuellement, le Conseil de sécurité est dans l’impossibilité de gérer des crises comme celles qui se déroulent en Ukraine où à Gaza. Ces institutions nées au lendemain de la Seconde Guerre mondiale sont peut-être devenues obsolètes et doivent être réformées.

Dérèglement climatique : la fin du monde en 2050 ?

Dérèglement climatique : la fin du monde en 2050 ?

Une étude australienne évoque la fin de la civilisation en 2050 si rien n’est fait pour freiner le réchauffement de la Terre. Un calendrier sans doute un peu trop alarmiste mais qui a le mérite d’évoquer les grandes tendances qui pourraient progressivement détruire des conditions de vie d’après un papier de Franceinfo. Mais des climatologues soulignent qu’il s’agit du « scénario du pire » et qu’une autre issue reste possible. La fin du monde, d’après un rapport (lien PDF en anglais) par le think tank australien Breakthrough-National Centre for Climate Restoration pourrait intervenir vers 2050. Si rien n’est fait pour limiter le réchauffement climatique, « la planète et l’humanité auront atteint un ‘point de non-retour’ à la moitié du siècle, dans laquelle la perspective d’une Terre largement inhabitable entraînerait l’effondrement des nations et de l’ordre mondial », avancent les auteurs, David Spratt, directeur de recherche à Breakthrough, et Ian Dunlop, ancien cadre de l’industrie des énergies fossiles. Selon eux, il existe « une forte probabilité que la civilisation humaine touche à sa fin » dans trois décennies.

En dix pages, le rapport brosse un tableau apocalyptique. En 2050, la hausse de la température moyenne à la surface du globe aura atteint 3 °C. Plus de la moitié de la population mondiale sera exposée à des chaleurs létales au moins 20 jours par an. Et cette météo mortelle persistera plus de 100 jours par an en Afrique de l’Ouest, au Moyen-Orient, en Amérique du Sud et en Asie du Sud-Est. Deux milliards d’habitants seront affectés par le manque d’eau.

Des écosystèmes tels que la Grande Barrière de corail ou la forêt amazonienne se seront effondrés. Et en été, l’océan Arctique sera navigable, libre de toute glace. Quant au niveau des mers, il aura augmenté de 0,5 mètre. Un demi-siècle plus tard, en 2100, la hausse sera de 2 à 3 mètres. Dans les régions tropicales, on comptera plus d’un milliard de déplacés climatiques. L’agriculture ne sera plus viable dans les régions subtropicales. Les récoltes mondiales auront diminué d’un cinquième. Et la population de la planète sera exposée à des risques de pandémies.

Le changement climatique représente maintenant une menace existentielle à court ou moyen terme pour la civilisation humaine. Dans ce « scénario extrême », « l’ampleur des destructions dépasse notre capacité de modélisation », préviennent les auteurs de l’étude, reprenant les mots de l’ONG suédoise Global Challenges Foundation (en anglais) en 2018.

Ce tableau extrêmement pessimiste s’explique. Les auteurs de l’étude ont choisi de retenir les conséquences les plus graves du réchauffement climatique en partant du principe qu’elles sont souvent mises de côté dans les publications plus consensuelles, à l’image du rapport collégial du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec). David Spratt et Ian Dunlop « ont juste poussé à l’extrême les probabilités. Ils ont pris les plus faibles avec les conséquences les plus importantes », pondère Joël Savarino, directeur de recherche au CNRS et à l’Institut des géosciences et de l’environnement de Grenoble.

Aucun des experts interrogés par franceinfo ne pointe cependant une quelconque erreur dans ce rapport. Même si ce n’est pas une étude scientifique, « plutôt une compilation de certaines références et de rapports d’ONG », précise Benjamin Sultan, directeur de recherche à l’Institut de recherches pour le développement (IRD).

C’est un article qui présente une vision cauchemardesque, le scénario du pire, mais qui ne peut pas être exclu pour autant.

Les conséquences d’un tel réchauffement climatique ne seraient donc pas irréalistes, tout au plus exagérées. Une hausse des températures de 3 °C d’ici à 2050 est ainsi une projection « assez extrême », nuance Frédéric Parrenin, directeur de recherche au CNRS. « Si on agit modérément, selon les engagements pris à Paris en 2015, une hausse de 3 degrés arriverait plutôt en 2100″, ajoute-t-il. Joël Savarino, lui, évoque cette possibilité si un mécanisme de rétro-action positive, c’est-à-dire une modification qui amplifie le changement climatique, s’installait. « Si les pergélisols, ces sols gelés en permanence en Arctique, se mettent à fondre à cause du réchauffement climatique, ils pourraient libérer de puissants gaz à effet de serre et ainsi nourrir le réchauffement. »

« La canicule de 2003, qui a fait 15 000 morts en France, pourrait devenir un été normal », prévient Henri Waisman, chercheur à l’Institut du développement durable et des relations internationales, spécialiste du climat et coauteur du rapport du Giec d’octobre 2018.

De même, l’estimation du milliard de réfugiés climatiques avancée dans l’étude australienne est à prendre « avec prudence », insiste le climatologue belge Jean-Pascal van Ypersele, professeur à l’Université catholique de Louvain et ancien vice-président du Giec. « A la limite, peu importe le chiffre avancé, ajoute Henri Waisman, ce qui est vrai, c’est que des centaines de millions de personnes pourraient être affectées. » Car « aucune ville, aucune infrastructure portuaire n’est capable de s’adapter à une montée des eaux d’un ou deux mètres en quelques décennies », remarque Joël Savarino.

Ses conclusions sont-elles réalistes ?

Au-delà des conséquences « naturelles », le réchauffement climatique pourrait bel et bien entraîner une multiplication des conflits, comme l’affirme l’étude. « Le risque est possible dans certaines régions, notamment au Sahel pour l’accès à l’eau, confirme la climatologue Françoise Vimeux, directrice de recherche à l’Institut de recherche pour le développement. Mais là encore, il existe beaucoup d’incertitudes. Les modèles sur les cycles de pluie, par exemple, sont incertains. »

Le déséquilibre proviendra de la nourriture. Si les pays exportateurs sont affaiblis par les aléas climatiques, on peut imaginer des gouvernements qui préservent leurs intérêts. Et si la nourriture commence à faire défaut…

Joël Savarino rappelle que la France compte à peine 3% d’agriculteurs dans sa population active. « Ça veut dire que 97% de la population est incapable de se nourrir toute seule. »

Les experts s’accordent sur un point : la fin de la « civilisation humaine » évoquée par l’étude est plus qu’hasardeuse. « La fin de la civilisation n’est pas la fin de l’humanité, tempère Jean-Pascal van Ypersele. En outre, pour parler de la fin de la civilisation, encore faut-il s’entendre sur ce qu’est la civilisation. Il n’y a pas une, mais des dizaines de civilisations avec des niveaux de résilience différents. » Le climatologue ne nie pas les dégâts qui pourraient être causés puisque « des infrastructures importantes seront détruites, des systèmes alimentaires seront mis à mal, il y aura des déplacements de population… » Mais l’humanité, elle, perdurera, même si elle devra s’adapter.

Un monde avec 3 °C supplémentaires est une menace très sérieuse. Ce n’est pas seulement l’environnement et les écosystèmes qui seraient menacés, mais également notre société telle que nous la connaissons.

Françoise Vimeux évoque elle aussi « une autre manière de vivre ». « Cela serait un changement brutal, mais ce ne serait pas la fin du monde. La vie a déjà survécu à des catastrophes, l’humanité survivra aussi. Son extinction n’est pas pour tout de suite », assure Joël Savarino.

Ce scénario catastrophe est-il inéluctable ?
Les auteurs de l’étude australienne plaident pour « une mobilisation mondiale massive » et jugent que celle-ci est « nécessaire dans la prochaine décennie ». Ils font une analogie avec le plan Marshall lancé après la Seconde Guerre mondiale. Sans pour autant s’étendre sur le contenu d’un tel plan.

Gilles Ramstein, directeur de recherche au Laboratoire des sciences du climat et de l’environnement, déplore cette comparaison et critique l’idée sous-jacente de « mettre l’industrie au service de la lutte contre le réchauffement climatique ». Le climatologue le reconnaît cependant : « Il faut une planification à long terme à l’échelle mondiale pour réduire notre facture énergétique sur vingt ans, en particulier dans les transports et le chauffage. » Une planification qui « entre en contradiction avec la rentabilité immédiate », souligne-t-il. Or « il y a de très gros intérêts financiers en jeu qui vont intéresser de grands groupes. Et il ne faut pas donner massivement de l’argent à une industrie polluante qui va se refaire sur le dos de l’économie verte. »

Le chercheur prône une mesure iconoclaste : « Il faut faire par exemple des transferts de technologies gratuits vers l’Afrique et les pays sous-développés, pour éviter qu’ils ne passent par la phase de la combustion et des énergies fossiles comme les pays riches ou l’Inde, la Chine, les pays en développement. »

Le Giec aussi « propose des solutions concrètes, mais aussi des paris technologiques pour capter le CO2 atmosphérique, par exemple », rappelle Françoise Vimeux. Selon le Giec, il faut en priorité s’attaquer aux émissions de gaz à effet de serre, à commencer par le dioxyde de carbone (CO2). Pour que la hausse des températures ne dépasse pas 1,5 °C, il faut diminuer d’environ 45% les émissions mondiales de CO2 d’ici à 2030 par rapport à leur niveau de 2010, puis atteindre vers 2050 la neutralité carbone, c’est-à-dire le point où les émissions sont compensées par l’élimination du CO2 présent dans l’atmosphère. Il faudrait aussi que les énergies renouvelables fournissent 70 à 85% de l’électricité en 2050. Les émissions de CO2 de l’industrie, elles, devraient être inférieures d’environ 65 à 90% en 2050 par rapport à ce qu’elles étaient en 2010.

Outre la production d’énergie et l’industrie, il faudrait revoir les politiques d’aménagement du territoire, réformer les modèles agricoles, développer des moyens de transports moins polluants, construire des bâtiments moins énergivores… Il faudrait aussi préserver les écosystèmes, reboiser, restaurer les sols pour que le carbone y reste stocké, mais aussi développer des technologies de capture et de stockage du carbone dans l’air, comme le font naturellement les arbres.

La facture de tels bouleversements est vertigineuse. Le Giec évalue les investissements nécessaires dans le système énergétique à 2 400 milliards de dollars par an entre 2016 et 2035. Cela revient à consacrer environ 2,5% du PIB mondial à la lutte contre le réchauffement climatique.

« Ce n’est pas un problème insoluble, il faut une vraie solidarité, une vraie politique internationale. Il faut que l’ONU ait plus d’importance », assure Frédéric Parrenin. Pour autant, « le progrès technologique ne résoudra pas tout », prévient le climatologue. « Pour réduire les gaz à effet de serre, il ne faut pas attendre que les gouvernements agissent, ils ne peuvent pas tout faire, poursuit Henri Waisman. Les villes, les régions, le secteur privé, les citoyens, tous ont un rôle fondamental. »

Pour le climatologue Gilles Ramstein, la « posture catastrophiste » de l’étude australienne a une vertu : « Elle permet de lancer une alerte encore plus forte. » « Si on ne fait rien, les réactions vont être de plus en plus émotionnelles et les choix qui seront faits ne seront pas forcément les bons, fait valoir l’expert. Plus tôt on commencera à changer de cap, mieux ce sera. Mais malheureusement, pour l’heure, rien ne bouge. »

« La prise en compte du risque maximum, c’est une approche intéressante, juge son confrère Benjamin Sultan. Si on se montre trop conservateur ou réservé dans nos prévisions, en écartant les fourchettes les plus hautes, on risque de ne pas être préparé. »

Mais « c’est à double tranchant », avertit la climatologue Françoise Vimeux. « C’est important de transmettre nos connaissances pour sensibiliser les citoyens, éveiller les consciences, éclairer la prise de décision, mais ce n’est pas utile d’être aussi alarmiste. »

Cela peut créer un sentiment de fatalité. Cela désarme. Les gens vont se dire : « Cela ne sert à rien, c’est la fin, c’est trop tard. » Mais ce n’est pas vrai. Il n’est pas trop tard.

A l’inverse, « exposer les différents scénarios, c’est aussi donner la possibilité de débattre de ce qui est acceptable ou non socialement, argumente la chercheuse. Accepte-t-on que la Grande Barrière de corail soit détruite ? Accepte-t-on qu’il y ait des millions de déplacés ? Ce sont des questions sociétales. »

« On peut éviter ce pire scénario. Toutes les décisions qu’on va prendre ou pas dans les dix ans vont avoir des conséquences. Les dix prochaines années, c’est l’échéance si on veut empêcher un réchauffement supérieur à 1,5 ou 2 °C, note Benjamin Sultan. Il faut changer complètement, il faut des transitions radicales sur notre façon de consommer, de produire, dans tous les secteurs et partout dans le monde. »

« Si on écoute les discours alarmistes, il y a le risque de dire que c’est foutu. Ça ne l’est pas. La jeunesse défile dans le monde entier. Ces discussions, on ne les avait pas il y a cinq ou dix ans », renchérit Henri Waisman. Le coauteur du rapport du Giec l’assure : « C’est loin d’être perdu. Au-delà de la crainte de l’échec, il est possible d’y arriver, et c’est même souhaitable. »

Afrique: Près d’un milliard de personnes concernées par les conflits de l’eau d’ici 2050

Afrique: Près d’un milliard de personnes concernées par les conflits de l’eau d’ici 2050

par
Sophie de Bruin
Researcher in Environmental Change, Vrije Universiteit Amsterdam


L’Afrique compte 66 bassins fluviaux transfrontaliers. Il s’agit notamment du bassin du Nil et des bassins du Juba-Shebelle et du lac Turkana dans la Corne de l’Afrique. Le risque de conflit peut augmenter avec la croissance démographique, l’intensification de l’utilisation de l’eau et les changements climatiques. Il n’existe pas de consensus sur les mécanismes précis qui alimentent les conflits dans ces bassins. Il est toutefois possible d’identifier les bassins où les risques devraient s’aggraver. Pour ce faire, on peut combiner les données sur les conditions de risque de conflit identifiées dans la littérature existante.

Dans une étude récente que j’ai menée avec trois chercheurs en systèmes d’eau de l’IHE Delft, de l’université d’Utrecht et de l’université de Wageningen & Recherche, nous avons proposé trois scénarios possibles concernant les risques de conflit dans les bassins fluviaux transfrontaliers mondiaux.

Notre étude prévoit que si rien ne change de manière substantielle dans la gestion des bassins fluviaux transfrontaliers et si le changement climatique s’aggrave, 920 millions de personnes vivront dans des bassins à risque de conflit très élevé à élevé d’ici 2050.

Si les nations améliorent l’utilisation de l’eau, renforcent la coopération et font davantage pour prévenir ou atténuer les conflits, ce nombre tombera à 536 millions.

Les traités sur l’eau et les organisations de bassin fluvial solides augmentent la probabilité d’une coopération stable et à long terme entre les États.

Notre étude combine des projections sur la construction de méga-barrages et la résilience institutionnelle. Elle a examiné les facteurs de risque hydroclimatiques, de gouvernance et socio-économiques. La combinaison de ces facteurs a permis de se faire une idée du risque global de conflit par bassin fluvial transfrontalier.

Nous avons utilisé une interprétation large des conflits liés aux ressources transfrontalières en eau. Il peut s’agir d’accusations, de tensions diplomatiques, de sanctions économiques ou de conflits violents.

Un manque de coopération entre les pays peut entraîner une perte des avantages qui pourraient découler d’activités communes. Il s’agit notamment de l’adaptation au changement climatique, de la protection de l’environnement et du développement socio-économique. Les tensions entre les États sur ces questions peuvent également s’étendre à d’autres secteurs, compromettant les relations politiques ou économiques régionales.

Nos résultats montrent que dans un scénario de statu quo – où aucun changement majeur n’est apporté – 920 millions de personnes sur les 4,4 milliards de personnes vivant dans des bassins fluviaux transfrontaliers vivront dans des bassins à risque de conflit très élevé à élevé d’ici à 2050. En Afrique, ce nombre inclut les habitants de l’Érythrée, de l’Éthiopie, du Rwanda, de l’Ouganda, du Kenya, de la Somalie, du Burkina Faso, de la Mauritanie et du Niger. Il inclut également les habitants du Mozambique, du Malawi, du Bénin et du Togo.

Dans le scénario “ambition élevée”, qui implique une amélioration des pratiques d’utilisation de l’eau et une plus grande résilience des institutions, ce nombre diminue pour atteindre 536 millions. Le scénario “ambition faible” implique une certaine amélioration de l’efficacité de l’utilisation de l’eau, de la capacité institutionnelle et de la qualité de la gouvernance. Selon ce scénario, 724 millions de personnes vivraient dans des bassins à risque de conflit très élevé à élevé d’ici 2050.

Les bassins d’Afrique et d’Asie en particulier devraient être confrontés à des risques globaux élevés, car plusieurs risques s’y télescopent. En Afrique, plusieurs bassins sont confrontés à des risques supplémentaires tels que la forte variabilité des flux d’eau et la disponibilité limitée de l’eau. Les pays en aval dépendent également des pays en amont.

Les tensions actuelles sur le Nil à propos du grand barrage de la Renaissance de l’Éthiopie, par exemple, pourraient s’aggraver lorsque l’Éthiopie décidera de construire plusieurs nouveaux méga-barrages hydroélectriques. L’Égypte et, dans une moindre mesure, le Soudan sont très dépendants des ressources en eau liées au bassin.

Notre étude montre que 11 autres grands barrages hydroélectriques pourraient être construits dans le bassin du Nil. Ces prévisions sont basées sur la faisabilité physique, le rendement énergétique et les coûts de construction. La projection tient compte de certaines restrictions, telles que les réserves naturelles protégées.

Sept de ces barrages seraient situés en Éthiopie et les quatre autres au Sud-Soudan. La construction de ces barrages se ferait dans un contexte de pénuries d’eau croissantes, de fortes dépendances à l’égard de l’eau et de ressources économiques limitées pour faire face aux risques liés à l’eau.

Ces nouveaux barrages pourraient aggraver les effets du changement climatique régional et les besoins en eau, en particulier lorsque la population et l’économie sont en pleine croissance. Bien que les spécialistes ne puissent pas prédire quand cela se produira, une sécheresse pluriannuelle dans le bassin du Nil est inévitable. Cela aurait de graves conséquences sur la répartition de l’eau.

La perspective d’une sécheresse pluriannuelle dans certaines parties du bassin du Nil exige des préparatifs dès aujourd’hui. Et même si l’impact des nouveaux barrages sera modéré, la perception du risque pourrait affecter la façon dont l’Égypte, par exemple, prend des décisions sur la coopération fluviale partagée.

Deux autres grands bassins – le Juba-Shebelle au Kenya, en Somalie et en Éthiopie, et le bassin du lac Turkana au Kenya et en Éthiopie – devraient être confrontés à des niveaux élevés de risque de conflit. Dans ces deux bassins, de multiples problèmes, tels que les conflits locaux, le faible développement humain et la disponibilité limitée de l’eau, s’y entrechoquent aujourd »hui.

Cette situation pourrait s’aggraver si des efforts supplémentaires ne sont pas déployés d’ici à 2050, en raison d’une croissance démographique relativement élevée et des effets du changement climatique, sans ressources suffisantes pour s’adapter.

Même dans notre scénario très ambitieux, qui implique des améliorations substantielles de la gestion de l’eau, de la gouvernance nationale globale et de la résilience institutionnelle, les bassins du Juba-Shebelle et du lac Turkana sont toujours confrontés à des risques élevés.

Les défis et les risques auxquels ces bassins sont confrontés doivent être explicitement inclus dans des plans plus larges. Par exemple, lorsque de grands barrages hydroélectriques sont construits, leur exploitation ne doit pas entraver les objectifs d’adaptation au climat de l’ensemble de la région.

Transport aérien : une neutralité carbone en 2050 douteuse !!!

Transport aérien : une neutralité carbone en 2050 douteuse !!!

À l’occasion du salon du Bourget a surtout été mise en évidence la performance de l’aéronautique française et les besoins de déplacement au pal mondial , les différents lobbys en ont profité pour passer un coup de peinture verte sur le secteur. Et d’affirmer faussement qu’en 2050 la décarbonation du secteur sera assurée. Guillaume Faury, le président exécutif d’Airbus réaffirme que le transport aérien atteindra la neutralité carbone en 2050 par contre quand on ne analyse bien ses propos on se rend compte qu’on sera sans doute loin du compte y compris vis-à-vis de l’utilisation du fameux carburant vert dit SAF dont on oublie de préciser les conditions de production ( l’utilisation de la biomasse n’étant pas destinée à 100 % au transport aérien). Extrait de l’interview dans la Tribune

Concernant le développement d’une nouvelle génération d’avions pour remplacer la famille A320, avez-vous des pistes technologiques qui s’affirment ?

Dans la feuille de route pour être décarboné en 2050, il faut remplacer les avions d’ancienne génération. Sur les 24.000 appareils qui volent, il y en a seulement 20 à 25 % d’avions modernes, qui consomment 20% de moins et qui sont certifiés pour incorporer jusqu’à 50% de SAF aujourd’hui. Comme ils consomment moins, on peut payer le carburant un peu plus cher. Pour aller plus loin, il faut faire entrer en service entre 2035 et 2040 une génération d’avions qui consommera entre 20 et 30% de moins que les avions les plus modernes actuels et sera capable d’utiliser 100% de SAF. Et après, nous aurons l’avion à hydrogène. Cette génération d’avions est très importante. C’est la génération clef, qui sera très largement en service en 2050, avec près de 100% de SAF, et qui fera cette décarbonation du trafic aérien.!!!

Ces technologies sont en préparation en ce moment, sur les systèmes, sur l’allègement, sur les matériaux, sur l’aérodynamique… Nous travaillons sur des choses assez sophistiquées et excitantes sur la forme des ailes, leur déformation en vol, leur adaptabilité. Mais il y a aussi des travaux dans le domaine de la propulsion avec le RISE de CFM, un programme d’open rotor, lui aussi prévu pour 2035, qui viendra contribuer très largement à la réduction des émissions de carbone. Nous sommes en partenariat avec CFM pour tester ces solutions.

Toutes les briques sont en train de se mettre en place et le financement de la recherche en France à travers le CORAC est très important. Il vient structurer ces projets et aider les grands groupes à s’organiser, mais surtout assurer toute l’architecture de l’ensemble des sociétés qui participent ses grands projets, y compris les PME et ETI qui ont beaucoup de mal à financer leur recherche et à s’aligner sur les trajectoires des maîtres d’œuvre. Nous avons en France et en Europe les moyens pour garder le leadership sur la génération d’après.

Environnement et Transport aérien : une neutralité carbone en 2050 douteuse !!!

Environnement et Transport aérien : une neutralité carbone en 2050 douteuse !!!

À l’occasion du salon du Bourget a surtout été mis en évidence la performance de l’aéronautique française et les besoins de déplacement au pal mondial , les différents lobbys en ont profité pour passer un coup de peinture verte sur le secteur. Et d’affirmer faussement p qu’en 2050 la décarbonation du secteur sera assurée. Guillaume Faury, le président exécutif d’Airbus réaffirme que le transport aérien atteindra la neutralité carbone en 2050 par contre quand on ne analyse bien ses propos on se rend compte qu’on sera sans doute loin du compte y compris vis-à-vis de l’utilisation du fameux carburant vert dit SAF dont on oublie de préciser les conditions de production ( l’utilisation de la biomasse n’étant pas destinée à 100 % au transport aérien). Extrait de l’intreview dans la Tribune

Concernant le développement d’une nouvelle génération d’avions pour remplacer la famille A320, avez-vous des pistes technologiques qui s’affirment ?

Dans la feuille de route pour être décarboné en 2050, il faut remplacer les avions d’ancienne génération. Sur les 24.000 appareils qui volent, il y en a seulement 20 à 25 % d’avions modernes, qui consomment 20% de moins et qui sont certifiés pour incorporer jusqu’à 50% de SAF aujourd’hui. Comme ils consomment moins, on peut payer le carburant un peu plus cher. Pour aller plus loin, il faut faire entrer en service entre 2035 et 2040 une génération d’avions qui consommera entre 20 et 30% de moins que les avions les plus modernes actuels et sera capable d’utiliser 100% de SAF. Et après, nous aurons l’avion à hydrogène. Cette génération d’avions est très importante. C’est la génération clef, qui sera très largement en service en 2050, avec près de 100% de SAF, et qui fera cette décarbonation du trafic aérien.!!!

Ces technologies sont en préparation en ce moment, sur les systèmes, sur l’allègement, sur les matériaux, sur l’aérodynamique… Nous travaillons sur des choses assez sophistiquées et excitantes sur la forme des ailes, leur déformation en vol, leur adaptabilité. Mais il y a aussi des travaux dans le domaine de la propulsion avec le RISE de CFM, un programme d’open rotor, lui aussi prévu pour 2035, qui viendra contribuer très largement à la réduction des émissions de carbone. Nous sommes en partenariat avec CFM pour tester ces solutions.

Toutes les briques sont en train de se mettre en place et le financement de la recherche en France à travers le CORAC est très important. Il vient structurer ces projets et aider les grands groupes à s’organiser, mais surtout assurer toute l’architecture de l’ensemble des sociétés qui participent ses grands projets, y compris les PME et ETI qui ont beaucoup de mal à financer leur recherche et à s’aligner sur les trajectoires des maîtres d’œuvre. Nous avons en France et en Europe les moyens pour garder le leadership sur la génération d’après.

Transport aérien neutralité carbone en 2050 !!!

Transport aérien : une neutralité carbone en 2050 douteuse !!!

Guillaume Faury, le président exécutif d’Airbus réaffirme que le transport aérien atteindra la neutralité carbone en 2050 par contre quand on ne analyse bien ses propos on se rend compte qu’on sera sans doute loin du compte y compris vis-à-vis de l’utilisation du fameux carburant vert dit SAF dont on oublie de préciser les conditions de production ( l’utilisation de la biomasse n’étant pas destinée à 100 % au transport aérien). Extrait de l’intreview dans la Tribune

Concernant le développement d’une nouvelle génération d’avions pour remplacer la famille A320, avez-vous des pistes technologiques qui s’affirment ?

Dans la feuille de route pour être décarboné en 2050, il faut remplacer les avions d’ancienne génération. Sur les 24.000 appareils qui volent, il y en a seulement 20 à 25 % d’avions modernes, qui consomment 20% de moins et qui sont certifiés pour incorporer jusqu’à 50% de SAF aujourd’hui. Comme ils consomment moins, on peut payer le carburant un peu plus cher. Pour aller plus loin, il faut faire entrer en service entre 2035 et 2040 une génération d’avions qui consommera entre 20 et 30% de moins que les avions les plus modernes actuels et sera capable d’utiliser 100% de SAF. Et après, nous aurons l’avion à hydrogène. Cette génération d’avions est très importante. C’est la génération clef, qui sera très largement en service en 2050, avec près de 100% de SAF, et qui fera cette décarbonation du trafic aérien.!!!

Ces technologies sont en préparation en ce moment, sur les systèmes, sur l’allègement, sur les matériaux, sur l’aérodynamique… Nous travaillons sur des choses assez sophistiquées et excitantes sur la forme des ailes, leur déformation en vol, leur adaptabilité. Mais il y a aussi des travaux dans le domaine de la propulsion avec le RISE de CFM, un programme d’open rotor, lui aussi prévu pour 2035, qui viendra contribuer très largement à la réduction des émissions de carbone. Nous sommes en partenariat avec CFM pour tester ces solutions.

Toutes les briques sont en train de se mettre en place et le financement de la recherche en France à travers le CORAC est très important. Il vient structurer ces projets et aider les grands groupes à s’organiser, mais surtout assurer toute l’architecture de l’ensemble des sociétés qui participent ses grands projets, y compris les PME et ETI qui ont beaucoup de mal à financer leur recherche et à s’aligner sur les trajectoires des maîtres d’œuvre. Nous avons en France et en Europe les moyens pour garder le leadership sur la génération d’après.

Arctique: d’ici à 2050 sans glace en septembre

Arctique: d’ici à 2050 sans glace en septembre


La surface couverte par la glace de mer au pôle Nord diminue depuis des décennies, et ce déclin s’est accentué depuis le début du millénaire. Si bien que l’Arctique pourrait connaître des mois de septembre sans banquise dès les années 2030, et au plus tard dans les années 2050, selon une étude publiée mardi dans la revue Nature Communications.

Au cours de ces travaux, le chercheur à l’université des sciences et technologies de Pohang (Corée du Sud) Seung-Ki Min et ses collègues ont cherché à mettre en évidence l’impact des activités humaines sur l’étendue de glace de mer dans cette région du globe.

Ils ont pour cela comparé les précédentes simulations de modèles climatiques à des données d’observation satellitaires recueillies entre 1979 et 2019. Ils ont également élaboré plusieurs hypothèses (avec ou sans gaz à effet de serre, avec ou sans aérosols, etc.) pour évaluer la réponse de la banquise à ces différents facteurs et quantifier l’impact de chacun d’eux.

Arctique: d’ici à 2050 sans glace en septembre

Arctique: d’ici à 2050 sans glace en septembre


La surface couverte par la glace de mer au pôle Nord diminue depuis des décennies, et ce déclin s’est accentué depuis le début du millénaire. Si bien que l’Arctique pourrait connaître des mois de septembre sans banquise dès les années 2030, et au plus tard dans les années 2050, selon une étude publiée mardi dans la revue Nature Communications.

Au cours de ces travaux, le chercheur à l’université des sciences et technologies de Pohang (Corée du Sud) Seung-Ki Min et ses collègues ont cherché à mettre en évidence l’impact des activités humaines sur l’étendue de glace de mer dans cette région du globe.

Ils ont pour cela comparé les précédentes simulations de modèles climatiques à des données d’observation satellitaires recueillies entre 1979 et 2019. Ils ont également élaboré plusieurs hypothèses (avec ou sans gaz à effet de serre, avec ou sans aérosols, etc.) pour évaluer la réponse de la banquise à ces différents facteurs et quantifier l’impact de chacun d’eux.

Société-Population mondiale: le déclin à partir de 2050

Société-Population mondiale: le déclin à partir de 2050


Selon les scénarios des chercheurs de l’intiative Earth4All, un pic pourrait avoir lieu dès 2046 (9 milliards de personnes) ou autour de 2040 (8,5 milliards)

Avec leur modèle Earth4All, les chercheurs envisagent deux scénarios le pic démographique arriverait dès 2046 (9 milliards de personnes), pour ensuite décliner à 7,3 milliards en 2100. Dans le second scénario, les investissements dans l’éducation, la santé, la lutte contre la pauvreté et les inégalités se renforceraient. La transition serait aussi en œuvre dans les énergies et les emplois verts. Le pic serait alors franchi autour de 2040 (8,5 milliards de personnes), pour connaître ensuite une forte baisse, à 6 milliards d’humains à la fin du siècle. « Mais les relations entre ces variables économiques et environnementales et la démographie sont loin d’être établies », nuance néanmoins le démographe Gilles Pison auprès du Figaro.

Parmi les facteurs explicatifs, l’autonomisation des femmes, qui leur permet d’avoir la main sur l’éducation, le travail et la vie familiale. Avec le modèle Earth4All, le taux de fécondité passerait à 1,66 enfant par femme, contre 1,8 pour le modèle onusien. Normalement, il faut un taux de fécondité de 2,2 pour simplement renouveler la population.

Population mondiale: le déclin à partir de 2050

Population mondiale: le déclin à partir de 2050

Selon les scénarios des chercheurs de l’intiative Earth4All, un pic pourrait avoir lieu dès 2046 (9 milliards de personnes) ou autour de 2040 (8,5 milliards)

Avec leur modèle Earth4All, les chercheurs envisagent deux scénarios le pic démographique arriverait dès 2046 (9 milliards de personnes), pour ensuite décliner à 7,3 milliards en 2100. Dans le second scénario, les investissements dans l’éducation, la santé, la lutte contre la pauvreté et les inégalités se renforceraient. La transition serait aussi en œuvre dans les énergies et les emplois verts. Le pic serait alors franchi autour de 2040 (8,5 milliards de personnes), pour connaître ensuite une forte baisse, à 6 milliards d’humains à la fin du siècle. « Mais les relations entre ces variables économiques et environnementales et la démographie sont loin d’être établies », nuance néanmoins le démographe Gilles Pison auprès du Figaro.

Parmi les facteurs explicatifs, l’autonomisation des femmes, qui leur permet d’avoir la main sur l’éducation, le travail et la vie familiale. Avec le modèle Earth4All, le taux de fécondité passerait à 1,66 enfant par femme, contre 1,8 pour le modèle onusien. Normalement, il faut un taux de fécondité de 2,2 pour simplement renouveler la population.

La future Énergie: La fusion nucléaire après 2050 ?

La future Énergie: La fusion nucléaire après 2050 ?

2022 constitue sans nul doute une année charnière pour la fusion nucléaire. Le 13 décembre dernier, la communauté scientifique œuvrant dans ce domaine était en ébullition. Et pour cause, les Etats-Unis ont fait savoir que le Laboratoire national Lawrence Livermore (LNLL) était parvenu à produire plus d’énergie pendant une réaction de fusion nucléaire qu’il n’en avait été nécessaire pour initier le processus, du moins au niveau du combustible. « Un seuil que l’on attend depuis des décennies. Grand pas pour la fusion, petit pas pour l’énergie », commentait alors sur Twitter Greg de Temmerman, directeur général du think tank Zenon et spécialiste français de la fusion nucléaire.( un article de la Tribune d’après Renaissance fusion)

Depuis les années 1930, les scientifiques tentent en effet de reproduire, sur Terre, le mécanisme à l’œuvre dans le soleil et les étoiles. Contrairement à la fission nucléaire, sur laquelle repose toutes les centrales nucléaires en fonctionnement dans le monde, la fusion nucléaire ne consiste pas à casser des noyaux lourds d’uranium pour libérer de l’énergie, mais à faire fusionner deux noyaux d’hydrogène extrêmement légers pour créer un élément plus lourd. Dans le détail, le mariage forcé du deutérium et du tritium permet de produire de l’hélium et un neutron. Cette réaction doit alors permettre de générer des quantités massives d’énergie sous forme de chaleur, qui peut ensuite être transformée en électricité grâce à une turbine.
La fusion nucléaire suscite d’immenses espoirs car si l’homme savait la contrôler, cette source d’énergie cocherait toutes les cases : l’électricité qu’elle pourrait délivrer serait quasi illimitée, décarbonée, sûre, et produirait très peu de déchets radioactifs à vie longue. Mais jusqu’au 13 décembre dernier, les scientifiques butaient sur une étape majeure : celle du breakeven, soit le seuil où l’énergie produite par la réaction de la fusion est supérieure à celle nécessaire pour faire fonctionner le système. C’est désormais chose faite.

Si cette percée est la plus retentissante, d’autres grandes avancées ont été observées au cours de la même année. Quelques mois auparavant, ce même laboratoire californien est parvenu à contrôler un plasma brûlant, le plasma étant le quatrième état de la matière (après les états solide, liquide et gazeux) dans lequel peuvent justement se rencontrer les deux noyaux d’hydrogène. En 2022, des quantités records d’énergie ont été produites par JET, une machine de recherche basée à Oxford, au Royaume-Uni. Les installations Kstar et East, implantées respectivement en Corée du Sud et en Chine, sont quant à elles parvenues à confiner le plasma sur des durées et des températures records.

Mais l’année 2022 c’est aussi l’année où « la fusion est sortie des laboratoires pour aller sur le marché », souligne Andrew Holland à la tête de la Fusion industry association (FIA). Dans son dernier rapport annuel, l’organisation dénombre 33 entreprises privées actives dans ce domaine à travers le monde. Parmi elles, 21 se sont créées au cours des cinq dernières années. On peut les ranger dans trois grandes familles. Celles qui planchent sur la fusion par confinement magnétique et qui s’appuient sur des aimants supraconducteurs pour maintenir le plasma. Celles qui travaillent sur la fusion inertielle en ayant recours à des lasers. Et celles, à l’image de General Fusion, qui entendent combiner ces deux approches.
En 2022, ces entreprises ont levé 2,8 milliards de dollars, contre près de 2 milliards de dollars un an plus tôt. Au total, depuis leur création, elles ont réuni un peu plus 4,8 milliards de dollars, principalement auprès d’investisseurs privés, (seuls 117 millions de dollars proviennent de subventions publiques). Parmi eux, on retrouve les grands fonds de capital-risque et des personnalités et des entreprises de la tech comme Bill Gates, Jeff Bezos (Amazon) ou encore Google et le groupe chinois Tencent, mais aussi une poignée d’industriels, dont l’énergéticien italien Eni, le norvégien Equinor, et les majors Chevron et Shell.

Commonwealth Fusion Systems, un spin off du MIT, représente à elle seule plus d’un tiers de ces investissements. Née en 2018, l’entreprise a bouclé un tour de table XXL de 1,8 milliard de dollars. Elle promet de commercialiser la première centrale à fusion à l’horizon 2030. Helion Energy, une autre entreprise américaine qui s’est spécialisée dans la fusion inertielle, a, elle, levé 500 millions de dollars et assure avoir déjà sécurisé un financement à venir de 1,7 milliard de dollars. Au total, sept entreprises ont déjà réuni plus de 200 millions de dollars d’investissements.

Comment expliquer cet engouement de la sphère privée pour la fusion ?
« Ce n’est pas quelque chose de nouveau. La première initiative privée remonte à 1998 avec TAE Technologies, mais le nombre de start-up a nettement augmenté à partir des années 2014-2015. A ce moment-là, Bernard Bigot, [alors à la tête du gigantesque programme scientifique international Iter, censé démontrer la viabilité de la fusion nucléaire à grande échelle, ndlr] annonce cinq années de retard sur le projet. Iter est en construction et permet à la communauté scientifique d’apprendre énormément, mais cela ne va pas assez vite. Cela a généré une frustration qui a poussé des scientifiques à entreprendre », se remémore Greg de Temmerman, coordinateur scientifique sur le projet Iter entre 2014 et 2020.
Par ailleurs, jusqu’à l’année dernière, les capitaux étaient largement disponibles tandis que les taux d’intérêt étaient à leur plus bas. Des conditions de marché qui ont conduit les investisseurs à aller chercher des investissements plus risqués afin d’obtenir des rendements plus élevés. « Or la fusion est un investissement à haut risque et à haut potentiel. C’est un investissement qui peut mener nulle part, mais si cela fonctionne l’investisseur fait fortune », souligne Greg de Temmerman. La fusion reste enfin l’un des grands défis techniques et scientifiques à résoudre. De quoi attirer des personnalités fortunées avides de ce genre de challenge.

Aujourd’hui, les Etats-Unis dominent incontestablement cette course mondiale, avec 21 entreprises basées sur son sol, tandis que seules trois sont installées en Europe continentale (Renaissance Fusion en France, Deutelio en Italie et Marvel Fusion en Allemagne) et trois autres au Royaume-Uni (Crossfield Fusion, First Light Fusion et Tokamak Energy).

Pourtant, c’est bien le Vieux Continent qui est le leader mondial de la recherche en fusion. L’Allemagne, qui a décidé de tourner le dos à la fission nucléaire, compte le plus grand nombre de chercheurs en la matière. « Les scientifiques sont parvenus à démontrer que ce n’était pas le même nucléaire, que la fusion ne présentait pas les mêmes problématiques en matière de sûreté et de déchets et qu’il fallait continuer », explique Greg de Temmerman.
En France, l’Institut de recherche sur la fusion par confinement magnétique (IRFM) du CEA, qui jouxte le chantier d’Iter à Cadarache dans les Bouches du Rhône, est mondialement reconnu. Dès 1959, le centre de recherche a participé à la réalisation de plusieurs tokamaks expérimentaux, ces structures dans lesquelles sont confinées les plasmas. Il espère désormais développer une centrale à fusion nucléaire plus compacte que le réacteur Iter.

Le Royaume-Uni, « qui est le plus gros promoteur de la fusion nucléaire en Europe », selon les propos de Jérôme Bucalossi, à la tête de l’IRFM du CEA, s’est déjà engagé dans cette voie. « Son programme STEP vise à développer un réacteur à fusion connecté au réseau électrique avant 2040 », précise-t-il. Un dynamisme qui a permis d’attirer la start-up canadienne General Fusion, soutenue par Jeff Bezos. Fondée en 2002, l’entreprise a choisi de construire sa première centrale nucléaire pilote à Culham, un petit village de l’Oxfordshire.
Malgré cet indéniable atout académique du côté européen, les entreprises américaines pourraient creuser davantage l’écart avec le reste du monde dans les mois à venir grâce à un soutien public qui se muscle. Le département de l’énergie américain a récemment débloqué 50 millions de dollars pour favoriser les partenariats publics-privés et accélérer le développement de réacteurs à fusion. Une enveloppe qui vient s’ajouter à l’Inflation Reduction Act, le vaste plan de réforme défendu par l’administration Biden, qui prévoit quelque 370 milliards de dollars pour décarboner l’économie américaine. De quoi accélérer considérablement le financement des projets liés à la fusion.

La fusion pour après 2050

Car les acteurs de la fusion sont également portés par l’urgence climatique, la nécessaire électrification des usages ainsi que la flambée des prix de l’électricité. Nombre de ces startups promettent ainsi une première centrale à fusion connectée au réseau électrique avant 2035 et présentent cette technologie comme un moyen efficace de lutter contre le changement climatique. Une communication qui « agace » Greg de Temmerman. « Un réacteur à fusion nucléaire qui fonctionne 24 heures sur 24 de façon fiable dans les années 2030, c’est hors d’atteinte, tranche-t-il. En revanche, si on parle d’un démonstrateur capable de générer de l’électricité cela peut arriver dans la décennie 2030 », reconnaît-il

Plus globalement, le spécialiste estime que la fusion « ne représentera rien pour l’énergie en 2050. Elle ne contribuera pas à la transition énergétique ». Il juge néanmoins que la fusion, comme source d’énergie pilotable et décarbonée, restera utile pour l’après 2050 et que son financement ne compromet pas, en parallèle, la décarbonation de l’économie.
En revanche, des applications en dehors du secteur de l’énergie pourraient voir le jour bien plus tôt. A Grenoble, la start-up Renaissance Fusion entend notamment commercialiser des briques technologiques issues de son activité pour l’imagerie médicale, les éoliennes ou encore les accélérateurs de particules.
Des verrous technologiques à lever

Si Greg de Temmerman se montre si prudent sur les calendriers partagés par ces startups c’est que les verrous technologiques à lever restent encore nombreux. D’abord, un réacteur à fusion devra être capable de produire son propre combustible. « On estime que les réserves de tritium sur Terre ne s’élèvent qu’à 35 kilos. Or, pour fonctionner un réacteur à fusion nucléaire aurait besoin d’une centaine de kilos de tritium par an. Le seul moyen pour la fusion d’être viable c’est que le réacteur soit capable de générer autant de tritium qu’il n’en consomme, voire plus pour pouvoir démarrer un autre réacteur », explique-t-il. La tâche est éminemment complexe. A titre d’illustration, Iter est censé tester cinq modules différents de génération de tritium.
Outre cet écueil, la recherche doit également énormément avancer sur les matériaux, car les enceintes des réacteurs devront résister à des dizaines d’années de bombardement de neutrons. Autre grand défi : s’assurer que des phénomènes de disruption du plasma ne puissent en aucun cas survenir car l’écrasement d’un plasma à 150 millions de degrés endommagerait inévitablement le matériel. « Un tokamak (l’enceinte dans laquelle est confiné le plasma, ndlr) ne peut fonctionner que si on supprime ces événements », assure Greg de Temmerman. Enfin, un tokamak a besoin de générer du courant en continu et « on n’a encore jamais prouvé qu’un tokamak pouvait fonctionner de façon continue », pointe-t-il.

Gare aux revers et déceptionsSurtout, l’industrie de la fusion n’est pas à l’abri de revers et déceptions, qui ont déjà largement marqué son histoire. « En 1998, TAE Technologies promettait un premier réacteur dans les 15 années à venir », se souvient le spécialiste. Une dizaine d’années plus tôt, en 1989, deux chimistes de l’université de l’Utah (Etats-Unis) avaient affirmé avoir réussi à fusionner des noyaux à température ambiante dans une simple cellule électrochimique sur une paillasse. Une affirmation qui s’est démentie quelques semaines plus tard. Autre exemple en 1951, au plus fort de la guerre froide. Juan Perón, alors président de l’Argentine, avait assuré que ses scientifiques étaient parvenus à maîtriser l’énergie de fusion, faisant ainsi la une des journaux du monde entier. Le combustible de fusion serait bientôt disponible, comme le lait, disait-il, dans des bouteilles d’un demi-litre.

Plus récemment, le méga projet Iter promettait la production d’un premier plasma en 2025. Celle-ci n’aura finalement pas lieu avant 2030. De quoi s’interroger sur la place de ce méga projet dans un écosystème de plus en plus dynamique. Présenté comme un outil de formation pour des milliers de physiciens, complémentaire et bénéfique pour les startups, le programme, soumis à une gouvernance très complexe et confronté à des défis d’ingénierie accentués par sa taille, cumule les retards. « C’est une question qui devient gênante », reconnaît Greg Temmerman.

Renaissance fusion, seule start-up tricolore dans la course

Renaissance fusion est la seule start-up française à plancher sur la fusion nucléaire. Basée à Grenoble, elle s’est spécialisée dans la fusion par confinement magnétique. Cette approche consiste à faire chauffer un plasma à 150 millions de degrés et à le confiner grâce à des aimants extrêmement puissants, capables de rapprocher les particules et de les faire circuler selon une trajectoire bien précise.

Toutefois, à la différence du méga projet Iter, la jeune pousse a choisi un design de réacteur bien particulier : le stellarator, qui diffère du tokamak bien plus répandu et étudié par les chercheurs par le passé. Initialement conçu par les Américains, ce type de réacteur est beaucoup plus difficile à construire que le tokamak, mais il présente un grand avantage : il permet d’obtenir un plasma très stable et de produire de l’énergie de manière continue et non pulsée. Ses aimants sont en revanche « tarabiscotés », explique Simon Belka, chef de projet au sein de l’entreprise.
Pour surmonter cet écueil, Renaissance Fusion a développé une technique innovante pour fabriquer ces aimants. « On dépose la matière supraconductrice directement sur l’enceinte du réacteur ce qui permet d’avoir une enceinte aimantée géante », résume Simon Belka. Elle utilise ensuite un laser pour enlever la matière et donner un pattern bien précis. La start-up planche aussi sur des métaux liquides capables d’absorber la chaleur afin de protéger les parois des réacteurs.

Avant de construire un réacteur nucléaire, l’entreprise prévoit de vendre ses briques technologiques à d’autres secteurs pour financer son développement. Elle entend ensuite mettre sur pied un réacteur d’essai en 2028, capable de produire deux fois plus d’énergie qu’il n’en consomme. Ce démonstrateur ne produira que de la chaleur. Dernière étape : vendre un réacteur de 1000 mégawatts électriques, soit l’équivalent peu ou prou de la puissance d’une tranche nucléaire, entre 2032 et 2035.

Renaissance Fusion officialisera dans les prochaines semaines une levée de fonds supérieure à 10 millions d’euros. Elle prépare déjà un prochain tour de table pour 2024. « On espère être dans le top 7 des plus grosses levées de fonds du secteur », indique Simon Belka.

Energie-Fusion nucléaire : pour après 2050 ?

Energie-Fusion nucléaire : pour après 2050 ?

2022 constitue sans nul doute une année charnière pour la fusion nucléaire. Le 13 décembre dernier, la communauté scientifique œuvrant dans ce domaine était en ébullition. Et pour cause, les Etats-Unis ont fait savoir que le Laboratoire national Lawrence Livermore (LNLL) était parvenu à produire plus d’énergie pendant une réaction de fusion nucléaire qu’il n’en avait été nécessaire pour initier le processus, du moins au niveau du combustible. « Un seuil que l’on attend depuis des décennies. Grand pas pour la fusion, petit pas pour l’énergie », commentait alors sur Twitter Greg de Temmerman, directeur général du think tank Zenon et spécialiste français de la fusion nucléaire.( un article de la Tribune d’après Renaissance fusion)

Depuis les années 1930, les scientifiques tentent en effet de reproduire, sur Terre, le mécanisme à l’œuvre dans le soleil et les étoiles. Contrairement à la fission nucléaire, sur laquelle repose toutes les centrales nucléaires en fonctionnement dans le monde, la fusion nucléaire ne consiste pas à casser des noyaux lourds d’uranium pour libérer de l’énergie, mais à faire fusionner deux noyaux d’hydrogène extrêmement légers pour créer un élément plus lourd. Dans le détail, le mariage forcé du deutérium et du tritium permet de produire de l’hélium et un neutron. Cette réaction doit alors permettre de générer des quantités massives d’énergie sous forme de chaleur, qui peut ensuite être transformée en électricité grâce à une turbine.
La fusion nucléaire suscite d’immenses espoirs car si l’homme savait la contrôler, cette source d’énergie cocherait toutes les cases : l’électricité qu’elle pourrait délivrer serait quasi illimitée, décarbonée, sûre, et produirait très peu de déchets radioactifs à vie longue. Mais jusqu’au 13 décembre dernier, les scientifiques butaient sur une étape majeure : celle du breakeven, soit le seuil où l’énergie produite par la réaction de la fusion est supérieure à celle nécessaire pour faire fonctionner le système. C’est désormais chose faite.

Si cette percée est la plus retentissante, d’autres grandes avancées ont été observées au cours de la même année. Quelques mois auparavant, ce même laboratoire californien est parvenu à contrôler un plasma brûlant, le plasma étant le quatrième état de la matière (après les états solide, liquide et gazeux) dans lequel peuvent justement se rencontrer les deux noyaux d’hydrogène. En 2022, des quantités records d’énergie ont été produites par JET, une machine de recherche basée à Oxford, au Royaume-Uni. Les installations Kstar et East, implantées respectivement en Corée du Sud et en Chine, sont quant à elles parvenues à confiner le plasma sur des durées et des températures records.

Mais l’année 2022 c’est aussi l’année où « la fusion est sortie des laboratoires pour aller sur le marché », souligne Andrew Holland à la tête de la Fusion industry association (FIA). Dans son dernier rapport annuel, l’organisation dénombre 33 entreprises privées actives dans ce domaine à travers le monde. Parmi elles, 21 se sont créées au cours des cinq dernières années. On peut les ranger dans trois grandes familles. Celles qui planchent sur la fusion par confinement magnétique et qui s’appuient sur des aimants supraconducteurs pour maintenir le plasma. Celles qui travaillent sur la fusion inertielle en ayant recours à des lasers. Et celles, à l’image de General Fusion, qui entendent combiner ces deux approches.
En 2022, ces entreprises ont levé 2,8 milliards de dollars, contre près de 2 milliards de dollars un an plus tôt. Au total, depuis leur création, elles ont réuni un peu plus 4,8 milliards de dollars, principalement auprès d’investisseurs privés, (seuls 117 millions de dollars proviennent de subventions publiques). Parmi eux, on retrouve les grands fonds de capital-risque et des personnalités et des entreprises de la tech comme Bill Gates, Jeff Bezos (Amazon) ou encore Google et le groupe chinois Tencent, mais aussi une poignée d’industriels, dont l’énergéticien italien Eni, le norvégien Equinor, et les majors Chevron et Shell.

Commonwealth Fusion Systems, un spin off du MIT, représente à elle seule plus d’un tiers de ces investissements. Née en 2018, l’entreprise a bouclé un tour de table XXL de 1,8 milliard de dollars. Elle promet de commercialiser la première centrale à fusion à l’horizon 2030. Helion Energy, une autre entreprise américaine qui s’est spécialisée dans la fusion inertielle, a, elle, levé 500 millions de dollars et assure avoir déjà sécurisé un financement à venir de 1,7 milliard de dollars. Au total, sept entreprises ont déjà réuni plus de 200 millions de dollars d’investissements.

Comment expliquer cet engouement de la sphère privée pour la fusion ?
« Ce n’est pas quelque chose de nouveau. La première initiative privée remonte à 1998 avec TAE Technologies, mais le nombre de start-up a nettement augmenté à partir des années 2014-2015. A ce moment-là, Bernard Bigot, [alors à la tête du gigantesque programme scientifique international Iter, censé démontrer la viabilité de la fusion nucléaire à grande échelle, ndlr] annonce cinq années de retard sur le projet. Iter est en construction et permet à la communauté scientifique d’apprendre énormément, mais cela ne va pas assez vite. Cela a généré une frustration qui a poussé des scientifiques à entreprendre », se remémore Greg de Temmerman, coordinateur scientifique sur le projet Iter entre 2014 et 2020.
Par ailleurs, jusqu’à l’année dernière, les capitaux étaient largement disponibles tandis que les taux d’intérêt étaient à leur plus bas. Des conditions de marché qui ont conduit les investisseurs à aller chercher des investissements plus risqués afin d’obtenir des rendements plus élevés. « Or la fusion est un investissement à haut risque et à haut potentiel. C’est un investissement qui peut mener nulle part, mais si cela fonctionne l’investisseur fait fortune », souligne Greg de Temmerman. La fusion reste enfin l’un des grands défis techniques et scientifiques à résoudre. De quoi attirer des personnalités fortunées avides de ce genre de challenge.

Aujourd’hui, les Etats-Unis dominent incontestablement cette course mondiale, avec 21 entreprises basées sur son sol, tandis que seules trois sont installées en Europe continentale (Renaissance Fusion en France, Deutelio en Italie et Marvel Fusion en Allemagne) et trois autres au Royaume-Uni (Crossfield Fusion, First Light Fusion et Tokamak Energy).

Pourtant, c’est bien le Vieux Continent qui est le leader mondial de la recherche en fusion. L’Allemagne, qui a décidé de tourner le dos à la fission nucléaire, compte le plus grand nombre de chercheurs en la matière. « Les scientifiques sont parvenus à démontrer que ce n’était pas le même nucléaire, que la fusion ne présentait pas les mêmes problématiques en matière de sûreté et de déchets et qu’il fallait continuer », explique Greg de Temmerman.
En France, l’Institut de recherche sur la fusion par confinement magnétique (IRFM) du CEA, qui jouxte le chantier d’Iter à Cadarache dans les Bouches du Rhône, est mondialement reconnu. Dès 1959, le centre de recherche a participé à la réalisation de plusieurs tokamaks expérimentaux, ces structures dans lesquelles sont confinées les plasmas. Il espère désormais développer une centrale à fusion nucléaire plus compacte que le réacteur Iter.

Le Royaume-Uni, « qui est le plus gros promoteur de la fusion nucléaire en Europe », selon les propos de Jérôme Bucalossi, à la tête de l’IRFM du CEA, s’est déjà engagé dans cette voie. « Son programme STEP vise à développer un réacteur à fusion connecté au réseau électrique avant 2040 », précise-t-il. Un dynamisme qui a permis d’attirer la start-up canadienne General Fusion, soutenue par Jeff Bezos. Fondée en 2002, l’entreprise a choisi de construire sa première centrale nucléaire pilote à Culham, un petit village de l’Oxfordshire.
Malgré cet indéniable atout académique du côté européen, les entreprises américaines pourraient creuser davantage l’écart avec le reste du monde dans les mois à venir grâce à un soutien public qui se muscle. Le département de l’énergie américain a récemment débloqué 50 millions de dollars pour favoriser les partenariats publics-privés et accélérer le développement de réacteurs à fusion. Une enveloppe qui vient s’ajouter à l’Inflation Reduction Act, le vaste plan de réforme défendu par l’administration Biden, qui prévoit quelque 370 milliards de dollars pour décarboner l’économie américaine. De quoi accélérer considérablement le financement des projets liés à la fusion.

La fusionpour après 2050

Car les acteurs de la fusion sont également portés par l’urgence climatique, la nécessaire électrification des usages ainsi que la flambée des prix de l’électricité. Nombre de ces startups promettent ainsi une première centrale à fusion connectée au réseau électrique avant 2035 et présentent cette technologie comme un moyen efficace de lutter contre le changement climatique. Une communication qui « agace » Greg de Temmerman. « Un réacteur à fusion nucléaire qui fonctionne 24 heures sur 24 de façon fiable dans les années 2030, c’est hors d’atteinte, tranche-t-il. En revanche, si on parle d’un démonstrateur capable de générer de l’électricité cela peut arriver dans la décennie 2030 », reconnaît-il

Plus globalement, le spécialiste estime que la fusion « ne représentera rien pour l’énergie en 2050. Elle ne contribuera pas à la transition énergétique ». Il juge néanmoins que la fusion, comme source d’énergie pilotable et décarbonée, restera utile pour l’après 2050 et que son financement ne compromet pas, en parallèle, la décarbonation de l’économie.
En revanche, des applications en dehors du secteur de l’énergie pourraient voir le jour bien plus tôt. A Grenoble, la start-up Renaissance Fusion entend notamment commercialiser des briques technologiques issues de son activité pour l’imagerie médicale, les éoliennes ou encore les accélérateurs de particules.
Des verrous technologiques à lever

Si Greg de Temmerman se montre si prudent sur les calendriers partagés par ces startups c’est que les verrous technologiques à lever restent encore nombreux. D’abord, un réacteur à fusion devra être capable de produire son propre combustible. « On estime que les réserves de tritium sur Terre ne s’élèvent qu’à 35 kilos. Or, pour fonctionner un réacteur à fusion nucléaire aurait besoin d’une centaine de kilos de tritium par an. Le seul moyen pour la fusion d’être viable c’est que le réacteur soit capable de générer autant de tritium qu’il n’en consomme, voire plus pour pouvoir démarrer un autre réacteur », explique-t-il. La tâche est éminemment complexe. A titre d’illustration, Iter est censé tester cinq modules différents de génération de tritium.
Outre cet écueil, la recherche doit également énormément avancer sur les matériaux, car les enceintes des réacteurs devront résister à des dizaines d’années de bombardement de neutrons. Autre grand défi : s’assurer que des phénomènes de disruption du plasma ne puissent en aucun cas survenir car l’écrasement d’un plasma à 150 millions de degrés endommagerait inévitablement le matériel. « Un tokamak (l’enceinte dans laquelle est confiné le plasma, ndlr) ne peut fonctionner que si on supprime ces événements », assure Greg de Temmerman. Enfin, un tokamak a besoin de générer du courant en continu et « on n’a encore jamais prouvé qu’un tokamak pouvait fonctionner de façon continue », pointe-t-il.

Gare aux revers et déceptionsSurtout, l’industrie de la fusion n’est pas à l’abri de revers et déceptions, qui ont déjà largement marqué son histoire. « En 1998, TAE Technologies promettait un premier réacteur dans les 15 années à venir », se souvient le spécialiste. Une dizaine d’années plus tôt, en 1989, deux chimistes de l’université de l’Utah (Etats-Unis) avaient affirmé avoir réussi à fusionner des noyaux à température ambiante dans une simple cellule électrochimique sur une paillasse. Une affirmation qui s’est démentie quelques semaines plus tard. Autre exemple en 1951, au plus fort de la guerre froide. Juan Perón, alors président de l’Argentine, avait assuré que ses scientifiques étaient parvenus à maîtriser l’énergie de fusion, faisant ainsi la une des journaux du monde entier. Le combustible de fusion serait bientôt disponible, comme le lait, disait-il, dans des bouteilles d’un demi-litre.

Plus récemment, le méga projet Iter promettait la production d’un premier plasma en 2025. Celle-ci n’aura finalement pas lieu avant 2030. De quoi s’interroger sur la place de ce méga projet dans un écosystème de plus en plus dynamique. Présenté comme un outil de formation pour des milliers de physiciens, complémentaire et bénéfique pour les startups, le programme, soumis à une gouvernance très complexe et confronté à des défis d’ingénierie accentués par sa taille, cumule les retards. « C’est une question qui devient gênante », reconnaît Greg Temmerman.

Renaissance fusion, seule start-up tricolore dans la course

Renaissance fusion est la seule start-up française à plancher sur la fusion nucléaire. Basée à Grenoble, elle s’est spécialisée dans la fusion par confinement magnétique. Cette approche consiste à faire chauffer un plasma à 150 millions de degrés et à le confiner grâce à des aimants extrêmement puissants, capables de rapprocher les particules et de les faire circuler selon une trajectoire bien précise.

Toutefois, à la différence du méga projet Iter, la jeune pousse a choisi un design de réacteur bien particulier : le stellarator, qui diffère du tokamak bien plus répandu et étudié par les chercheurs par le passé. Initialement conçu par les Américains, ce type de réacteur est beaucoup plus difficile à construire que le tokamak, mais il présente un grand avantage : il permet d’obtenir un plasma très stable et de produire de l’énergie de manière continue et non pulsée. Ses aimants sont en revanche « tarabiscotés », explique Simon Belka, chef de projet au sein de l’entreprise.
Pour surmonter cet écueil, Renaissance Fusion a développé une technique innovante pour fabriquer ces aimants. « On dépose la matière supraconductrice directement sur l’enceinte du réacteur ce qui permet d’avoir une enceinte aimantée géante », résume Simon Belka. Elle utilise ensuite un laser pour enlever la matière et donner un pattern bien précis. La start-up planche aussi sur des métaux liquides capables d’absorber la chaleur afin de protéger les parois des réacteurs.

Avant de construire un réacteur nucléaire, l’entreprise prévoit de vendre ses briques technologiques à d’autres secteurs pour financer son développement. Elle entend ensuite mettre sur pied un réacteur d’essai en 2028, capable de produire deux fois plus d’énergie qu’il n’en consomme. Ce démonstrateur ne produira que de la chaleur. Dernière étape : vendre un réacteur de 1000 mégawatts électriques, soit l’équivalent peu ou prou de la puissance d’une tranche nucléaire, entre 2032 et 2035.

Renaissance Fusion officialisera dans les prochaines semaines une levée de fonds supérieure à 10 millions d’euros. Elle prépare déjà un prochain tour de table pour 2024. « On espère être dans le top 7 des plus grosses levées de fonds du secteur », indique Simon Belka.

12345



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol