Archive pour le Tag 'avenir'

Politique-Enjeux et avenir de la France face aux crises

Politique-Enjeux et avenir de la France face aux crises

Des événements de diverses natures ont entraîné des conséquences géopolitiques bien au-delà de leur perception par leurs contemporains ( article de André Yché dans la Tribune)

En remportant la bataille de Chéronée en 338 avant JC, Philippe II de Macédoine assure la domination de son pays sur la Grèce et prépare l’entreprise conquérante d’Alexandre le Grand qui, pénétrant en Orient jusqu’en Asie Centrale et en Inde, ouvre les « routes de la soie ».

De même, la peste de Justinien, au milieu du VIème siècle, en décimant les armées byzantines engagées dans la reconquête de l’Italie, met un terme à l’ultime tentative de réunification de l’Empire romain et, de fait, scelle le sort, à terme, de l’Empire byzantin.

Les batailles de Chesapeake Bay et de Yorktown, en 1781, remportées par de Grasse et Rochambeau, ouvrent la voie à l’indépendance américaine et jouent un rôle déterminant dans l’Histoire mondiale du XXe siècle.

La bataille de Sadowa, qui accélère le déclin de l’Empire austro-hongrois, marque le début de l’hégémonie prussienne en Europe centrale, avec les conséquences dramatiques que l’on sait.

Enfin, la crise de 1929 n’est surmontée qu’à partir du moment où les Etats-Unis s’engagent dans une politique de réarmement, d’abord au profit des démocraties européennes, puis pour leur compte propre à partir du 8 décembre 1941. Pour soixante-dix ans, la doctrine Monroe est mise entre parenthèses et l’Amérique renonce à son isolationnisme traditionnel. Jusqu’à quand ?

En même temps, la dimension géopolitique de l’Histoire se heurte constamment aux réalités territoriales, aux ancrages nationaux, à l’enracinement des Hommes qui tressent un lien indissoluble entre histoire et géographie.

C’est ainsi que tout au long du premier tiers du XVe siècle, le grand empereur chinois, Yongle, parraine les expéditions maritimes de Zheng He, afin d’ouvrir le monde à la Chine : l’océan Indien, les côtes de l’Afrique de l’Est, la mer Rouge, jusqu’en Egypte. Mais l’agitation turco-mongole sur les frontières du nord impose le recentrage de l’effort budgétaire sur la restauration de la Grande Muraille et, pour protéger le Hebei, l’Empire céleste se détourne durablement du « Grand Large ».

Au cours du dernier tiers du XIXème siècle, alors que monte en Angleterre un courant en faveur du libre-échange qui ouvre le monde entier à la City, porté par l’aristocratie foncière reconvertie dans la finance après l’abrogation des lois protectionnistes sur le blé (« Corn Laws ») par Robert Peel en 1846, une forte opposition se fait jour, conduite aux Communes par Benjamin Disraeli. Derrière ce courant protectionniste, les intérêts portuaires britanniques sont en cause ; ils bénéficient du régime de l’« Exclusif » avec l’Empire qui alimente les réexportations vers le continent. L’entreprise coloniale, ce sont également, à proximité des bases navales, les arsenaux de la Navy et de l’Army qui constituent le cœur de la métallurgie anglaise.

Comme aux Etats-Unis et en France aujourd’hui, les Anglais sont donc en plein débat sur la protection de leur industrie, auquel s’ajoutent les polémiques entre Malthus (protectionniste) et Ricardo (libre-échangiste) sur la souveraineté alimentaire nationale.

Quels enseignements utiles faut-il tirer de ces épisodes historiques quant à l’impact probable de la crise sanitaire, économique et géopolitique que nous traversons?

La France et le Monde

L’expérience pratique de l’Antiquité grecque est celle d’un monde éclaté, dans lequel chaque Cité fixe ses lois, règle son gouvernement, décerne sa citoyenneté. Au-delà, c’est le monde barbare, qui ne parle pas grec et qui, de ce fait, n’est pas civilisé.

Pour autant, Platon n’ignore pas l’idée d’universalité : mais elle est purement intellectuelle ; elle tient dans l’aptitude de tout être humain à penser ; c’est, en quelque sorte, le « Cogito » de Descartes, avant l’heure.

L’universalisme romain ne se conçoit, juridiquement, qu’à travers l’attribution de la citoyenneté, considérablement élargie à partir de l’édit de Caracalla en 212, qui accorde la qualité de citoyen romain à tout homme libre de l’Empire.

Il n’en demeure pas moins que le véritable vecteur du concept d’universalisme réside dans le christianisme, à travers notamment la prédication de Saint Paul :

« Il n’y a plus ni Juif ni Grec, ni esclave ni homme libre, ni homme ni femme. »

La réalisation de ce principe soulèvera, bien sûr, maintes difficultés, y compris au sein de la communauté chrétienne et sera à l’origine de très vives tensions entre Paul et Pierre, à l’occasion de leur rencontre à Antioche. Avec la fin de l’Empire, le christianisme demeure le seul cadre porteur de valeurs universelles, ce qui ne manquera pas de susciter de nombreux conflits politiques au Moyen-Age, face à l’émergence des nations : le volet politique de la réforme grégorienne illustre, entre dogmes religieux persistants et nouvelles réalités d’un monde recomposé, une contradiction que Machiavel tranchera définitivement en laïcisant la pensée politique.

Il est nécessaire de percevoir qu’en réalité, la divergence entre principes universalistes et réalités nationales est une constante historique.

Le grand penseur de l’universalisme des Lumières est Emmanuel Kant, qui fait de l’universalité une condition essentielle de la morale : « Agis de telle sorte que la maxime de ta volonté puisse être érigée en loi universelle. ». Ce principe, qu’il élève au rang d’« impératif catégorique », n’est donc pas, à ses yeux, discutable. Pour autant, Kant mesure bien que concrètement, c’est la loi de l’Etat qui s’impose. Il considère que la contrainte physique que peut exercer l’Etat n’a pas d’effet durable sur la société et que ce qui compte, c’est l’obligation morale d’obéir à la loi que chaque individu perçoit intérieurement, parce qu’elle découle, précisément, d’une norme universelle.

Très belle construction intellectuelle, qui inspirera les fondateurs de la Société des Nations, de l’ONU… Mais en pratique, qu’en est-il ? Pour citer Charles Péguy :

« Kant a les mains pures, mais il n’a pas de mains. »

La Déclaration des Droits de l’Homme et du Citoyen, tout comme les textes fondateurs de la République américaine, s’inspirent naturellement de la philosophie kantienne, mais concrètement, la distinction est clairement établie entre ceux qui détiennent des droits subjectifs, les « citoyens », et les autres, les « hommes » qui ne peuvent exciper que de droits objectifs. Et la réalité révolutionnaire est essentiellement nationale (Valmy…) avant de devenir impérialiste, puis colonialiste : Jules Ferry est le symbole de l’ambition civilisatrice universelle de la République, quitte à transiger avec les principes de la laïcité :

« L’anticléricalisme n’est pas un produit d’exportation. »

C’est précisément par la voie de la colonisation que survient la première véritable mondialisation et, bien sûr, elle repose sur un principe d’asymétrie. L’opinion publique pense immédiatement : esclavage, commerce triangulaire. La réalité est plus complexe : c’est le régime de l’Exclusif qui assure à la métropole le monopole des échanges avec ses colonies, de telle sorte que par le biais de réexportations massives qui permettent au colonisateur de capter l’essentiel de la valeur ajoutée, l’équilibre commercial de la puissance colonisatrice est assuré. Ce modèle perdurera jusqu’en 1913 et se traduira par un poids des échanges extérieurs dans l’économie européenne qui ne sera à nouveau atteint qu’à la veille du premier choc pétrolier, au début des années 70.

Entretemps, la science économique a progressé. Le courant de pensée initial est celui des avantages comparatifs de Ricardo, décliné à travers le modèle de Heckscher- Ohlin-Samuelson qui souligne l’importance majeure de la dotation de chaque pays en facteurs de production, de telle sorte, par exemple, que l’abondance de capital aux Etats-Unis devrait conduire l’économie américaine à se spécialiser dans les produits à forte intensité capitalistique, ce qui n’est pas toujours le cas. Par ailleurs, les phénomènes d’accumulation des avantages comparatifs, d’oligopoles et de dissymétrie des termes de l’échange ont conduit à l’émergence d’une critique croissante, en faveur de la réinstauration d’un certain protectionnisme.

La première question est celle des secteurs stratégiques, éléments essentiels de la souveraineté. Mais comment repenser la souveraineté à l’heure de la construction européenne ? L’industrie de défense, l’approvisionnement énergétique occupent le premier rang de ces préoccupations.

Les nanotechnologies, la santé figurent depuis longtemps parmi les priorités industrielles, aux côtés de l’électronique et des technologies de l’information. Mais quelles conséquences en tirer quant à la localisation de ces activités ? La bonne échelle ne serait-elle pas européenne ?

C’est ici qu’intervient la question de l’emploi. Par exemple, il est certain que la maîtrise de la filière du médicament est un sujet stratégique et économique majeur. Mais peut-on analyser de la même manière la fabrication de masques de protection, eu égard à la réalité de la demande en temps normal ? A ce stade de la réflexion, comme en matière énergétique avec le gaz, le pétrole et l’uranium, on voit bien que la question est plutôt celle de la sécurité, notamment politique, des sources d’approvisionnement : le conflit qui déchire l’ex-empire soviétique illustre cette réalité. D’où le problème du « sourcing » chinois, surtout s’il est exclusif. En définitive, l’arbitrage à opérer se posera en termes de maîtrise des approvisionnements qui, n’implique pas une origine nationale, et d’emplois industriels productifs, c’est-à-dire compétitifs. Au-delà, il est évident que les enjeux de pouvoir d’achat, surtout en période d’inflation et de crise des finances publiques, limiteront les ambitions en termes de relocalisation quoiqu’en disent les prophètes annonciateurs d’un « nouveau monde ».

La principale révélation de la crise globale, en pratique, est celle de la relative fragilité de la chaîne logistique, levier essentiel de la mondialisation. Et c’est sur cet aspect du problème, qui n’est pas nouveau en dépit de la propagande chinoise autour des « routes de la soie », que mérite d’être réexaminée la dimension territoriale de l’économie, en lien avec les questions stratégiques et environnementales.

Traiter d’économie territoriale, c’est, d’abord, parler des territoires et de la relation du local au national. Dans cette démarche délicate, quelques fanaux éclairent le cheminement.

Fernand Braudel, d’abord, qui ne vivra pas assez longtemps pour conclure son ouvrage de synthèse, « L’identité de la France », dont il trace néanmoins les grandes lignes : un pays de pays, morcelés par la géographie et réunis par l’Histoire ; une tension entre de multiples irrédentismes et une centralisation opérée par l’Etat, au profit de la capitale et de son rayonnement mondial, au détriment, par exemple, de Lyon, pourtant mieux situé en termes de flux d’échanges européens. Au final, Braudel ne récuse pas ce travail historique et exprime sa méfiance à l’égard de la résurgence politique des territoires. Il n’est guère décentralisateur et il rejoint, sur ce point, Michelet qui résume sa thèse : l’Histoire s’est finalement imposée à la Géographie, et c’est très bien ainsi. La référence absolue, sur la question territoriale, demeure Vidal de la Blache et son « Tableau de la géographie de la France » de 1903, dans lequel il démontre comment, à cette époque, les seules métropoles qui aient véritablement émergé sont périphériques : tous les grands ports, Strasbourg sur le Rhin… Il montre également l’importance des complémentarités entre territoires et le processus de fertilisation croisée qui en résulte, notamment sur le plan démographique : La France est « une terre qui semble faite pour absorber sa propre émigration ». Mais Vidal est un homme de l’intérieur, du continent, qui ne connaît guère les côtes océaniques et qui manque du recul de Braudel pour distinguer les failles du modèle français : la France a raté la mer et n’a acclimaté que tardivement l’industrialisation et le capitalisme parce que pour le meilleur ou pour le pire, elle a toujours été attirée par son terroir et par les frontières continentales, lieu des menaces directes pesant sur son intégrité. Que dire de plus, et qu’en déduire ?

D’abord, que la question des territoires de la République est essentiellement franco-française et n’interfère qu’indirectement et de façon relativement marginale avec les questions de « déglobalisation » et de souveraineté économique. Certes, divers centres de production peuvent être réimplantés sur le territoire national, mais leur localisation précise dépendra surtout de considérations logistiques : la concurrence entre territoires, que l’on peut pressentir, correspondrait donc à une débauche d’énergie, peu productive.

En revanche, des leviers majeurs de redynamisation territoriale existent et, indépendamment de la crise sanitaire et économique, méritent d’être actionnés.

Le premier d’entre eux est relatif au développement de l’offre d’habitat, qui deviendra un facteur d’attractivité essentiel, s’agissant notamment des key-workers, particulièrement de ceux que leur métier écarte du télétravail. Il est évident que l’offre d’habitat intermédiaire à proximité des centres hospitaliers constituera, par exemple, une priorité à réexaminer dans l’avenir. Plus généralement, la revitalisation des villes moyennes et en particulier des « cœurs de ville » passe par la création d’une offre d’habitat adaptée à des clientèles potentiellement intéressées par les aménités culturelles, mais aussi sanitaires et éducatives : l’attractivité du centre-ville conditionne l’avenir de la périphérie.

Le deuxième enjeu, puisqu’il n’existe pas véritablement de territoire autonome en regard de l’économie nationale, réside dans la connexion au marché : national, européen, mondial. Connexion numérique, d’abord, mais aussi logistique physique et, notamment, multimodale.

Le troisième enjeu est relatif à la constitution de clusters autour des établissements universitaires et, à moindre échelle, des centres de formation d’ampleur régionale, de manière à coupler recherche et production, constituant ainsi de véritables pôles d’attractivité.

Au final, il est évident que les enjeux de revitalisation des territoires revêtent une dimension essentiellement nationale et qu’il est quelque peu artificiel de les raccorder à la question de la « déglobalisation », analysée comme ressort de nombreuses « relocalisations » sur le territoire national, ce qu’elle n’est probablement pas.

Si relocalisations il doit y avoir, ce qui paraît vraisemblable, c’est à l’échelle de l’Europe et du pourtour méditerranéen qu’il faudra les concevoir. Dans cette perspective, la connexion politique et opérationnelle entre les territoires et l’Etat central revêtira une importance accrue. En conclusion, la grande erreur est d’avoir pensé le capitalisme indépendamment d’une stratégie régalienne. L’erreur symétrique serait de penser les relocalisations indépendamment des principes du capitalisme.

L’Europe, ainsi nommée par les Grecs selon la célèbre princesse phénicienne enlevée, aux dires d’Esope, par Zeus métamorphosé en taureau, n’a longtemps été qu’une réalité géographique mal connue, à l’Ouest de l’espace hellène. Plus tard, l’entité politique structurante est l’Empire romain, essentiellement méditerranéen, qui ne franchit guère le Rhin et le Danube, tandis que la chrétienté réunit Occident et Orient, le christianisme étant d’ailleurs une religion d’origine orientale. Le premier, l’Empire de Charlemagne s’inscrit brièvement dans un espace correspondant à celui de l’Europe des Six. Issue du traité de Verdun de 843, une « Francia occidentalis » séparée par l’éphémère Lotharingie de son pendant oriental, participe du démembrement de l’Occident. Le Moyen-Age ignore donc la dimension européenne, qui n’est révélée que grâce à la prise de Byzance par les Turcs en 1453. Le pape Pie II s’en inquiète en ces termes : « des querelles intestines laissent les ennemis de la Croix se déchaîner » en préambule de son traité « De Europa ».

Tandis qu’Erasme y voit, déjà, l’espace d’une possible paix perpétuelle, Charles Quint tente, contre François Ier, d’imposer l’union par la force, sans succès ; François Ier n’hésite pas à s’allier à Soleiman pour contrer ce dessein, et la flotte turque, passant un hiver à Toulon, transforme ce port en ville musulmane, peuplée de milliers de janissaires et de leurs captifs chrétiens. François Ier frise l’excommunication, avant que la flotte ottomane ne lève l’ancre pour le Levant.

Napoléon, qui tente d’unifier l’espace péninsulaire du bloc asiatique par la force et par le droit, échoue pareillement et le Congrès de Vienne institue une Sainte Alliance dont ne s’excluent volontairement, signe précurseur, que l’Angleterre et le Vatican.

Dès lors, toute construction idéaliste, comme celle de Victor Hugo, bute sur la rivalité franco-allemande, jusqu’au grandiose projet d’Aristide Briand, à la fin des années vingt, mis à bas par la crise mondiale. Et c’est Churchill, au lendemain de la guerre, qui invite les continentaux à s’unir, sans inclure, lucidement, le Royaume-Uni dans la perspective ainsi tracée.

Ainsi, toute l’histoire de l’Europe met en évidence deux faits saillants : d’abord, que l’Angleterre n’est guère concernée ; ensuite, que la réalisation du projet dépend entièrement de la configuration, naturellement conflictuelle, de l’axe franco-allemand.

Un épisode l’illustre singulièrement : à l’issue de la signature du traité de l’Elysée, en 1963, qui pose les bases du projet européen, l’entregent de Jean Monnet permet à celui-ci de faire introduire devant le Bundestag, pour sa ratification, un préambule repositionnant le traité dans une perspective atlantiste, expressément écartée par le général de Gaulle qui, furieux, évoque la possibilité d’un renversement d’alliance « avec la Russie » ! Les limites politiques du « couple » franco-allemand sont ainsi tracées.

Au fond, c’est sur ce compromis que l’Europe a progressé : un grand marché ouvert au monde libre, supervisé en matière de droit de la concurrence ; la politique agricole commune pour satisfaire la France et quelques Etats méditerranéens ; des fonds structurels pour accompagner les retardataires ; et surtout, en contrepartie d’une clientèle assurée pour l’industrie allemande, une union monétaire, assortie de règles disciplinaires strictes. Un « deal » intelligent, sans doute le meilleur que l’on puisse espérer, et qui s’avère incontestablement « gagnant-gagnant ».

A ceci près qu’une fois encore, la relation franco-allemande soulève des difficultés, non pas à cause d’un écart de compétitivité entre les deux économies, qui fluctue dans le temps, mais d’un différentiel majeur de croissance démographique qui est structurellement stable et qui condamne la France à un taux de chômage élevé, pour des niveaux de croissance équivalents. De là viennent les excédents d’une grande Suisse, les déficits d’une « petite Russie » dépourvue de richesses naturelles, hormis sa puissante agriculture. Et au final, un « spread » croissant sur les marchés financiers.

Cette situation représente-t-elle un problème ? Assurément, dans le contexte de crise globale que nous traversons. Est-il insurmontable ? Peu vraisemblablement : la France et sa dette publique ne peuvent se passer de l’euro, pas plus que l’Allemagne d’un de ses principaux clients.

Pour autant, nous ne saurions ignorer qu’à partir de son origine sanitaire, la crise revêt une dimension économique et, désormais, géopolitique.

L’Union européenne, à travers ses plans de relance et la mobilisation du système européen de banques centrales a couvert, dans des conditions relativement satisfaisantes, son champ d’intervention naturel, économique et financier, sous une réserve majeure : l’enjeu agroalimentaire, et d’abord agricole, ne saurait être abordé selon sa seule dimension écologique, qui ne peut être exclusive de son poids économique et de son impact stratégique. La France aurait beaucoup à perdre de ce cantonnement idéologique.

Ce constat renvoie à une question fondamentale : après le Brexit, l’exclusion de la Turquie et la guerre en Ukraine, l’UE offre-t-elle le cadre pertinent pour parler de sécurité européenne, alors même qu’à l’exception de la France, toutes les nations européennes (hors Grèce, Croatie et Serbie) suivent l’exemple de l’Allemagne pour se détourner de la construction d’une industrie de défense européenne, socle indispensable d’une Europe (au sens de l’UE) de la défense ? Dès lors, puisqu’il ne s’agit que de parler de capacités militaires, au sens de « second pilier de l’OTAN », est-il raisonnable de s’en tenir à un tête-à-tête avec l’Allemagne, sans intégrer le Royaume-Uni, la Suède et la Turquie dont le poids militaire est essentiel sur le théâtre européen.

La question posée est donc celle de la réactivation d’un cadre similaire à celui de l’Union de l’Europe Occidentale, qui pourrait retrouver son utilité lorsque la relance d’un processus de discussion avec la Russie, analogue à celui de l’organisation pour la sécurité et la coopération en Europe (OSCE) s’avèrera indispensable. En l’absence d’un tel dispositif, le destin du continent européen pourrait fort bien être traité directement entre Washington et Moscou.

Prospective-Enjeux et avenir de la France face aux crises

Prospective-Enjeux et avenir de la France face aux crises

Des événements de diverses natures ont entraîné des conséquences géopolitiques bien au-delà de leur perception par leurs contemporains ( article de André Yché dans la Tribune)

En remportant la bataille de Chéronée en 338 avant JC, Philippe II de Macédoine assure la domination de son pays sur la Grèce et prépare l’entreprise conquérante d’Alexandre le Grand qui, pénétrant en Orient jusqu’en Asie Centrale et en Inde, ouvre les « routes de la soie ».

De même, la peste de Justinien, au milieu du VIème siècle, en décimant les armées byzantines engagées dans la reconquête de l’Italie, met un terme à l’ultime tentative de réunification de l’Empire romain et, de fait, scelle le sort, à terme, de l’Empire byzantin.

Les batailles de Chesapeake Bay et de Yorktown, en 1781, remportées par de Grasse et Rochambeau, ouvrent la voie à l’indépendance américaine et jouent un rôle déterminant dans l’Histoire mondiale du XXe siècle.

La bataille de Sadowa, qui accélère le déclin de l’Empire austro-hongrois, marque le début de l’hégémonie prussienne en Europe centrale, avec les conséquences dramatiques que l’on sait.

Enfin, la crise de 1929 n’est surmontée qu’à partir du moment où les Etats-Unis s’engagent dans une politique de réarmement, d’abord au profit des démocraties européennes, puis pour leur compte propre à partir du 8 décembre 1941. Pour soixante-dix ans, la doctrine Monroe est mise entre parenthèses et l’Amérique renonce à son isolationnisme traditionnel. Jusqu’à quand ?

En même temps, la dimension géopolitique de l’Histoire se heurte constamment aux réalités territoriales, aux ancrages nationaux, à l’enracinement des Hommes qui tressent un lien indissoluble entre histoire et géographie.

C’est ainsi que tout au long du premier tiers du XVe siècle, le grand empereur chinois, Yongle, parraine les expéditions maritimes de Zheng He, afin d’ouvrir le monde à la Chine : l’océan Indien, les côtes de l’Afrique de l’Est, la mer Rouge, jusqu’en Egypte. Mais l’agitation turco-mongole sur les frontières du nord impose le recentrage de l’effort budgétaire sur la restauration de la Grande Muraille et, pour protéger le Hebei, l’Empire céleste se détourne durablement du « Grand Large ».

Au cours du dernier tiers du XIXème siècle, alors que monte en Angleterre un courant en faveur du libre-échange qui ouvre le monde entier à la City, porté par l’aristocratie foncière reconvertie dans la finance après l’abrogation des lois protectionnistes sur le blé (« Corn Laws ») par Robert Peel en 1846, une forte opposition se fait jour, conduite aux Communes par Benjamin Disraeli. Derrière ce courant protectionniste, les intérêts portuaires britanniques sont en cause ; ils bénéficient du régime de l’« Exclusif » avec l’Empire qui alimente les réexportations vers le continent. L’entreprise coloniale, ce sont également, à proximité des bases navales, les arsenaux de la Navy et de l’Army qui constituent le cœur de la métallurgie anglaise.

Comme aux Etats-Unis et en France aujourd’hui, les Anglais sont donc en plein débat sur la protection de leur industrie, auquel s’ajoutent les polémiques entre Malthus (protectionniste) et Ricardo (libre-échangiste) sur la souveraineté alimentaire nationale.

Quels enseignements utiles faut-il tirer de ces épisodes historiques quant à l’impact probable de la crise sanitaire, économique et géopolitique que nous traversons?

La France et le Monde

L’expérience pratique de l’Antiquité grecque est celle d’un monde éclaté, dans lequel chaque Cité fixe ses lois, règle son gouvernement, décerne sa citoyenneté. Au-delà, c’est le monde barbare, qui ne parle pas grec et qui, de ce fait, n’est pas civilisé.

Pour autant, Platon n’ignore pas l’idée d’universalité : mais elle est purement intellectuelle ; elle tient dans l’aptitude de tout être humain à penser ; c’est, en quelque sorte, le « Cogito » de Descartes, avant l’heure.

L’universalisme romain ne se conçoit, juridiquement, qu’à travers l’attribution de la citoyenneté, considérablement élargie à partir de l’édit de Caracalla en 212, qui accorde la qualité de citoyen romain à tout homme libre de l’Empire.

Il n’en demeure pas moins que le véritable vecteur du concept d’universalisme réside dans le christianisme, à travers notamment la prédication de Saint Paul :

« Il n’y a plus ni Juif ni Grec, ni esclave ni homme libre, ni homme ni femme. »

La réalisation de ce principe soulèvera, bien sûr, maintes difficultés, y compris au sein de la communauté chrétienne et sera à l’origine de très vives tensions entre Paul et Pierre, à l’occasion de leur rencontre à Antioche. Avec la fin de l’Empire, le christianisme demeure le seul cadre porteur de valeurs universelles, ce qui ne manquera pas de susciter de nombreux conflits politiques au Moyen-Age, face à l’émergence des nations : le volet politique de la réforme grégorienne illustre, entre dogmes religieux persistants et nouvelles réalités d’un monde recomposé, une contradiction que Machiavel tranchera définitivement en laïcisant la pensée politique.

Il est nécessaire de percevoir qu’en réalité, la divergence entre principes universalistes et réalités nationales est une constante historique.

Le grand penseur de l’universalisme des Lumières est Emmanuel Kant, qui fait de l’universalité une condition essentielle de la morale : « Agis de telle sorte que la maxime de ta volonté puisse être érigée en loi universelle. ». Ce principe, qu’il élève au rang d’« impératif catégorique », n’est donc pas, à ses yeux, discutable. Pour autant, Kant mesure bien que concrètement, c’est la loi de l’Etat qui s’impose. Il considère que la contrainte physique que peut exercer l’Etat n’a pas d’effet durable sur la société et que ce qui compte, c’est l’obligation morale d’obéir à la loi que chaque individu perçoit intérieurement, parce qu’elle découle, précisément, d’une norme universelle.

Très belle construction intellectuelle, qui inspirera les fondateurs de la Société des Nations, de l’ONU… Mais en pratique, qu’en est-il ? Pour citer Charles Péguy :

« Kant a les mains pures, mais il n’a pas de mains. »

La Déclaration des Droits de l’Homme et du Citoyen, tout comme les textes fondateurs de la République américaine, s’inspirent naturellement de la philosophie kantienne, mais concrètement, la distinction est clairement établie entre ceux qui détiennent des droits subjectifs, les « citoyens », et les autres, les « hommes » qui ne peuvent exciper que de droits objectifs. Et la réalité révolutionnaire est essentiellement nationale (Valmy…) avant de devenir impérialiste, puis colonialiste : Jules Ferry est le symbole de l’ambition civilisatrice universelle de la République, quitte à transiger avec les principes de la laïcité :

« L’anticléricalisme n’est pas un produit d’exportation. »

C’est précisément par la voie de la colonisation que survient la première véritable mondialisation et, bien sûr, elle repose sur un principe d’asymétrie. L’opinion publique pense immédiatement : esclavage, commerce triangulaire. La réalité est plus complexe : c’est le régime de l’Exclusif qui assure à la métropole le monopole des échanges avec ses colonies, de telle sorte que par le biais de réexportations massives qui permettent au colonisateur de capter l’essentiel de la valeur ajoutée, l’équilibre commercial de la puissance colonisatrice est assuré. Ce modèle perdurera jusqu’en 1913 et se traduira par un poids des échanges extérieurs dans l’économie européenne qui ne sera à nouveau atteint qu’à la veille du premier choc pétrolier, au début des années 70.

Entretemps, la science économique a progressé. Le courant de pensée initial est celui des avantages comparatifs de Ricardo, décliné à travers le modèle de Heckscher- Ohlin-Samuelson qui souligne l’importance majeure de la dotation de chaque pays en facteurs de production, de telle sorte, par exemple, que l’abondance de capital aux Etats-Unis devrait conduire l’économie américaine à se spécialiser dans les produits à forte intensité capitalistique, ce qui n’est pas toujours le cas. Par ailleurs, les phénomènes d’accumulation des avantages comparatifs, d’oligopoles et de dissymétrie des termes de l’échange ont conduit à l’émergence d’une critique croissante, en faveur de la réinstauration d’un certain protectionnisme.

La première question est celle des secteurs stratégiques, éléments essentiels de la souveraineté. Mais comment repenser la souveraineté à l’heure de la construction européenne ? L’industrie de défense, l’approvisionnement énergétique occupent le premier rang de ces préoccupations.

Les nanotechnologies, la santé figurent depuis longtemps parmi les priorités industrielles, aux côtés de l’électronique et des technologies de l’information. Mais quelles conséquences en tirer quant à la localisation de ces activités ? La bonne échelle ne serait-elle pas européenne ?

C’est ici qu’intervient la question de l’emploi. Par exemple, il est certain que la maîtrise de la filière du médicament est un sujet stratégique et économique majeur. Mais peut-on analyser de la même manière la fabrication de masques de protection, eu égard à la réalité de la demande en temps normal ? A ce stade de la réflexion, comme en matière énergétique avec le gaz, le pétrole et l’uranium, on voit bien que la question est plutôt celle de la sécurité, notamment politique, des sources d’approvisionnement : le conflit qui déchire l’ex-empire soviétique illustre cette réalité. D’où le problème du « sourcing » chinois, surtout s’il est exclusif. En définitive, l’arbitrage à opérer se posera en termes de maîtrise des approvisionnements qui, n’implique pas une origine nationale, et d’emplois industriels productifs, c’est-à-dire compétitifs. Au-delà, il est évident que les enjeux de pouvoir d’achat, surtout en période d’inflation et de crise des finances publiques, limiteront les ambitions en termes de relocalisation quoiqu’en disent les prophètes annonciateurs d’un « nouveau monde ».

La principale révélation de la crise globale, en pratique, est celle de la relative fragilité de la chaîne logistique, levier essentiel de la mondialisation. Et c’est sur cet aspect du problème, qui n’est pas nouveau en dépit de la propagande chinoise autour des « routes de la soie », que mérite d’être réexaminée la dimension territoriale de l’économie, en lien avec les questions stratégiques et environnementales.

Traiter d’économie territoriale, c’est, d’abord, parler des territoires et de la relation du local au national. Dans cette démarche délicate, quelques fanaux éclairent le cheminement.

Fernand Braudel, d’abord, qui ne vivra pas assez longtemps pour conclure son ouvrage de synthèse, « L’identité de la France », dont il trace néanmoins les grandes lignes : un pays de pays, morcelés par la géographie et réunis par l’Histoire ; une tension entre de multiples irrédentismes et une centralisation opérée par l’Etat, au profit de la capitale et de son rayonnement mondial, au détriment, par exemple, de Lyon, pourtant mieux situé en termes de flux d’échanges européens. Au final, Braudel ne récuse pas ce travail historique et exprime sa méfiance à l’égard de la résurgence politique des territoires. Il n’est guère décentralisateur et il rejoint, sur ce point, Michelet qui résume sa thèse : l’Histoire s’est finalement imposée à la Géographie, et c’est très bien ainsi. La référence absolue, sur la question territoriale, demeure Vidal de la Blache et son « Tableau de la géographie de la France » de 1903, dans lequel il démontre comment, à cette époque, les seules métropoles qui aient véritablement émergé sont périphériques : tous les grands ports, Strasbourg sur le Rhin… Il montre également l’importance des complémentarités entre territoires et le processus de fertilisation croisée qui en résulte, notamment sur le plan démographique : La France est « une terre qui semble faite pour absorber sa propre émigration ». Mais Vidal est un homme de l’intérieur, du continent, qui ne connaît guère les côtes océaniques et qui manque du recul de Braudel pour distinguer les failles du modèle français : la France a raté la mer et n’a acclimaté que tardivement l’industrialisation et le capitalisme parce que pour le meilleur ou pour le pire, elle a toujours été attirée par son terroir et par les frontières continentales, lieu des menaces directes pesant sur son intégrité. Que dire de plus, et qu’en déduire ?

D’abord, que la question des territoires de la République est essentiellement franco-française et n’interfère qu’indirectement et de façon relativement marginale avec les questions de « déglobalisation » et de souveraineté économique. Certes, divers centres de production peuvent être réimplantés sur le territoire national, mais leur localisation précise dépendra surtout de considérations logistiques : la concurrence entre territoires, que l’on peut pressentir, correspondrait donc à une débauche d’énergie, peu productive.

En revanche, des leviers majeurs de redynamisation territoriale existent et, indépendamment de la crise sanitaire et économique, méritent d’être actionnés.

Le premier d’entre eux est relatif au développement de l’offre d’habitat, qui deviendra un facteur d’attractivité essentiel, s’agissant notamment des key-workers, particulièrement de ceux que leur métier écarte du télétravail. Il est évident que l’offre d’habitat intermédiaire à proximité des centres hospitaliers constituera, par exemple, une priorité à réexaminer dans l’avenir. Plus généralement, la revitalisation des villes moyennes et en particulier des « cœurs de ville » passe par la création d’une offre d’habitat adaptée à des clientèles potentiellement intéressées par les aménités culturelles, mais aussi sanitaires et éducatives : l’attractivité du centre-ville conditionne l’avenir de la périphérie.

Le deuxième enjeu, puisqu’il n’existe pas véritablement de territoire autonome en regard de l’économie nationale, réside dans la connexion au marché : national, européen, mondial. Connexion numérique, d’abord, mais aussi logistique physique et, notamment, multimodale.

Le troisième enjeu est relatif à la constitution de clusters autour des établissements universitaires et, à moindre échelle, des centres de formation d’ampleur régionale, de manière à coupler recherche et production, constituant ainsi de véritables pôles d’attractivité.

Au final, il est évident que les enjeux de revitalisation des territoires revêtent une dimension essentiellement nationale et qu’il est quelque peu artificiel de les raccorder à la question de la « déglobalisation », analysée comme ressort de nombreuses « relocalisations » sur le territoire national, ce qu’elle n’est probablement pas.

Si relocalisations il doit y avoir, ce qui paraît vraisemblable, c’est à l’échelle de l’Europe et du pourtour méditerranéen qu’il faudra les concevoir. Dans cette perspective, la connexion politique et opérationnelle entre les territoires et l’Etat central revêtira une importance accrue. En conclusion, la grande erreur est d’avoir pensé le capitalisme indépendamment d’une stratégie régalienne. L’erreur symétrique serait de penser les relocalisations indépendamment des principes du capitalisme.

L’Europe, ainsi nommée par les Grecs selon la célèbre princesse phénicienne enlevée, aux dires d’Esope, par Zeus métamorphosé en taureau, n’a longtemps été qu’une réalité géographique mal connue, à l’Ouest de l’espace hellène. Plus tard, l’entité politique structurante est l’Empire romain, essentiellement méditerranéen, qui ne franchit guère le Rhin et le Danube, tandis que la chrétienté réunit Occident et Orient, le christianisme étant d’ailleurs une religion d’origine orientale. Le premier, l’Empire de Charlemagne s’inscrit brièvement dans un espace correspondant à celui de l’Europe des Six. Issue du traité de Verdun de 843, une « Francia occidentalis » séparée par l’éphémère Lotharingie de son pendant oriental, participe du démembrement de l’Occident. Le Moyen-Age ignore donc la dimension européenne, qui n’est révélée que grâce à la prise de Byzance par les Turcs en 1453. Le pape Pie II s’en inquiète en ces termes : « des querelles intestines laissent les ennemis de la Croix se déchaîner » en préambule de son traité « De Europa ».

Tandis qu’Erasme y voit, déjà, l’espace d’une possible paix perpétuelle, Charles Quint tente, contre François Ier, d’imposer l’union par la force, sans succès ; François Ier n’hésite pas à s’allier à Soleiman pour contrer ce dessein, et la flotte turque, passant un hiver à Toulon, transforme ce port en ville musulmane, peuplée de milliers de janissaires et de leurs captifs chrétiens. François Ier frise l’excommunication, avant que la flotte ottomane ne lève l’ancre pour le Levant.

Napoléon, qui tente d’unifier l’espace péninsulaire du bloc asiatique par la force et par le droit, échoue pareillement et le Congrès de Vienne institue une Sainte Alliance dont ne s’excluent volontairement, signe précurseur, que l’Angleterre et le Vatican.

Dès lors, toute construction idéaliste, comme celle de Victor Hugo, bute sur la rivalité franco-allemande, jusqu’au grandiose projet d’Aristide Briand, à la fin des années vingt, mis à bas par la crise mondiale. Et c’est Churchill, au lendemain de la guerre, qui invite les continentaux à s’unir, sans inclure, lucidement, le Royaume-Uni dans la perspective ainsi tracée.

Ainsi, toute l’histoire de l’Europe met en évidence deux faits saillants : d’abord, que l’Angleterre n’est guère concernée ; ensuite, que la réalisation du projet dépend entièrement de la configuration, naturellement conflictuelle, de l’axe franco-allemand.

Un épisode l’illustre singulièrement : à l’issue de la signature du traité de l’Elysée, en 1963, qui pose les bases du projet européen, l’entregent de Jean Monnet permet à celui-ci de faire introduire devant le Bundestag, pour sa ratification, un préambule repositionnant le traité dans une perspective atlantiste, expressément écartée par le général de Gaulle qui, furieux, évoque la possibilité d’un renversement d’alliance « avec la Russie » ! Les limites politiques du « couple » franco-allemand sont ainsi tracées.

Au fond, c’est sur ce compromis que l’Europe a progressé : un grand marché ouvert au monde libre, supervisé en matière de droit de la concurrence ; la politique agricole commune pour satisfaire la France et quelques Etats méditerranéens ; des fonds structurels pour accompagner les retardataires ; et surtout, en contrepartie d’une clientèle assurée pour l’industrie allemande, une union monétaire, assortie de règles disciplinaires strictes. Un « deal » intelligent, sans doute le meilleur que l’on puisse espérer, et qui s’avère incontestablement « gagnant-gagnant ».

A ceci près qu’une fois encore, la relation franco-allemande soulève des difficultés, non pas à cause d’un écart de compétitivité entre les deux économies, qui fluctue dans le temps, mais d’un différentiel majeur de croissance démographique qui est structurellement stable et qui condamne la France à un taux de chômage élevé, pour des niveaux de croissance équivalents. De là viennent les excédents d’une grande Suisse, les déficits d’une « petite Russie » dépourvue de richesses naturelles, hormis sa puissante agriculture. Et au final, un « spread » croissant sur les marchés financiers.

Cette situation représente-t-elle un problème ? Assurément, dans le contexte de crise globale que nous traversons. Est-il insurmontable ? Peu vraisemblablement : la France et sa dette publique ne peuvent se passer de l’euro, pas plus que l’Allemagne d’un de ses principaux clients.

Pour autant, nous ne saurions ignorer qu’à partir de son origine sanitaire, la crise revêt une dimension économique et, désormais, géopolitique.

L’Union européenne, à travers ses plans de relance et la mobilisation du système européen de banques centrales a couvert, dans des conditions relativement satisfaisantes, son champ d’intervention naturel, économique et financier, sous une réserve majeure : l’enjeu agroalimentaire, et d’abord agricole, ne saurait être abordé selon sa seule dimension écologique, qui ne peut être exclusive de son poids économique et de son impact stratégique. La France aurait beaucoup à perdre de ce cantonnement idéologique.

Ce constat renvoie à une question fondamentale : après le Brexit, l’exclusion de la Turquie et la guerre en Ukraine, l’UE offre-t-elle le cadre pertinent pour parler de sécurité européenne, alors même qu’à l’exception de la France, toutes les nations européennes (hors Grèce, Croatie et Serbie) suivent l’exemple de l’Allemagne pour se détourner de la construction d’une industrie de défense européenne, socle indispensable d’une Europe (au sens de l’UE) de la défense ? Dès lors, puisqu’il ne s’agit que de parler de capacités militaires, au sens de « second pilier de l’OTAN », est-il raisonnable de s’en tenir à un tête-à-tête avec l’Allemagne, sans intégrer le Royaume-Uni, la Suède et la Turquie dont le poids militaire est essentiel sur le théâtre européen.

La question posée est donc celle de la réactivation d’un cadre similaire à celui de l’Union de l’Europe Occidentale, qui pourrait retrouver son utilité lorsque la relance d’un processus de discussion avec la Russie, analogue à celui de l’organisation pour la sécurité et la coopération en Europe (OSCE) s’avèrera indispensable. En l’absence d’un tel dispositif, le destin du continent européen pourrait fort bien être traité directement entre Washington et Moscou.

Enjeux et avenir de la France face aux crises

Enjeux et avenir de la France face aux crises

Des événements de diverses natures ont entraîné des conséquences géopolitiques bien au-delà de leur perception par leurs contemporains ( article de André Yché dans la Tribune)

En remportant la bataille de Chéronée en 338 avant JC, Philippe II de Macédoine assure la domination de son pays sur la Grèce et prépare l’entreprise conquérante d’Alexandre le Grand qui, pénétrant en Orient jusqu’en Asie Centrale et en Inde, ouvre les « routes de la soie ».

De même, la peste de Justinien, au milieu du VIème siècle, en décimant les armées byzantines engagées dans la reconquête de l’Italie, met un terme à l’ultime tentative de réunification de l’Empire romain et, de fait, scelle le sort, à terme, de l’Empire byzantin.

Les batailles de Chesapeake Bay et de Yorktown, en 1781, remportées par de Grasse et Rochambeau, ouvrent la voie à l’indépendance américaine et jouent un rôle déterminant dans l’Histoire mondiale du XXe siècle.

La bataille de Sadowa, qui accélère le déclin de l’Empire austro-hongrois, marque le début de l’hégémonie prussienne en Europe centrale, avec les conséquences dramatiques que l’on sait.

Enfin, la crise de 1929 n’est surmontée qu’à partir du moment où les Etats-Unis s’engagent dans une politique de réarmement, d’abord au profit des démocraties européennes, puis pour leur compte propre à partir du 8 décembre 1941. Pour soixante-dix ans, la doctrine Monroe est mise entre parenthèses et l’Amérique renonce à son isolationnisme traditionnel. Jusqu’à quand ?

En même temps, la dimension géopolitique de l’Histoire se heurte constamment aux réalités territoriales, aux ancrages nationaux, à l’enracinement des Hommes qui tressent un lien indissoluble entre histoire et géographie.

C’est ainsi que tout au long du premier tiers du XVe siècle, le grand empereur chinois, Yongle, parraine les expéditions maritimes de Zheng He, afin d’ouvrir le monde à la Chine : l’océan Indien, les côtes de l’Afrique de l’Est, la mer Rouge, jusqu’en Egypte. Mais l’agitation turco-mongole sur les frontières du nord impose le recentrage de l’effort budgétaire sur la restauration de la Grande Muraille et, pour protéger le Hebei, l’Empire céleste se détourne durablement du « Grand Large ».

Au cours du dernier tiers du XIXème siècle, alors que monte en Angleterre un courant en faveur du libre-échange qui ouvre le monde entier à la City, porté par l’aristocratie foncière reconvertie dans la finance après l’abrogation des lois protectionnistes sur le blé (« Corn Laws ») par Robert Peel en 1846, une forte opposition se fait jour, conduite aux Communes par Benjamin Disraeli. Derrière ce courant protectionniste, les intérêts portuaires britanniques sont en cause ; ils bénéficient du régime de l’« Exclusif » avec l’Empire qui alimente les réexportations vers le continent. L’entreprise coloniale, ce sont également, à proximité des bases navales, les arsenaux de la Navy et de l’Army qui constituent le cœur de la métallurgie anglaise.

Comme aux Etats-Unis et en France aujourd’hui, les Anglais sont donc en plein débat sur la protection de leur industrie, auquel s’ajoutent les polémiques entre Malthus (protectionniste) et Ricardo (libre-échangiste) sur la souveraineté alimentaire nationale.

Quels enseignements utiles faut-il tirer de ces épisodes historiques quant à l’impact probable de la crise sanitaire, économique et géopolitique que nous traversons?

La France et le Monde

L’expérience pratique de l’Antiquité grecque est celle d’un monde éclaté, dans lequel chaque Cité fixe ses lois, règle son gouvernement, décerne sa citoyenneté. Au-delà, c’est le monde barbare, qui ne parle pas grec et qui, de ce fait, n’est pas civilisé.

Pour autant, Platon n’ignore pas l’idée d’universalité : mais elle est purement intellectuelle ; elle tient dans l’aptitude de tout être humain à penser ; c’est, en quelque sorte, le « Cogito » de Descartes, avant l’heure.

L’universalisme romain ne se conçoit, juridiquement, qu’à travers l’attribution de la citoyenneté, considérablement élargie à partir de l’édit de Caracalla en 212, qui accorde la qualité de citoyen romain à tout homme libre de l’Empire.

Il n’en demeure pas moins que le véritable vecteur du concept d’universalisme réside dans le christianisme, à travers notamment la prédication de Saint Paul :

« Il n’y a plus ni Juif ni Grec, ni esclave ni homme libre, ni homme ni femme. »

La réalisation de ce principe soulèvera, bien sûr, maintes difficultés, y compris au sein de la communauté chrétienne et sera à l’origine de très vives tensions entre Paul et Pierre, à l’occasion de leur rencontre à Antioche. Avec la fin de l’Empire, le christianisme demeure le seul cadre porteur de valeurs universelles, ce qui ne manquera pas de susciter de nombreux conflits politiques au Moyen-Age, face à l’émergence des nations : le volet politique de la réforme grégorienne illustre, entre dogmes religieux persistants et nouvelles réalités d’un monde recomposé, une contradiction que Machiavel tranchera définitivement en laïcisant la pensée politique.

Il est nécessaire de percevoir qu’en réalité, la divergence entre principes universalistes et réalités nationales est une constante historique.

Le grand penseur de l’universalisme des Lumières est Emmanuel Kant, qui fait de l’universalité une condition essentielle de la morale : « Agis de telle sorte que la maxime de ta volonté puisse être érigée en loi universelle. ». Ce principe, qu’il élève au rang d’« impératif catégorique », n’est donc pas, à ses yeux, discutable. Pour autant, Kant mesure bien que concrètement, c’est la loi de l’Etat qui s’impose. Il considère que la contrainte physique que peut exercer l’Etat n’a pas d’effet durable sur la société et que ce qui compte, c’est l’obligation morale d’obéir à la loi que chaque individu perçoit intérieurement, parce qu’elle découle, précisément, d’une norme universelle.

Très belle construction intellectuelle, qui inspirera les fondateurs de la Société des Nations, de l’ONU… Mais en pratique, qu’en est-il ? Pour citer Charles Péguy :

« Kant a les mains pures, mais il n’a pas de mains. »

La Déclaration des Droits de l’Homme et du Citoyen, tout comme les textes fondateurs de la République américaine, s’inspirent naturellement de la philosophie kantienne, mais concrètement, la distinction est clairement établie entre ceux qui détiennent des droits subjectifs, les « citoyens », et les autres, les « hommes » qui ne peuvent exciper que de droits objectifs. Et la réalité révolutionnaire est essentiellement nationale (Valmy…) avant de devenir impérialiste, puis colonialiste : Jules Ferry est le symbole de l’ambition civilisatrice universelle de la République, quitte à transiger avec les principes de la laïcité :

« L’anticléricalisme n’est pas un produit d’exportation. »

C’est précisément par la voie de la colonisation que survient la première véritable mondialisation et, bien sûr, elle repose sur un principe d’asymétrie. L’opinion publique pense immédiatement : esclavage, commerce triangulaire. La réalité est plus complexe : c’est le régime de l’Exclusif qui assure à la métropole le monopole des échanges avec ses colonies, de telle sorte que par le biais de réexportations massives qui permettent au colonisateur de capter l’essentiel de la valeur ajoutée, l’équilibre commercial de la puissance colonisatrice est assuré. Ce modèle perdurera jusqu’en 1913 et se traduira par un poids des échanges extérieurs dans l’économie européenne qui ne sera à nouveau atteint qu’à la veille du premier choc pétrolier, au début des années 70.

Entretemps, la science économique a progressé. Le courant de pensée initial est celui des avantages comparatifs de Ricardo, décliné à travers le modèle de Heckscher- Ohlin-Samuelson qui souligne l’importance majeure de la dotation de chaque pays en facteurs de production, de telle sorte, par exemple, que l’abondance de capital aux Etats-Unis devrait conduire l’économie américaine à se spécialiser dans les produits à forte intensité capitalistique, ce qui n’est pas toujours le cas. Par ailleurs, les phénomènes d’accumulation des avantages comparatifs, d’oligopoles et de dissymétrie des termes de l’échange ont conduit à l’émergence d’une critique croissante, en faveur de la réinstauration d’un certain protectionnisme.

La première question est celle des secteurs stratégiques, éléments essentiels de la souveraineté. Mais comment repenser la souveraineté à l’heure de la construction européenne ? L’industrie de défense, l’approvisionnement énergétique occupent le premier rang de ces préoccupations.

Les nanotechnologies, la santé figurent depuis longtemps parmi les priorités industrielles, aux côtés de l’électronique et des technologies de l’information. Mais quelles conséquences en tirer quant à la localisation de ces activités ? La bonne échelle ne serait-elle pas européenne ?

C’est ici qu’intervient la question de l’emploi. Par exemple, il est certain que la maîtrise de la filière du médicament est un sujet stratégique et économique majeur. Mais peut-on analyser de la même manière la fabrication de masques de protection, eu égard à la réalité de la demande en temps normal ? A ce stade de la réflexion, comme en matière énergétique avec le gaz, le pétrole et l’uranium, on voit bien que la question est plutôt celle de la sécurité, notamment politique, des sources d’approvisionnement : le conflit qui déchire l’ex-empire soviétique illustre cette réalité. D’où le problème du « sourcing » chinois, surtout s’il est exclusif. En définitive, l’arbitrage à opérer se posera en termes de maîtrise des approvisionnements qui, n’implique pas une origine nationale, et d’emplois industriels productifs, c’est-à-dire compétitifs. Au-delà, il est évident que les enjeux de pouvoir d’achat, surtout en période d’inflation et de crise des finances publiques, limiteront les ambitions en termes de relocalisation quoiqu’en disent les prophètes annonciateurs d’un « nouveau monde ».

La principale révélation de la crise globale, en pratique, est celle de la relative fragilité de la chaîne logistique, levier essentiel de la mondialisation. Et c’est sur cet aspect du problème, qui n’est pas nouveau en dépit de la propagande chinoise autour des « routes de la soie », que mérite d’être réexaminée la dimension territoriale de l’économie, en lien avec les questions stratégiques et environnementales.

Traiter d’économie territoriale, c’est, d’abord, parler des territoires et de la relation du local au national. Dans cette démarche délicate, quelques fanaux éclairent le cheminement.

Fernand Braudel, d’abord, qui ne vivra pas assez longtemps pour conclure son ouvrage de synthèse, « L’identité de la France », dont il trace néanmoins les grandes lignes : un pays de pays, morcelés par la géographie et réunis par l’Histoire ; une tension entre de multiples irrédentismes et une centralisation opérée par l’Etat, au profit de la capitale et de son rayonnement mondial, au détriment, par exemple, de Lyon, pourtant mieux situé en termes de flux d’échanges européens. Au final, Braudel ne récuse pas ce travail historique et exprime sa méfiance à l’égard de la résurgence politique des territoires. Il n’est guère décentralisateur et il rejoint, sur ce point, Michelet qui résume sa thèse : l’Histoire s’est finalement imposée à la Géographie, et c’est très bien ainsi. La référence absolue, sur la question territoriale, demeure Vidal de la Blache et son « Tableau de la géographie de la France » de 1903, dans lequel il démontre comment, à cette époque, les seules métropoles qui aient véritablement émergé sont périphériques : tous les grands ports, Strasbourg sur le Rhin… Il montre également l’importance des complémentarités entre territoires et le processus de fertilisation croisée qui en résulte, notamment sur le plan démographique : La France est « une terre qui semble faite pour absorber sa propre émigration ». Mais Vidal est un homme de l’intérieur, du continent, qui ne connaît guère les côtes océaniques et qui manque du recul de Braudel pour distinguer les failles du modèle français : la France a raté la mer et n’a acclimaté que tardivement l’industrialisation et le capitalisme parce que pour le meilleur ou pour le pire, elle a toujours été attirée par son terroir et par les frontières continentales, lieu des menaces directes pesant sur son intégrité. Que dire de plus, et qu’en déduire ?

D’abord, que la question des territoires de la République est essentiellement franco-française et n’interfère qu’indirectement et de façon relativement marginale avec les questions de « déglobalisation » et de souveraineté économique. Certes, divers centres de production peuvent être réimplantés sur le territoire national, mais leur localisation précise dépendra surtout de considérations logistiques : la concurrence entre territoires, que l’on peut pressentir, correspondrait donc à une débauche d’énergie, peu productive.

En revanche, des leviers majeurs de redynamisation territoriale existent et, indépendamment de la crise sanitaire et économique, méritent d’être actionnés.

Le premier d’entre eux est relatif au développement de l’offre d’habitat, qui deviendra un facteur d’attractivité essentiel, s’agissant notamment des key-workers, particulièrement de ceux que leur métier écarte du télétravail. Il est évident que l’offre d’habitat intermédiaire à proximité des centres hospitaliers constituera, par exemple, une priorité à réexaminer dans l’avenir. Plus généralement, la revitalisation des villes moyennes et en particulier des « cœurs de ville » passe par la création d’une offre d’habitat adaptée à des clientèles potentiellement intéressées par les aménités culturelles, mais aussi sanitaires et éducatives : l’attractivité du centre-ville conditionne l’avenir de la périphérie.

Le deuxième enjeu, puisqu’il n’existe pas véritablement de territoire autonome en regard de l’économie nationale, réside dans la connexion au marché : national, européen, mondial. Connexion numérique, d’abord, mais aussi logistique physique et, notamment, multimodale.

Le troisième enjeu est relatif à la constitution de clusters autour des établissements universitaires et, à moindre échelle, des centres de formation d’ampleur régionale, de manière à coupler recherche et production, constituant ainsi de véritables pôles d’attractivité.

Au final, il est évident que les enjeux de revitalisation des territoires revêtent une dimension essentiellement nationale et qu’il est quelque peu artificiel de les raccorder à la question de la « déglobalisation », analysée comme ressort de nombreuses « relocalisations » sur le territoire national, ce qu’elle n’est probablement pas.

Si relocalisations il doit y avoir, ce qui paraît vraisemblable, c’est à l’échelle de l’Europe et du pourtour méditerranéen qu’il faudra les concevoir. Dans cette perspective, la connexion politique et opérationnelle entre les territoires et l’Etat central revêtira une importance accrue. En conclusion, la grande erreur est d’avoir pensé le capitalisme indépendamment d’une stratégie régalienne. L’erreur symétrique serait de penser les relocalisations indépendamment des principes du capitalisme.

L’Europe, ainsi nommée par les Grecs selon la célèbre princesse phénicienne enlevée, aux dires d’Esope, par Zeus métamorphosé en taureau, n’a longtemps été qu’une réalité géographique mal connue, à l’Ouest de l’espace hellène. Plus tard, l’entité politique structurante est l’Empire romain, essentiellement méditerranéen, qui ne franchit guère le Rhin et le Danube, tandis que la chrétienté réunit Occident et Orient, le christianisme étant d’ailleurs une religion d’origine orientale. Le premier, l’Empire de Charlemagne s’inscrit brièvement dans un espace correspondant à celui de l’Europe des Six. Issue du traité de Verdun de 843, une « Francia occidentalis » séparée par l’éphémère Lotharingie de son pendant oriental, participe du démembrement de l’Occident. Le Moyen-Age ignore donc la dimension européenne, qui n’est révélée que grâce à la prise de Byzance par les Turcs en 1453. Le pape Pie II s’en inquiète en ces termes : « des querelles intestines laissent les ennemis de la Croix se déchaîner » en préambule de son traité « De Europa ».

Tandis qu’Erasme y voit, déjà, l’espace d’une possible paix perpétuelle, Charles Quint tente, contre François Ier, d’imposer l’union par la force, sans succès ; François Ier n’hésite pas à s’allier à Soleiman pour contrer ce dessein, et la flotte turque, passant un hiver à Toulon, transforme ce port en ville musulmane, peuplée de milliers de janissaires et de leurs captifs chrétiens. François Ier frise l’excommunication, avant que la flotte ottomane ne lève l’ancre pour le Levant.

Napoléon, qui tente d’unifier l’espace péninsulaire du bloc asiatique par la force et par le droit, échoue pareillement et le Congrès de Vienne institue une Sainte Alliance dont ne s’excluent volontairement, signe précurseur, que l’Angleterre et le Vatican.

Dès lors, toute construction idéaliste, comme celle de Victor Hugo, bute sur la rivalité franco-allemande, jusqu’au grandiose projet d’Aristide Briand, à la fin des années vingt, mis à bas par la crise mondiale. Et c’est Churchill, au lendemain de la guerre, qui invite les continentaux à s’unir, sans inclure, lucidement, le Royaume-Uni dans la perspective ainsi tracée.

Ainsi, toute l’histoire de l’Europe met en évidence deux faits saillants : d’abord, que l’Angleterre n’est guère concernée ; ensuite, que la réalisation du projet dépend entièrement de la configuration, naturellement conflictuelle, de l’axe franco-allemand.

Un épisode l’illustre singulièrement : à l’issue de la signature du traité de l’Elysée, en 1963, qui pose les bases du projet européen, l’entregent de Jean Monnet permet à celui-ci de faire introduire devant le Bundestag, pour sa ratification, un préambule repositionnant le traité dans une perspective atlantiste, expressément écartée par le général de Gaulle qui, furieux, évoque la possibilité d’un renversement d’alliance « avec la Russie » ! Les limites politiques du « couple » franco-allemand sont ainsi tracées.

Au fond, c’est sur ce compromis que l’Europe a progressé : un grand marché ouvert au monde libre, supervisé en matière de droit de la concurrence ; la politique agricole commune pour satisfaire la France et quelques Etats méditerranéens ; des fonds structurels pour accompagner les retardataires ; et surtout, en contrepartie d’une clientèle assurée pour l’industrie allemande, une union monétaire, assortie de règles disciplinaires strictes. Un « deal » intelligent, sans doute le meilleur que l’on puisse espérer, et qui s’avère incontestablement « gagnant-gagnant ».

A ceci près qu’une fois encore, la relation franco-allemande soulève des difficultés, non pas à cause d’un écart de compétitivité entre les deux économies, qui fluctue dans le temps, mais d’un différentiel majeur de croissance démographique qui est structurellement stable et qui condamne la France à un taux de chômage élevé, pour des niveaux de croissance équivalents. De là viennent les excédents d’une grande Suisse, les déficits d’une « petite Russie » dépourvue de richesses naturelles, hormis sa puissante agriculture. Et au final, un « spread » croissant sur les marchés financiers.

Cette situation représente-t-elle un problème ? Assurément, dans le contexte de crise globale que nous traversons. Est-il insurmontable ? Peu vraisemblablement : la France et sa dette publique ne peuvent se passer de l’euro, pas plus que l’Allemagne d’un de ses principaux clients.

Pour autant, nous ne saurions ignorer qu’à partir de son origine sanitaire, la crise revêt une dimension économique et, désormais, géopolitique.

L’Union européenne, à travers ses plans de relance et la mobilisation du système européen de banques centrales a couvert, dans des conditions relativement satisfaisantes, son champ d’intervention naturel, économique et financier, sous une réserve majeure : l’enjeu agroalimentaire, et d’abord agricole, ne saurait être abordé selon sa seule dimension écologique, qui ne peut être exclusive de son poids économique et de son impact stratégique. La France aurait beaucoup à perdre de ce cantonnement idéologique.

Ce constat renvoie à une question fondamentale : après le Brexit, l’exclusion de la Turquie et la guerre en Ukraine, l’UE offre-t-elle le cadre pertinent pour parler de sécurité européenne, alors même qu’à l’exception de la France, toutes les nations européennes (hors Grèce, Croatie et Serbie) suivent l’exemple de l’Allemagne pour se détourner de la construction d’une industrie de défense européenne, socle indispensable d’une Europe (au sens de l’UE) de la défense ? Dès lors, puisqu’il ne s’agit que de parler de capacités militaires, au sens de « second pilier de l’OTAN », est-il raisonnable de s’en tenir à un tête-à-tête avec l’Allemagne, sans intégrer le Royaume-Uni, la Suède et la Turquie dont le poids militaire est essentiel sur le théâtre européen.

La question posée est donc celle de la réactivation d’un cadre similaire à celui de l’Union de l’Europe Occidentale, qui pourrait retrouver son utilité lorsque la relance d’un processus de discussion avec la Russie, analogue à celui de l’organisation pour la sécurité et la coopération en Europe (OSCE) s’avèrera indispensable. En l’absence d’un tel dispositif, le destin du continent européen pourrait fort bien être traité directement entre Washington et Moscou.

Crises et avenir de la France ?

Crises et avenir de la France  ?

Des événements de diverses natures ont entraîné des conséquences géopolitiques bien au-delà de leur perception par leurs contemporains ( article de

André Yché dans la Tribune)

En remportant la bataille de Chéronée en 338 avant JC, Philippe II de Macédoine assure la domination de son pays sur la Grèce et prépare l’entreprise conquérante d’Alexandre le Grand qui, pénétrant en Orient jusqu’en Asie Centrale et en Inde, ouvre les « routes de la soie ».

De même, la peste de Justinien, au milieu du VIème siècle, en décimant les armées byzantines engagées dans la reconquête de l’Italie, met un terme à l’ultime tentative de réunification de l’Empire romain et, de fait, scelle le sort, à terme, de l’Empire byzantin.

Les batailles de Chesapeake Bay et de Yorktown, en 1781, remportées par de Grasse et Rochambeau, ouvrent la voie à l’indépendance américaine et jouent un rôle déterminant dans l’Histoire mondiale du XXe siècle.

La bataille de Sadowa, qui accélère le déclin de l’Empire austro-hongrois, marque le début de l’hégémonie prussienne en Europe centrale, avec les conséquences dramatiques que l’on sait.

Enfin, la crise de 1929 n’est surmontée qu’à partir du moment où les Etats-Unis s’engagent dans une politique de réarmement, d’abord au profit des démocraties européennes, puis pour leur compte propre à partir du 8 décembre 1941. Pour soixante-dix ans, la doctrine Monroe est mise entre parenthèses et l’Amérique renonce à son isolationnisme traditionnel. Jusqu’à quand ?

En même temps, la dimension géopolitique de l’Histoire se heurte constamment aux réalités territoriales, aux ancrages nationaux, à l’enracinement des Hommes qui tressent un lien indissoluble entre histoire et géographie.

C’est ainsi que tout au long du premier tiers du XVe siècle, le grand empereur chinois, Yongle, parraine les expéditions maritimes de Zheng He, afin d’ouvrir le monde à la Chine : l’océan Indien, les côtes de l’Afrique de l’Est, la mer Rouge, jusqu’en Egypte. Mais l’agitation turco-mongole sur les frontières du nord impose le recentrage de l’effort budgétaire sur la restauration de la Grande Muraille et, pour protéger le Hebei, l’Empire céleste se détourne durablement du « Grand Large ».

Au cours du dernier tiers du XIXème siècle, alors que monte en Angleterre un courant en faveur du libre-échange qui ouvre le monde entier à la City, porté par l’aristocratie foncière reconvertie dans la finance après l’abrogation des lois protectionnistes sur le blé (« Corn Laws ») par Robert Peel en 1846, une forte opposition se fait jour, conduite aux Communes par Benjamin Disraeli. Derrière ce courant protectionniste, les intérêts portuaires britanniques sont en cause ; ils bénéficient du régime de l’« Exclusif » avec l’Empire qui alimente les réexportations vers le continent. L’entreprise coloniale, ce sont également, à proximité des bases navales, les arsenaux de la Navy et de l’Army qui constituent le cœur de la métallurgie anglaise.

Comme aux Etats-Unis et en France aujourd’hui, les Anglais sont donc en plein débat sur la protection de leur industrie, auquel s’ajoutent les polémiques entre Malthus (protectionniste) et Ricardo (libre-échangiste) sur la souveraineté alimentaire nationale.

Quels enseignements utiles faut-il tirer de ces épisodes historiques quant à l’impact probable de la crise sanitaire, économique et géopolitique que nous traversons?

La France et le Monde

L’expérience pratique de l’Antiquité grecque est celle d’un monde éclaté, dans lequel chaque Cité fixe ses lois, règle son gouvernement, décerne sa citoyenneté. Au-delà, c’est le monde barbare, qui ne parle pas grec et qui, de ce fait, n’est pas civilisé.

Pour autant, Platon n’ignore pas l’idée d’universalité : mais elle est purement intellectuelle ; elle tient dans l’aptitude de tout être humain à penser ; c’est, en quelque sorte, le « Cogito » de Descartes, avant l’heure.

L’universalisme romain ne se conçoit, juridiquement, qu’à travers l’attribution de la citoyenneté, considérablement élargie à partir de l’édit de Caracalla en 212, qui accorde la qualité de citoyen romain à tout homme libre de l’Empire.

Il n’en demeure pas moins que le véritable vecteur du concept d’universalisme réside dans le christianisme, à travers notamment la prédication de Saint Paul :

« Il n’y a plus ni Juif ni Grec, ni esclave ni homme libre, ni homme ni femme. »

La réalisation de ce principe soulèvera, bien sûr, maintes difficultés, y compris au sein de la communauté chrétienne et sera à l’origine de très vives tensions entre Paul et Pierre, à l’occasion de leur rencontre à Antioche. Avec la fin de l’Empire, le christianisme demeure le seul cadre porteur de valeurs universelles, ce qui ne manquera pas de susciter de nombreux conflits politiques au Moyen-Age, face à l’émergence des nations : le volet politique de la réforme grégorienne illustre, entre dogmes religieux persistants et nouvelles réalités d’un monde recomposé, une contradiction que Machiavel tranchera définitivement en laïcisant la pensée politique.

Il est nécessaire de percevoir qu’en réalité, la divergence entre principes universalistes et réalités nationales est une constante historique.

Le grand penseur de l’universalisme des Lumières est Emmanuel Kant, qui fait de l’universalité une condition essentielle de la morale : « Agis de telle sorte que la maxime de ta volonté puisse être érigée en loi universelle. ». Ce principe, qu’il élève au rang d’« impératif catégorique », n’est donc pas, à ses yeux, discutable. Pour autant, Kant mesure bien que concrètement, c’est la loi de l’Etat qui s’impose. Il considère que la contrainte physique que peut exercer l’Etat n’a pas d’effet durable sur la société et que ce qui compte, c’est l’obligation morale d’obéir à la loi que chaque individu perçoit intérieurement, parce qu’elle découle, précisément, d’une norme universelle.

Très belle construction intellectuelle, qui inspirera les fondateurs de la Société des Nations, de l’ONU… Mais en pratique, qu’en est-il ? Pour citer Charles Péguy :

« Kant a les mains pures, mais il n’a pas de mains. »

La Déclaration des Droits de l’Homme et du Citoyen, tout comme les textes fondateurs de la République américaine, s’inspirent naturellement de la philosophie kantienne, mais concrètement, la distinction est clairement établie entre ceux qui détiennent des droits subjectifs, les « citoyens », et les autres, les « hommes » qui ne peuvent exciper que de droits objectifs. Et la réalité révolutionnaire est essentiellement nationale (Valmy…) avant de devenir impérialiste, puis colonialiste : Jules Ferry est le symbole de l’ambition civilisatrice universelle de la République, quitte à transiger avec les principes de la laïcité :

« L’anticléricalisme n’est pas un produit d’exportation. »

C’est précisément par la voie de la colonisation que survient la première véritable mondialisation et, bien sûr, elle repose sur un principe d’asymétrie. L’opinion publique pense immédiatement : esclavage, commerce triangulaire. La réalité est plus complexe : c’est le régime de l’Exclusif qui assure à la métropole le monopole des échanges avec ses colonies, de telle sorte que par le biais de réexportations massives qui permettent au colonisateur de capter l’essentiel de la valeur ajoutée, l’équilibre commercial de la puissance colonisatrice est assuré. Ce modèle perdurera jusqu’en 1913 et se traduira par un poids des échanges extérieurs dans l’économie européenne qui ne sera à nouveau atteint qu’à la veille du premier choc pétrolier, au début des années 70.

Entretemps, la science économique a progressé. Le courant de pensée initial est celui des avantages comparatifs de Ricardo, décliné à travers le modèle de Heckscher- Ohlin-Samuelson qui souligne l’importance majeure de la dotation de chaque pays en facteurs de production, de telle sorte, par exemple, que l’abondance de capital aux Etats-Unis devrait conduire l’économie américaine à se spécialiser dans les produits à forte intensité capitalistique, ce qui n’est pas toujours le cas. Par ailleurs, les phénomènes d’accumulation des avantages comparatifs, d’oligopoles et de dissymétrie des termes de l’échange ont conduit à l’émergence d’une critique croissante, en faveur de la réinstauration d’un certain protectionnisme.

La première question est celle des secteurs stratégiques, éléments essentiels de la souveraineté. Mais comment repenser la souveraineté à l’heure de la construction européenne ? L’industrie de défense, l’approvisionnement énergétique occupent le premier rang de ces préoccupations.

Les nanotechnologies, la santé figurent depuis longtemps parmi les priorités industrielles, aux côtés de l’électronique et des technologies de l’information. Mais quelles conséquences en tirer quant à la localisation de ces activités ? La bonne échelle ne serait-elle pas européenne ?

C’est ici qu’intervient la question de l’emploi. Par exemple, il est certain que la maîtrise de la filière du médicament est un sujet stratégique et économique majeur. Mais peut-on analyser de la même manière la fabrication de masques de protection, eu égard à la réalité de la demande en temps normal ? A ce stade de la réflexion, comme en matière énergétique avec le gaz, le pétrole et l’uranium, on voit bien que la question est plutôt celle de la sécurité, notamment politique, des sources d’approvisionnement : le conflit qui déchire l’ex-empire soviétique illustre cette réalité. D’où le problème du « sourcing » chinois, surtout s’il est exclusif. En définitive, l’arbitrage à opérer se posera en termes de maîtrise des approvisionnements qui, n’implique pas une origine nationale, et d’emplois industriels productifs, c’est-à-dire compétitifs. Au-delà, il est évident que les enjeux de pouvoir d’achat, surtout en période d’inflation et de crise des finances publiques, limiteront les ambitions en termes de relocalisation quoiqu’en disent les prophètes annonciateurs d’un « nouveau monde ».

La principale révélation de la crise globale, en pratique, est celle de la relative fragilité de la chaîne logistique, levier essentiel de la mondialisation. Et c’est sur cet aspect du problème, qui n’est pas nouveau en dépit de la propagande chinoise autour des « routes de la soie », que mérite d’être réexaminée la dimension territoriale de l’économie, en lien avec les questions stratégiques et environnementales.

Traiter d’économie territoriale, c’est, d’abord, parler des territoires et de la relation du local au national. Dans cette démarche délicate, quelques fanaux éclairent le cheminement.

Fernand Braudel, d’abord, qui ne vivra pas assez longtemps pour conclure son ouvrage de synthèse, « L’identité de la France », dont il trace néanmoins les grandes lignes : un pays de pays, morcelés par la géographie et réunis par l’Histoire ; une tension entre de multiples irrédentismes et une centralisation opérée par l’Etat, au profit de la capitale et de son rayonnement mondial, au détriment, par exemple, de Lyon, pourtant mieux situé en termes de flux d’échanges européens. Au final, Braudel ne récuse pas ce travail historique et exprime sa méfiance à l’égard de la résurgence politique des territoires. Il n’est guère décentralisateur et il rejoint, sur ce point, Michelet qui résume sa thèse : l’Histoire s’est finalement imposée à la Géographie, et c’est très bien ainsi. La référence absolue, sur la question territoriale, demeure Vidal de la Blache et son « Tableau de la géographie de la France » de 1903, dans lequel il démontre comment, à cette époque, les seules métropoles qui aient véritablement émergé sont périphériques : tous les grands ports, Strasbourg sur le Rhin… Il montre également l’importance des complémentarités entre territoires et le processus de fertilisation croisée qui en résulte, notamment sur le plan démographique : La France est « une terre qui semble faite pour absorber sa propre émigration ». Mais Vidal est un homme de l’intérieur, du continent, qui ne connaît guère les côtes océaniques et qui manque du recul de Braudel pour distinguer les failles du modèle français : la France a raté la mer et n’a acclimaté que tardivement l’industrialisation et le capitalisme parce que pour le meilleur ou pour le pire, elle a toujours été attirée par son terroir et par les frontières continentales, lieu des menaces directes pesant sur son intégrité. Que dire de plus, et qu’en déduire ?

D’abord, que la question des territoires de la République est essentiellement franco-française et n’interfère qu’indirectement et de façon relativement marginale avec les questions de « déglobalisation » et de souveraineté économique. Certes, divers centres de production peuvent être réimplantés sur le territoire national, mais leur localisation précise dépendra surtout de considérations logistiques : la concurrence entre territoires, que l’on peut pressentir, correspondrait donc à une débauche d’énergie, peu productive.

En revanche, des leviers majeurs de redynamisation territoriale existent et, indépendamment de la crise sanitaire et économique, méritent d’être actionnés.

Le premier d’entre eux est relatif au développement de l’offre d’habitat, qui deviendra un facteur d’attractivité essentiel, s’agissant notamment des key-workers, particulièrement de ceux que leur métier écarte du télétravail. Il est évident que l’offre d’habitat intermédiaire à proximité des centres hospitaliers constituera, par exemple, une priorité à réexaminer dans l’avenir. Plus généralement, la revitalisation des villes moyennes et en particulier des « cœurs de ville » passe par la création d’une offre d’habitat adaptée à des clientèles potentiellement intéressées par les aménités culturelles, mais aussi sanitaires et éducatives : l’attractivité du centre-ville conditionne l’avenir de la périphérie.

Le deuxième enjeu, puisqu’il n’existe pas véritablement de territoire autonome en regard de l’économie nationale, réside dans la connexion au marché : national, européen, mondial. Connexion numérique, d’abord, mais aussi logistique physique et, notamment, multimodale.

Le troisième enjeu est relatif à la constitution de clusters autour des établissements universitaires et, à moindre échelle, des centres de formation d’ampleur régionale, de manière à coupler recherche et production, constituant ainsi de véritables pôles d’attractivité.

Au final, il est évident que les enjeux de revitalisation des territoires revêtent une dimension essentiellement nationale et qu’il est quelque peu artificiel de les raccorder à la question de la « déglobalisation », analysée comme ressort de nombreuses « relocalisations » sur le territoire national, ce qu’elle n’est probablement pas.

Si relocalisations il doit y avoir, ce qui paraît vraisemblable, c’est à l’échelle de l’Europe et du pourtour méditerranéen qu’il faudra les concevoir. Dans cette perspective, la connexion politique et opérationnelle entre les territoires et l’Etat central revêtira une importance accrue. En conclusion, la grande erreur est d’avoir pensé le capitalisme indépendamment d’une stratégie régalienne. L’erreur symétrique serait de penser les relocalisations indépendamment des principes du capitalisme.

L’Europe, ainsi nommée par les Grecs selon la célèbre princesse phénicienne enlevée, aux dires d’Esope, par Zeus métamorphosé en taureau, n’a longtemps été qu’une réalité géographique mal connue, à l’Ouest de l’espace hellène. Plus tard, l’entité politique structurante est l’Empire romain, essentiellement méditerranéen, qui ne franchit guère le Rhin et le Danube, tandis que la chrétienté réunit Occident et Orient, le christianisme étant d’ailleurs une religion d’origine orientale. Le premier, l’Empire de Charlemagne s’inscrit brièvement dans un espace correspondant à celui de l’Europe des Six. Issue du traité de Verdun de 843, une « Francia occidentalis » séparée par l’éphémère Lotharingie de son pendant oriental, participe du démembrement de l’Occident. Le Moyen-Age ignore donc la dimension européenne, qui n’est révélée que grâce à la prise de Byzance par les Turcs en 1453. Le pape Pie II s’en inquiète en ces termes : « des querelles intestines laissent les ennemis de la Croix se déchaîner » en préambule de son traité « De Europa ».

Tandis qu’Erasme y voit, déjà, l’espace d’une possible paix perpétuelle, Charles Quint tente, contre François Ier, d’imposer l’union par la force, sans succès ; François Ier n’hésite pas à s’allier à Soleiman pour contrer ce dessein, et la flotte turque, passant un hiver à Toulon, transforme ce port en ville musulmane, peuplée de milliers de janissaires et de leurs captifs chrétiens. François Ier frise l’excommunication, avant que la flotte ottomane ne lève l’ancre pour le Levant.

Napoléon, qui tente d’unifier l’espace péninsulaire du bloc asiatique par la force et par le droit, échoue pareillement et le Congrès de Vienne institue une Sainte Alliance dont ne s’excluent volontairement, signe précurseur, que l’Angleterre et le Vatican.

Dès lors, toute construction idéaliste, comme celle de Victor Hugo, bute sur la rivalité franco-allemande, jusqu’au grandiose projet d’Aristide Briand, à la fin des années vingt, mis à bas par la crise mondiale. Et c’est Churchill, au lendemain de la guerre, qui invite les continentaux à s’unir, sans inclure, lucidement, le Royaume-Uni dans la perspective ainsi tracée.

Ainsi, toute l’histoire de l’Europe met en évidence deux faits saillants : d’abord, que l’Angleterre n’est guère concernée ; ensuite, que la réalisation du projet dépend entièrement de la configuration, naturellement conflictuelle, de l’axe franco-allemand.

Un épisode l’illustre singulièrement : à l’issue de la signature du traité de l’Elysée, en 1963, qui pose les bases du projet européen, l’entregent de Jean Monnet permet à celui-ci de faire introduire devant le Bundestag, pour sa ratification, un préambule repositionnant le traité dans une perspective atlantiste, expressément écartée par le général de Gaulle qui, furieux, évoque la possibilité d’un renversement d’alliance « avec la Russie » ! Les limites politiques du « couple » franco-allemand sont ainsi tracées.

Au fond, c’est sur ce compromis que l’Europe a progressé : un grand marché ouvert au monde libre, supervisé en matière de droit de la concurrence ; la politique agricole commune pour satisfaire la France et quelques Etats méditerranéens ; des fonds structurels pour accompagner les retardataires ; et surtout, en contrepartie d’une clientèle assurée pour l’industrie allemande, une union monétaire, assortie de règles disciplinaires strictes. Un « deal » intelligent, sans doute le meilleur que l’on puisse espérer, et qui s’avère incontestablement « gagnant-gagnant ».

A ceci près qu’une fois encore, la relation franco-allemande soulève des difficultés, non pas à cause d’un écart de compétitivité entre les deux économies, qui fluctue dans le temps, mais d’un différentiel majeur de croissance démographique qui est structurellement stable et qui condamne la France à un taux de chômage élevé, pour des niveaux de croissance équivalents. De là viennent les excédents d’une grande Suisse, les déficits d’une « petite Russie » dépourvue de richesses naturelles, hormis sa puissante agriculture. Et au final, un « spread » croissant sur les marchés financiers.

Cette situation représente-t-elle un problème ? Assurément, dans le contexte de crise globale que nous traversons. Est-il insurmontable ? Peu vraisemblablement : la France et sa dette publique ne peuvent se passer de l’euro, pas plus que l’Allemagne d’un de ses principaux clients.

Pour autant, nous ne saurions ignorer qu’à partir de son origine sanitaire, la crise revêt une dimension économique et, désormais, géopolitique.

L’Union européenne, à travers ses plans de relance et la mobilisation du système européen de banques centrales a couvert, dans des conditions relativement satisfaisantes, son champ d’intervention naturel, économique et financier, sous une réserve majeure : l’enjeu agroalimentaire, et d’abord agricole, ne saurait être abordé selon sa seule dimension écologique, qui ne peut être exclusive de son poids économique et de son impact stratégique. La France aurait beaucoup à perdre de ce cantonnement idéologique.

Ce constat renvoie à une question fondamentale : après le Brexit, l’exclusion de la Turquie et la guerre en Ukraine, l’UE offre-t-elle le cadre pertinent pour parler de sécurité européenne, alors même qu’à l’exception de la France, toutes les nations européennes (hors Grèce, Croatie et Serbie) suivent l’exemple de l’Allemagne pour se détourner de la construction d’une industrie de défense européenne, socle indispensable d’une Europe (au sens de l’UE) de la défense ? Dès lors, puisqu’il ne s’agit que de parler de capacités militaires, au sens de « second pilier de l’OTAN », est-il raisonnable de s’en tenir à un tête-à-tête avec l’Allemagne, sans intégrer le Royaume-Uni, la Suède et la Turquie dont le poids militaire est essentiel sur le théâtre européen.

La question posée est donc celle de la réactivation d’un cadre similaire à celui de l’Union de l’Europe Occidentale, qui pourrait retrouver son utilité lorsque la relance d’un processus de discussion avec la Russie, analogue à celui de l’organisation pour la sécurité et la coopération en Europe (OSCE) s’avèrera indispensable. En l’absence d’un tel dispositif, le destin du continent européen pourrait fort bien être traité directement entre Washington et Moscou.

Quel avenir de l’assurance santé en France

Quel avenir de l’assurance santé en France 

Malgré sa technicité, le débat sur le financement de la protection sociale doit être au cœur de la campagne présidentielle, car il concerne le pouvoir d’achat des ménages et la santé publique, explique, dans une tribune au « Monde » un collectif venant d’horizons très divers.

 

Tribune.

 

Les travaux du Haut Conseil pour l’avenir de l’assurance maladie (HCAAM), explorant une évolution de l’articulation entre Sécurité sociale et assurance-maladie complémentaire, ont été publiés le 14 janvier. Ni les intérêts de certains acteurs, ni la technicité du sujet ne doivent conduire à enterrer ces réflexions. Elles doivent au contraire prendre une place majeure dans le débat public, et particulièrement dans la présente campagne présidentielle.

Certains constats du rapport du HCAAM sont d’ordre factuel, et doivent être portés à la connaissance du public pour engager la réflexion, puis la prise de décision. Ainsi, il est observé que les frais de gestion du système d’assurance santé des Français sont les plus élevés d’Europe. Cela signifie qu’à dépense de santé donnée, c’est en France qu’elle revient le plus cher aux ménages.

Or, quelles que soient les formes qu’elle recouvre, la dépense de santé est payée en totalité par les Français : prélèvements obligatoires (cotisations sociales sur les revenus du travail – y compris part « employeur » –, CSG…), cotisations aux complémentaires ou reste à charge. Dans tous les cas, ce sont les ménages qui paient. La réduction de ces frais de gestion, bien plus élevés que chez nos voisins, apparaît ainsi comme une piste évidente pour réduire le coût global de leur dépense de santé sans en altérer la qualité ou en modifier la nature.

Ensuite, il est établi que l’ampleur de ces frais de gestion – plus de 15 milliards d’euros par an – s’explique principalement par l’empilement de deux payeurs pour quasiment chaque dépense de santé. Les complémentaires concentrent aujourd’hui une part plus importante de ces frais de gestion que l’Assurance-maladie, avec une forte dynamique due en particulier à leur concurrence pour attirer des clients.

Cet empilement est aussi source de coûts indirects et d’inefficiences, par exemple lorsque la complexité structurelle de la mise en place du tiers payant pour la médecine de ville entraîne la croissance de la fréquentation des urgences à l’hôpital. Ces enjeux ne sauraient être écartés en raison de l’intérêt catégoriel de tel ou tel acteur : le financement du système de santé se doit d’être le plus efficace possible en contrepartie de l’effort qu’il représente pour nos concitoyens.

Enfin, voire surtout, cette dépense globale est aujourd’hui mal mutualisée entre les Français. La répartition de sa charge est très favorable aux salariés des entreprises privées, avec des contrats collectifs dont les primes sont exonérées de toute fiscalité, et défavorable aux inactifs, en particulier aux retraités. Ces derniers sont ainsi davantage en risque de ne pas être bien protégés et donc de renoncer à certains soins, alors même qu’ils sont, en moyenne, ceux qui en ont le plus besoin.

Avenir France 2022 : quelle transformation des politiques publiques

Avenir France 2022  : quelle  transformation des politiques publiques

 

OPINION. Après une crise sans précédent qui a remis en cause la manière de gérer l’action publique, il est nécessaire de réimaginer la nature d’un quinquennat de transformation. Par Olivier Bouet, Directeur EY Consulting secteur public et Guéric Jacquet, Associé EY-Parthenon secteur public (dans la Tribune)

 

Depuis 2017, les initiatives en matière de transformation publique ont été fortes : lancement de la démarche CAP 2022 de refonte des politiques publiques, financement de réformes structurelles via un fonds interministériel de 1 milliard d’euros, lancement d’une stratégie globale de transformation publique, portage au plus haut niveau de l’État… Cela s’est traduit à la fois par la mise en place de réformes d’ampleur (prélèvement à la source, maisons France Service, ENA, mis en place du droit à l’erreur) mais aussi par une appréciation positive historique des services publics, à plus de 51% par les Français en 2020 (Institut Paul Delouvrier).

Pourtant, la crise sanitaire et économique a limité les résultats des réformes : les réductions de postes ont été reportées, le déficit public s’est accru et les difficultés d’exécution des politiques de proximité ont été mises en lumière. Après une crise sans précédent qui a remis en cause la manière de gérer l’action publique (gestion de crise, télétravail, plans de relance, articulation entre État et collectivités locales…), il est nécessaire de réimaginer la nature d’un quinquennat de transformation publique ambitieux, articulé autour de 5 grands piliers.

Une grande politique de simplification et de dérégulation des normes

En sortie de crise, l’État est appelé à changer de paradigme pour simplifier la vie des Français. La création d’une mission gouvernementale de simplification du stock de lois, règlements et dispositifs, issue de la fusion des nombreux comités et conseils de simplification, pouvant se traduire par exemple en réécrivant les codes existants, ou en pilotant la suppression, par les ministères, de 10% des normes afférentes à leurs domaines d’intervention.

Une transformation digitale massive et qui touche le cœur de métier

Selon nos analyses, pour 3 milliards d’euros investis sur 5 ans, un ROI significatif de 12 milliards d’euros de gains de productivité annuels peut être espéré. Au-delà de l’impact majeur que le numérique a sur les grands métiers de la Fonction publique, les gains de productivité issus du recours aux nouvelles technologies touchent à la fois les fonctions de back-office (RH, IT, finance) et le cœur de métier (enseignement, police, justice…) à l’instar des entreprises privées qui ont engagé ces transformations massives.

L’extension de la dynamique de transformation publique à toutes les fonctions publiques

Après une décennie de réforme de l’administration d’État, il est prioritaire d’inclure les opérateurs de l’État dans l’effort collectif de rationalisation, ou le lancement de de nouveaux programmes de mutualisation entre l’État et les collectivités, sur le modèle des centres de service partagés de fonctions support. D’ailleurs, lorsqu’on interroge les Français sur les dépenses qui pourraient baisser, ils citent pour 50% d’entre eux la masse salariale et les effectifs des collectivités (IFOP- EY-Acteurs Publics, novembre 2022), qui ont atteint 1,9 million d’employés en 2020.

Un nouveau mode de délivrance des services publics par les entreprises et les associations pour réallouer des moyens vers les priorités de politique publique

Réinterroger le périmètre d’intervention de la puissance publique nécessite l’acceptation d’un nouveau mode de délivrance des services publics, par les entreprises et les associations, si ces acteurs peuvent produire des services de meilleure qualité et à moindre coût (via par exemple l’externalisation de fonctions administratives et de contrôle). À l’instar des lois de dérégulation de 2015, il est possible de créer de nouveaux marchés rentables au service de la croissance économique à qualité de service égale, et permettant la réallocation de crédits publics vers les priorités gouvernementales.

Un investissement massif dans les RH pour redonner des perspectives de formation et de carrière aux agents publics

Aujourd’hui, un agent public reçoit en moyenne 30 heures de formation continue par an là où un actif du secteur privé en reçoit 2,5 fois plus. C’est pourquoi il est désormais urgent d’accélérer le programme de formation, notamment dédié aux usages numériques, pour que chaque agent et chaque manager réussisse le tournant de la révolution digitale, et construire un plan de reconversion pour préparer les agents aux métiers et compétences de demain.

En combinant ces piliers à une forte volonté politique, une gouvernance au plus haut niveau et une focalisation des efforts sur quelques sujets clés plutôt que de multiples petites réformes, la transformation publique pourra permettre de rendre des services publics plus efficaces.

Avenir Politique -Macron: Les « derniers » vœux ?

Avenir Politique -Macron: Les « derniers » vœux ?

 

Une nouvelle fois le président de la république est apparu  sur le petit écran. Une habitude chez lui mais cette fois pour la traditionnelle cérémonie des vœux. Beaucoup s’interrogent  pour savoir s’il s’agit des possibles derniers vœux. L’intéressé n’est en effet pas du tout assuré d’être réélu en 2022.

Finalement en effet Emmanuel Macron aura surtout passé son temps à émettre des vœux et à semer des promesses sans vraiment suivre la ligne progressiste promise. Au total, il aura bien peu réformé une société sans doute encore plus éclatée qu’auparavant menacée tout autant sur le plan économique que sociétal. Bien peu d’experts seraient capables d’expliquer ce qu’est exactement le macronisme. Sinon une espèce d’auberge espagnole idéologique d’inspiration fortement libérale avec un zeste de progressisme et autant d’étatisme de nature monarchique.

Le chef de l’État se sera surtout caractérisé par un manque de cohérence et de maturité. À vrai dire ce n’est pas vraiment une surprise car l’intéressé n’avait aucune expérience politique avant d’accéder aux plus hautes fonctions. C’est un peu par hasard–hasard soutenu par des groupes financiers–que Macron est devenu président.

Comme d’autres, il s’est laissé prendre au piège du pouvoir et a eu tendance à confondre démocratie et monarchie. En plus avec une fâcheuse tendance à faire côtoyer les contradictions avec son fameux « en même temps ». Témoin cette phrase   » 2022, champ de tous les possibles » qui peut conduire à tout au meilleur comme au pire.  

Au total le bilan politique sera bien maigre et les vœux de 2021 auront beaucoup de mal à convaincre surtout à la veille d’une élection.

Hydrogène : quel avenir dans la transition énergétique

Hydrogène : quel avenir dans la transition énergétique

L’annonce, en janvier 2021, de la création du Conseil national de l’hydrogène témoigne d’un renouveau de la politique et de l’ambition française vis-à-vis des technologies hydrogènes. Au cœur du plan France Relance, ces technologies sont multiples et impactent de nombreuses filières industrielles majeures, telles que l’automobile ou l’aéronautique. Quel sera le rôle de ce nouveau Conseil ? Une coordination nationale permettra-t-elle d’accélérer le développement de cette filière ? Qu’en est-il d’une coopération à l’échelle européenne ? Anne-Sophie Angelo, Directrice au sein du Cabinet Pergamon répond aux questions l’institut Montaigne

Le Conseil national de l’hydrogène a été créé début janvier 2021. Quel peut être son impact sur le développement de la filière française ?

Pour le moment, le gouvernement a débloqué les fonds nécessaires, défini quelques grandes priorités et décidé de la création d’un Conseil national de l’hydrogène en lui assignant des objectifs : « structurer les échanges entre l’État et les parties prenantes de la mise en œuvre de la stratégie«  et de contribuer au « développement d’une filière compétitive de l’hydrogène décarboné« , ainsi qu’à « l’émergence de projets collectifs visant à la structuration d’une chaîne de valeur complète sur notre territoire ou dans le cadre de coopérations européennes« . En France, rien ne se fait sans l’État et c’est donc une bonne chose qu’un solide cadre financier et organisationnel ait été mis en place : le travail peut commencer.

Concrètement, tout reste à faire. Nous ne disposons pas encore de feuille de route précise. L’Allemagne constitue en cela un modèle dont nous pourrions nous inspirer : au-delà du tissu industriel qui fait sa force, elle fait reposer son ambition de devenir le numéro 1 mondial des technologies de l’hydrogène sur un plan clairement structuré en 9 domaines d’action très concrets et 37 mesures, comprenant de premiers objectifs chiffrés à court terme et un inventaire précis des besoins, de la technologie actuellement disponible et des innovations à encourager.

Construire une filière de l’hydrogène suppose des investissements importants, mais aussi de la coordination et de l’intégration.

Construire une filière de l’hydrogène suppose des investissements importants, mais aussi de la coordination et de l’intégration. Ce n’est pas tout à fait la manière dont sont formulées les missions du Conseil National de l’Hydrogène, mais nous pouvons espérer que ses membres se saisissent du problème et trouvent, collectivement, des méthodes et des solutions efficaces et nécessaires au développement d’une filière hydrogène (décarboné) compétitive à l’échelle de tout le territoire.

Rappelons que les projets industriels dont il est ici question recouvrent de très nombreux défis technologiques et mobilisent un nombre considérable de compétences :

  • Acteurs privés (grands groupes, ainsi que leurs filiales ou les start-ups qu’ils financent, PME) et publics (État, régions, organismes publics de financement comme la branche investissement de l’ADEME ou la Banque des territoires, très actifs dans le financement de projets hydrogène) travaillent main dans la main pour rendre possibles des expérimentations en vue d’un déploiement industriel à plus grande échelle. Les acteurs publics jouent un rôle essentiel dans la création de débouchés et dans l’émergence d’un marché rentable pour les entreprises.
  • À titre d’exemple, citons le projet HyPSTER en Auvergne-Rhône-Alpes (région à l’initiative du plan Zero Emission Valley), qui prévoit le stockage souterrain dans des cavités salines d’hydrogène vert produit sur place à partir d’énergie photovoltaïque et hydraulique. Une étude d’ingénierie est menée en préalable du passage à une phase d’expérimentation en 2023, puis à l’échelle industrielle. Enjeu : faire de ce site un modèle d’écosystème hydrogène réplicable. Autre exemple : le projet Dijon Métropole Smart EnergHy, co-financé par l’ADEME, qui prévoit la production d’hydrogène à partir de l’incinération de déchets ménagers.
  • Derrière le mot « hydrogène«  se trouve en fait une multitude d’activités industrielles. Leur intégration est clé, car l’enjeu est bien de créer des écosystèmes vertueux du point de vue écologique, à partir de l’énergie renouvelable nécessaire pour produire de l’hydrogène vert jusqu’à son usage en tant que vecteur énergétique (dans la mobilité par exemple) ou que matière première pour décarboner certains pans de l’industrie (production d’acier et d’engrais, par exemple). Inversement, la récupération de l’hydrogène dit fatal ou coproduit (résultant d’un procédé non destiné à sa production, par exemple la fabrication du chlore) pourrait constituer, à l’avenir, une source d’approvisionnement supplémentaire. Les besoins en termes d’innovation et d’infrastructure sont colossaux, et appellent à un dialogue fluide et nourri entre tous les acteurs qui permettra que la stratégie nationale pour le développement de l’hydrogène décarboné en France devienne réalité.

La récente accélération de certains acteurs du secteur automobile et aéronautique sur les enjeux d’hydrogène témoigne-t-elle d’une plus grande maturité de cette technologie ?

La volonté récente des États de soutenir massivement la filière hydrogène repose, en effet, sur l’évolution favorable des technologies de l’hydrogène. C’est d’ailleurs le constat que faisait Peter Altmaier, ministre de l’Économie en Allemagne, au moment d’annoncer les grandes lignes de la stratégie hydrogène de son pays : « le moment de l’hydrogène est venu« , a-t-il affirmé dans une tribune publiée dans la Frankfurter Allgemeine Zeitung en novembre 2019. Mais la disponibilité des technologies ne suffit pas. L’hydrogène vert coûte aujourd’hui beaucoup plus cher que l’électricité, le pétrole ou le gaz naturel. Comme toute innovation énergétique, il a besoin d’être subventionné au départ pour être compétitif.

La Corée offre à cet égard l’exemple d’un système de soutien public efficace dans la mobilité hydrogène. Si le constructeur Hyundai a été pionnier avec son moteur à pile à hydrogène en 2013, c’est bien l’intervention de l’État qui a rendu possible le développement d’un marché national : en 2018, le gouvernement coréen annonçait un partenariat inédit public-privé comprenant une enveloppe de plus de deux milliards de dollars sur cinq ans et la planification des actions à mener, et a récemment augmenté son budget dédié à la subvention de l’achat de véhicules hydrogène. La Corée, avec des objectifs précis sur le nombre de véhicules hydrogène en circulation à horizon 2022 puis 2030, entend répondre à un triple défi : réduire sa dépendance énergétique, lutter contre la pollution aux particules fines en milieu urbain et construire une économie de l’hydrogène dynamique, propre à assurer la création d’emplois mais aussi la place de leader mondial de la voiture à hydrogène.

Aujourd’hui, l’accélération que l’on observe s’explique par l’enthousiasme et la confiance que suscite l’hydrogène vert (produit par électrolyse à partir d’énergies renouvelables, et donc non producteur de CO2 lorsqu’il est utilisé comme combustible), dans le contexte de lutte contre le réchauffement climatique et de relance économique post-pandémie. L’urgence climatique et les ambitions de réduction des émissions de gaz à effet de serre affichées par les États à travers le monde (par exemple, dans son plan cible en matière de climat, la Commission européenne propose de porter de 40 % à 55 % par rapport à 1990 les émissions de gaz à effet de serre ; même la Chine, responsable du quart des émissions de gaz à effet de serre mondiales, a annoncé vouloir atteindre la neutralité carbone d’ici 2030) font apparaître l’hydrogène vert une réponse pertinente aux défis environnementaux.

Aujourd’hui, l’accélération que l’on observe s’explique par l’enthousiasme et la confiance que suscite l’hydrogène vert, dans le contexte de lutte contre le réchauffement climatique et de relance économique post-pandémie.

Les plans hydrogène publiés ces derniers mois en Europe comme ailleurs (en France et en Allemagne, mais aussi au Royaume-Uni, au Canada, au Chili pour n’en citer que quelques-uns) ont un effet d’entraînement, auprès des industriels de l’hydrogène mais également des investisseurs privés. Les cours de bourse en témoignent : ils ont soudain bondi au printemps 2020, et connaissent depuis une croissance soutenue.

Rappelons enfin que les défis technologiques subsistent : en témoignent les réflexions en cours autour de l’avion à hydrogène, avec la question du poids des réservoirs et de leur niveau de sécurité. Le gouvernement français prévoit d’ailleurs de consacrer 1,5 milliards d’euros de son plan de soutien à l’aéronautique à la R&D et à l’innovation dans ce secteur.

L’hydrogène figure à l’agenda du plan de relance français, France Relance, à hauteur de 7 milliards d’euros, mais aussi dans le plan allemand à hauteur de 9 milliards. Comment expliquer cette différence ? Une action coordonnée à l’échelle européenne est-elle envisageable ?

La différence comptable tient aux deux milliards d’euros que l’Allemagne prévoit de consacrer aux partenariats internationaux. Mais la différence entre les stratégies française et allemande tient surtout à des contextes et des modalités pratiques différents :

  • En 2011, suite à l’accident de Fukushima, l’Allemagne a pris la décision de sortir du nucléaire et investit depuis massivement dans les énergies renouvelables, qui représentent aujourd’hui plus de 40 % de la production d’électricité du pays. L’hydrogène permettrait à l’Allemagne de stocker l’énergie solaire ou éolienne, par nature intermittente. La France, elle, compte principalement sur le nucléaire, une source d’énergie décarbonée (plus de 70 % de sa production d’électricité, contre un peu plus de 20 % pour les renouvelables).
  • L’engagement allemand en faveur de l’hydrogène remonte aux années 2000 : dans le cadre du Programme national d’innovation pour la technologie de l’hydrogène et des piles à combustibles, un financement d’environ 700 millions d’euros avait été approuvé sur la période 2006-2016, pouvant aller jusqu’à 1,4 milliards d’euros sur la période 2016-2026. La stratégie hydrogène dévoilée en 2020 fait donc fond sur des initiatives lancées plusieurs années auparavant. En France, le soutien public à la filière a commencé bien plus tard, en 2018, avec le plan Hulot, qui prévoyait de mobiliser 100 millions d’euros à partir de 2019, avec l’objectif d’un financement de 100 millions d’euros chaque année.
  • Quant aux modalités pratiques, le plan hydrogène allemand comprend 37 mesures destinées à atteindre l’objectif formulé clairement par le ministre de l’Économie : devenir le numéro 1 mondial des technologies de l’hydrogène. La France, elle, a défini de grands domaines d’action cibles (installation d’électrolyseurs en capacité suffisante, décarbonation de l’industrie, mobilité lourde, création d’emplois, R&D), et prévoit de procéder ensuite par projets financés selon des mécanismes bien identifiés (appels à projets, fonds du Programme d’investissements d’avenir, Projets importants d’intérêt européen commun, Programmes prioritaires de recherche, appels d’offres).

Au regard de la compétition internationale, un marché intégré de l’hydrogène en Europe et l’existence de champions européens seraient des atouts considérables. La coordination européenne est cependant déjà opérante, à travers plusieurs programmes de financement, tels que les projets importants d’intérêt européen commun ou Fuel Cells & Hydrogen Joint Undertaking, ce dernier finance notamment le projet Hydrogen Mobility Europe (H2ME) visant à créer un réseau de stations de recharge en hydrogène à travers toute l’Europe. La Commission européenne a également présenté en juillet dernier sa stratégie en faveur d’une « alliance de l’hydrogène propre«  sur le modèle de l’alliance européenne pour les batteries en vue de coordonner les initiatives nationales. Notons enfin l’initiative de 30 industriels européens, qui ont officiellement lancé le 11 février dernier « HyDeal Ambition« . Objectif : produire à horizon 2030 un hydrogène vert compétitif par rapport aux énergies fossiles.

Le métavers : Avenir ou chimère ?

Le métavers : Avenir ou chimère ?

 

 

Un article du monde idéalise le métavers de Facebook. Une technologie qui pourrait avoir des applications mais qui pourrait aussi se révéler une chimère aussi bien inutile sur le plan technologique que sur le plan sociétal. NDLR

 

Analyse. 

Métavers » : dans le monde des technologies, c’est le mot qui fait le buzz.de Microsoft à Nvidia, de Tencent à Epic Games (éditeur du jeu à succès Fortnite), nombreux sont les acteurs qui ont récemment manifesté leur volonté de participer activement à l’élaboration de ce qui s’annonce comme la prochaine génération d’Internet. Dans cet espace numérique du futur, chacun, à travers un avatar, sera plongé dans un univers virtuel et pourra accéder à une quantité infinie de services : jouer avec des amisa, les rejoindre pour assister à un concert ou voir un film, participer avec des collègues à une réunion, essayer une automobile ou visiter son prochain appartement…

Plus que tout autre, un événement a donné de l’épaisseur à cette vision : fin octobre, Facebook a décidé de rebaptiser sa maison mère « Meta ». Une manière de graver dans le marbre son ambition de faire basculer ses utilisateurs dans cette dimension futuriste.

 

L’entreprise de Mark Zuckerberg n’est pas la première à faire ce pari. A la tête d’Epic Games, Tim Sweeney est peut-être le théoricien le plus aiguisé du métavers. Surtout, il a fait de Fortnite une des esquisses les plus abouties de ce que pourrait être ce nouvel espace numérique, un terrain de jeu virtuel ouvert à d’autres développeurs qui peuvent y proposer leurs expériences. Ce qui a par exemple permis, en avril 2020, au rappeur Travis Scott d’y réunir plusieurs millions de spectateurs pour une série de concerts en ligne.

Les professionnels ont bien vu l’intérêt de s’emparer de cette technologie. Des marques de vêtements ou de voitures pour y faire la promotion de leurs produits, des acteurs culturels pour être présents sur ces nouvelles scènes, des entreprises pour en faire une extension de leurs espaces de travail, comme Accenture qui a créé, avec Microsoft, un « campus analogique » permettant à ses nouveaux collaborateurs à travers le monde de suivre un parcours d’intégration.

Maturité technologique

Cette avancée technologique soulève de nombreuses inquiétudes : sur l’isolement des individus dans un monde virtuel, sur la modération des contenus et la protection des données personnelles. Pour autant, l’arrivée à maturité d’un métavers abouti n’est qu’une question de temps. « C’est une évolution qui fait sens du point de vue historique et technologique », explique Frédéric Descamps, cofondateur et dirigeant de Manticore Games. Les outils de production de mondes virtuels élaborés ont été industrialisés par les acteurs du jeu vidéo ; les casques de réalité virtuelle et augmentée, même s’ils peinent encore à gagner le cœur du grand public, sont arrivés à un stade de maturité technologique ; les infrastructures (fibre, réseaux mobiles, cloud) sont présentes, elles devront seulement monter en puissance pour absorber le volume énorme de données que pourrait générer le métavers s’il devait être adopté massivement.

Avenir secteur Automobile–La voiture hyper connectée et chère : une erreur stratégique fondamentale

Avenir secteur Automobile–La voiture hyper connectée et chère : une erreur stratégique fondamentale

 

 

Au motif que les petites voiture ne dégagent  pas suffisamment de profits, nombres de grandes marques ont décidé de s’orienter vers la voiture électrique hyper connectée mais aussi avec un hyper tarif d’achat. En gros presque le double par rapport à un véhicule thermique. Or il existe encore de nombreuses incertitudes sur la fiabilité de la voiture électrique, sans parler de l’illusion de la voiture autonome. Toyota par exemple mise beaucoup sur la voiture hybride en attendant sans doute l’utilisation de l’hydrogène. De toute manière ,on voit mal comment les usagers des classes moyennes pourraient dépenser 30 000 à 40 000 € pour une automobile quand aujourd’hui ils ne peuvent y consacrer que 15 000 à 20 000 €. Renault a fait à nouveau le pari de la voiture électrique à bas prix  et pourrait bien ramasser la mise comme précédemment avec Daccia..

D’une manière générale le concept de l’automobile demeure une ineptie économique et énergétique. Faut-il rappeler que le nombre moyen de passagers par automobile et de 1,2 soit autour de 100 kg. Et pour cela on construit des véhicules de près d’une tonne pouvant aller de 150 à 200 km/h et consommant en moyenne 6 l aux 100 pour les véhicules thermiques. Et pour les véhicules électriques il faudra compter un point mort de batterie de 300 à 400 kg.

L’industrie automobile entend continuer dans cette erreur stratégique pour maintenir ses profits considérant que la rentabilité de véhicules adaptés réellement à la mobilité, c’est-à-dire plus petits, moins puissants ne dégagent pas une rentabilité suffisante.

Résultat pour l’instant les automobilistes doutent de la pertinence des stratégies des constructeurs et délaissent les véhicules neufs pour les véhicules d’occasion. Ainsi les véhicules neufs auront vu leur immatriculation diminuer de 30 % au cours de l’année 2021 tandis que le marché de l’occasion aura lui progressé de 10 %. On va sans doute alors s’apercevoir que les véhicules anciens peuvent durer de 25 à 50 % de temps supplémentaire par rapport aux critères habituellement retenus.

Avenir Automobile–La voiture hyper connectée et chère : une erreur stratégique fondamentale

Avenir Automobile–La voiture hyper connectée et chère : une erreur stratégique fondamentale

 

 

Au motif que les petites voiture ne dégagent  pas suffisamment de profits, nombres de grandes marques ont décidé de s’orienter vers la voiture électrique hyper connectée mais aussi avec un hyper tarif d’achat. En gros presque le double par rapport à un véhicule thermique. Or il existe encore de nombreuses incertitudes sur la fiabilité de la voiture électrique, sans parler de l’illusion de la voiture autonome. Toyota par exemple mise beaucoup sur la voiture hybride en attendant sans doute l’utilisation de l’hydrogène. De toute manière ,on voit mal comment les usagers des classes moyennes pourraient dépenser 30 000 à 40 000 € pour une automobile quand aujourd’hui ils ne peuvent y consacrer que 15 000 à 20 000 €. Renault a fait à nouveau le pari de la voiture électrique à bas prix  et pourrait bien ramasser la mise comme précédemment avec Daccia..

D’une manière générale le concept de l’automobile demeure une ineptie économique et énergétique. Faut-il rappeler que le nombre moyen de passagers par automobile et de 1,2 soit autour de 100 kg. Et pour cela on construit des véhicules de près d’une tonne pouvant aller de 150 à 200 km/h et consommant en moyenne 6 l aux 100 pour les véhicules thermiques. Et pour les véhicules électriques il faudra compter un point mort de batterie de 300 à 400 kg.

L’industrie automobile entend continuer dans cette erreur stratégique pour maintenir ses profits considérant que la rentabilité de véhicules adaptés réellement à la mobilité, c’est-à-dire plus petits, moins puissants ne dégagent pas une rentabilité suffisante.

Résultat pour l’instant les automobilistes doutent de la pertinence des stratégies des constructeurs et délaissent les véhicules neufs pour les véhicules d’occasion. Ainsi les véhicules neufs auront vu leur immatriculation diminuer de 30 % au cours de l’année 2021 tandis que le marché de l’occasion aura lui progressé de 10 %. On va sans doute alors s’apercevoir que les véhicules anciens peuvent durer de 25 à 50 % de temps supplémentaire par rapport aux critères habituellement retenus.

Avenir Ferroviaire : la grande pagaille avec la libéralisation partielle des TER

Avenir Ferroviaire : la grande pagaille avec la libéralisation partielle des TER

 

A terme, il faut sans doute s’attendre à une grande pagaille à la libéralisation partielle décidée par certaines régions concernant les TER ( trains régionaux de la SNCF.) Ainsi seront transférés des morceaux de lignes, des fuseaux horaires ou des portions de desserte qui risquent  de ne pas favoriser la qualité globale de la desserte. En cause pour les régions qui financent l’essentiel de ses transports le cout jugé exorbitant de la SNCF.

 

Le vrai problème sera celui de la compétitivité et de la rentabilité bien sûr tout autant que celui de l’affectation des créneaux horaires, créneaux  théoriques mais aussi créneaux pratiques  puisque sur les mêmes lignes souvent vont circuler des trains de marchandises, des trains de voyageurs rapides et des trains régionaux.

La pire contradiction concernant la libéralisation du transport de voyageurs sera de voir la SNCF concurrencer à l’étranger les compagnies concurrentes et inversement de voir les sociétés étrangères venir bousculer la concurrence nationale en France. Bref la différence risque de se faire sur les aspects sociaux puisque les autres coûts seront difficilement compressibles.

Les textes prévoient des transferts et des modifications du statut des personnels avec  le risque de produire de nombreux conflits. Cette vague de libéralisation a été tentée au Royaume-Uni et s’est terminée par un énorme fiasco avec la nécessité de reprise par l’État d’un réseau en décomposition.

Le problème, c’est que la plupart des régions n’ont aucune compétence technique en matière de transport ferroviaire et vont rapidement constater les dérives par rapport  au contrat initial.

Les transports régionaux appelés TER ont été transférés aux régions essentiellement pour des motifs financiers. Il s’agissait de transposer le coût important de ces dessertes aux régions qui assument les trois quarts du financement. Or la question n’est pas uniquement financière mais aussi technique, sociale et commerciale.

De ce point de vue ,l’État n’a jamais été en capacité d’imposer des normes précises notamment en  matière de gestion à la SNCF et l’entreprise n’a pas non plus fait les efforts nécessaires pour mettre en place des conditions d’exploitation adaptées à la nature de  es transports. Résultat : le risque ,comme pour le fret, est un jour que nombre ces dessertes soit transférées sur route.

Triple responsabilité : celle de l’État qui ne sait pas assurer sa tutelle, celle de région incompétente, celle de cheminots corporatistes bloqués sur des conditions d’exploitation d’il y a 50 ans. La libéralisation envisagée par certaines régions pose aussi la question de la continuité de nombre de dessertes sur d’autres régions.

Avenir automobiles autonomes: moitié voitures, moitié smartphones …mais prix double ?

Avenir automobiles  autonomes: moitié voitures, moitié smartphones …mais prix double ?

Le Figaro consacre un papier sur les perspectives d’avenir du véhicule automobile qui sera en grande partie autonome et électrique : moitié-moitié. Mais le prix, lui, risque d’être le double. Une vision complètement technocratique.. Il y a d’abord la question de l’autonomie qui ne sera réellement résolue que lorsque les automobiles disposeront de sites propres ( leur s infrastructures réservées) comme le train ou le métro.

Ce n’est évidemment pas pour demain car il faudrait remplacer la totalité du réseau routier. Au mieux il y a quelques navettes sur des itinéraires protégés. La deuxième critique qu’on peut adresser à cette vision est la sophistication informatique. Les mêmes spécialistes prévoient d’ailleurs que la moitié du prix des automobiles du futur sera justifiée par ses équipements informatiques. En réalité pour l’essentiel des gadgets maintenus et largement développés pour justifier des prix très hauts.

Dans une perspective responsable vis-à-vis de l’environnement on doit au contraire déshabiller l’automobile de tous ces gadgets particulièrement coûteux pour la collectivité comme pour l’usager. L’automobile doit redevenir ce qu’il est : tout simplement un moyen de mobilité adaptée au type de flux , au poids de la charge et la vitesse autorisée. En clair une voiture déshabillée  des gadgets  et charges inutiles pour en réduire le prix de moitié et non le multiplier par deux.

Avenir véhicules autonomes: moitié voitures, moitié smartphones …mais prix double ?

Avenir véhicules autonomes: moitié voitures, moitié smartphones …mais prix double ?

Le Figaro consacre un papier sur les perspectives d’avenir du véhicule automobile qui sera en grande partie autonome et électrique : moitié-moitié. Mais le prix, lui, risque d’être le double. Une vision complètement technocratique.. Il y a d’abord la question de l’autonomie qui ne sera réellement résolue que lorsque les automobiles disposeront de sites propres ( leur s infrastructures réservées) comme le train ou le métro.

Ce n’est évidemment pas pour demain car il faudrait remplacer la totalité du réseau routier. Au mieux il y a quelques navettes sur des itinéraires protégés. La deuxième critique qu’on peut adresser à cette vision est la sophistication informatique. Les mêmes spécialistes prévoient d’ailleurs que la moitié du prix des automobiles du futur sera justifiée par ses équipements informatiques. En réalité pour l’essentiel des gadgets maintenus et largement développés pour justifier des prix très hauts.

Dans une perspective responsable vis-à-vis de l’environnement on doit au contraire déshabiller l’automobile de tous ces gadgets particulièrement coûteux pour la collectivité comme pour l’usager. L’automobile doit redevenir ce qu’il est : tout simplement un moyen de mobilité adaptée au type de flux , au poids de la charge et la vitesse autorisée. En clair une voiture déshabillée  des gadgets  et charges inutiles pour en réduire le prix de moitié et non le multiplier par deux.

Avenir automobile « Le logiciel va tout changer » !

Avenir  automobile « Le logiciel va tout changer » !!! (Roland Berger)

Éric Kirstetter, associé senior chez Roland Berger et spécialiste de l’automobile explique que le logiciel va tout changer dans la voiture du futur. Une stratégie qui peut largement se discuter dans la mesure où l’automobile se bourre  surtout d’informatique pour justifier le maintien de prix à un très haut niveau. En effet ,nombre de ces éléments de l’architecture logicielle sont inutiles et poseront de graves difficultés d’entretien au garagiste du coin. D’où aussi l’accroissement des dépenses d’entretien.En outre l’objectif devrait être de déshabiller l’automobile de tous les gadgets inutiles qui alourdit son poids et son prix et contribuent un bilan carbone encore plus négatif.

 

Extrait de l’interview d’Éric Kirstetter à la Tribune

 

Depuis plusieurs mois, l’actualité automobile est émaillée d’annonces autour des logiciels. En début d’année, Volkswagen a annoncé un plan d’envergure pour reprendre la main sur cette technologie. On a du mal à imaginer l’ampleur de la thématique…

ÉRIC KIRSTETTER - Ce qui est en jeu, c’est l’architecture logicielle de la voiture du futur. C’est une fusée à quatre étages. Le premier étage, c’est ce qu’on appelle le hardware, également appelés les calculateurs. Ce sont eux qui font fonctionner les équipements de la voiture. Le deuxième étage, c’est le middleware, autrement intitulé operating system [le système d'exploitation, Ndlr]. Si on devait comparer une voiture à un ordinateur, c’est ce qui équivaudrait à Windows. Il est nécessaire pour faire fonctionner tous les équipements d’une voiture, du moteur au châssis, en passant par la partie digitale des commandes de bord, ou le GPS. Le troisième étage, ce sont les applications. Elles gèrent tous les équipements de la voiture pour la faire fonctionner et créer « l’expérience utilisateur » (donner une expérience de conduite propre à la marque, proposer une interface utilisateur intuitive et agréable à utiliser…). Enfin, le quatrième étage, c’est le cloud. Cette technologie va s’imposer demain lorsque tous les véhicules seront connectés.

Le cloud est une technologie récente. Que va-t-il changer dans le modèle de l’architecture logicielle d’un véhicule ?

Il va tout changer. Demain, les voitures connectées auront accès à des données qui seront extérieures à la voiture, laquelle pourra consolider ces données pour définir des fonctionnalités spécifiques, en fonction du profil du conducteur, ou des réglages particuliers d’un véhicule. Typiquement, si vous entrez l’adresse d’un restaurant sur votre GPS, la voiture sera capable de vérifier si le temps de trajet, mis à jour en temps réel via les données livrées par le cloud, vous permettra d’arriver à l’heure avant la fermeture du restaurant; dans le cas contraire, le système pourra alors vous proposer des solutions alternatives. L’autre rupture que va apporter le cloud, c’est qu’il va permettre d’externaliser la puissance de calcul nécessaire au fonctionnement de la voiture. Cela va totalement changer la place des calculateurs présents dans une voiture. Aujourd’hui, on compte, en fonction des modèles, entre 50 et 70 calculateurs. Chaque fonction est réalisée avec un calculateur spécifique, celui-ci est vendu par un tier-one [le plus souvent un équipementier, Ndlr] avec des capteurs et des actionneurs. Demain, les calculs seront davantage centralisés dans de plus gros calculateurs de plus haute performance, qui couvriront plusieurs fonctions. Ces calculateurs vont se répartir aux quatre coins de la voiture pour centraliser les fonctionnalités et réduire le câblage des voitures.

Tout sera donc géré de l’extérieur ?

Non. Le middleware restera un élément stratégique majeur pour l’automobile de demain. Là aussi, le secteur s’apprête à basculer dans une nouvelle ère. Pour schématiser le monde d’avant: il y avait autant d’operating system que de modèles disponibles sur le marché. Ainsi, un constructeur devait reconstruire un système d’exploitation depuis le début à chaque fois qu’il mettait sur le marché un nouveau modèle. Mais avec le cockpit de plus en plus digital, le cloud, les assistants de conduite de plus en plus gourmands en données, ces systèmes d’exploitation s’avèrent de plus en plus complexes et coûteux à mettre en œuvre, et il est très difficile de réutiliser les applications déjà développées pour la version antérieure du véhicule. La voie générale que semblent suivre les constructeurs, c’est donc de créer un système d’exploitation en propre qui va pouvoir être réutilisé d’un véhicule à l’autre et qui va permettre de réutiliser et d’améliorer facilement les applications qui avaient été développées pour le véhicule précédent. Si on veut une comparaison, on peut dire que les constructeurs développent leur propre système Windows qui leur permet d’améliorer facilement Word et Excel entre chaque véhicule.

Les mini centrale ( SMR) avenir du nucléaire ?

Les mini centrale ( SMR) avenir du nucléaire ?

Suite aux déclarations du président de la république visant à développer les minis centrales nucléaires, certains médias se demandent si cette technologie n’est pas l’avenir de la filière.

Pour certains pays qui importent une grande partie de leur électricité notamment pays en développement peut-être. Les minis centrales sont plus souples, plus évolutives et moins chères que les centrales classiques.

La France par contre a investi l’essentiel de son potentiel dans les grandes centrales d’une puissance actuelle de 900 MW avec les centres classiques et 1600 MW avec l’EPR. Ce parc reste encore à amortir d’autant qu’on y a engagé des travaux considérables destinés à renforcer la sécurité et en même temps à prolonger la vie des installations d’au moins une vingtaine d’années.

Aujourd’hui le nucléaire produit 70 % de l’électricité française. Reste que des minis centrales pourraient être utiles ne serait-ce par exemple que pour compenser le caractère intermittent de certaines énergies. Ce qui éviterait de recourir à des sources très polluantes en carbone.

Il y a évidemment un enjeu de souveraineté économique derrière le nucléaire qui constitue un des atouts technologiques du pays. Un enjeu aussi de compétitivité internationale. Si la France développe son parc et différentes technologies c’est aussi pour les exporter. De ce point de vue la, France était un peu en retard concernant les minis centrales et leur développement vise à compléter l’offre globale de la France dans ce domaine.

Mais ces minis centrales minis centrales ne présentent guère d’intérêt comme moyen de substitution aux centrales actuelles. On peut même dire et reconnaître que l’objectif de réduire la part du nucléaire à 50 % est une sorte d’illusion qui découle d’un marchandage passé entre les écologistes et François Hollande. La fermeture des centrales a essentiellement un but d’affichage politique. C’est une erreur économique, énergétique et même écologique. Le prix à payer pour l’instant a été la fermeture d’une centrale de Fessenheim qui pouvait encore fonctionner pendant 20 ou 30 ans.

Comme déjà indiqué avec les énormes travaux engagés pour renforcer la sécurité du parc actuel d’un cout de l’ordre de 50 milliards, la stratégie pertinente est donc d’amortir les installations actuelles en prolongeant leur durée de vie de 20 à 30 ans au moins et non de les remplacer par des minis centrales qui ne peuvent être pour la France qu’un complément.

Ne parlons pas de l’illusion qui voudrait que des énergies alternatives comme les éoliennes le solaire pourrait remplacer le nucléaire. Certes ces synergies peuvent être utiles comme complément mais certainement pas comme axe stratégique pour l’énergie en France.

Présidentielle 2022 : « offrir un avenir à tous nos enfants » (Hidalgo)

Présidentielle 2022 : « offrir un avenir à tous nos enfants » (Hidalgo)

 

Un slogan qui ne mange pas de pain, celui d’Anne Hidalgo déclarant sa candidature « offrir un avenir à tous nos enfants » et « bâtir une France plus juste »

Un slogan qui se veut très rassembleur puisqu’il pourrait être repris par chacun des candidats tellement il manque de fond. Un slogan sans doute plus adapté pour faire la promotion des yaourts ou d’une marque de lessive que pour constituer une orientation politique.

Créditée actuellement de 7 à 9% des voix selon les sondages, la maire de Paris rejoint une longue liste de candidats à gauche. Outre Jean-Luc Mélenchon, le patron de la France insoumise, sont aussi déclarés Arnaud Montebourg et Fabien Roussel, le chef du Parti communiste. Il faudra aussi compter avec le gagnant de la primaire écologiste, dont le premier tour est organisé à la fin de la semaine.

Voitures à Hydrogène : quel avenir ?

Voitures à  Hydrogène : quel avenir ?

Le handicap des voitures électriques c’est évidemment l’énorme poids mort des batteries aussi la question de la performance sans parler  de la problématique écologique.( Extraction des métaux et Recyclage). D’où l’idée d’utiliser l’hydrogène via des piles à combustible. Un article des Échos rappelle la problématique.

La pile à combustible va désormais concurrencer les batteries dans les véhicules électriques. Reste à faire baisser les coûts, produire de l’hydrogène propre et mailler le territoire de stations.

Le véhicule électrique à batteries rechargeables pourrait-il être envoyé à la retraite de façon prématurée ? Certes, il s’en est vendu quelque 2,2 millions l’an dernier, mais malgré les énormes investissements des constructeurs, les ventes ne décollent pas vraiment et les batteries sont toujours pointées du doigt : coût environnemental élevé, autonomie trop limitée et temps de recharge trop long. En face, le véhicule fonctionnant avec une pile à combustible alimentée en hydrogène sort à peine des limbes mais présente de sérieux atouts. L’Agence internationale de l’énergie (AIE), longtemps réservée sur l’hydrogène, a publié en juin dernier un rapport qui lui est très favorable, notamment dans le domaine des transports : « Le moment est venu d’exploiter le potentiel de l’hydrogène pour jouer un rôle clef dans un environnement énergétique propre, sûr et sécurisé. »

La Californie vise un million de véhicules électriques à hydrogène à l’horizon 2030. Même objectif pour la Chine, qui possède pourtant la moitié du parc mondial de véhicules électriques mais met désormais le cap sur l’hydrogène. C’est aussi une priorité nationale au Japon et en Corée. Car après une vingtaine d’années pour mettre au point la technologie, les premiers véhicules commerciaux, ceux de Toyota et de Hyundai, ont été lancés en 2014. Aujourd’hui la réglementation s’est adaptée et les arguments écologiques de la pile à combustible font mouche. Elle produit de l’électricité à partir de l’hydrogène embarqué dans un réservoir et de l’oxygène de l’air. Si bien que le véhicule ne produit ni gaz à effet de serre ni particule et ne rejette que de l’eau. En outre, faire un plein d’hydrogène prend 3 minutes au plus.

Encore faut-il avoir une station sous la main. C’est le point crucial. Le Japon et l’Allemagne ont déjà installé plusieurs dizaines de stations, tout comme la Californie et la Chine, qui prévoient d’en avoir un millier à l’horizon 2030. La France est plus timide et ne voit aujourd’hui circuler que 400 véhicules. Lancé par Nicolas Hulot, le plan national de déploiement de l’hydrogène pour la transition écologique privilégie les projets de transports en commun et de flotte captive. A l’image de Versailles, des Hauts-de-France ou de Pau où des bus fonctionnant à hydrogène entrent en service. « L’usage du véhicule hydrogène par les particuliers n’est pas prioritaire à cause du maillage de stations qu’il exige. Mieux vaut se concentrer sur les applications spécifiques comme les flottes, les professionnels ou les bus », justifie Maxime Pasquier, spécialiste du sujet à l’Ademe. Une approche trop timide pour les partisans de l’hydrogène au premier rang desquels l’Association française pour l’hydrogène et les piles à combustible (Afhypac). « L’hydrogène règle le problème de la voiture électrique et des problèmes posés par les batteries. Avec 2 milliards d’euros, soit le tiers du coût d’une ligne TGV, on construit un réseau d’un millier de stations. C’est d’abord un choix politique », s’agace Pierre-Etienne Franc, vice-président hydrogène énergie chez Air Liquide.

 Pas si simple, réplique Maxime Pasquier : « Les énergéticiens ont évidemment intérêt à distribuer de l’hydrogène. Encore faut-il le faire dans de bonnes conditions environnementales. Il faut avoir une vision globale depuis la production de l’énergie primaire jusqu’à la consommation. » En effet l’hydrogène, essentiellement produit à partir de gaz naturel, ne constitue pas encore la panacée écologique. Sans parler du rendement de la pile à combustible qui est inférieur à celui d’une batterie. Conséquence, en intégrant les émissions liées à la production d’hydrogène, une voiture à pile à combustible dégage autant de CO2 qu’une automobile à moteur thermique.

Cependant, les choses pourraient évoluer très vite puisque l’on sait produire un hydrogène « vert », certes plus cher, grâce à l’électrolyse. « Il n’y a pas de verrou technologique et les coûts vont baisser avec le passage à l’échelle industrielle », assure Florence Lambert, directrice du CEA-Liten. D’autant que les scientifiques travaillent déjà sur la technologie suivante, l’électrolyse à haute température. Dans son projet Zero Emission Valley, qui porte sur 20 stations et un millier de véhicules, la région Auvergne-Rhône-Alpes prévoit ainsi de produire l’hydrogène grâce à 15 électrolyseurs répartis sur le territoire.

L’autre atout majeur de la voiture à hydrogène, c’est l’absence de particules. « Cela permet de résoudre immédiatement un gros problème de santé publique dans une ville comme Paris », insiste Mathieu Gardies, cofondateur de Hype. La jeune entreprise, soutenue par Air Liquide et qui a passé un partenariat avec Toyota, possède une flotte de 120 taxis à hydrogène Mirai et devrait en faire rouler 600 dès l’année prochaine . « L’hydrogène, c’est le pétrole de demain sans l’inconvénient de la géopolitique. La France a un véritable savoir-faire industriel avec beaucoup de brevets au CEA mais aussi au CNRS. Il faut y aller car le monde ne va pas attendre », analyse Florence Lambert.

L’hydrogène vert pourrait aussi devenir plus abondant et moins cher de 30 % d’ici à 2030 grâce aux énergies renouvelables, estime l’AIE. « Les prix de l’électricité solaire ou éolienne ont tellement baissé que des pays pourraient en consacrer une partie à produire de l’hydrogène », prédit Paul Lucchese, pionnier du secteur au sein du CEA et président de l’Hydrogen Implementing Agreement (HIA) au sein de l’Agence internationale de l’énergie (AIE) : « Le Japon passe déjà des accords avec la Nouvelle-Zélande, le Chili ou Brunei. »

L’intérêt des pays émergents

Quant à la pile à combustible, elle devrait aussi voir ses coûts baisser, estime Pierre Forté, fondateur de la société Pragma Industries, spécialiste du vélo à hydrogène (voir ci-dessous) : « Le coût d’une batterie est lié pour 70 % au prix de ses matériaux quand celui d’une pile à combustible dépend pour 90 % de son processus de fabrication. Sous réserve qu’une rupture intervienne dans le monde des batteries, je suis donc persuadé que les piles à combustible seront à terme beaucoup moins chères. »

L’avenir de l’hydrogène dans la mobilité dépendra pourtant d’abord des infrastructures. « Je ne crois pas à un développement massif dans le véhicule léger à un horizon visible, en raison des coûts de déploiement pour assurer un réseau dense de stations de recharge. Il faudrait pour cela des volontés politiques coordonnées à un niveau international », estime Patrice Geoffron, professeur au Laboratoire d’économie de Dauphine et spécialiste de l’énergie. On pourrait voir une répartition des rôles : au véhicule à batterie la mobilité urbaine et à celui à hydrogène les trajets longue distance.

A moins que les réseaux électriques finissent par jouer les arbitres. « Dans bien des pays émergents on pousse l’hydrogène en avant car les réseaux électriques ne sont pas suffisamment stables pour assurer la recharge des batteries », observe Fabio Ferrari, président de Symbio, un fabricant de piles à combustible créé à partir de recherches menées aux CEA, filiale de Michelin et dont Faurecia devrait devenir coactionnaire d’ici la fin de l’année. Un problème qui pourrait à long terme s’étendre aux pays européens, estime Paul Lucchese : « C’est un aspect qu’on oublie, mais qu’adviendra-t-il lorsque des millions de véhicules électriques auront besoin d’une recharge rapide ? »

Il fut l’une des vedettes du G7 de Biarritz au mois d’août dernier. Développé et fabriqué parPragma Industries, une jeune entreprise locale, Alpha est le premier vélo fonctionnant grâce à l’hydrogène. Le système est logé dans le cadre. La bonbonne de gaz alimente la pile à combustible qui fournit l’électricité au petit moteur placé au niveau du moyeu, comme sur n’importe quel vélo électrique. Pragma,mis en avant par la région Nouvelle-Aquitaine, a profité de l’événement pour mettre 200 vélos à disposition des participants. Un succès puisqu’ils ont parcouru près de 4.500 kilomètres en quatre jours. Avec une autonomie de 150 kilomètres et bientôt 200 kilomètres pour un prix de 7.000 euros, qui va descendre à 4.000 euros l’an prochain, ils ne sont pas destinés aux particuliers. « Nous ne vendons pas seulement un vélo mais un écosystème complet de mobilité durable », résume Pierre Forté, le fondateur de l’entreprise. Pragma Industries a ainsi déjà vendu une centaine de vélos et des bornes de rechargement à plusieurs municipalités comme Bayonne, Saint-Lô, Cherbourg ou Chambéry. Quant aux 200 vélos présentés à Biarritz, ils ont été acquis par le groupe Engie Cofely. « Grâce au coup de projecteur du G7, nous avons beaucoup de contacts provenant du Kazakhstan, d’Inde, de Chine ou du Mexique, dans lesquels le réseau est insuffisant pour recharger les vélos électriques classiques », assure Pierre Forté.

Énergie–Fusion nucléaire : quel avenir ?

Énergie–Fusion nucléaire : quel avenir ?

Par Greg De Temmerman, Mines ParisTech (*)

Un laboratoire américain vient d’annoncer de nouveaux résultats en fusion nucléaire « inertielle », avec une production d’énergie de 1,3 mégajoule. Que représente cette avancée pour la fusion, cette « éternelle » énergie du futur ?

Entre le mégaprojet ITER, dont la construction avance mais qui a connu des débuts difficiles, les projets lancés par différents pays, les initiatives privées qui se multiplient et qui annoncent des réacteurs de fusion d’ici 10 ou 15 ans, et les résultats obtenus par le Lawrence Livermore National Laboratory le 8 août 2021, il est difficile d’y voir clair. Voici un petit tour d’horizon pour mettre tout ceci en perspective.

Confinement magnétique ou inertiel : deux voies possibles pour la fusion nucléaire

Il existe deux façons d’utiliser l’énergie nucléaire : la fission qui est à l’œuvre dans les centrales nucléaires actuelles, et la fusion.

La réaction de fusion entre le deutérium et le tritium, deux isotopes de l’hydrogène, produit un neutron et un atome d’hélium. Alors que dans la fission, des atomes lourds d’uranium sont cassés en plus petits atomes pour libérer de l’énergie, la fusion nucléaire est le processus opposé : on transforme des atomes légers en des atomes plus lourds pour libérer de l’énergie. Gregory de Temmerman, Fourni par l’auteur

Un réacteur de fusion est un amplificateur de puissance : la réaction de fusion doit produire plus d’énergie qu’il n’en faut pour chauffer le plasma à la température requise et le confiner. Le record actuel a été obtenu en 1997 par le « Joint European Torus » ou JET au Royaume-Uni, où une puissance de 16 mégawatts a été générée par la fusion magnétique, mais il a fallu 23 mégawatts pour la déclencher.

Obtenir enfin un gain supérieur à 1 et démontrer la faisabilité de la production d’énergie par la fusion est un objectif majeur de différents projets en cours.

Il y a deux voies possibles pour réaliser la fusion nucléaire : le confinement magnétique qui utilise des aimants puissants pour confiner le plasma pendant des durées très longues, et le confinement inertiel qui utilise des lasers très puissants mais très brefs pour comprimer le combustible et le faire réagir. Historiquement, la fusion magnétique a été privilégiée, car la technologie nécessaire pour la fusion inertielle (lasers notamment) n’était pas disponible. Cette dernière nécessite également des gains bien plus élevés pour compenser l’énergie consommée par les lasers.

Les deux plus gros projets sont le National Ignition Facility du Lawrence Livermore National Laboratory (NIF) aux USA et le Laser MégaJoule en France, dont les applications sont principalement militaires (simulations d’explosion nucléaires) et financées par les programmes de défense. Le NIF poursuit également des recherches pour l’énergie.

Le NIF utilise 192 faisceaux laser, d’une énergie totale de 1,9 mégajoule et d’une durée de quelques nanosecondes, pour déclencher la réaction de fusion selon une approche dite « indirecte ». En effet, le combustible est placé à l’intérieur d’une capsule métallique de quelques millimètres, qui, chauffée par les lasers, qui émet des rayons X. Ceux-ci chauffent et compriment le combustible. L’alignement des lasers est plus aisé que si ceux-ci visaient directement la cible, mais seule une partie de leur énergie est convertie en rayons X et sert au chauffage.

Le NIF a récemment fait l’objet d’une forte attention médiatique après un record de production d’énergie obtenu le 8 août 2021. Durant cette expérience, une énergie de 1,3 mégajoule a été produite, la valeur la plus élevée jamais enregistrée par cette approche.

Le gain global de 0,7 égale le record obtenu par JET en 1997 par confinement magnétique, mais si on s’intéresse au bilan énergétique du combustible lui-même (cible d’hydrogène), on comprend l’excitation dans le domaine. Celui-ci a en effet absorbé 0,25 mégajoule (la conversion laser-rayons X entraîne des pertes) et généré 1,3 mégajoule : la fusion a donc généré une bonne partie de la chaleur nécessaire à la réaction, s’approchant de l’ignition. Un réacteur devra atteindre des gains bien plus élevés (supérieurs à 100) pour être économiquement intéressant.

Le confinement magnétique est la voie privilégiée pour l’énergie, car il offre de meilleures perspectives de développement et bénéficie d’un retour d’expérience plus important.

La grande majorité des recherches se concentre sur le tokamak, une configuration inventée en URSS dans les années 1960 où le plasma est confiné sous la forme d’un tore par un champ magnétique puissant. C’est la configuration choisie par ITER, réacteur de démonstration en construction à Cadarache dans le sud de la France, dont l’objectif est de démontrer un gain de 10 – le plasma sera chauffé par 50 mégawatts de puissance et doit générer 500 mégawatts de puissance fusion. Si ce projet titanesque impliquant 35 nations a connu des débuts difficiles, la construction avance à rythme soutenu et le premier plasma est attendu officiellement pour fin 2025, avec une démonstration de la fusion prévue vers la fin des années 2030.

Le Royaume-Uni a récemment lancé le projet STEP (Spherical Tokamak for Electricity Production) qui vise à développer un réacteur connecté au réseau dans les années 2040. La Chine poursuit avec CFETR un ambitieux programme visant à démontrer la production électrique et de tritium dans les années 2040. Enfin, l’Europe prévoit après ITER un démonstrateur tokamak (DEMO) pour les années 2050, ce qui implique un déploiement seulement dans la deuxième partie du siècle.

Une autre configuration – le stellarator – est explorée notamment en Allemagne avec Wendelstein-7X qui démontre de très bons résultats. Si le confinement dans un stellarator est en deçà de ce qu’un tokamak peut atteindre, sa stabilité intrinsèque et les résultats récents en font une alternative sérieuse.

 

Les initiatives privées

En parallèle de ces projets publics, on entend de plus en plus parler d’initiatives privées, parfois soutenues par des grands noms comme Jeff Bezos ou Bill Gates. L’entreprise la plus ancienne (TAE) a été fondée en 1998 mais une accélération s’est produite après 2010 et on compte en 2021 environ une trentaine d’initiatives ayant attiré environ 2 milliards de dollars de capitaux au total. La majorité de ces initiatives promettent un réacteur dans les 10 ou 20 prochaines années et se posent comme une alternative à la lenteur de la filière classique.

Illustration du déploiement de la fusion nucléaire selon deux scénarios, plus ou moins rapides. Fourni par l’auteur

Elles utilisent les développements technologiques récents (aimants supraconducteurs à haute température par ex), ou diverses configurations dont certaines n’avaient jamais été vraiment explorées : General Fusion utilise par exemple des pistons pour compresser le combustible. Si les résultats ne sont pas toujours publiés dans la littérature scientifique, on voit régulièrement des annonces démontrant des progrès réels. Si l’une de ces entreprises venait à démontrer la production d’énergie dans les délais promis, cela pourrait fortement accélérer les possibilités d’utiliser la fusion nucléaire.

Il faut cependant garder en tête que le développement d’un premier réacteur est certes extrêmement important, mais que le déploiement d’une flotte de réacteur prendra du temps. Si on regarde les taux de déploiement du photovoltaïque, de l’éolien, et du nucléaire, on constate que dans leur phase de croissance exponentielle le taux de croissance de la puissance installée était entre 20 et 35 % par an. Si on suppose que la fusion parvient à suivre le même rythme, on voit que la fusion, en suivant la ligne ITER-DEMO, pourrait représenter 1 % de la demande énergétique mondiale (valeur 2019) vers 2090. Si on considère un réacteur dans les années 2030, ce seuil pourrait être atteint vers 2060 et la fusion pourrait jouer un rôle plus important dans la deuxième partie du siècle. La fusion reste donc une aventure au long cours.

_____

(*) Par Greg De Temmerman, Chercheur associé à Mines ParisTech-PSL. Directeur général de Zenon Research, Mines ParisTech.

La version originale de cet article a été publiée sur The Conversation.

Énergie–L’hydrogène blanc : quel avenir ?

Énergie–L’hydrogène blanc :  quel avenir ?

il y a en quelque sorte trois couleurs d’hydrogène. Hydrogène grise  provenant des hydrocarbures, l(hydrogène vert produit surtout par l’électrolyse de l’eau avec des énergies non polluantes mais aussi l’hydrogène blanc ou hydrogène naturel. Un article d’H2Mobile fait le point sur la question .

 

Appelé aussi « hydrogène natif » ou « hydrogène naturel », l’hydrogène blanc est en quelque sorte un don de la terre. Trois phénomènes géologiques différents en sont à l’origine. Tout d’abord l’altération hydrothermal de minéraux ferreux via une réaction d’oxydoréduction. Ensuite par radiolyse d’une eau riche en éléments comme l’uranium ou le plutonium. Sous l’effet d’un rayonnement ionisant, les molécules d’eau peuvent se rompre et libérer de l’hydrogène. Dernier des 3 phénomènes, le dégazage mantellique.

« Il y a de l’hydrogène naturel dans l’eau à plusieurs milliers de mètres de profondeur. Mais il y a aussi des sources à plus ou moins 100 mètres, comme celle qui a été découverte au Mali en 1987, lors d’une opération de forage pour trouver de l’eau », a lancé Nicolas Pelissier.

Pour le dirigeant de 45-8 Energy, « il ne faut négliger aucune solution pour obtenir de l’hydrogène décarboné ». Aujourd’hui, 95% de l’hydrogène utilisé est obtenu par vaporeformage. Les process sont industrialisés, le rendement est élevé et cette production apparaît très compétitive. Le reste, c’est-à-dire 5%, provient d’opérations d’électrolyse en privilégiant les énergies renouvelables. Cette pratique permet de s’affranchir des fortes émissions de CO2 de la solution par vaporeformage. Mais le coût est multiplié par 3 et le rendement est faible.

« La production d’hydrogène par électrolyse consomme actuellement environ les 2/3 de l’énergie produite. Produire ainsi l’équivalent de l’hydrogène actuellement consommé en France nécessiterait près de 100 TWh d’électricité. Même avec des avancées technologiques importantes, l’électrolyse seule ne suffira pas », a souligné Nicolas Pelissier.

Parce qu’il est produit naturellement par la planète, l’hydrogène natif ne cause aucune émission de CO2.  L’exploiter est compétitif par rapport au vaporeformage, notamment en co-valorisation.

« L’hydrogène disponible à partir de puits n’est pas pur. Il est mélangé avec d’autres gaz qui sont toujours un peu les mêmes. En particulier l’azote qu’on trouve déjà dans l’atmosphère. Mais aussi l’hélium. Dans ce second cas, les coûts d’exploitation de l’hydrogène natif peuvent être couverts par la production d’hélium dont les usages sont en plein essor  », a expliqué Nicolas Pelissier. « Des membranes sont développées spécifiquement pour séparer les 2 gaz », a-t-il précisé par la suite. Pour ce spécialiste en gaz industriels valorisés en circuit court, l’hydrogène natif doit être consommé localement, les unités de stockage ne prenant alors que la taille de hangars agricoles. Idem pour l’hélium qu’il est difficile de stocker et transporter.

Si l’hydrogène naturel suscite de plus en plus l’intérêt d’industriels (dont Engie, partenaire de 45-8 Energy) et de politiques, c’est en particulier parce que l’on découvre tous les jours de nouvelles sources dans le monde. En juillet 2020, l’ancien sénateur du Rhône, René Trégouët soutenait que « les estimations du flux naturel d’hydrogène sont importantes et pourraient répondre à l’ensemble des besoins en hydrogène du monde ». La filière naissante pour ce produit naturel n’est pourtant pas incluse à ce jour dans la stratégie nationale H2 vers 2030 dotée d’une enveloppe de 7,2 milliards d’euros.

Au niveau mondial, le village malien de Bourakébougou fait un peu figure d’exception. Depuis 30 ans, il crache un gaz qui contient une concentration d’hydrogène proche de 98 %. Le projet pilote qui l’entoure permet d’alimenter tout le village en électricité. Le puits fournit 1.300 m3 de gaz H2 blancs par jour. Sur 800 km², 25 autres installations ont été implantées, présentant les mêmes concentrations. « Pas besoin de matériel dimensionné pour les forages pétroliers. Les puits d’extraction de l’hydrogène naturel sont assimilables à ceux pour l’eau. Leur vanne peut être dissimulée dans un simple buisson », a comparé Nicolas Pelissier.

En France, l’hydrogène naturel est présent sous 3 formes différentes.Tout d’abord dans des puits, sans atteindre les concentrations exceptionnelles du village malien de Bourakébougou. Ainsi à Bugey (concentration de 0,47 à 5,24%), dans le fossé Rhénan (6%), le Jura externe (2,5%) et dans le bassin de Paris (3%). Des fuites ont été constatées dans une faille géologique du Cotentin, dans les Pyrénées, ainsi que dans les fossés Rhénan et Bressan.

L’hydrogène blanc est aussi présent dans de l’eau (mofettes) à Buis-les-Baronnies et à Molières-Glandaz, 2 territoires de la Drôme. Dans les fossé Rhénan et Bressan, l’hydrogène est présent à seulement 1 mètre de profondeur. La présence du gaz peut parfois être détectée par des vues du ciel et autres techniques d’imagerie du sous-sol. Ainsi, au cœur des vignobles de Côte-d’Or, lorsque les ceps poussent difficilement dans des zones plus ou moins grandes en formes de cercles.

L’exploration est une activité essentielle pour 45-8 Energy. Elle permet d’identifier et analyser différents sites de production d’hydrogène naturel. En France, il faut compter entre 18 et 24 mois pour obtenir un permis d’explorer. Contre 15 jours aux Etats-Unis, par exemple. Dans une démarche globale, la société mosellane développe un portfolio des lieux à explorer à l’échelle européenne. Avec l’objectif de mettre en place une première production pilote sur le territoire à horizon 2025. Chaque cas est analysé à travers plusieurs étapes visant à réduire la liste aux sites les plus prometteurs. Comme celui des Fonts-Bouillants, dans la Nièvre. Là, l’hydrogène natif est combiné avec de l’hélium.

« Les fuites existent sur place depuis l’époque gallo-romaine et n’ont pas baissé en intensité depuis. On espère pouvoir exploiter ce site sur plusieurs dizaines d’années », a indiqué Nicolas Pelissier. Des capteurs ont bien confirmé la présence des 2 gaz.

Consciente que l’exploration géologique peut faire peur aux populations qui pourraient à tort l’assimiler à la fracturation hydraulique, l’équipe de 45-8 Energy a pris l’habitude de rencontrer en amont les riverains, les associations environnementales et les collectivités publiques. Et ce, même si une phase de consultation est déjà légalement prévue avant l’attribution du permis d’explorer.

« Il existe en France 51.000 puits à eau. Pour récupérer l’hydrogène et l’hélium dans la Nièvre, il n’est pas besoin de travaux très différents. D’ailleurs nous faisons appel aux mêmes professionnels pour effectuer des puits compacts avec des foreuses géotechniques sur chenillettes », a détaillé Nicolas Pelissier. 45-8 Energy privilégie ainsi la co-valorisation. « Nous espérons nous installer sur des friches industrielles. La production finale serait stockée sur place, dans un hangar agricole. Le coût énergétique, de purification et de compression dépend du mix en présence et de la pression d’origine du gaz. C’est au cas par cas », a-t-il révélé.

Quels volumes d’hydrogène natif dans les sous-sols français, européens et mondiaux ? Il est déjà impossible d’obtenir des chiffres fiables et précis concernant le pétrole enfoui, alors que des prospections existent depuis des dizaines d’années pour lui. Les estimations sont donc plus compliquées encore pour l’H2 naturel qui commence à peine à disposer d’une filière dédiée. Le 26 mars a été officiellement lancée l’initiative EartH2 pour l’hydrogène du sous-sol. Elle permettra de fédérer les acteur académiques et industriels « de manière à faciliter l’émergence de projets collaboratifs et ambitieux ». Mais aussi de promouvoir l’apport du sous-sol en matière d’hydrogène auprès des décideurs régionaux, nationaux et européens.

123456



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol