Archive pour le Tag 'comment'

Russsie-Europe : comment éviter la guerre

Russsie-Europe : comment éviter la guerre 

 

« Les visées expansionnistes de Vladimir Poutine ne s’arrêteront pas à l’Ukraine. Aussi est-il temps que les pays européens prennent la mesure du danger et changent rapidement de stratégie », estime le diplomate ukrainien Valeriy Chaly, dans une tribune au « Monde ».

 

Dans l’histoire de l’humanité, la majeure partie des guerres ont eu lieu en Europe. Il semblait que le début du XXIe siècle serait une exception, et que les principaux événements géopolitiques et conflits armés se tiendraient ailleurs. Avant 2014, lorsque la Russie a attaqué l’Ukraine, commençant par l’annexion illégale de la Crimée, il y avait presque un consensus parmi les experts selon lequel les guerres modernes pourraient éclater soit dans la région Indo-Pacifique, soit au Moyen-Orient ravagé par les conflits, ou en Afrique, où les affrontements peuvent désormais être alimentés par le désir des grandes puissances d’exercer leur influence dans la course aux ressources naturelles rares.Mais les visions maladives de Poutine, son acharnement à faire reculer l’histoire et la réponse inadéquate du monde occidental à l’expansion russe ont conduit à une guerre à grande échelle au centre géographique de l’Europe – en Ukraine, qui défend non seulement son territoire, mais aussi le flanc est de l’OTAN et de l’UE.

Les efforts héroïques du peuple ukrainien depuis deux ans ont donné à ses partenaires le temps de se préparer. L’Ukraine, on l’aura compris, ne reculera pas. Mais cela ne garantit pas la paix dans d’autres parties de l’Europe.

Assez d’illusions ! Le dirigeant russe, qui considère l’Europe comme faible et qui a lancé un ultimatum aux pays de l’OTAN en décembre 2021, tentera d’attaquer ces pays pour accroître les enjeux et obtenir un partage des influences sur le continent européen. A l’occupation de certaines parties du territoire de la Géorgie, de la Moldavie et de l’Ukraine s’ajoutent désormais les revendications territoriales russes exprimées publiquement à l’égard des membres de l’UE et de l’OTAN. Ce n’est plus un secret que les plans opérationnels de l’état-major général russe, contenant une attaque terrestre à travers l’Estonie ou le contrôle du corridor de Suwalki entre la Pologne et la Lituanie en direction de l’enclave russe de Kaliningrad, pourraient connaître un nouvel élan.
Les menaces terroristes, de migration incontrôlée, de radicalisme ou même de changements climatiques sont perceptibles et semblent nécessiter une attention et une réaction prioritaires. Avant qu’un missile de plusieurs tonnes lancé à partir d’un bombardier stratégique russe ou un drone de frappe capable d’atteindre pratiquement n’importe quel point de l’Europe atterrisse dans votre cour. Comme en témoignent non seulement les Ukrainiens, mais aussi les citoyens des pays de l’OTAN, notamment la Pologne et la Roumanie.

 

Europe : comment éviter la guerre

Europe : comment éviter la guerre 

 

« Les visées expansionnistes de Vladimir Poutine ne s’arrêteront pas à l’Ukraine. Aussi est-il temps que les pays européens prennent la mesure du danger et changent rapidement de stratégie », estime le diplomate ukrainien Valeriy Chaly, dans une tribune au « Monde ».

 

Dans l’histoire de l’humanité, la majeure partie des guerres ont eu lieu en Europe. Il semblait que le début du XXIe siècle serait une exception, et que les principaux événements géopolitiques et conflits armés se tiendraient ailleurs. Avant 2014, lorsque la Russie a attaqué l’Ukraine, commençant par l’annexion illégale de la Crimée, il y avait presque un consensus parmi les experts selon lequel les guerres modernes pourraient éclater soit dans la région Indo-Pacifique, soit au Moyen-Orient ravagé par les conflits, ou en Afrique, où les affrontements peuvent désormais être alimentés par le désir des grandes puissances d’exercer leur influence dans la course aux ressources naturelles rares.

Mais les visions maladives de Poutine, son acharnement à faire reculer l’histoire et la réponse inadéquate du monde occidental à l’expansion russe ont conduit à une guerre à grande échelle au centre géographique de l’Europe – en Ukraine, qui défend non seulement son territoire, mais aussi le flanc est de l’OTAN et de l’UE.

Les efforts héroïques du peuple ukrainien depuis deux ans ont donné à ses partenaires le temps de se préparer. L’Ukraine, on l’aura compris, ne reculera pas. Mais cela ne garantit pas la paix dans d’autres parties de l’Europe.

Assez d’illusions ! Le dirigeant russe, qui considère l’Europe comme faible et qui a lancé un ultimatum aux pays de l’OTAN en décembre 2021, tentera d’attaquer ces pays pour accroître les enjeux et obtenir un partage des influences sur le continent européen. A l’occupation de certaines parties du territoire de la Géorgie, de la Moldavie et de l’Ukraine s’ajoutent désormais les revendications territoriales russes exprimées publiquement à l’égard des membres de l’UE et de l’OTAN. Ce n’est plus un secret que les plans opérationnels de l’état-major général russe, contenant une attaque terrestre à travers l’Estonie ou le contrôle du corridor de Suwalki entre la Pologne et la Lituanie en direction de l’enclave russe de Kaliningrad, pourraient connaître un nouvel élan.
Les menaces terroristes, de migration incontrôlée, de radicalisme ou même de changements climatiques sont perceptibles et semblent nécessiter une attention et une réaction prioritaires. Avant qu’un missile de plusieurs tonnes lancé à partir d’un bombardier stratégique russe ou un drone de frappe capable d’atteindre pratiquement n’importe quel point de l’Europe atterrisse dans votre cour. Comme en témoignent non seulement les Ukrainiens, mais aussi les citoyens des pays de l’OTAN, notamment la Pologne et la Roumanie.

 

Grèves: « réglementer services de transport publics ? »

Grèves: « réglementer services de transport publics ? »

 L’exécutif doit prendre les mesures nécessaires pour concilier le droit de grève dans les services publics avec les autres droits qui lui sont sacrifiés, argumente Jean-Éric Schoettl, ancien secrétaire général du Conseil constitutionnel.(dans le JDD)

Une grève des contrôleurs a commencé ce vendredi 16 février à la SNCF. Elle durera jusqu’au dimanche. En pleins congés scolaires, un train sur deux circulera en France ce week-end. C’est devenu une habitude : les revendications des cheminots, qu’elles soient sectorielles ou liées à des mouvements de protestation interprofessionnels (contre la réforme des retraites par exemple) s’expriment désormais par une grève des trains en période de vacances scolaires.

En dépit de l’impopularité croissante que suscitent ces grèves, les syndicats du rail campent dans le rapport de force. Ils escomptent la victoire d’une pénalisation de la société. Les conséquences préjudiciables des débrayages sur les familles sont non seulement assumées, mais encore recherchées. Pas question par exemple de trêve de Noël. Ce n’est qu’ainsi, à leurs yeux, que le mouvement sera spectaculaire, puissant et efficace. Face à ces perturbations, on se tourne vers l’État. Mais nos dirigeants communiquent au lieu d’agir, multipliant des protestations de compassion, les exhortations au dialogue et les appels à la responsabilité.

L’État pourra-t-il rester encore longtemps passif face à cette déchirure du contrat social ?

Le plus pathétique est que cette impuissance n’est pas feinte. Du moins à court terme. Les textes en vigueur ne permettent pas en effet aux pouvoirs publics de requérir les cheminots au cas où une grève troublerait, même gravement, la vie nationale. L’intitulé de la loi du 21 août 2007 sur « le dialogue social et la continuité du service public dans les transports terrestres réguliers de voyageurs » ne doit pas faire illusion : si elle fait obligation aux organisateurs d’une grève des transports publics de l’annoncer à l’avance, permettant ainsi aux usagers d’y parer comme ils le peuvent (covoiturage, télétravail, etc.), cette loi n’instaure pas d’obligation de service minimum assortie des pouvoirs de réquisition et de sanction y afférents.

La suite après cette publicité

L’État pourra-t-il rester encore longtemps passif face à cette déchirure du contrat social ? Doit-il se résigner à ce que la gréviculture soit, comme les fromages, une spécialité française ? Peut-il, face à des perturbations unilatéralement orchestrées par une minorité, se contenter d’observer un admirable stoïcisme, qu’il convie les usagers à partager ? Ne doit-il pas plutôt prendre les mesures d’ordre public – administratives, législatives ou, au besoin, constitutionnelles – propres à concilier le droit de grève dans les services publics avec tous les autres droits qui lui sont aujourd’hui sacrifiés : droit d’aller et venir, droit de travailler, droit à la santé et à la sécurité, droit au repos et aux congés, droit à l’éducation et à la formation, liberté du commerce et de l’industrie ?

Le droit de grève n’est pas au-dessus des autres droits

Le droit de grève n’est pas au-dessus des autres droits, ni au-dessus des besoins essentiels du pays. Comment nier que les transports publics concourent à la satisfaction des besoins essentiels du pays ? Et que leur interruption prolongée porte atteinte à ces besoins ? Le pouvoir politique s’est jusqu’ici dérobé à ses responsabilités par peur des réactions immédiates que susciterait toute velléité de réforme et par peur anticipée d’être incapable, si la réforme passe, de la mettre en œuvre, notamment en réquisitionnant les personnels réfractaires. Il faudrait en effet instituer des obligations de service minimum dans les transports publics, comme il en existe chez la plupart de nos voisins, ce qui veut dire en contrôler et en sanctionner effectivement la méconnaissance. Il faudrait ajouter un volet coercitif à la loi de 2007.

 On crierait bien sûr à un attentat contre un droit constitutionnel. Mais le septième alinéa du Préambule de la Constitution de 1946 ne dispose-t-il pas que « le droit de grève s’exerce dans le cadre des lois qui le réglementent », ce qui habilite le législateur à l’encadrer pour satisfaire aux besoins essentiels du pays ou pour sauvegarder le principe de continuité des services publics qui, lui aussi a valeur constitutionnelle ? La question de fond est de savoir si le droit de grève a sa place dans les services publics. Sa prohibition est la règle qui prévaut chez certains de nos voisins européens (Allemagne, Autriche) et, en France même, pour certaines fonctions de souveraineté (magistrature, police, armée). L’Italie prohibe la grève dans les transports publics lors des vacances et des fêtes de fin d’année.

Sans aller jusqu’à l’interdiction de la grève dans les services publics, pourquoi ne pas ajouter à l’article 34 de la Constitution (qui liste les matières relevant de la loi) que la loi fixe les règles concernant « les restrictions qui peuvent être apportées au droit de grève pour garantir la continuité des services publics » ?

Macron déterminé à agir : sur quoi ? comment ?

Macron déterminé à agir : sur quoi ? comment ?

Le chef de l’État se fiant comme d’habitude à sa seule intuition a décidé que le moment était d’agir et même de « réarmer ». Sur quoi ? Comment ? Avec qui ? Personne ne le sait et sans doute même l’intéressé qui agit davantage par impulsion sur influence des sondages que sur vision à long terme.

On retiendra surtout de son discours de la Saint-Sylvestre qu’il fera des promesses en janvier. Pourquoi en janvier il aurait pu le faire immédiatement pour des vœux en signalant les grandes orientations qu’il entendait prendre. La vérité est sans doute plus cruelle. Par exemple il faut changer le gouvernement c’est une évidence mais il faut pour cela trouver un premier ministre compatible avec les humeurs du monarque. L’objectif normalement et d’accroître la majorité mais il faudra se contenter d’un second couteau qui ne fasse pas d’ombrage au président.

Concernant les terrains d’action il faudra sans doute aussi se contenter de gadgets comme par exemple l’inscription de l’IVG que personne ne conteste dans la constitution quelques autres sujets finalement assez anecdotiques par rapport aux enjeux du moment.

Partager

Logement : comment sortir de la crise

Logement : comment sortir de la crise

Un collectif de 26 acteurs du secteur immobilier appelle, dans une tribune au « Monde », à favoriser la mobilité des parcours résidentiels, bloquée aujourd’hui par les règles fiscales, urbanistiques et techniques.

Il est toujours bon de le rappeler : le secteur du bâtiment est responsable de près de la moitié de la consommation d’énergie et d’un quart des émissions de gaz à effet de serre en France. Si le « verdissement » de l’activité est en cours avec, il y a comme dans tous les secteurs, des engagements sincères, des projets remarquables porteurs de réels impacts, mais aussi encore beaucoup trop de discours marketing dévoilant en creux la résistance de l’ancien monde de l’immobilier.

Cette transformation nous semble trop lente et surtout fait l’impasse sur une question majeure : l’évolution des modes de vie et les aspirations contrariées de celles et ceux qui vivent dans ces logements dans un contexte de crise sociale montante. Y répondre pourrait aider à s’engager sur la voie d’une sobriété immobilière devenue nécessaire.

Une enquête IPSOS pour RTE révèle que 30 % des ménages, soit neuf millions de ménages représentant près de 20 millions de personnes, envisagent de déménager pour aller vers un logement plus petit et faire ainsi des économies (c’est l’argument principal cité par 50 % des répondants) ou simplifier l’entretien d’un logement devenu trop grand (Modes de production, sobriété et efficacité énergétique : état des lieux sur les comportements et attitudes des Français, juin 2023).

C’est le moment de réinventer le modèle !
La mobilité résidentielle permettant de changer de logement en fonction des évolutions de la vie de chacun est une attente majeure. Cette attente est aujourd’hui bloquée. Trop de ménages se retrouvent assignés à résidence, piégés par un système qui, dopé depuis plusieurs décennies aux taux d’intérêt bas et aux aides gouvernementales multiples, a engendré une flambée des prix de l’immobilier.

Si un grand nombre a vu sa richesse immobilière s’accroître, l’accès à la propriété des Français les moins aisés a aussi fortement baissé et le marché locatif est à son tour touché. La mobilité résidentielle est aujourd’hui grippée par la chute du marché de la construction neuve, affaiblie par la montée des taux d’intérêt et l’explosion du coût des matériaux.

Lire aussi : Article réservé à nos abonnés Quand l’immobilier n’est plus une valeur refuge

Ajouter à vos sélections
Le spectre des années noires de 1990 et 2008 ressurgit tandis que certains prédisent une cure de sobriété immobilière forcée pour les plus jeunes et les moins argentés dans la décennie à venir. C’est le moment de réinventer le modèle ! Nous devons d’abord prendre conscience que le parc de logements existant est aujourd’hui en

Un collectif de 26 acteurs du secteur immobilier appelle, dans une tribune au « Monde », à favoriser la mobilité des parcours résidentiels, bloquée aujourd’hui par les règles fiscales, urbanistiques et techniques

Il est toujours bon de le rappeler : le secteur du bâtiment est responsable de près de la moitié de la consommation d’énergie et d’un quart des émissions de gaz à effet de serre en France. Si le « verdissement » de l’activité est en cours avec, il y a comme dans tous les secteurs, des engagements sincères, des projets remarquables porteurs de réels impacts, mais aussi encore beaucoup trop de discours marketing dévoilant en creux la résistance de l’ancien monde de l’immobilier.

Cette transformation nous semble trop lente et surtout fait l’impasse sur une question majeure : l’évolution des modes de vie et les aspirations contrariées de celles et ceux qui vivent dans ces logements dans un contexte de crise sociale montante. Y répondre pourrait aider à s’engager sur la voie d’une sobriété immobilière devenue nécessaire.

Une enquête IPSOS pour RTE révèle que 30 % des ménages, soit neuf millions de ménages représentant près de 20 millions de personnes, envisagent de déménager pour aller vers un logement plus petit et faire ainsi des économies (c’est l’argument principal cité par 50 % des répondants) ou simplifier l’entretien d’un logement devenu trop grand (Modes de production, sobriété et efficacité énergétique : état des lieux sur les comportements et attitudes des Français, juin 2023).

La mobilité résidentielle permettant de changer de logement en fonction des évolutions de la vie de chacun est une attente majeure. Cette attente est aujourd’hui bloquée. Trop de ménages se retrouvent assignés à résidence, piégés par un système qui, dopé depuis plusieurs décennies aux taux d’intérêt bas et aux aides gouvernementales multiples, a engendré une flambée des prix de l’immobilier.

Si un grand nombre a vu sa richesse immobilière s’accroître, l’accès à la propriété des Français les moins aisés a aussi fortement baissé et le marché locatif est à son tour touché. La mobilité résidentielle est aujourd’hui grippée par la chute du marché de la construction neuve, affaiblie par la montée des taux d’intérêt et l’explosion du coût des matériaux.

Le spectre des années noires de 1990 et 2008 ressurgit tandis que certains prédisent une cure de sobriété immobilière forcée pour les plus jeunes et les moins argentés dans la décennie à venir. C’est le moment de réinventer le modèle !

Comment évaluer l’impact écologique des aliments ?

Comment évaluer l’impact écologique des aliments ?


Dès le 1er janvier 2024, un score environnemental devrait apparaître sur les produits alimentaires (et textiles), sorte de « Nutriscore » de l’écologie. Or, depuis plusieurs mois, la bataille des méthodologies fait rage. Plusieurs parties prenantes reprochent ainsi à l’Ecoscore, qui devrait inspirer le futur outil gouvernemental, de se borner à procéder à l’analyse du cycle de vie du produit. Ils mettent en avant que l’analyse de cycle de vie rend mal compte de l’impact des produits sur la biodiversité. Les défenseurs du Planet score reprochaient notamment au score environnemental retenu par les autorités, inspiré de l’Ecoscore, de donner de moins bonnes notes aux produits issus de l’agriculture biologique.

par Valentin Bellasen
Directeur de recherche, Inrae
dans The conversation.

Mais les produits issus de l’agriculture biologique impactent-ils moins l’environnement ? J’ai précisément été auditionné sur ce point par le conseil scientifique de l’expérimentation ADEME en 2020, et les conclusions de ma communication sont reprises dans son rapport final. Il s’avère que si l’agriculture biologique mérite d’être subventionnée par les agences de l’eau pour la protection des points de captage, elle ne mérite pas forcément la meilleure note dans le cadre de l’affichage environnemental. Voyons pourquoi.

Le principe de l’évaluation multicritères fait consensus dans le monde scientifique, en particulier dans la démarche de l’analyse de cycle de vie. Il permet de ne pas favoriser un produit qui apporte un bénéfice infime sur un aspect au prix d’une dégradation forte sur un autre aspect. Mais cela ne signifie pas pour autant que tous les critères se valent et qu’un score environnemental puisse se résumer à une moyenne non pondérée des impacts sur différentes composantes.

Le Product Environmental Footprint, la méthode qui fait foi à l’échelle européenne, accorde ainsi le poids le plus fort au changement climatique. C’est à mon avis justifié, pour plusieurs raisons.

D’abord parce que l’enjeu climatique est le plus urgent des enjeux environnementaux. Le temps de retour à l’équilibre de la plupart des composantes de la qualité environnementale (qualité et quantité de l’eau, qualité de l’air, qualité des sols…) est de l’ordre de la décennie ou du siècle. Par comparaison, il est de l’ordre du million d’années pour le climat (irréversibilité).

De plus, le changement climatique est lui-même l’une des causes principales de dégradation de la biodiversité (autre enjeu partiellement irréversible), mais la réciproque est globalement fausse.

Enfin, les impacts d’un changement climatique non contenu seraient encore plus dramatiques que ceux des autres enjeux environnementaux. Pour ne citer qu’un exemple du dernier rapport du GIEC, la bande intertropicale, qui abrite 40 % de la population mondiale, deviendrait largement inhabitable à l’horizon 2080.

Dans le domaine de l’alimentation, l’impact sur le climat est par ailleurs corrélé à la plupart des impacts environnementaux. Notamment pour l’eutrophisation, via l’utilisation d’engrais et les déjections animales, pour les pollutions liées à la production d’énergie, notamment via les combustibles fossiles, ou encore pour les atteintes à la biodiversité via le stockage de carbone des prairies et des forêts. Ainsi, l’amélioration de l’empreinte carbone s’accompagne le plus souvent d’une amélioration de la plupart des autres impacts environnementaux. Concentrons-nous donc pour commencer sur l’empreinte carbone comparée des produits biologiques et conventionnels.

Parmi les différents critères environnementaux à prendre en compte pour la production alimentaire, le critère climatique est celui qui domine.

L’évaluation des impacts environnementaux de l’agriculture est très sensible à l’unité fonctionnelle retenue pour l’analyse. Dans le cas des produits alimentaires certifiés, deux unités fonctionnelles sont souvent discutées : la quantité de produit (par exemple, un litre de lait, une tonne de blé…) ou l’hectare de terre.

Les deux visions ont leurs points forts et leurs limites : d’un point de vue économique, normaliser par la quantité de produit revient à considérer que la demande est totalement inélastique. C’est une bonne approximation pour des produits de base comme le pain ou le riz, mais ça devient discutable pour les consommations « plaisir », notamment la viande. À l’opposé, utiliser l’hectare comme unité fonctionnelle revient à considérer une demande qui diminuera ou augmentera proportionnellement au rendement, ce qui est irréaliste dans la plupart des cas.

Une manière sans doute plus didactique de savoir quelle unité fonctionnelle est pertinente est de s’interroger sur l’objectif de l’utilisateur. Dans le cas de l’affichage environnemental, le consommateur cherche à réduire l’impact de ses achats. Comme il achète des quantités de produits et non des hectares, la quantité de produit est l’unité fonctionnelle la plus pertinente.

La métrique « par hectare » reste toutefois utile dans certains cas et surtout pour certains publics, par exemple pour une collectivité qui chercherait à protéger un captage d’eau potable. Dans ce cas, la collectivité cherche en effet à limiter la pollution par unité de surface qui entoure le captage, et la quantité d’aliments produite par ces surfaces n’est pour elle que très secondaire. Comme l’agriculture biologique pollue moins l’eau par unité de surface (on explique pourquoi un peu plus bas dans ce texte), la collectivité a donc tout intérêt à ce que les exploitations agricoles alentour se convertissent à l’agriculture biologique, et à subventionner une telle transition, comme le font les agences de l’eau.

La recherche sur l’empreinte carbone du bio est foisonnante depuis les années 2010. Plusieurs méta-analyses convergent pour dire qu’il n’y a pas de différence marquée entre bio et conventionnel sur l’empreinte carbone. Si l’absence d’engrais minéraux diminue fortement les émissions des fermes biologiques, cette baisse est compensée par leur moindre productivité, et notamment l’allongement de la durée de vie des animaux pour atteindre un poids donné.

Les productions végétales bio pourraient toutefois tirer leur épingle du jeu avec une empreinte carbone plus faible d’une dizaine de pour cent, mais ces résultats restent à confirmer.

La prise en compte du stockage de carbone en fonction des types d’agriculture reste un front de recherche, mais qui ne semble pas bouleverser ces résultats jusqu’à présent.

En termes de consommation d’eau, principalement pour l’irrigation, les produits certifiés sont plus sobres, d’environ 30 % par hectare et 15 % par tonne. Pour ce qui est de la pollution de l’eau aux nitrates, l’agriculture biologique emploie de 30 % à 60 % de moins d’azote par hectare. Mais ramenée à la tonne de produit, la différence n’est plus significative. En effet, malgré l’absence d’azote minéral, les fermes biologiques restent consommatrices d’azote organique et ont par ailleurs des rendements inférieurs.

Si l’on s’intéresse à l’impact des systèmes alimentaires sur la biodiversité, la situation est plus complexe encore. Grâce à l’interdiction des pesticides, les surfaces cultivées en agriculture biologique présentent des niveaux d’abondance et de richesse spécifique de 20 % à 50 % supérieure à leurs équivalents conventionnels.

Toutefois, leur impact global sur la biodiversité reste une question complexe.

D’abord du fait des moindres rendements, qui peuvent être à l’origine de déforestation sur place ou à l’étranger. En effet, les forêts feuillues sont le type d’habitat avec le plus de biodiversité, quelle que soit la zone géographique considérée.

Ensuite parce qu’à la différence des autres composantes environnementales, il n’y a pas d’indicateur synthétique et consensuel de la biodiversité, ce qui complique les choses. Une expertise scientifique collective Inrae/Ifrener est en cours pour démêler le sujet.

Et si, avec cette comparaison du score environnemental du conventionnel à celle du bio, on se trompait de débat ? La littérature scientifique montre en effet que l’amélioration des pratiques agricoles n’est finalement qu’un levier de second ordre, après la modification du régime alimentaire. À l’échelle mondiale, 61 % des émissions liées à l’alimentation sont dues aux produits animaux – et le chiffre pourrait atteindre 80 % en Europe.

La réduction du cheptel et de la consommation de protéines animales, qui permettrait de réduire les émissions alimentaires de l’ordre de 30 % à 60 %, est donc la condition nécessaire pour atteindre les objectifs d’atténuation climatique européens et français. Ce qui a des conséquences directes en termes d’affichage environnemental sur les produits alimentaires : l’affichage doit avant tout inciter les consommateurs à éviter les produits animaux les plus émetteurs, plutôt que de distinguer bio et conventionnel qui ont un impact par kilo très proche.

Mais il y a d’autres bonnes raisons de manger bio : un principe de précaution sanitaire vis-à-vis des pesticides, et une meilleure performance économique et sociale. En fin de compte, peut-être est-ce la principale contribution du bio à la préservation de l’environnement : aider les producteurs et les consommateurs à réduire la production et consommation de viande en compensant la baisse des quantités par une augmentation de la qualité des produits, qui satisfera les consommateurs, et une augmentation du prix, qui satisfera les producteurs. Plusieurs études montrent d’ailleurs que les consommateurs de produits biologiques vont dans ce sens, compensant le surcoût unitaire du bio par une sobriété sur le poste alimentaire le plus coûteux : la viande.

Comment vivre l’horreur de ce temps

Comment vivre l’horreur de ce temps ?

L’attentat de Bruxelles lundi 16 octobre, l’assassinat de Dominique Bernard à Arras vendredi 13 octobre, les conflits armés en Europe et au Moyen-Orient, la flambée d’actes antisémites, le harcèlement scolaire… Ces faits nous rappellent que la tragédie, l’oppression et la violence sont des réalités qui peuvent nous toucher à tout moment. Comment alors faire face à l’ambiguïté, aux incertitudes et aux injustices de la vie ? Cette question est au cœur de la philosophie existentielle, qui nous invite à penser la vie concrète et située, à l’affronter avec « crainte et tremblement » selon la célèbre formule de Søren Kierkegaard.

par
Mélissa Fox-Muraton
Enseignante-chercheur en Philosophie, ESC Clermont Business School

L’existentialisme paraît parfois mettre l’accent sur la négativité : l’angoisse, la mort, le néant, le désespoir, l’absurde et la misère humaine. Cependant, elle pose aussi et surtout la question de savoir comment mieux exister, dans un monde où la détresse, les conflits, l’exploitation de l’homme par l’homme, la précarité et la discrimination sont des faits réels.

Cette question clef, comment « mieux exister » est l’un des autres versants de l’existentialisme ; Kierkegaard disait d’ailleurs que sa tâche était d’aider ses lecteurs à « exister avec plus de compétence ». Mais comment faire, concrètement ? Est-ce possible de trouver l’équilibre dans un monde incertain ? C’est ce que nous étudierons avec Simone de Beauvoir et Søren Kierkegaard.

Avant de devenir la célèbre militante féministe et figure majeure du mouvement existentialiste que nous connaissons, la jeune étudiante en philosophie âgée de 18 ans qu’était alors Beauvoir développait déjà en 1926 des réflexions philosophiques originales dans ses Cahiers de jeunesse.

S’interrogeant sur elle-même et sa place dans le monde, elle pose dès le départ au centre de sa pensée la notion d’équilibre. Le monde qu’elle observe est rempli d’inégalités, de détresse physique et morale ; face à cela, elle se demande, comment vivre « le mieux possible » ?

En tant qu’individus singuliers, nous éprouvons souvent un sentiment d’impuissance face au monde avec ses multiples sources d’oppression et problèmes à résoudre. Faut-il alors se résigner à cette impuissance ? Faut-il privilégier la vie intérieure (la seule que nous puissions contrôler) et se retirer du monde, ou alors s’engager par ses actes pour créer des nouvelles valeurs et possibilités existentielles ? Un équilibre entre les deux est-il possible ?

La question centrale pour Beauvoir est de savoir comment agir et exister dans le monde d’une manière qui crée de la valeur et du sens, en dépit du fait que nous nous trouvons toujours dans un monde qui nous résiste, et projette sur nous des manières d’être et de nous construire que nous ne déterminons pas et qui nous aliènent de nous-mêmes.

Une vie accomplie, authentique, exige à la fois une présence à nous-mêmes et une présence à autrui. Plutôt qu’un état, cependant, la recherche d’équilibre demeure toujours une tâche, une quête, le travail d’une vie. Elle écrit :

« [L]’équilibre possible [c’est l’]équilibre d’une passion qui n’ignore jamais sa propre grandeur mais qui sait la porter. Équilibre d’une pensée qui gardant dans cette passion un point d’appui solide la dépasse pourtant. Équilibre de la vie qui précise, monotone peut-être, ne laisse point, parce que sa forme extérieure est fixée, dormir ni la passion ni la pensée. »

La recherche d’équilibre, c’est surtout, selon la jeune Beauvoir, la possibilité « d’être un être indépendant… quelles que soient les contingences » et de parvenir à la pleine conscience et pleine possession de soi. D’où une affirmation de l’irréductible singularité de chaque individu, mais une affirmation indissociable d’un engagement éthique dans le monde et « pour autrui ». On ne peut, Beauvoir conclut, être pour autrui sans être pour soi, mais de la même manière on ne peut être pour soi sans être pour autrui.

Pour le formuler en d’autres termes, nous pourrions dire que les possibilités pour chaque individu d’être authentiquement soi-même dépendent des structures de soutien et des liens qui nous relient et rendent notre existence possible.

Les réflexions de jeunesse de la philosophe font écho, avant qu’elle ne l’ait lu, aux passages des journaux rédigés par Kierkegaard en 1835, lorsque âgé de 22 ans il cherchait sa propre voie, expliquant que ce qui lui manquait était « d’être au clair sur ce que je dois faire… de trouver l’idée pour laquelle je veux vivre et mourir. »

S’interrogeant sur les « malentendus » et les « petitesses » qui nous empêchent de nous comprendre mutuellement dans la société et qui causent tant de souffrance et de discrimination dans le monde, nous empêchant de voir les véritables liens qui nous unissent, le jeune danois évoque tout comme Beauvoir la nécessaire recherche d’équilibre et de subjectivité.

Se découvrir dans l’intériorité – ou « devenir subjectif », ainsi que Kierkegaard le formulerait plus tard dans le fameux Post-scriptum définitif et non scientifique (1846) – exige d’apprendre à se regarder véritablement. Cependant, même chez le jeune Kierkegaard, il ne s’agit pas de se détourner ou de s’exempter du monde.

Découvrir « l’équilibre véritable (den sande Ligevægt) » implique un apprentissage de l’humilité, un difficile travail pour se découvrir avec sincérité. Il implique que nous puissions trouver assez de stabilité en nous-mêmes pour résister aux épreuves du monde, sans pour autant oublier que notre tâche est de vivre dans le monde parmi d’autres.

La notion d’équilibre joue également un rôle important dans le développement chez Kierkegaard du stade éthique, dans la seconde partie de L’alternative (1843). Il parle ici du nécessaire « équilibre… dans la formation de la personnalité », et de la difficulté pour l’individu de réconcilier l’interne avec l’externe, la quête d’unité avec la pluralité et variabilité de la vie, et le fait que nous sommes à la fois des individus singuliers et des êtres civiques et sociaux.

Une vie pleine et dotée de sens, Kierkegaard suggère ici, ne peut chercher ses raisons d’être entièrement dans l’intériorité ni entièrement dans l’extériorité (c’est-à-dire les actions, engagements ou rôles que nous jouons dans la société).

Sans avoir connaissance du travail de son prédécesseur danois, Beauvoir parvient dès ses réflexions de jeunesse au développement d’une approche existentielle de la philosophie qui en fait écho.

Ces deux philosophes plaçaient au centre de leur démarche philosophique le rôle du choix de soi-même, mais insistaient également sur un nécessaire équilibre entre l’intérieur et l’extérieur, entre la quête de soi et les engagements et les actions dans le monde.

Beauvoir écrit dans ses Cahiers en 1927 que « c’est par la décision libre seulement, et grâce au jeu de circonstances que le moi vrai se découvre ».

Kierkegaard, pour sa part, avait écrit :

« Lorsqu’on a pris possession de soi-même dans le choix, lorsqu’on a revêtu sa personne, lorsqu’on s’est pénétré soi-même entièrement, tout mouvement étant accompagné de la conscience d’une responsabilité personnelle, alors, et alors seulement on s’est choisi soi-même selon l’éthique… on est devenu concret, et l’on se trouve en son isolement total en absolue continuité avec la réalité à laquelle on appartient. »

Constats trop optimistes, trop individualistes ? Une telle conclusion serait trop hâtive. Si Beauvoir et Kierkegaard insistent tous deux sur l’équilibre, c’est parce qu’ils n’oublient jamais que le monde dans lequel nous vivons est déséquilibré et nous déséquilibre.

Que le monde dans lequel nous vivons est marqué par les inégalités et les injustices ; que certains naissent dans la précarité alors que d’autres dans le privilège, que quel que soit notre statut ou place dans la société, celle-ci nous enjoint à nous adapter à ses systèmes et fonctionnements qui peuvent nous aliéner de nous-mêmes. Que l’angoisse, l’absurdité, les menaces et le désespoir marquent nos vies ; que l’oppression et la mort sont des réalités quotidiennes.

Rechercher l’équilibre n’est pas un oubli de ces réalités concrètes, mais l’appel à trouver l’attitude appropriée par laquelle nous pourrions regarder ces réalités avec lucidité, et nous préparer pour agir activement dans le monde. Et l’équilibre n’est pas un état à atteindre ; c’est un mouvement constant de devenir, un effort actif d’appropriation.

En 1947, avec l’essor de l’existentialisme, Beauvoir dira dans Pour une morale de l’ambiguïté que si les concepts tels que liberté et responsabilité ont tellement d’importance, c’est précisément parce que nous vivons dans un monde où beaucoup d’individus ne sont pas libres, ne bénéficient pas des mêmes avantages et privilèges.

Revendiquer le respect des droits de l’homme, pour tous, demeure toujours une lutte. Elle affirme cependant qu’une telle quête n’exige aucune capacité spécifique de la part de l’individu, à part une « présence attentive au monde et à soi-même ». Présence attentive difficile, certes, mais non impossible à atteindre.

Société- comment protéger les enseignants ?

Société- comment protéger les enseignants ?

Trois ans après la mort de Samuel Paty, professeur d’histoire-géographie tué à la sortie de son collège à Conflans-Sainte-Honorine (Yvelines), l’assassinat ce vendredi 13 octobre 2023 de Dominique Bernard, professeur de français de la cité scolaire Gambetta-Carnot d’Arras ouvre à nouveau la question des protections à assurer dans les établissements scolaires, en particulier pour les professeurs qui peuvent subir des agressions venant de l’extérieur mais doivent aussi faire face à des mises en cause inadmissibles en interne, en particulier pour ce qui concerne les enseignements en EPS, SVT ou histoire.

Claude Lelièvre
Enseignant-chercheur en histoire de l’éducation, professeur honoraire à Paris-Descartes, Université Paris Cité dans The Conversation

Peut-on vraiment « sanctuariser » les établissements et les enseignements ? Un certain nombre d’annonces qui ont été faites dans le passé apparaissent difficilement applicables ou laissent dans l’ombre certains aspects du problème pourtant bien réels.

Pour sécuriser l’entrée des établissements scolaires, on songe immédiatement aux annonces concernant la mise en place de portiques, évoquée depuis une quinzaine d’années. En mai 2009, en visite au collège de Fenouillet en Haute-Garonne où une enseignante avait été poignardée par un élève de cinquième après son refus de lui retirer une punition, le ministre de l’Éducation Xavier Darcos avait ainsi déclaré envisager l’installation de dispositifs de détection de métaux devant certains établissements.

Un mois plus tôt, à la suite de l’intrusion d’une bande armée dans un lycée professionnel de Gagny en Seine-Saint-Denis se soldant par une dizaine de blessés, Xavier Darcos s’était déjà prononcé pour l’implantation de caméras de surveillance dans les collèges et lycées. Cependant, ces nouveaux dispositifs sont à la charge des départements et des régions, et peu d’entre eux s’engagent alors dans cette voie.

À la suite des attentats du 13 novembre 2015 à Paris, lors de la campagne des élections régionales, Valérie Pécresse et Laurent Wauquiez, futurs présidents des régions Île-de-France et Auvergne-Rhône-Alpes, avaient demandé l’installation de portiques de sécurité à l’entrée de tous les lycées. Le plus engagé dans cette voie était Laurent Wauquiez qui avait annoncé que sa région doterait ses 320 lycées de portiques tels qu’on peut en trouver dans les aéroports, afin de contrer le « terrorisme, l’intrusion d’armes à feu et le trafic de drogues ».

Le nouveau président du conseil régional d’Auvergne-Rhône-Alpes avait décidé d’expérimenter cette mesure dans quinze établissements pilotes. Mais six mois après l’annonce, la région a dû faire marche arrière et a opté pour de simples tourniquets avec badge. Les conseils d’administration des établissements concernés ne se sont en effet pas prononcés pour les portiques mais plutôt pour des remises aux normes des clôtures, des réparations des grillages ou des caméras de surveillance. En mars 2017, alors que la fusillade dans un lycée de Grasse relance le débat, sur France Inter, Philippe Tournier, le secrétaire général du SNPDEN, syndicat majoritaire des chefs d’établissement rappelle les écueils logistiques à ce type de dispositifs :

« Le calcul a été fait par nos collègues, notamment dans la région Auvergne-Rhône-Alpes où le projet a existé. Pour un lycée d’un millier d’élèves, il fallait qu’ils arrivent une heure en avance pour passer les contrôles de sécurité alors qu’on lutte déjà pour que les élèves arrivent à l’heure normale. Ce n’est techniquement pas sérieux. »

Mais Philippe Tournier revendique non moins nettement que les établissements scolaires soient dotés d’agents de sécurité : « cela existe dans les hôpitaux, dans les centres commerciaux, dans les mairies et même au ministère de l’Éducation nationale mais toujours pas dans les établissements scolaires. Nous ne demandons pas des gardes armés devant les établissements. Ce n’est absolument pas notre demande. Mais on dit que la sécurité est un métier ». Des équipes mobiles de sécurité sont alors chargées de lutter contre la violence scolaire mais elles ne représentent que 500 personnes pour 60 000 établissements. Le ministre de l’Éducation nationale. En octobre 2023, Gabiel Attal vient d’annoncer « le déploiement de 1 000 personnels de sécurité » dans les établissements scolaires.

Les menaces qui pèsent sur les enseignants ne sont pas seulement extérieures, les mises en cause peuvent tout à fait venir de l’intérieur des établissements scolaires. Et, de ce point de vue, on doit prendre en compte le constat déjà alarmant dressé il y a une vingtaine d’années par l’inspecteur général Jean-Pierre Obin.

En juin 2004, ce rapport de l’Inspection générale de l’Éducation nationale, rédigé donc par Jean-Pierre Obin à l’issue d’inspections menées dans une soixantaine d’établissements scolaires dits « sensibles », est remis au ministre de l’Éducation nationale François Fillon. Son intitulé : Les signes et manifestations d’appartenances religieuses dans les établissements scolaires. La question du port du voile y est présentée dans ce rapport comme « l’arbre qui cache la forêt » des détériorations de la vie scolaire et des contestations de certains enseignements, notamment en éducation physique et sportive, en sciences de la vie et de la Terre et en histoire. À l’évidence, ce qui est le plus alarmant était laissé dans l’ombre alors qu’on se focalise généralement sur des « signes extérieurs » tels que le port du voile.

Le rapport n’est pas rendu public par le ministère. Et pour cause : le ministre de l’Éducation nationale François Fillon ne rompt pas avec la tentation de mettre en avant ce qui est le plus visible. Il revendique ostensiblement d’avoir été moteur dans l’interdiction du port du voile par les élèves dans les établissements scolaires tout en se prononçant pour l’extension de cette interdiction à l’université. Près d’un an plus tard, en mars 2005, peu après sa publication sur le site de la Ligue de l’enseignement, le rapport est discrètement placé sur le site du ministère, sans qu’aucune autre initiative ne soit prise par le ministre François Fillon.

Les contestations des enseignements pointées par le rapport « Obin » n’ont pas cessé depuis, tant s’en faut. C’est ce qui explique sans doute qu’une proposition de loi« visant à instaurer un délit d’entrave à la liberté d’enseigner dans le cadre des programmes édictés par l’Éducation nationale et à protéger les enseignants et personnels éducatifs » a été déposée fin octobre 2020. Elle tient en un article unique : insérer après le deuxième alinéa de l’article 131-1 du code pénal, un nouvel alinéa disant que

« Le fait de tenter d’entraver ou d’entraver par des pressions, menaces, insultes ou intimidations, l’exercice de la liberté d’enseigner selon les objectifs pédagogiques de l’Éducation nationale, déterminés par le Conseil supérieur des programmes, est puni d’un an d’emprisonnement et de 15 000 euros d’amende. »

Cette proposition a été faite par le sénateur de l’Oise, Olivier Paccaud, professeur agrégé d’histoire-géographie, en compagnie d’une cinquantaine de sénateurs appartenant pour la plupart au groupe Les Républicains. Elle n’a pas abouti.

Elle avait pourtant eu un précédent il y a déjà plus d’un siècle. Fin janvier 1914, la Chambre des députés avait en effet voté u ne série de dispositions afin d’« assurer la défense de l’école laïque ». Il était acté que quiconque exerçant sur les parents une pression matérielle ou morale, les aurait déterminés à retirer leur enfant de l’école ou à empêcher celui-ci de participer aux exercices réglementaires de l’école, sera puni d’un emprisonnement de six jours à un mois et d’une amende de seize francs à deux cents francs or. Enfin, quiconque aurait entravé ou tenté d’entraver le fonctionnement régulier d’une école publique sera frappé des mêmes peines, lesquelles seront sensiblement aggravées s’il y a eu violence, injures ou menaces.

Il avait fallu cinq ans pour que la loi de 1914 soit votée. De 1910 à 1913, de nombreux projets de « défense laïque » s’étaient succédé mais n’étaient pas allés jusqu’au bout. La IIIe République avait elle aussi connu des tergiversations avant le passage à l’acte…

Il ne saurait pourtant être question d’occulter que certaines mises en cause effectives de certains enseignements ne sauraient être tolérées, même si cela arrive moins souvent que certains le pensent. Mais cela existe, et ce qui est intolérable ne doit pas être toléré. Cela appelle la possibilité de mesures coercitives effectives, afin notamment que ceux qui font front se sentent effectivement soutenus lorsque la limite est dépassée. Cela appelle une « défense laïque » renouvelée des enseignements et des enseignants.

Comment rendre les vieilles voitures plus écolos que les nouvelles ?

Comment rendre les vieilles voitures plus écolos que les nouvelles ?

L’urgence écologique nous impose désormais de repenser nos mobilités, seul secteur pour lequel les émissions n’ont jamais cessé de croître. Depuis plusieurs années, les pouvoirs publics multiplient les directives qui enjoignent les citoyens à abandonner leurs voitures thermiques pour des véhicules électriques. En témoignent les récentes annonces du gouvernement qui entend généraliser leur possession par des subventions massives permettant à de nombreux ménages de s’équiper pour une centaine d’euros par mois. Un certain nombre de zones à faibles émissions mobilité (ZFE-m), qui consistent à restreindre l’accès aux véhicules qui dépassent un certain seuil d’émission de gaz polluants, ont ainsi été instaurées dans quelques métropoles : Paris, Lyon ou Grenoble par exemple. Avec la loi « climat et résilience » adoptée en 2021, l’ensemble des agglomérations de plus de 150 000 habitants seront concernées d’ici 2024. De fait, dans ces zones, seules les voitures qui répondent à des normes écologiques très récentes (majoritairement électriques ou hybrides) seront autorisées à circuler. Nous assistons dès lors à une épuration de grande ampleur du parc automobile, qui traduit une conception pour le moins enchantée des mobilités électriques présentées comme salvatrices. Cette vision fait reposer le problème de la pollution de l’air sur les usagers de voitures qui, parce que trop anciennes, ne répondent plus aux exigences actuelles en termes d’émissions polluantes, soit celles disposant d’un moteur thermique et construites avant les années 2010.

par Gaëtan Mangin
ATER en sociologie, Université d’Artois dans The conversation

Notre thèse de doctorat en sociologie menée entre 2017 et 2022, qui se donne pour ambition de comprendre la possession et l’usage d’une voiture de plus de 20 ans à l’époque contemporaine, révèle pourtant que les impératifs de durabilité ne sont pas étrangers à de telles mobilités. Dans la quarantaine d’entretiens réalisés, l’analyse de la presse spécialisée, mais aussi les moments plus informels de bricolage et de discussion dans des garages ou en rassemblements de passionnés d’automobiles qui ont constitué les terrains de cette thèse, il devient même possible d’entrevoir, chez certains usagers, qu’ils soient urbains ou ruraux, des engagements forts en faveur d’une certaine écologie.

Dans une large majorité, les propos des usagers de vieilles automobiles expriment une rhétorique du réemploi opposée à la production et la consommation de masse. Il s’agit de promouvoir une écologie priorisant l’usage d’outils fonctionnels (ou réparables) au recours à du neuf. Dans leurs discours, cette écologie du réemploi apparaît comme davantage réaliste parce qu’elle se veut plus accessible financièrement, et correspondrait à un mode de vie sobre déjà dont l’expertise existe déjà dans les catégories populaires qui la développent au quotidien.

Peu coûteuse à l’achat comme à l’entretien, la voiture d’occasion désuète serait aussi écologique parce que le coût écologique de sa production a déjà été assumé.

« Il n’est pas évident d’expliquer à nos chers écolos que conserver et faire rouler une “vieille” auto à la place d’en fabriquer une neuve permet d’économiser des hectolitres d’eau, des kilos d’acier, de caoutchouc et de plastique, etc. C’est tout le problème de ne s’en tenir qu’à la des gaz qui sortent de l’échappement, plutôt que d’analyser le cycle de vie total, de la fabrication au recyclage en passant par l’usage… » (Richard, s’exprimant dans la revue « Youngtimers » n°79)

Comme tout objet technique, une voiture a besoin d’être entretenue pour durer, et une vieille automobile nécessite une attention soutenue, à l’état de ses organes de sécurité notamment (plusieurs fois par an).

Aujourd’hui, un grand nombre de concessions automobiles ne sont plus équipées pour intervenir sur des véhicules dénués de systèmes de diagnostic électronique, et les mécaniciens ne sont plus formés pour intervenir sur une mécanique commercialement dépassée. Dès lors, la maintenance incombe largement aux possesseurs qui développent, aux fil de leurs interventions, un attachement à la voiture dont ils prennent soin, ainsi qu’une connaissance fine qui leur permet de croire que leur objet perdurera encore longtemps à leurs côtés.

« Moi, ma voiture, je l’entretiens ! Pour qu’elle soit belle et pouvoir continuer de rouler avec. Je voudrais l’user jusqu’à la corde, celle-là. Attends, une Golf comme ça, je fais 300 000 kilomètres avec ! Elle peut encore vivre 30 ans, ma voiture ! » (Larry, 64 ans, décorateur retraité, roule en Volkswagen Golf 3 de 1993)

Refuser de passer à une voiture plus récente relève également d’un scepticisme assumé envers les intentions écologiques des constructeurs. La voiture contemporaine, surtout lorsqu’elle est électrique, est soupçonnée d’être bien plus polluante qu’il n’y paraît, notamment par sa production qui nécessite l’extraction de métaux précieux tels que le lithium ou le cobalt.

Ses équipements électroniques et numériques font eux aussi l’objet de méfiance quant à la planification de leur obsolescence. C’est, là aussi, la logique de remplacement précoce qui est critiquée, et avec elle la stratégie consistant à rendre chaque modèle rapidement obsolète en le remplaçant par un autre ou en en proposant une version restylisée.

« Par leur fiabilité, elles se retrouvent plus vite à la casse qu’une voiture ancienne. Elles ont pas vocation à durer, non… le but, c’est de consommer ! Avant, on faisait des voitures robustes ! La Saab 900, c’est de la voiture robuste. Pourquoi ? Parce qu’on n’était pas dans cette démarche-là, de consommation ! » (Yannis, 40 ans, Chef d’entreprise, roule en Saab 900 de 1985)

Si on les compare aux voitures récentes, les voitures de plus de 15 ans sont moins confortables et moins sécurisées, ce qui requière une attention plus soutenue de la part du conducteur qui devra davantage faire preuve d’observation et d’anticipation.

Elles sont aussi plus exigeantes à conduire, ce qui sollicite davantage ses cinq sens. Par exemple, elles ne bénéficient pas de régulateurs de vitesse, d’aide au freinage d’urgence, ni même parfois de direction assistée, ce qui complique particulièrement les manœuvres. Parce qu’elles se trouvent à l’opposé des impératifs d’efficacité, de telles voitures deviennent l’outil idéal pour tenir à distance un sentiment d’accélération qui caractérise notre époque, en s’immergeant dans des mobilités « douces » car convoquant un imaginaire du voyage, empreint de lenteur et de contemplation.

« Mes parents, ils sont là-dedans. Ils gagnent du temps, ils ont le petit boîtier pour passer au péage et puis tout est prélevé sur leur compte… Moi, je trouve ça effrayant ! C’est effrayant ! T’as l’impression que c’est simple, mais au final, ça va encore plus vite ! » (Lucas, 22 ans, étudiant en philosophie reconverti en charpentier traditionnel, roule en Renault 4 de 1982)

Plus encore que des marchandises et un système économique, c’est aussi tout un système de mobilité qui se trouve tenu à distance. Pour bon nombre d’usagers en effet, faire persister la centralité de la voiture dans l’aménagement du territoire et dans les mobilités quotidiennes, ce serait manquer d’ambition face aux enjeux écologiques contemporains.

Ainsi, nombre d’usagers de vieilles voitures plaident pour une refonte ambitieuse du système de mobilité qui ferait la part belle aux mobilités alternatives, et qui prendrait notamment au sérieux la bicyclette en tant que moyen de transport efficace. Aussi, tous affirment qu’ils se passeraient de voiture au quotidien si cela leur était possible.

« Moi, je suis pas nostalgique. Je pense que cette société d’avant, celle de la conquête, on se trompait. Elle a oublié la finitude des choses, comme je pense qu’aujourd’hui on oublie qu’il y a des perspectives ! La perspective c’est le vélo par exemple […] Avec le vélo, on va dans des endroits où la voiture ne va plus, on s’affranchit des embouteillages, voilà. On peut se projeter de nouveau ! » (Fabrice, 47 ans, enseignant-chercheur, roule avec plusieurs Citroën des années 1970 à 2000)

Rouler en vieille voiture, c’est donc pour certains une manière de vivre ses mobilités de façon plus sobre, en privilégiant la qualité (du trajet, de l’objet…) à une forme d’abondance.

« Je trouve qu’on a été trop loin sur certaines choses, qu’on va trop loin par rapport à la planète aussi, la pollution, tout ça. Je veux pas rentrer là-dedans, enfin je veux plus. Un de mes rêves, ce serait d’être autonome au niveau énergétique. Donc il y a, dans ma démarche, quelque chose d’écolo… Oui, écolo ! On peut dire écolo. » (Bruno, 56 ans, éducateur spécialisé, roule en Renault 4 de 1986).

Cette éthique de la sobriété se trouve bien souvent au fondement d’un mode de vie plus frugal, et suppose une posture réflexive quant à nos actions et leurs conséquences. Si convertir tout un chacun à la « vieille voiture » ne peut représenter un projet de transition écologique, le rapport de tels usagers à leurs mobilités nous invite toutefois à ne plus prendre la route à la légère. Il exhorte, au contraire, à questionner la banalité de notre recours à la voiture pour penser un automobilisme plus éclairé.

Comment résoudre la crise du logement

Comment résoudre la crise du logement

« Au-delà des actions immédiates et ponctuelles nécessaires au soutien des acteurs, les pouvoirs publics peuvent (doivent ?) faire de la crise actuelle le creuset d’une réflexion pour assurer à long terme une offre nouvelle de logements locatifs abordables »

par Erwan Le Bot , expert en développement urbain et territorial dans l’Opinion

La crise du logement est désormais reconnue par l’ensemble des acteurs et, depuis peu, par le gouvernement. Surtout elle concerne en priorité certains territoires, pas n’importe lesquels : Paris et sa couronne et la plupart des métropoles de province (accessoirement les zones littorales/touristiques où les problématiques sont largement différentes) c’est-à-dire les territoires qui sont porteurs de l’essentiel du développement économique du pays.

Cette crise du logement concerne d’abord les jeunes, en ménage ou non, qui retardent le moment de quitter le domicile des parents, supportent des conditions de logement dégradées ou s’éloignent des lieux de travail, certains choisissant même de quitter les territoires métropolitains, un phénomène en accélération sur les années 2021 et 2022. La perte d’attractivité des métropoles est d’abord liée aux conditions de logement. C’est-à-dire aux conditions d’un équilibre acceptable entre son coût (loyer et charges) et ses caractéristiques : les qualités du logement en lui-même, les aménités qu’offre sa localisation et le temps de trajet domicile-travail. Rétablir un équilibre entre ces critères dans les métropoles françaises est un enjeu national.

Au-delà des actions immédiates et ponctuelles nécessaires au soutien des acteurs, les pouvoirs publics peuvent (doivent ?) faire de la crise actuelle le creuset d’une réflexion pour assurer à long terme une offre nouvelle de logements locatifs abordables. La première étape du parcours résidentiel des ménages est le logement locatif (moins cher que l’achat). C’est sur cette étape que le gouvernement doit agir en priorité, tant pour le logement social que pour le logement libre.

S’agissant des qualités intrinsèques des logements, et au-delà de la réglementation environnementale (RE 2020), il est sans doute temps de cristalliser les enseignements opérationnels qu’il faut tirer des innovations (techniques, de modes constructifs, de valeurs d’usage) multiples qui se sont multipliées depuis 2010 en matière de logement, souvent dans le cadre de programmes ou d’initiatives soutenues et labellisées par les pouvoirs publics (investissements d’avenir, écoquartiers, appel à projets « réinventer Paris », etc.). En particulier, la domotique ou les modes constructifs permettent, à certaines conditions, une réduction drastique des charges et la valeur d’usage de certains immeubles peut intégrer dans le loyer une plus-value significative en termes de « mieux vivre » dans son logement.

Urbanisme. Des retours d’expérience sont à faire à partir des réalisations échantillonnaires de ces quinze dernières années. Les aménités, parce qu’elles dessinent la vie de quartier, sont une condition de la soutenabilité de la densité, qui, elle-même, est une condition clé du prix de sortie des logements (et de respect des objectifs du zéro artificialisation nette). De nombreuses collectivités locales ont, en particulier, développé des réflexions sur la place du commerce dans les programmes neufs ou anciens (portage des cellules commerciales), des équipements publics (ouvertures partielles/déménagements, etc.) ou des espaces publics (verdissement/espaces verts, élargissement de la trame viaire, sécurité, etc.). La centralité autorise la densité et réciproquement.

« C’est à l’Etat de construire les conditions du rapprochement à court, moyen et long terme des intérêts entre ces différentes parties prenantes (élus locaux, promoteurs, constructeurs, investisseurs institutionnels publics et privés professionnels de la gestion locative) »

Enfin, dans les métropoles, la question du temps de trajet entre domicile et travail, au-delà des enjeux du télétravail, est centrale, elle conditionne la qualité de vie. Le gouvernement, s’appuyant sur l’expérience du Grand Paris Express, affiche la volonté de soutenir le développement de « RER métropolitains », cette volonté n’a de sens que si elle s’accompagne d’une action sur l’urbanisme et la construction de logements autour des gares existantes ou à venir de ces RER.

Dans le Grand Paris comme dans les métropoles de province, des perspectives de long terme de construction de logements neufs doivent s’ouvrir. Un pilotage minimum et un soutien financier raisonnable de la puissance publique doivent permettre de s’assurer que ces logements seront abordables, une programmation et des engagements sur des séries limitées et qualifiées – tirant le meilleur des innovations éparses menées ces dernières années par les acteurs – doivent permettre de tenir cet objectif. Parallèlement les investisseurs existent qui, recueillant l’épargne abondante des Français, cherchent des placements sûrs et disposant des meilleures garanties ESR que, précisément, ces innovations permettent d’assurer. C’est à l’Etat de construire les conditions du rapprochement à court, moyen et long terme des intérêts entre ces différentes parties prenantes (élus locaux, promoteurs, constructeurs, investisseurs institutionnels publics et privés professionnels de la gestion locative).

Au final, pour répondre à la crise du logement dans le Grand Paris comme dans certaines métropoles, il est temps de réécrire avec les outils et les acteurs d’aujourd’hui les enseignements de l’aménagement haussmannien, en gros, de réinventer l’eau chaude, exercice toujours salutaire.

Erwan Le Bot est expert en développement urbain et territorial

Comment lutter contre la résistance aux antibiotiques

Comment lutter contre la résistance aux antibiotiques

Pariac
Maître de Conférences en Microbiologie, Université de Caen Normandie

Eliette Riboulet-Bisson
Maître de Conférences en Microbiologie, Université de Caen Normandie dans The conversation


S’il y a une chose que la pandémie de Covid-19 nous a apprise, c’est que les virus ne connaissent pas les frontières… Ni aucun microbe, d’ailleurs : avec plus de 30 millions de vols d’avion par an, soit plus de 80 000 par jour, les déplacements de l’être humain et le transport de marchandises sont autant de moyens de dissémination des bactéries, champignons, parasites et autres virus – y compris de ceux qui provoquent des maladies. Si soigner les infections virales n’est pas facile, car il n’existe pas de traitement universel, les choses sont différentes en ce qui concerne les bactéries. Nous disposons en effet, depuis les années 1940, de traitements accessibles et souvent efficaces contre la grande majorité d’entre elles : les antibiotiques, des substances d’origine naturelle, semi-synthétiques ou synthétiques. Malheureusement, aujourd’hui on craint que cette efficacité ne soit bientôt reléguée au rang de beau souvenir. En effet, l’utilisation excessive et non adaptée des antibiotiques, conjuguée aux formidables capacités évolutives des bactéries, a mené au développement de souches résistantes à ces médicaments. Plus grave, cette « antibiorésistance » se répand, car les bactéries sont capables de s’échanger les gènes qui leur permettent de se débarrasser des antibiotiques. Et ce, même quand elles appartiennent à des espèces différentes !

En 2002, les pouvoirs publics et la Caisse nationale d’assurance maladie tentaient de sensibiliser les Français à la gravité de la situation. Si le slogan martelé alors (« Les antibiotiques, c’est pas automatique ») est entré dans toutes les têtes, les choses ne se sont pas améliorées pour autant, bien au contraire. Au point qu’en 2018 le ministère de la Santé proposait un nouveau slogan : « Les antibiotiques sont précieux, utilisons-les mieux ». Aujourd’hui, l’Organisation mondiale de la santé elle-même tire la sonnette d’alarme, appelant les chercheurs du monde entier à engager des recherches pour améliorer les traitements existants et, surtout, en mettre au point de nouveaux.

Deux décennies après les premiers cris d’alarme, où en est-on vraiment ? Quelles sont les stratégies mises en place pour lutter contre l’antibiorésistance ?

En 1928, Alexander Flemming découvre par hasard la pénicilline. Mais ce n’est que dans les années 1940, par le travail d’Howard Walter Florey et Ernst Boris Chain, que sa production industrielle sera mise en place. Et changera le cours de l’histoire : Ces médicaments « miracles » ont ainsi ajouté en moyenne 20 ans à l’espérance de vie à travers le monde. Suivront 20 années de découvertes sensationnelles durant lesquelles la majorité des antibiotiques encore utilisés aujourd’hui sont découverts.

Le problème est que les bactéries s’adaptent et développent des mécanismes de résistance contre chaque nouvel antibiotique découvert et utilisé. Les antibiotiques agissent au niveau de divers composants de la cellule bactérienne : la membrane, l’ADN, etc. Malheureusement, il arrive que certaines bactéries acquièrent une résistance à ces molécules. Diverses mutations peuvent par exemple leur permettre d’acquérir la capacité de détruire un antibiotique donné, de le rejeter dans le milieu extérieur, ou encore modifier sa cible initiale pour le rendre inopérant.

Au fil des années, la multiplication de ces stratégies de défense a résulté en un nombre croissant de bactéries résistantes, voire multirésistantes à des traitements jusque-là efficaces – entraînant chaque jour plus de décès.

Dans un premier temps, le grand nombre de molécules découvertes a permis de pallier ce problème. Mais dans le courant des années 1970, les travaux académiques se sont peu à peu détournés de la recherche de nouveaux antibiotiques. Les chimistes travaillant pour l’industrie pharmaceutique continueront à produire de nouvelles générations d’antibiotiques, en modifiant des antibiotiques connus, afin de cibler les bactéries résistantes.

L’avènement de l’ère de la génomique, la science des génomes, qui a pour objet l’étude de l’ADN notamment, a soulevé de grands espoirs. Malheureusement, malgré les efforts et investissements des grands laboratoires pharmaceutiques, aucun nouveau traitement efficace n’émergera. À leur tour, les grands groupes pharmaceutiques désertent ce domaine de recherche… Les départs successifs des chercheurs académiciens et de l’industrie se traduiront par 30 années blanches en termes de développement thérapeutique.

Conséquence : aujourd’hui, la menace d’une impasse thérapeutique, dans laquelle les bactéries finiraient par résister à tous les antibiotiques connus, n’est plus une vue de l’esprit…

À la fin des années 2000, les principaux freins au développement de nouveaux antibiotiques sont bien identifiés : outre le fait que la mise au point de nouvelles molécules représente un défi scientifique compliqué, les exigences réglementaires, coûteuses, rebutent les investisseurs, et ce d’autant plus que le marché est défaillant.

Publications, rapports d’experts et journalistes exhortent à cette période les pouvoirs publics et les grandes institutions à inscrire la crise de la résistance aux antimicrobiens en haut de leurs agendas. À force de persuasion, le sujet finit enfin par s’imposer comme une préoccupation mondiale. En 2016, l’Assemblée des Nations-Unies, se penche sur la question de l’antibiorésistance. Une victoire, car c’est seulement la quatrième fois depuis sa création que cette organisation se consacre à un thème relevant de la santé !

Des discussions et propositions sont faites afin d’établir des exigences réglementaires éthiquement et scientifiquement plus adaptées. Des modèles pionniers de financement (suédois ou anglais) sont proposés pour dynamiser ce marché défaillant et attirer à nouveau les grandes compagnies dans la course à l’armement contre les bactéries.

Signe que la mesure du problème a été prise, en septembre 2021, le rapport des ministres de la Santé du G20 affirme clairement le besoin de continuer à innover dans le domaine. Si tout n’est pas réglé, de grandes avancées ont été obtenues cette dernière décennie pour pallier deux des freins majeurs de la lutte contre l’antibiorésistance. Mais si les freins administratifs et financiers se sont desserrés, les défis scientifiques restent encore à relever.

Comment mettre au point de nouveaux antimicrobiens ? Peut-être en explorant d’autres pistes que les antibiotiques stricto sensu…

Il existe des alternatives aux antibiotiques. Parmi les pistes explorées, citons par exemple la phagothérapie, qui consiste à utiliser un ennemi naturel des bactéries pour les tuer, en l’occurrence les phages, des virus qui les infectent. La vaccination, ou le recours à des anticorps monoclonaux, constituent d’autres approches possibles. Ces traitements permettent de cibler un pathogène en particulier, ce qui, contrairement aux antibiotiques à large spectre, limite l’impact sur le microbiote de l’hôte et le risque d’émergence d’une résistance généralisée.

Mais les antibiotiques eux-mêmes n’ont sans doute pas dit leur dernier mot.

En sondant des environnements encore non étudiés, où pourraient vivre des organismes produisant des molécules inédites, on peut espérer découvrir de nouvelles classes d’antibiotiques. La plupart des antibiotiques sont en effet issus de molécules naturellement produites par d’autres microorganismes. Or on estime qu’à peine 1 % des microorganismes sont cultivables en laboratoire… c’est dire qu’on les connaît mal, sinon pas !

Pour accéder à la partie immergée de cet iceberg microbien, les chercheurs disposent depuis quelques années de nouvelles technologies, comme la métagénomique, qui permet d’analyser l’ensemble des génomes des organismes vivant dans des environnements donnés, ou l’isolation chip (iChip, « puce d’isolement »), un dispositif qui permet d’isoler des bactéries grâce à des membranes perméables puis de les replacer dans le milieu dont elles proviennent – le sol par exemple, afin qu’elles continuent à pousser dans les conditions qui leur conviennent.

Une autre stratégie est de contourner les stratégies de résistances des bactéries pour les rendre à nouveau vulnérables à des antibiotiques actuellement dépassés. La première étape est de trouver ce qui, chez une bactérie, lui donne sa résistance ; la deuxième est de les contrer. L’informatique permet aujourd’hui de parcourir les bases de données regroupant les médicaments existants, à la recherche d’un composé visant les cibles identifiées chez les bactéries. Ce composé, administré en complément de l’antibiotique, permettra le succès de celui-ci. L’Augmentin®, constitué d’Amoxicilline et d’acide clavulanique, est un exemple du succès de cette approche.

Le repositionnement de médicament ou la réévaluation de composés dont le développement a été arrêté sont aussi explorés. De nombreux composés abandonnés pourraient en effet susciter un regain d’intérêt grâce à l’évolution des méthodes de synthèse, par exemple. La daptomycine est un bon exemple : découvert au début des années 1980 dans une bactérie du sol et abandonné pendant 20 ans, il n’a été commercialisé qu’au début des années 2000, comme antibiotique de dernier recours contre les infections au staphylocoque doré. Il est devenu l’antibiotique intraveineux le plus rentable aux États-Unis…

Enfin, une autre piste est d’administrer des composés qui empêcheront le caractère pathogène de la bactérie (autrement dit, sa virulence) de s’exprimer. On parle alors d’« antivirulents ». Plutôt que d’éliminer la bactérie qui risque de causer une infection, cette approche privilégie la restauration d’un équilibre microbiote-hôte afin de moduler sa pathogénicité. Étant donné que les antivirulents exercent une faible pression de sélection naturelle, on espère que l’apparition de résistance à leur encontre sera limitée. Les premiers traitements liés à cette stratégie sont aujourd’hui en phase d’essai clinique.

Notre équipe de recherche s’appuie sur ces stratégies pour tenter de mettre au point de nouvelles solutions thérapeutiques, et ainsi contribuer à la lutte contre l’antibiorésistance. Une priorité, car les conséquences de cette pandémie silencieuse se feront sentir sur toute la planète : en 2016, la Banque mondiale avertissait que d’ici à 2050, la résistance aux antimicrobiens pourrait faire basculer 28,3 millions de personnes supplémentaires dans l’extrême pauvreté et avoir sur le PIB mondial les mêmes effets que la crise de 2008, tandis que l’OMS estimait que sur la même période, elle pourrait entraîner 2,4 millions de morts rien que dans les pays à haut revenu.

Crise environnementale : comment en est-on arrivé là ?

Crise environnementale : comment en est-on arrivé là ?

La Terre à l’époque de l’Anthropocène : comment en est-on arrivé là ? Peut-on en limiter les dégâts ?

Par
Victor Court
Économiste, chercheur associé au Laboratoire interdisciplinaire des énergies de demain, Université Paris Cité dans The Conversation

En 2000, deux scientifiques proposèrent pour la première fois l’hypothèse que l’époque de l’Holocène, amorcée il y a 11 700 ans, était révolue.

L’emprise de l’humanité sur le système terrestre serait devenue si profonde qu’elle rivaliserait avec certaines des grandes forces de la nature, au point d’avoir fait bifurquer la trajectoire géologique et écologique de la Terre.

Il faudrait désormais utiliser le terme d’« Anthropocène » pour désigner avec plus de justesse l’époque géologique actuelle. Cette annonce a ouvert des débats considérables.

Parmi les nombreuses polémiques soulevées par ce nouveau concept, la plus évidente porte encore aujourd’hui sur la date du début de l’Anthropocène.

La proposition initiale portait symboliquement sur 1784, l’année du dépôt du brevet de James Watt pour sa machine à vapeur, véritable emblème de l’amorce de la révolution industrielle. Ce choix coïncide en effet avec l’augmentation significative des concentrations atmosphériques de plusieurs gaz à effet de serre, comme en témoignent les données extraites des carottes de glace.

Des chercheurs d’autres disciplines, archéologie et archéobiologie en l’occurrence, avancèrent ensuite l’idée que l’Anthropocène et l’Holocène devraient être considérés comme une même époque géologique.

Dans la perspective de ces disciplines, c’est la fin de la dernière période glaciaire, il y a plus de 10 000 ans, qui aurait favorisé une augmentation sans précédent de la population humaine (grâce à l’apparition progressive de l’agriculture) et, donc, l’émergence de son rôle de force géoécologique.

Une autre approche défend une idée assez similaire, mais en ajoutant quelques milliers d’années à la date du début de l’Anthropocène. Il aurait fallu attendre que la domestication des plantes et des animaux soit suffisamment développée pour que les répercussions environnementales des sociétés agraires – en particulier les rejets de dioxyde de carbone (CO2) dus à la déforestation – soient assez importantes pour faire sortir la Terre de l’Holocène.

À l’opposé, certains membres de la communauté scientifique penchent pour une date plus récente que celle initialement avancée.

La course de l’humanité semble en effet suivre dans sa partie la plus contemporaine une trajectoire particulière qu’on a qualifiée de « Grande Accélération ». C’est autour de 1950 que les principaux indicateurs du système socioéconomique mondial et du système Terre se sont mis à avoir une tendance réellement exponentielle.

L’empreinte écologique de l’humanité prend des formes diverses et interconnectées qui ne cessent de s’aggraver depuis cette date : une modification du climat sans précédent, par sa vitesse et son intensité ; une dégradation généralisée du tissu de la vie, par l’artificialisation des écosystèmes et les rejets de substances entièrement nouvelles (comme les produits de la chimie de synthèse, les plastiques, les pesticides, les perturbateurs endocriniens, les radionucléides et les gaz fluorés) ; un effondrement de la biodiversité d’une ampleur et d’une rapidité inédites (signe pour certains d’une sixième grande extinction, la cinquième étant celle qui vit disparaître les dinosaures, il y a 66 millions d’années) ; et de multiples perturbations des cycles biogéochimiques (notamment ceux de l’eau, de l’azote et du phosphore).

En parallèle avec cette question sur la date du début de l’Anthropocène, d’autres débats ont émergé autour de ce concept. Le plus important a été porté par Andreas Malm et Alf Hornborg, tous deux membres du département de géographie humaine de l’Université de Lund (Suède).

Ces deux chercheurs ont remarqué que le concept d’Anthropocène suggère que toute l’espèce humaine serait responsable des bouleversements planétaires. C’est pour cette raison que de nombreux auteurs ont tendance, même lorsqu’ils font remonter l’Anthropocène au moment du décollage industriel de quelques nations, à affirmer que la cause ultime de l’émergence de sociétés reposant sur les énergies fossiles correspondrait à un processus évolutif long, donc naturel, qui aurait commencé avec la maîtrise du feu par nos ancêtres (il y a au moins 400 000 ans).

Malm et Hornborg affirment que parler de l’Anthropocène en utilisant des catégories généralisantes, comme « l’espèce humaine », « les humains » ou « l’humanité », revient à naturaliser ce phénomène, c’est-à-dire à supposer qu’il était inéluctable, car découlant d’une propension naturelle de notre espèce à exploiter un maximum de ressources dès qu’elle en a l’occasion.

Pour les deux chercheurs, cette naturalisation occulte la dimension sociale du régime fossile des 200 dernières années.

L’adoption de la machine à vapeur alimentée par le charbon, puis des technologies reposant sur le pétrole et le gaz, n’a pas été réalisée à la suite d’une décision unanime de tous les membres de l’humanité, et ce ne sont pas non plus quelques représentants de cette dernière – qui auraient été élus sur la base de caractéristiques naturelles – qui ont décidé de la trajectoire empruntée par notre espèce.

L’exploitation des énergies fossiles émet du CO₂, première cause du réchauffement climatique. Zbynek Burival/Unsplash
Pour Malm et Hornborg, ce sont au contraire des conditions sociales et politiques particulières qui ont, chaque fois, créé la possibilité d’un investissement lucratif pour quelques détenteurs de capitaux, quasi systématiquement des hommes blancs, bourgeois ou aristocrates.

Par exemple, la possibilité d’exploiter les travailleurs britanniques dans les mines de charbon a été déterminante dans le cas de la machine à vapeur aux XVIIIe et XIXe siècles ; tout comme le soutien de plusieurs gouvernements occidentaux l’a été en ce qui concerne la mise en place des infrastructures nécessaires à l’exploitation du pétrole depuis le milieu du XIXe siècle.

L’Anthropocène perçu à l’échelle de la totalité de l’humanité occulte un autre fait majeur : l’inégalité intraespèce dans la responsabilité des bouleversements climatiques et écologiques.

À l’heure actuelle, parmi tous les habitants du monde, les 10 % qui émettent le plus de gaz à effet de serre (GES) sont responsables de 48 % du total des émissions mondiales, alors que les 50 % qui en émettent le moins sont responsables d’à peine 12 % des émissions globales. Parmi les plus gros émetteurs individuels de la planète, les estimations mettent en avant le 1 % le plus riche (composé majoritairement d’Américains, de Luxembourgeois, de Singapouriens, de Saoudiens, etc.), avec des émissions par personne supérieures à 200 tonnes d’équivalent CO2 par année.

À l’autre extrémité du spectre des émetteurs, on trouve les individus les plus pauvres du Honduras, du Mozambique, du Rwanda et du Malawi, avec des émissions 2000 fois plus faibles, proches de 0,1 tonne d’équivalent CO2 par personne et par an.

Ce lien étroit entre richesse et empreinte carbone implique une responsabilité commune, mais différenciée, qui sied mal à la catégorisation englobante de l’Anthropocène.

Par ailleurs, cette critique prend encore plus de sens dans une perspective historique puisque le dérèglement climatique dépend du cumul des émissions de GES. À titre d’exemple, on peut se dire que le Royaume-Uni n’a pas à être à l’avant-garde de la lutte contre le changement climatique, car il ne représente actuellement qu’environ 1 % des émissions mondiales de carbone… C’est oublier un peu vite que ce pays a contribué à 4,5 % des émissions globales depuis 1850, ce qui le place au huitième rang des plus gros pollueurs de l’histoire.

Les nations du monde, et les individus au sein de chacune d’entre elles, n’ont pas contribué de façon équivalente à la trajectoire exponentielle du système Terre depuis 200 ans. L’Europe et l’Amérique du Nord sont historiquement les régions les plus polluantes de l’histoire. Le Royaume-Uni et les États-Unis, chefs d’orchestre respectifs du développement économique mondialisé du XIXe et du XXe siècle, ont une dette écologique particulièrement colossale envers les autres nations. Le charbon a été le carburant du projet de domination impériale britannique, alors que c’est le pétrole qui a joué ce rôle pour les États-Unis.

Pour garder les idées claires sur ce sujet épineux de la contribution historique de chaque nation à la dérive climatique, il peut être avisé de toujours garder en tête que les émissions de GES, et plus généralement l’empreinte environnementale d’un pays ou d’une personne donnée, sont déterminées au premier ordre par leur niveau de consommation de biens et de services.

Habiter dans un pays riche et penser être « écolo » n’a généralement aucun rapport avec la réalité. De plus, toutes les données quantitatives en notre possession ne disent rien de la nécessité vitale – ou, au contraire, de la futilité la plus extrême – à l’origine de l’émission d’un même kilogramme de dioxyde de carbone !

Pour certains, émettre un peu plus de gaz à effet de serre est une question de survie : cela peut représenter une ration de riz ou l’installation d’une toiture. Pour d’autres, il ne s’agit que d’acheter un gadget de plus pour se divertir quelques heures. À ceux qui avancent qu’il faudrait réduire la taille de la population mondiale pour lutter efficacement contre le dérèglement climatique (et toutes les autres perturbations environnementales), on répondra qu’il suffirait plutôt d’empêcher les plus riches de continuer de mener leur train de vie indécent et climaticide.

Parce qu’il fabrique une humanité abstraite qui est uniformément concernée, le discours dominant sur l’Anthropocène suggère une responsabilité tout aussi uniformisée. Les Yanomami et les Achuar d’Amazonie, qui vivent sans recourir à un gramme d’énergie fossile et se contentent de ce qu’ils retirent de la chasse, de la pêche, de la cueillette et d’une agriculture vivrière, devraient-ils donc se sentir aussi responsables du changement climatique et de l’effondrement de la biodiversité que les plus riches industriels, banquiers et autres avocats d’affaires ?

Si la Terre est vraiment entrée dans une nouvelle époque géologique, les responsabilités de chaque nation et de chaque individu sont trop différentes dans l’espace et dans le temps pour qu’on puisse considérer que « l’espèce humaine » est une abstraction satisfaisante pour endosser le fardeau de la culpabilité.

Au-delà de ces nombreux débats et controverses, le dérèglement climatique et l’érosion de la biodiversité réclament des actions massives, concrètes, sans délai. Les efforts et les initiatives, dont certaines conduites à un niveau global, ne semblent pas manquer… Mais lesquelles fonctionnent véritablement ?

Quelle efficacité réelle pour l’Accord de Paris ?

Prenons par exemple la 21e Conférence des parties (COP21) à la Convention-cadre des Nations unies sur le changement climatique, qui s’est tenue à Paris en 2015.

Celle-ci a débouché sur un accord qualifié d’historique puisque, pour la première fois, 196 pays se sont engagés à décarboner l’économie mondiale. En pratique, cet accord laisse à chaque État le soin de définir sa stratégie nationale de transition énergétique. Chaque pays membre doit ensuite présenter aux autres signataires sa « contribution déterminée au niveau national » (CDN). L’addition des CDN forme la trajectoire attendue des émissions mondiales de gaz à effet de serre.

Le problème d’une telle stratégie (si tant est qu’elle soit effectivement appliquée), c’est que le compte n’y est pas : même si toutes les promesses annoncées étaient réalisées, les émissions de GES d’origine humaine nous conduiraient à un réchauffement climatique d’environ 2,7 °C d’ici la fin du siècle.

En 2030, il y aura déjà un écart de 12 milliards de tonnes d’équivalent CO₂ par an (Gtéq-CO₂/an) par rapport au plafond requis pour limiter la hausse des températures à 2 °C. Cet écart grimpe à 20 Gtéq-CO2/an si on considère un réchauffement maximal de 1,5 °C.

Dans le cadre de l’Accord de Paris de 2015, les États peuvent théoriquement amender leurs engagements tous les cinq ans pour renforcer leurs ambitions. Dans les faits, rappelons que les émissions continuent d’augmenter pour quasiment tous les pays signataires (lorsqu’elles sont comptabilisées selon la consommation et non selon la production).

Laurent Fabius acte l’adoption de l’accord de Paris, lors de la COP21 de 2015. Cop Paris/Flickr
Comment pourrait-il en être autrement puisque l’Accord de Paris n’incorpore aucun mécanisme de sanction pour les États qui ne respectent pas leurs engagements ? Seule la pression internationale et populaire est censée les contraindre. Mais quel intérêt peut avoir une stratégie de dénonciation si tous les acteurs sont en faute ?

Bien que l’Accord de Paris ait été présenté comme un succès diplomatique, il faut bien admettre qu’il constitue une coquille vide de plus dans la grande liste des engagements inefficaces pour lutter contre le dérèglement climatique. On aurait d’ailleurs pu s’en douter dès la ratification de ce texte puisque les mots « énergie fossile » n’y apparaissent pas une seule fois… Tout a donc été fait pour ne froisser aucun acteur (public ou privé) et pour qu’ainsi un maximum d’États en viennent à signer un accord qui n’apportera aucune solution au problème le plus urgent de l’humanité.

Arriver à se féliciter du contenu de l’Accord de Paris comme l’ont fait de nombreux représentants politiques montre à quel point ces derniers – et les médias relayant complaisamment leurs idées – n’ont pas du tout saisi l’ampleur du problème.

Au moment de la signature de l’accord en 2015, le volume cumulé de CO2 que l’humanité pouvait se permettre d’émettre pour conserver une chance raisonnable de limiter le réchauffement climatique à 2 °C n’était plus que de 1000 Gt. Compte tenu des émissions des cinq dernières années, ce budget carbone n’est déjà plus que de 800 Gt. Cela correspond donc au tiers des 2420 Gt de CO2 émises jusqu’à présent, de 1850 à 2020, dont 1680 Gt par la combustion des énergies fossiles (et la production de ciment) et 740 Gt par l’usage des sols (principalement la déforestation).

Et à raison d’environ 40 Gt d’émissions annuelles, ce budget carbone se réduit comme peau de chagrin : il sera épuisé d’ici 20 ans si rien ne change.

La solution par un traité de non-prolifération des énergies fossiles ?
Pour atteindre ces objectifs de réduction, les humains, et en particulier les plus riches d’entre eux, doivent consentir à ne plus utiliser ce qui a historiquement représenté la source de leur opulence matérielle.

Les réserves de combustibles fossiles correspondent en effet à des émissions potentielles colossales : au niveau mondial, un tiers des réserves de pétrole, la moitié des réserves de gaz et plus de 80 % des réserves de charbon doivent rester inutilisés. Dans ce cadre, l’augmentation de la production d’hydrocarbures, que ce soit au travers de mines de charbon ou de gisements de pétroles et de gaz déjà connus, ou par l’exploitation de nouvelles ressources fossiles (par exemple en Arctique), vont à contresens des efforts nécessaires pour limiter le dérèglement du climat.

Par ailleurs, plus nous retardons le moment où nous amorcerons réellement la décarbonation de l’économie mondiale, plus les efforts nécessaires deviendront draconiens. Si la réduction des émissions mondiales de CO2 avait été engagée en 2018, l’humanité aurait pu se contenter d’une baisse annuelle de 5 % jusqu’en 2100 pour limiter le réchauffement à 2 °C. Amorcer ce travail colossal en 2020 aurait demandé une réduction annuelle de 6 %. Patienter jusqu’en 2025, c’est s’obliger à une réduction de 10 % par an.

Face à l’urgence, certains en appellent depuis quelques années à un traité de non-prolifération des combustibles fossiles.

Il « suffirait », en somme, que tout le monde s’engage à ne plus utiliser ce qui active l’économie mondiale depuis 150 ans !

À ce jour, seuls les pays insulaires les plus vulnérables (comme le Vanuatu, les Fidji ou encore les îles Salomon) ont signé ce traité, pas les pays producteurs d’hydrocarbures ni les grands pays importateurs. Il est facile de comprendre pourquoi : cette initiative ne comporte aucun mécanisme financier pour compenser les gouvernements détenteurs de ressources d’hydrocarbures qui accepteraient de laisser sous leurs pieds ce PIB potentiel.

Or, pour que les réserves de combustibles fossiles ne soient pas exploitées, c’est bien une compensation de ce type qu’il faudrait mettre en place pour qu’un accord international puisse aboutir à des résultats significatifs.

La finance, cet acteur clé
Alors, tout est foutu ? Pas forcément !

Une étude a récemment apporté une lueur d’espoir. Deux chercheurs de la Harvard Business School ont montré que le choix de certaines banques de ne plus investir dans le secteur du charbon semble porter leurs fruits.

Les données étudiées (de 2009 à 2021), montrent que les entreprises charbonnières confrontées à de fortes politiques de désinvestissement de la part de leurs bailleurs de fonds réduisent leurs emprunts d’un quart par rapport à leurs homologues non affectés. Ce rationnement du capital semble bien entraîner une réduction des émissions de CO2, car les entreprises « désinvesties » sont plus susceptibles de fermer certaines de leurs installations.

Pourrait-on envisager la même approche avec le secteur du pétrole et du gaz ? En théorie, oui, mais cela serait plus difficile à mettre en œuvre.

Les acteurs du charbon disposent d’un nombre limité d’options pour obtenir un financement alternatif de leur dette si une source existante disparaît. En effet, le nombre de banques qui facilitent les transactions liées au charbon est si faible – et les relations si profondément ancrées – que, par défaut, les banquiers exercent une grande influence sur ce qui est financé dans ce secteur. Ce n’est pas le cas dans le secteur du pétrole et du gaz, où les possibilités de financement sont plus diversifiées. Néanmoins, tout cela montre que le secteur de la finance a bel et bien un rôle à jouer dans la transition bas carbone.

Mais croire que le secteur financier va rediriger l’économie mondiale vers une voie plus écologique, comme par enchantement, serait un leurre.

Le capitalisme impose un impératif de croissance qui n’a tout simplement aucun sens dans un monde aux ressources finies. Ne plus dépasser les limites écologiques du système Terre demande de redéfinir entièrement ce à quoi nous tenons et ce à quoi nous sommes prêts à renoncer.

Comment en est-on arrivé à un telle crise environnementale ?

Comment en est-on arrivé à un telle crise environnementale ?

La Terre à l’époque de l’Anthropocène : comment en est-on arrivé là ? Peut-on en limiter les dégâts ?

Par
Victor Court
Économiste, chercheur associé au Laboratoire interdisciplinaire des énergies de demain, Université Paris Cité dans The Conversation

En 2000, deux scientifiques proposèrent pour la première fois l’hypothèse que l’époque de l’Holocène, amorcée il y a 11 700 ans, était révolue.

L’emprise de l’humanité sur le système terrestre serait devenue si profonde qu’elle rivaliserait avec certaines des grandes forces de la nature, au point d’avoir fait bifurquer la trajectoire géologique et écologique de la Terre.

Il faudrait désormais utiliser le terme d’« Anthropocène » pour désigner avec plus de justesse l’époque géologique actuelle. Cette annonce a ouvert des débats considérables.

Parmi les nombreuses polémiques soulevées par ce nouveau concept, la plus évidente porte encore aujourd’hui sur la date du début de l’Anthropocène.

La proposition initiale portait symboliquement sur 1784, l’année du dépôt du brevet de James Watt pour sa machine à vapeur, véritable emblème de l’amorce de la révolution industrielle. Ce choix coïncide en effet avec l’augmentation significative des concentrations atmosphériques de plusieurs gaz à effet de serre, comme en témoignent les données extraites des carottes de glace.

Des chercheurs d’autres disciplines, archéologie et archéobiologie en l’occurrence, avancèrent ensuite l’idée que l’Anthropocène et l’Holocène devraient être considérés comme une même époque géologique.

Dans la perspective de ces disciplines, c’est la fin de la dernière période glaciaire, il y a plus de 10 000 ans, qui aurait favorisé une augmentation sans précédent de la population humaine (grâce à l’apparition progressive de l’agriculture) et, donc, l’émergence de son rôle de force géoécologique.

Une autre approche défend une idée assez similaire, mais en ajoutant quelques milliers d’années à la date du début de l’Anthropocène. Il aurait fallu attendre que la domestication des plantes et des animaux soit suffisamment développée pour que les répercussions environnementales des sociétés agraires – en particulier les rejets de dioxyde de carbone (CO2) dus à la déforestation – soient assez importantes pour faire sortir la Terre de l’Holocène.

À l’opposé, certains membres de la communauté scientifique penchent pour une date plus récente que celle initialement avancée.

La course de l’humanité semble en effet suivre dans sa partie la plus contemporaine une trajectoire particulière qu’on a qualifiée de « Grande Accélération ». C’est autour de 1950 que les principaux indicateurs du système socioéconomique mondial et du système Terre se sont mis à avoir une tendance réellement exponentielle.

L’empreinte écologique de l’humanité prend des formes diverses et interconnectées qui ne cessent de s’aggraver depuis cette date : une modification du climat sans précédent, par sa vitesse et son intensité ; une dégradation généralisée du tissu de la vie, par l’artificialisation des écosystèmes et les rejets de substances entièrement nouvelles (comme les produits de la chimie de synthèse, les plastiques, les pesticides, les perturbateurs endocriniens, les radionucléides et les gaz fluorés) ; un effondrement de la biodiversité d’une ampleur et d’une rapidité inédites (signe pour certains d’une sixième grande extinction, la cinquième étant celle qui vit disparaître les dinosaures, il y a 66 millions d’années) ; et de multiples perturbations des cycles biogéochimiques (notamment ceux de l’eau, de l’azote et du phosphore).

En parallèle avec cette question sur la date du début de l’Anthropocène, d’autres débats ont émergé autour de ce concept. Le plus important a été porté par Andreas Malm et Alf Hornborg, tous deux membres du département de géographie humaine de l’Université de Lund (Suède).

Ces deux chercheurs ont remarqué que le concept d’Anthropocène suggère que toute l’espèce humaine serait responsable des bouleversements planétaires. C’est pour cette raison que de nombreux auteurs ont tendance, même lorsqu’ils font remonter l’Anthropocène au moment du décollage industriel de quelques nations, à affirmer que la cause ultime de l’émergence de sociétés reposant sur les énergies fossiles correspondrait à un processus évolutif long, donc naturel, qui aurait commencé avec la maîtrise du feu par nos ancêtres (il y a au moins 400 000 ans).

Malm et Hornborg affirment que parler de l’Anthropocène en utilisant des catégories généralisantes, comme « l’espèce humaine », « les humains » ou « l’humanité », revient à naturaliser ce phénomène, c’est-à-dire à supposer qu’il était inéluctable, car découlant d’une propension naturelle de notre espèce à exploiter un maximum de ressources dès qu’elle en a l’occasion.

Pour les deux chercheurs, cette naturalisation occulte la dimension sociale du régime fossile des 200 dernières années.

L’adoption de la machine à vapeur alimentée par le charbon, puis des technologies reposant sur le pétrole et le gaz, n’a pas été réalisée à la suite d’une décision unanime de tous les membres de l’humanité, et ce ne sont pas non plus quelques représentants de cette dernière – qui auraient été élus sur la base de caractéristiques naturelles – qui ont décidé de la trajectoire empruntée par notre espèce.

L’exploitation des énergies fossiles émet du CO₂, première cause du réchauffement climatique. Zbynek Burival/Unsplash
Pour Malm et Hornborg, ce sont au contraire des conditions sociales et politiques particulières qui ont, chaque fois, créé la possibilité d’un investissement lucratif pour quelques détenteurs de capitaux, quasi systématiquement des hommes blancs, bourgeois ou aristocrates.

Par exemple, la possibilité d’exploiter les travailleurs britanniques dans les mines de charbon a été déterminante dans le cas de la machine à vapeur aux XVIIIe et XIXe siècles ; tout comme le soutien de plusieurs gouvernements occidentaux l’a été en ce qui concerne la mise en place des infrastructures nécessaires à l’exploitation du pétrole depuis le milieu du XIXe siècle.

L’Anthropocène perçu à l’échelle de la totalité de l’humanité occulte un autre fait majeur : l’inégalité intraespèce dans la responsabilité des bouleversements climatiques et écologiques.

À l’heure actuelle, parmi tous les habitants du monde, les 10 % qui émettent le plus de gaz à effet de serre (GES) sont responsables de 48 % du total des émissions mondiales, alors que les 50 % qui en émettent le moins sont responsables d’à peine 12 % des émissions globales. Parmi les plus gros émetteurs individuels de la planète, les estimations mettent en avant le 1 % le plus riche (composé majoritairement d’Américains, de Luxembourgeois, de Singapouriens, de Saoudiens, etc.), avec des émissions par personne supérieures à 200 tonnes d’équivalent CO2 par année.

À l’autre extrémité du spectre des émetteurs, on trouve les individus les plus pauvres du Honduras, du Mozambique, du Rwanda et du Malawi, avec des émissions 2000 fois plus faibles, proches de 0,1 tonne d’équivalent CO2 par personne et par an.

Ce lien étroit entre richesse et empreinte carbone implique une responsabilité commune, mais différenciée, qui sied mal à la catégorisation englobante de l’Anthropocène.

Par ailleurs, cette critique prend encore plus de sens dans une perspective historique puisque le dérèglement climatique dépend du cumul des émissions de GES. À titre d’exemple, on peut se dire que le Royaume-Uni n’a pas à être à l’avant-garde de la lutte contre le changement climatique, car il ne représente actuellement qu’environ 1 % des émissions mondiales de carbone… C’est oublier un peu vite que ce pays a contribué à 4,5 % des émissions globales depuis 1850, ce qui le place au huitième rang des plus gros pollueurs de l’histoire.

Les nations du monde, et les individus au sein de chacune d’entre elles, n’ont pas contribué de façon équivalente à la trajectoire exponentielle du système Terre depuis 200 ans. L’Europe et l’Amérique du Nord sont historiquement les régions les plus polluantes de l’histoire. Le Royaume-Uni et les États-Unis, chefs d’orchestre respectifs du développement économique mondialisé du XIXe et du XXe siècle, ont une dette écologique particulièrement colossale envers les autres nations. Le charbon a été le carburant du projet de domination impériale britannique, alors que c’est le pétrole qui a joué ce rôle pour les États-Unis.

Pour garder les idées claires sur ce sujet épineux de la contribution historique de chaque nation à la dérive climatique, il peut être avisé de toujours garder en tête que les émissions de GES, et plus généralement l’empreinte environnementale d’un pays ou d’une personne donnée, sont déterminées au premier ordre par leur niveau de consommation de biens et de services.

Habiter dans un pays riche et penser être « écolo » n’a généralement aucun rapport avec la réalité. De plus, toutes les données quantitatives en notre possession ne disent rien de la nécessité vitale – ou, au contraire, de la futilité la plus extrême – à l’origine de l’émission d’un même kilogramme de dioxyde de carbone !

Pour certains, émettre un peu plus de gaz à effet de serre est une question de survie : cela peut représenter une ration de riz ou l’installation d’une toiture. Pour d’autres, il ne s’agit que d’acheter un gadget de plus pour se divertir quelques heures. À ceux qui avancent qu’il faudrait réduire la taille de la population mondiale pour lutter efficacement contre le dérèglement climatique (et toutes les autres perturbations environnementales), on répondra qu’il suffirait plutôt d’empêcher les plus riches de continuer de mener leur train de vie indécent et climaticide.

Parce qu’il fabrique une humanité abstraite qui est uniformément concernée, le discours dominant sur l’Anthropocène suggère une responsabilité tout aussi uniformisée. Les Yanomami et les Achuar d’Amazonie, qui vivent sans recourir à un gramme d’énergie fossile et se contentent de ce qu’ils retirent de la chasse, de la pêche, de la cueillette et d’une agriculture vivrière, devraient-ils donc se sentir aussi responsables du changement climatique et de l’effondrement de la biodiversité que les plus riches industriels, banquiers et autres avocats d’affaires ?

Si la Terre est vraiment entrée dans une nouvelle époque géologique, les responsabilités de chaque nation et de chaque individu sont trop différentes dans l’espace et dans le temps pour qu’on puisse considérer que « l’espèce humaine » est une abstraction satisfaisante pour endosser le fardeau de la culpabilité.

Au-delà de ces nombreux débats et controverses, le dérèglement climatique et l’érosion de la biodiversité réclament des actions massives, concrètes, sans délai. Les efforts et les initiatives, dont certaines conduites à un niveau global, ne semblent pas manquer… Mais lesquelles fonctionnent véritablement ?

Quelle efficacité réelle pour l’Accord de Paris ?

Prenons par exemple la 21e Conférence des parties (COP21) à la Convention-cadre des Nations unies sur le changement climatique, qui s’est tenue à Paris en 2015.

Celle-ci a débouché sur un accord qualifié d’historique puisque, pour la première fois, 196 pays se sont engagés à décarboner l’économie mondiale. En pratique, cet accord laisse à chaque État le soin de définir sa stratégie nationale de transition énergétique. Chaque pays membre doit ensuite présenter aux autres signataires sa « contribution déterminée au niveau national » (CDN). L’addition des CDN forme la trajectoire attendue des émissions mondiales de gaz à effet de serre.

Le problème d’une telle stratégie (si tant est qu’elle soit effectivement appliquée), c’est que le compte n’y est pas : même si toutes les promesses annoncées étaient réalisées, les émissions de GES d’origine humaine nous conduiraient à un réchauffement climatique d’environ 2,7 °C d’ici la fin du siècle.

En 2030, il y aura déjà un écart de 12 milliards de tonnes d’équivalent CO₂ par an (Gtéq-CO₂/an) par rapport au plafond requis pour limiter la hausse des températures à 2 °C. Cet écart grimpe à 20 Gtéq-CO2/an si on considère un réchauffement maximal de 1,5 °C.

Dans le cadre de l’Accord de Paris de 2015, les États peuvent théoriquement amender leurs engagements tous les cinq ans pour renforcer leurs ambitions. Dans les faits, rappelons que les émissions continuent d’augmenter pour quasiment tous les pays signataires (lorsqu’elles sont comptabilisées selon la consommation et non selon la production).

Laurent Fabius acte l’adoption de l’accord de Paris, lors de la COP21 de 2015. Cop Paris/Flickr
Comment pourrait-il en être autrement puisque l’Accord de Paris n’incorpore aucun mécanisme de sanction pour les États qui ne respectent pas leurs engagements ? Seule la pression internationale et populaire est censée les contraindre. Mais quel intérêt peut avoir une stratégie de dénonciation si tous les acteurs sont en faute ?

Bien que l’Accord de Paris ait été présenté comme un succès diplomatique, il faut bien admettre qu’il constitue une coquille vide de plus dans la grande liste des engagements inefficaces pour lutter contre le dérèglement climatique. On aurait d’ailleurs pu s’en douter dès la ratification de ce texte puisque les mots « énergie fossile » n’y apparaissent pas une seule fois… Tout a donc été fait pour ne froisser aucun acteur (public ou privé) et pour qu’ainsi un maximum d’États en viennent à signer un accord qui n’apportera aucune solution au problème le plus urgent de l’humanité.

Arriver à se féliciter du contenu de l’Accord de Paris comme l’ont fait de nombreux représentants politiques montre à quel point ces derniers – et les médias relayant complaisamment leurs idées – n’ont pas du tout saisi l’ampleur du problème.

Au moment de la signature de l’accord en 2015, le volume cumulé de CO2 que l’humanité pouvait se permettre d’émettre pour conserver une chance raisonnable de limiter le réchauffement climatique à 2 °C n’était plus que de 1000 Gt. Compte tenu des émissions des cinq dernières années, ce budget carbone n’est déjà plus que de 800 Gt. Cela correspond donc au tiers des 2420 Gt de CO2 émises jusqu’à présent, de 1850 à 2020, dont 1680 Gt par la combustion des énergies fossiles (et la production de ciment) et 740 Gt par l’usage des sols (principalement la déforestation).

Et à raison d’environ 40 Gt d’émissions annuelles, ce budget carbone se réduit comme peau de chagrin : il sera épuisé d’ici 20 ans si rien ne change.

La solution par un traité de non-prolifération des énergies fossiles ?
Pour atteindre ces objectifs de réduction, les humains, et en particulier les plus riches d’entre eux, doivent consentir à ne plus utiliser ce qui a historiquement représenté la source de leur opulence matérielle.

Les réserves de combustibles fossiles correspondent en effet à des émissions potentielles colossales : au niveau mondial, un tiers des réserves de pétrole, la moitié des réserves de gaz et plus de 80 % des réserves de charbon doivent rester inutilisés. Dans ce cadre, l’augmentation de la production d’hydrocarbures, que ce soit au travers de mines de charbon ou de gisements de pétroles et de gaz déjà connus, ou par l’exploitation de nouvelles ressources fossiles (par exemple en Arctique), vont à contresens des efforts nécessaires pour limiter le dérèglement du climat.

Par ailleurs, plus nous retardons le moment où nous amorcerons réellement la décarbonation de l’économie mondiale, plus les efforts nécessaires deviendront draconiens. Si la réduction des émissions mondiales de CO2 avait été engagée en 2018, l’humanité aurait pu se contenter d’une baisse annuelle de 5 % jusqu’en 2100 pour limiter le réchauffement à 2 °C. Amorcer ce travail colossal en 2020 aurait demandé une réduction annuelle de 6 %. Patienter jusqu’en 2025, c’est s’obliger à une réduction de 10 % par an.

Face à l’urgence, certains en appellent depuis quelques années à un traité de non-prolifération des combustibles fossiles.

Il « suffirait », en somme, que tout le monde s’engage à ne plus utiliser ce qui active l’économie mondiale depuis 150 ans !

À ce jour, seuls les pays insulaires les plus vulnérables (comme le Vanuatu, les Fidji ou encore les îles Salomon) ont signé ce traité, pas les pays producteurs d’hydrocarbures ni les grands pays importateurs. Il est facile de comprendre pourquoi : cette initiative ne comporte aucun mécanisme financier pour compenser les gouvernements détenteurs de ressources d’hydrocarbures qui accepteraient de laisser sous leurs pieds ce PIB potentiel.

Or, pour que les réserves de combustibles fossiles ne soient pas exploitées, c’est bien une compensation de ce type qu’il faudrait mettre en place pour qu’un accord international puisse aboutir à des résultats significatifs.

La finance, cet acteur clé
Alors, tout est foutu ? Pas forcément !

Une étude a récemment apporté une lueur d’espoir. Deux chercheurs de la Harvard Business School ont montré que le choix de certaines banques de ne plus investir dans le secteur du charbon semble porter leurs fruits.

Les données étudiées (de 2009 à 2021), montrent que les entreprises charbonnières confrontées à de fortes politiques de désinvestissement de la part de leurs bailleurs de fonds réduisent leurs emprunts d’un quart par rapport à leurs homologues non affectés. Ce rationnement du capital semble bien entraîner une réduction des émissions de CO2, car les entreprises « désinvesties » sont plus susceptibles de fermer certaines de leurs installations.

Pourrait-on envisager la même approche avec le secteur du pétrole et du gaz ? En théorie, oui, mais cela serait plus difficile à mettre en œuvre.

Les acteurs du charbon disposent d’un nombre limité d’options pour obtenir un financement alternatif de leur dette si une source existante disparaît. En effet, le nombre de banques qui facilitent les transactions liées au charbon est si faible – et les relations si profondément ancrées – que, par défaut, les banquiers exercent une grande influence sur ce qui est financé dans ce secteur. Ce n’est pas le cas dans le secteur du pétrole et du gaz, où les possibilités de financement sont plus diversifiées. Néanmoins, tout cela montre que le secteur de la finance a bel et bien un rôle à jouer dans la transition bas carbone.

Mais croire que le secteur financier va rediriger l’économie mondiale vers une voie plus écologique, comme par enchantement, serait un leurre.

Le capitalisme impose un impératif de croissance qui n’a tout simplement aucun sens dans un monde aux ressources finies. Ne plus dépasser les limites écologiques du système Terre demande de redéfinir entièrement ce à quoi nous tenons et ce à quoi nous sommes prêts à renoncer.

Catastrophe environnementale : comment en est-on arrivé là ?

Catastrophe environnementale : comment en est-on arrivé là ?

La Terre à l’époque de l’Anthropocène : comment en est-on arrivé là ? Peut-on en limiter les dégâts ?

Par
Victor Court
Économiste, chercheur associé au Laboratoire interdisciplinaire des énergies de demain, Université Paris Cité dans The Conversation

En 2000, deux scientifiques proposèrent pour la première fois l’hypothèse que l’époque de l’Holocène, amorcée il y a 11 700 ans, était révolue.

L’emprise de l’humanité sur le système terrestre serait devenue si profonde qu’elle rivaliserait avec certaines des grandes forces de la nature, au point d’avoir fait bifurquer la trajectoire géologique et écologique de la Terre.

Il faudrait désormais utiliser le terme d’« Anthropocène » pour désigner avec plus de justesse l’époque géologique actuelle. Cette annonce a ouvert des débats considérables.

Parmi les nombreuses polémiques soulevées par ce nouveau concept, la plus évidente porte encore aujourd’hui sur la date du début de l’Anthropocène.

La proposition initiale portait symboliquement sur 1784, l’année du dépôt du brevet de James Watt pour sa machine à vapeur, véritable emblème de l’amorce de la révolution industrielle. Ce choix coïncide en effet avec l’augmentation significative des concentrations atmosphériques de plusieurs gaz à effet de serre, comme en témoignent les données extraites des carottes de glace.

Des chercheurs d’autres disciplines, archéologie et archéobiologie en l’occurrence, avancèrent ensuite l’idée que l’Anthropocène et l’Holocène devraient être considérés comme une même époque géologique.

Dans la perspective de ces disciplines, c’est la fin de la dernière période glaciaire, il y a plus de 10 000 ans, qui aurait favorisé une augmentation sans précédent de la population humaine (grâce à l’apparition progressive de l’agriculture) et, donc, l’émergence de son rôle de force géoécologique.

Une autre approche défend une idée assez similaire, mais en ajoutant quelques milliers d’années à la date du début de l’Anthropocène. Il aurait fallu attendre que la domestication des plantes et des animaux soit suffisamment développée pour que les répercussions environnementales des sociétés agraires – en particulier les rejets de dioxyde de carbone (CO2) dus à la déforestation – soient assez importantes pour faire sortir la Terre de l’Holocène.

À l’opposé, certains membres de la communauté scientifique penchent pour une date plus récente que celle initialement avancée.

La course de l’humanité semble en effet suivre dans sa partie la plus contemporaine une trajectoire particulière qu’on a qualifiée de « Grande Accélération ». C’est autour de 1950 que les principaux indicateurs du système socioéconomique mondial et du système Terre se sont mis à avoir une tendance réellement exponentielle.

L’empreinte écologique de l’humanité prend des formes diverses et interconnectées qui ne cessent de s’aggraver depuis cette date : une modification du climat sans précédent, par sa vitesse et son intensité ; une dégradation généralisée du tissu de la vie, par l’artificialisation des écosystèmes et les rejets de substances entièrement nouvelles (comme les produits de la chimie de synthèse, les plastiques, les pesticides, les perturbateurs endocriniens, les radionucléides et les gaz fluorés) ; un effondrement de la biodiversité d’une ampleur et d’une rapidité inédites (signe pour certains d’une sixième grande extinction, la cinquième étant celle qui vit disparaître les dinosaures, il y a 66 millions d’années) ; et de multiples perturbations des cycles biogéochimiques (notamment ceux de l’eau, de l’azote et du phosphore).

En parallèle avec cette question sur la date du début de l’Anthropocène, d’autres débats ont émergé autour de ce concept. Le plus important a été porté par Andreas Malm et Alf Hornborg, tous deux membres du département de géographie humaine de l’Université de Lund (Suède).

Ces deux chercheurs ont remarqué que le concept d’Anthropocène suggère que toute l’espèce humaine serait responsable des bouleversements planétaires. C’est pour cette raison que de nombreux auteurs ont tendance, même lorsqu’ils font remonter l’Anthropocène au moment du décollage industriel de quelques nations, à affirmer que la cause ultime de l’émergence de sociétés reposant sur les énergies fossiles correspondrait à un processus évolutif long, donc naturel, qui aurait commencé avec la maîtrise du feu par nos ancêtres (il y a au moins 400 000 ans).

Malm et Hornborg affirment que parler de l’Anthropocène en utilisant des catégories généralisantes, comme « l’espèce humaine », « les humains » ou « l’humanité », revient à naturaliser ce phénomène, c’est-à-dire à supposer qu’il était inéluctable, car découlant d’une propension naturelle de notre espèce à exploiter un maximum de ressources dès qu’elle en a l’occasion.

Pour les deux chercheurs, cette naturalisation occulte la dimension sociale du régime fossile des 200 dernières années.

L’adoption de la machine à vapeur alimentée par le charbon, puis des technologies reposant sur le pétrole et le gaz, n’a pas été réalisée à la suite d’une décision unanime de tous les membres de l’humanité, et ce ne sont pas non plus quelques représentants de cette dernière – qui auraient été élus sur la base de caractéristiques naturelles – qui ont décidé de la trajectoire empruntée par notre espèce.

L’exploitation des énergies fossiles émet du CO₂, première cause du réchauffement climatique. Zbynek Burival/Unsplash
Pour Malm et Hornborg, ce sont au contraire des conditions sociales et politiques particulières qui ont, chaque fois, créé la possibilité d’un investissement lucratif pour quelques détenteurs de capitaux, quasi systématiquement des hommes blancs, bourgeois ou aristocrates.

Par exemple, la possibilité d’exploiter les travailleurs britanniques dans les mines de charbon a été déterminante dans le cas de la machine à vapeur aux XVIIIe et XIXe siècles ; tout comme le soutien de plusieurs gouvernements occidentaux l’a été en ce qui concerne la mise en place des infrastructures nécessaires à l’exploitation du pétrole depuis le milieu du XIXe siècle.

L’Anthropocène perçu à l’échelle de la totalité de l’humanité occulte un autre fait majeur : l’inégalité intraespèce dans la responsabilité des bouleversements climatiques et écologiques.

À l’heure actuelle, parmi tous les habitants du monde, les 10 % qui émettent le plus de gaz à effet de serre (GES) sont responsables de 48 % du total des émissions mondiales, alors que les 50 % qui en émettent le moins sont responsables d’à peine 12 % des émissions globales. Parmi les plus gros émetteurs individuels de la planète, les estimations mettent en avant le 1 % le plus riche (composé majoritairement d’Américains, de Luxembourgeois, de Singapouriens, de Saoudiens, etc.), avec des émissions par personne supérieures à 200 tonnes d’équivalent CO2 par année.

À l’autre extrémité du spectre des émetteurs, on trouve les individus les plus pauvres du Honduras, du Mozambique, du Rwanda et du Malawi, avec des émissions 2000 fois plus faibles, proches de 0,1 tonne d’équivalent CO2 par personne et par an.

Ce lien étroit entre richesse et empreinte carbone implique une responsabilité commune, mais différenciée, qui sied mal à la catégorisation englobante de l’Anthropocène.

Par ailleurs, cette critique prend encore plus de sens dans une perspective historique puisque le dérèglement climatique dépend du cumul des émissions de GES. À titre d’exemple, on peut se dire que le Royaume-Uni n’a pas à être à l’avant-garde de la lutte contre le changement climatique, car il ne représente actuellement qu’environ 1 % des émissions mondiales de carbone… C’est oublier un peu vite que ce pays a contribué à 4,5 % des émissions globales depuis 1850, ce qui le place au huitième rang des plus gros pollueurs de l’histoire.

Les nations du monde, et les individus au sein de chacune d’entre elles, n’ont pas contribué de façon équivalente à la trajectoire exponentielle du système Terre depuis 200 ans. L’Europe et l’Amérique du Nord sont historiquement les régions les plus polluantes de l’histoire. Le Royaume-Uni et les États-Unis, chefs d’orchestre respectifs du développement économique mondialisé du XIXe et du XXe siècle, ont une dette écologique particulièrement colossale envers les autres nations. Le charbon a été le carburant du projet de domination impériale britannique, alors que c’est le pétrole qui a joué ce rôle pour les États-Unis.

Pour garder les idées claires sur ce sujet épineux de la contribution historique de chaque nation à la dérive climatique, il peut être avisé de toujours garder en tête que les émissions de GES, et plus généralement l’empreinte environnementale d’un pays ou d’une personne donnée, sont déterminées au premier ordre par leur niveau de consommation de biens et de services.

Habiter dans un pays riche et penser être « écolo » n’a généralement aucun rapport avec la réalité. De plus, toutes les données quantitatives en notre possession ne disent rien de la nécessité vitale – ou, au contraire, de la futilité la plus extrême – à l’origine de l’émission d’un même kilogramme de dioxyde de carbone !

Pour certains, émettre un peu plus de gaz à effet de serre est une question de survie : cela peut représenter une ration de riz ou l’installation d’une toiture. Pour d’autres, il ne s’agit que d’acheter un gadget de plus pour se divertir quelques heures. À ceux qui avancent qu’il faudrait réduire la taille de la population mondiale pour lutter efficacement contre le dérèglement climatique (et toutes les autres perturbations environnementales), on répondra qu’il suffirait plutôt d’empêcher les plus riches de continuer de mener leur train de vie indécent et climaticide.

Parce qu’il fabrique une humanité abstraite qui est uniformément concernée, le discours dominant sur l’Anthropocène suggère une responsabilité tout aussi uniformisée. Les Yanomami et les Achuar d’Amazonie, qui vivent sans recourir à un gramme d’énergie fossile et se contentent de ce qu’ils retirent de la chasse, de la pêche, de la cueillette et d’une agriculture vivrière, devraient-ils donc se sentir aussi responsables du changement climatique et de l’effondrement de la biodiversité que les plus riches industriels, banquiers et autres avocats d’affaires ?

Si la Terre est vraiment entrée dans une nouvelle époque géologique, les responsabilités de chaque nation et de chaque individu sont trop différentes dans l’espace et dans le temps pour qu’on puisse considérer que « l’espèce humaine » est une abstraction satisfaisante pour endosser le fardeau de la culpabilité.

Au-delà de ces nombreux débats et controverses, le dérèglement climatique et l’érosion de la biodiversité réclament des actions massives, concrètes, sans délai. Les efforts et les initiatives, dont certaines conduites à un niveau global, ne semblent pas manquer… Mais lesquelles fonctionnent véritablement ?

Quelle efficacité réelle pour l’Accord de Paris ?

Prenons par exemple la 21e Conférence des parties (COP21) à la Convention-cadre des Nations unies sur le changement climatique, qui s’est tenue à Paris en 2015.

Celle-ci a débouché sur un accord qualifié d’historique puisque, pour la première fois, 196 pays se sont engagés à décarboner l’économie mondiale. En pratique, cet accord laisse à chaque État le soin de définir sa stratégie nationale de transition énergétique. Chaque pays membre doit ensuite présenter aux autres signataires sa « contribution déterminée au niveau national » (CDN). L’addition des CDN forme la trajectoire attendue des émissions mondiales de gaz à effet de serre.

Le problème d’une telle stratégie (si tant est qu’elle soit effectivement appliquée), c’est que le compte n’y est pas : même si toutes les promesses annoncées étaient réalisées, les émissions de GES d’origine humaine nous conduiraient à un réchauffement climatique d’environ 2,7 °C d’ici la fin du siècle.

En 2030, il y aura déjà un écart de 12 milliards de tonnes d’équivalent CO₂ par an (Gtéq-CO₂/an) par rapport au plafond requis pour limiter la hausse des températures à 2 °C. Cet écart grimpe à 20 Gtéq-CO2/an si on considère un réchauffement maximal de 1,5 °C.

Dans le cadre de l’Accord de Paris de 2015, les États peuvent théoriquement amender leurs engagements tous les cinq ans pour renforcer leurs ambitions. Dans les faits, rappelons que les émissions continuent d’augmenter pour quasiment tous les pays signataires (lorsqu’elles sont comptabilisées selon la consommation et non selon la production).

Laurent Fabius acte l’adoption de l’accord de Paris, lors de la COP21 de 2015. Cop Paris/Flickr
Comment pourrait-il en être autrement puisque l’Accord de Paris n’incorpore aucun mécanisme de sanction pour les États qui ne respectent pas leurs engagements ? Seule la pression internationale et populaire est censée les contraindre. Mais quel intérêt peut avoir une stratégie de dénonciation si tous les acteurs sont en faute ?

Bien que l’Accord de Paris ait été présenté comme un succès diplomatique, il faut bien admettre qu’il constitue une coquille vide de plus dans la grande liste des engagements inefficaces pour lutter contre le dérèglement climatique. On aurait d’ailleurs pu s’en douter dès la ratification de ce texte puisque les mots « énergie fossile » n’y apparaissent pas une seule fois… Tout a donc été fait pour ne froisser aucun acteur (public ou privé) et pour qu’ainsi un maximum d’États en viennent à signer un accord qui n’apportera aucune solution au problème le plus urgent de l’humanité.

Arriver à se féliciter du contenu de l’Accord de Paris comme l’ont fait de nombreux représentants politiques montre à quel point ces derniers – et les médias relayant complaisamment leurs idées – n’ont pas du tout saisi l’ampleur du problème.

Au moment de la signature de l’accord en 2015, le volume cumulé de CO2 que l’humanité pouvait se permettre d’émettre pour conserver une chance raisonnable de limiter le réchauffement climatique à 2 °C n’était plus que de 1000 Gt. Compte tenu des émissions des cinq dernières années, ce budget carbone n’est déjà plus que de 800 Gt. Cela correspond donc au tiers des 2420 Gt de CO2 émises jusqu’à présent, de 1850 à 2020, dont 1680 Gt par la combustion des énergies fossiles (et la production de ciment) et 740 Gt par l’usage des sols (principalement la déforestation).

Et à raison d’environ 40 Gt d’émissions annuelles, ce budget carbone se réduit comme peau de chagrin : il sera épuisé d’ici 20 ans si rien ne change.

La solution par un traité de non-prolifération des énergies fossiles ?
Pour atteindre ces objectifs de réduction, les humains, et en particulier les plus riches d’entre eux, doivent consentir à ne plus utiliser ce qui a historiquement représenté la source de leur opulence matérielle.

Les réserves de combustibles fossiles correspondent en effet à des émissions potentielles colossales : au niveau mondial, un tiers des réserves de pétrole, la moitié des réserves de gaz et plus de 80 % des réserves de charbon doivent rester inutilisés. Dans ce cadre, l’augmentation de la production d’hydrocarbures, que ce soit au travers de mines de charbon ou de gisements de pétroles et de gaz déjà connus, ou par l’exploitation de nouvelles ressources fossiles (par exemple en Arctique), vont à contresens des efforts nécessaires pour limiter le dérèglement du climat.

Par ailleurs, plus nous retardons le moment où nous amorcerons réellement la décarbonation de l’économie mondiale, plus les efforts nécessaires deviendront draconiens. Si la réduction des émissions mondiales de CO2 avait été engagée en 2018, l’humanité aurait pu se contenter d’une baisse annuelle de 5 % jusqu’en 2100 pour limiter le réchauffement à 2 °C. Amorcer ce travail colossal en 2020 aurait demandé une réduction annuelle de 6 %. Patienter jusqu’en 2025, c’est s’obliger à une réduction de 10 % par an.

Face à l’urgence, certains en appellent depuis quelques années à un traité de non-prolifération des combustibles fossiles.

Il « suffirait », en somme, que tout le monde s’engage à ne plus utiliser ce qui active l’économie mondiale depuis 150 ans !

À ce jour, seuls les pays insulaires les plus vulnérables (comme le Vanuatu, les Fidji ou encore les îles Salomon) ont signé ce traité, pas les pays producteurs d’hydrocarbures ni les grands pays importateurs. Il est facile de comprendre pourquoi : cette initiative ne comporte aucun mécanisme financier pour compenser les gouvernements détenteurs de ressources d’hydrocarbures qui accepteraient de laisser sous leurs pieds ce PIB potentiel.

Or, pour que les réserves de combustibles fossiles ne soient pas exploitées, c’est bien une compensation de ce type qu’il faudrait mettre en place pour qu’un accord international puisse aboutir à des résultats significatifs.

La finance, cet acteur clé
Alors, tout est foutu ? Pas forcément !

Une étude a récemment apporté une lueur d’espoir. Deux chercheurs de la Harvard Business School ont montré que le choix de certaines banques de ne plus investir dans le secteur du charbon semble porter leurs fruits.

Les données étudiées (de 2009 à 2021), montrent que les entreprises charbonnières confrontées à de fortes politiques de désinvestissement de la part de leurs bailleurs de fonds réduisent leurs emprunts d’un quart par rapport à leurs homologues non affectés. Ce rationnement du capital semble bien entraîner une réduction des émissions de CO2, car les entreprises « désinvesties » sont plus susceptibles de fermer certaines de leurs installations.

Pourrait-on envisager la même approche avec le secteur du pétrole et du gaz ? En théorie, oui, mais cela serait plus difficile à mettre en œuvre.

Les acteurs du charbon disposent d’un nombre limité d’options pour obtenir un financement alternatif de leur dette si une source existante disparaît. En effet, le nombre de banques qui facilitent les transactions liées au charbon est si faible – et les relations si profondément ancrées – que, par défaut, les banquiers exercent une grande influence sur ce qui est financé dans ce secteur. Ce n’est pas le cas dans le secteur du pétrole et du gaz, où les possibilités de financement sont plus diversifiées. Néanmoins, tout cela montre que le secteur de la finance a bel et bien un rôle à jouer dans la transition bas carbone.

Mais croire que le secteur financier va rediriger l’économie mondiale vers une voie plus écologique, comme par enchantement, serait un leurre.

Le capitalisme impose un impératif de croissance qui n’a tout simplement aucun sens dans un monde aux ressources finies. Ne plus dépasser les limites écologiques du système Terre demande de redéfinir entièrement ce à quoi nous tenons et ce à quoi nous sommes prêts à renoncer.

Comment réformer le marché européen de l’électricité

Comment réformer le marché européen de l’électricité

Face à l’explosion des prix de l’énergie et aux difficultés de certains fournisseurs, la Commission européenne a lancé en janvier dernier une consultation (*) pour réformer le marché européen de l’électricité dans une grande indifférence (**). Le problème aurait-il disparu ? Par Alexandre Joly, manager chez Carbone4 et Alain Grandjean, Economiste chez Carbone4.dans la Tribune.

Les causes de la hausse du prix de l’électricité sont connues : la guerre en Ukraine a provoqué une raréfaction du gaz, dont le prix a explosé, les réacteurs nucléaires français ont dysfonctionné et nous n’avons évité les coupures d’électricité que du fait d’un hiver doux et d’une réduction plutôt subie de notre consommation. Malgré tout, ces événements ne rendent pas compréhensibles la hausse des prix de l’électricité pour les consommateurs français. Après tout, même si le nucléaire a été peu efficace, en quoi sont-ils concernés par le gaz qui contribue à moins de 10% de la production d’électricité ?

Affirmons tout de suite que l’interconnexion du marché européen de l’électricité a été une chance pour les consommateurs français, car elle a permis d’importer une électricité qui nous aurait manquée cet hiver. Plus généralement, cette interconnexion permet d’économiser des dizaines de milliards d’euros, notamment en mutualisant les moyens de production. En réalité, la hausse du prix du marché de gros n’a fait que refléter une pénurie physique d’ensemble. Ce marché a donc plutôt fonctionné de ce point de vue et vouloir s’en passer est une voie sans issue. Nous avons intérêt à plus de solidarité énergétique au niveau européen tout en défendant nos intérêts.

Car il est clair que la situation de manque d’énergie va se reproduire. L’Europe est de plus en plus dépendante de ses importations en énergies fossiles, et le changement climatique est une source croissante d’aléas majeurs. De même, le bouclier tarifaire mis en place en France a déjà coûté une centaine de milliards d’euros à l’Etat dont plus d’un tiers pour l’électricité. La récente dégradation de la note de l’Etat par l’agence de notation financière Fitch rappelle à tous qu’il est présomptueux de parier sur une prolongation illimitée de ce dispositif. Ce d’autant que l’Etat et les collectivités publiques sont devant un mur d’investissements pour décarboner notre économie. En outre, le bouclier tarifaire en rendant le prix des énergies relativement indolores incite peu à réduire sa consommation énergétique. Dès lors, il convient donc de réformer le marché européen de l’électricité. La question qu’il convient désormais de se poser est : comment ?

Face au risque de pénurie et au risque climatique, les solutions physiques sont assez claires. Nous devons tout d’abord être de plus en plus économes de notre énergie. Ensuite, la décarbonation de nos énergies et l’électrification de nos usages font figure de priorités pour réduire nos importations de pétrole et de gaz naturel. Une ambition qui ne peut advenir que par une hausse de la production des énergies renouvelables (électriques ou non), du fait d’un parc nucléaire existant sur le déclin et de potentiels nouveaux réacteurs qui n’arriveraient qu’aux alentours de 2040. Leur part dans le mix électrique pourrait atteindre près de 70 % de la production totale européenne d’ici 2030, selon les dernières projections de la Commission européenne. Nous avons donc un intérêt stratégique à encourager cette production et à en maîtriser la plus grande partie de la chaine de valeur.

Comment réformer le marché européen de l’électricité

Financer sur la durée les investissements à engager pour produire et acheminer de l’électricité bas-carbone, en particulier les énergies renouvelables ; il faut rémunérer les entreprises qui les installent en leur donnant de la visibilité.
Assurer une rémunération suffisante sur le long terme des dispositifs de flexibilité de l’offre (exemple : stockage) et de la demande (exemple : décalage de la consommation), nécessaires pour faire face aux aléas croissants que nous allons connaître.$
Protéger les consommateurs de fournisseurs mal armés pour résister à ces aléas.
Conduire à un tarif final stable et régulé qui ne se limiterait pas à un « prix de marché » soumis à d’inévitables secousses.
Inciter à consommer avec mesure un bien précieux, surtout dans les périodes où il est plus difficile à produire.
Les pistes proposées par la Commission européenne ne répondent qu’à une partie de ces enjeux, et nous sommes encore bien loin de disposer d’une architecture claire et actionnable.

_____

(*) https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/13668-Electricity-market-reform-of-the-EUs-electricity-market-design/F_en

(**) https://www.carbone4.com/publication-note-reforme-marche-electrcitite

12345...10



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol