Archive pour le Tag 'comment'

Page 2 sur 10

Comment en est-on arrivé à un telle crise environnementale ?

Comment en est-on arrivé à un telle crise environnementale ?

La Terre à l’époque de l’Anthropocène : comment en est-on arrivé là ? Peut-on en limiter les dégâts ?

Par
Victor Court
Économiste, chercheur associé au Laboratoire interdisciplinaire des énergies de demain, Université Paris Cité dans The Conversation

En 2000, deux scientifiques proposèrent pour la première fois l’hypothèse que l’époque de l’Holocène, amorcée il y a 11 700 ans, était révolue.

L’emprise de l’humanité sur le système terrestre serait devenue si profonde qu’elle rivaliserait avec certaines des grandes forces de la nature, au point d’avoir fait bifurquer la trajectoire géologique et écologique de la Terre.

Il faudrait désormais utiliser le terme d’« Anthropocène » pour désigner avec plus de justesse l’époque géologique actuelle. Cette annonce a ouvert des débats considérables.

Parmi les nombreuses polémiques soulevées par ce nouveau concept, la plus évidente porte encore aujourd’hui sur la date du début de l’Anthropocène.

La proposition initiale portait symboliquement sur 1784, l’année du dépôt du brevet de James Watt pour sa machine à vapeur, véritable emblème de l’amorce de la révolution industrielle. Ce choix coïncide en effet avec l’augmentation significative des concentrations atmosphériques de plusieurs gaz à effet de serre, comme en témoignent les données extraites des carottes de glace.

Des chercheurs d’autres disciplines, archéologie et archéobiologie en l’occurrence, avancèrent ensuite l’idée que l’Anthropocène et l’Holocène devraient être considérés comme une même époque géologique.

Dans la perspective de ces disciplines, c’est la fin de la dernière période glaciaire, il y a plus de 10 000 ans, qui aurait favorisé une augmentation sans précédent de la population humaine (grâce à l’apparition progressive de l’agriculture) et, donc, l’émergence de son rôle de force géoécologique.

Une autre approche défend une idée assez similaire, mais en ajoutant quelques milliers d’années à la date du début de l’Anthropocène. Il aurait fallu attendre que la domestication des plantes et des animaux soit suffisamment développée pour que les répercussions environnementales des sociétés agraires – en particulier les rejets de dioxyde de carbone (CO2) dus à la déforestation – soient assez importantes pour faire sortir la Terre de l’Holocène.

À l’opposé, certains membres de la communauté scientifique penchent pour une date plus récente que celle initialement avancée.

La course de l’humanité semble en effet suivre dans sa partie la plus contemporaine une trajectoire particulière qu’on a qualifiée de « Grande Accélération ». C’est autour de 1950 que les principaux indicateurs du système socioéconomique mondial et du système Terre se sont mis à avoir une tendance réellement exponentielle.

L’empreinte écologique de l’humanité prend des formes diverses et interconnectées qui ne cessent de s’aggraver depuis cette date : une modification du climat sans précédent, par sa vitesse et son intensité ; une dégradation généralisée du tissu de la vie, par l’artificialisation des écosystèmes et les rejets de substances entièrement nouvelles (comme les produits de la chimie de synthèse, les plastiques, les pesticides, les perturbateurs endocriniens, les radionucléides et les gaz fluorés) ; un effondrement de la biodiversité d’une ampleur et d’une rapidité inédites (signe pour certains d’une sixième grande extinction, la cinquième étant celle qui vit disparaître les dinosaures, il y a 66 millions d’années) ; et de multiples perturbations des cycles biogéochimiques (notamment ceux de l’eau, de l’azote et du phosphore).

En parallèle avec cette question sur la date du début de l’Anthropocène, d’autres débats ont émergé autour de ce concept. Le plus important a été porté par Andreas Malm et Alf Hornborg, tous deux membres du département de géographie humaine de l’Université de Lund (Suède).

Ces deux chercheurs ont remarqué que le concept d’Anthropocène suggère que toute l’espèce humaine serait responsable des bouleversements planétaires. C’est pour cette raison que de nombreux auteurs ont tendance, même lorsqu’ils font remonter l’Anthropocène au moment du décollage industriel de quelques nations, à affirmer que la cause ultime de l’émergence de sociétés reposant sur les énergies fossiles correspondrait à un processus évolutif long, donc naturel, qui aurait commencé avec la maîtrise du feu par nos ancêtres (il y a au moins 400 000 ans).

Malm et Hornborg affirment que parler de l’Anthropocène en utilisant des catégories généralisantes, comme « l’espèce humaine », « les humains » ou « l’humanité », revient à naturaliser ce phénomène, c’est-à-dire à supposer qu’il était inéluctable, car découlant d’une propension naturelle de notre espèce à exploiter un maximum de ressources dès qu’elle en a l’occasion.

Pour les deux chercheurs, cette naturalisation occulte la dimension sociale du régime fossile des 200 dernières années.

L’adoption de la machine à vapeur alimentée par le charbon, puis des technologies reposant sur le pétrole et le gaz, n’a pas été réalisée à la suite d’une décision unanime de tous les membres de l’humanité, et ce ne sont pas non plus quelques représentants de cette dernière – qui auraient été élus sur la base de caractéristiques naturelles – qui ont décidé de la trajectoire empruntée par notre espèce.

L’exploitation des énergies fossiles émet du CO₂, première cause du réchauffement climatique. Zbynek Burival/Unsplash
Pour Malm et Hornborg, ce sont au contraire des conditions sociales et politiques particulières qui ont, chaque fois, créé la possibilité d’un investissement lucratif pour quelques détenteurs de capitaux, quasi systématiquement des hommes blancs, bourgeois ou aristocrates.

Par exemple, la possibilité d’exploiter les travailleurs britanniques dans les mines de charbon a été déterminante dans le cas de la machine à vapeur aux XVIIIe et XIXe siècles ; tout comme le soutien de plusieurs gouvernements occidentaux l’a été en ce qui concerne la mise en place des infrastructures nécessaires à l’exploitation du pétrole depuis le milieu du XIXe siècle.

L’Anthropocène perçu à l’échelle de la totalité de l’humanité occulte un autre fait majeur : l’inégalité intraespèce dans la responsabilité des bouleversements climatiques et écologiques.

À l’heure actuelle, parmi tous les habitants du monde, les 10 % qui émettent le plus de gaz à effet de serre (GES) sont responsables de 48 % du total des émissions mondiales, alors que les 50 % qui en émettent le moins sont responsables d’à peine 12 % des émissions globales. Parmi les plus gros émetteurs individuels de la planète, les estimations mettent en avant le 1 % le plus riche (composé majoritairement d’Américains, de Luxembourgeois, de Singapouriens, de Saoudiens, etc.), avec des émissions par personne supérieures à 200 tonnes d’équivalent CO2 par année.

À l’autre extrémité du spectre des émetteurs, on trouve les individus les plus pauvres du Honduras, du Mozambique, du Rwanda et du Malawi, avec des émissions 2000 fois plus faibles, proches de 0,1 tonne d’équivalent CO2 par personne et par an.

Ce lien étroit entre richesse et empreinte carbone implique une responsabilité commune, mais différenciée, qui sied mal à la catégorisation englobante de l’Anthropocène.

Par ailleurs, cette critique prend encore plus de sens dans une perspective historique puisque le dérèglement climatique dépend du cumul des émissions de GES. À titre d’exemple, on peut se dire que le Royaume-Uni n’a pas à être à l’avant-garde de la lutte contre le changement climatique, car il ne représente actuellement qu’environ 1 % des émissions mondiales de carbone… C’est oublier un peu vite que ce pays a contribué à 4,5 % des émissions globales depuis 1850, ce qui le place au huitième rang des plus gros pollueurs de l’histoire.

Les nations du monde, et les individus au sein de chacune d’entre elles, n’ont pas contribué de façon équivalente à la trajectoire exponentielle du système Terre depuis 200 ans. L’Europe et l’Amérique du Nord sont historiquement les régions les plus polluantes de l’histoire. Le Royaume-Uni et les États-Unis, chefs d’orchestre respectifs du développement économique mondialisé du XIXe et du XXe siècle, ont une dette écologique particulièrement colossale envers les autres nations. Le charbon a été le carburant du projet de domination impériale britannique, alors que c’est le pétrole qui a joué ce rôle pour les États-Unis.

Pour garder les idées claires sur ce sujet épineux de la contribution historique de chaque nation à la dérive climatique, il peut être avisé de toujours garder en tête que les émissions de GES, et plus généralement l’empreinte environnementale d’un pays ou d’une personne donnée, sont déterminées au premier ordre par leur niveau de consommation de biens et de services.

Habiter dans un pays riche et penser être « écolo » n’a généralement aucun rapport avec la réalité. De plus, toutes les données quantitatives en notre possession ne disent rien de la nécessité vitale – ou, au contraire, de la futilité la plus extrême – à l’origine de l’émission d’un même kilogramme de dioxyde de carbone !

Pour certains, émettre un peu plus de gaz à effet de serre est une question de survie : cela peut représenter une ration de riz ou l’installation d’une toiture. Pour d’autres, il ne s’agit que d’acheter un gadget de plus pour se divertir quelques heures. À ceux qui avancent qu’il faudrait réduire la taille de la population mondiale pour lutter efficacement contre le dérèglement climatique (et toutes les autres perturbations environnementales), on répondra qu’il suffirait plutôt d’empêcher les plus riches de continuer de mener leur train de vie indécent et climaticide.

Parce qu’il fabrique une humanité abstraite qui est uniformément concernée, le discours dominant sur l’Anthropocène suggère une responsabilité tout aussi uniformisée. Les Yanomami et les Achuar d’Amazonie, qui vivent sans recourir à un gramme d’énergie fossile et se contentent de ce qu’ils retirent de la chasse, de la pêche, de la cueillette et d’une agriculture vivrière, devraient-ils donc se sentir aussi responsables du changement climatique et de l’effondrement de la biodiversité que les plus riches industriels, banquiers et autres avocats d’affaires ?

Si la Terre est vraiment entrée dans une nouvelle époque géologique, les responsabilités de chaque nation et de chaque individu sont trop différentes dans l’espace et dans le temps pour qu’on puisse considérer que « l’espèce humaine » est une abstraction satisfaisante pour endosser le fardeau de la culpabilité.

Au-delà de ces nombreux débats et controverses, le dérèglement climatique et l’érosion de la biodiversité réclament des actions massives, concrètes, sans délai. Les efforts et les initiatives, dont certaines conduites à un niveau global, ne semblent pas manquer… Mais lesquelles fonctionnent véritablement ?

Quelle efficacité réelle pour l’Accord de Paris ?

Prenons par exemple la 21e Conférence des parties (COP21) à la Convention-cadre des Nations unies sur le changement climatique, qui s’est tenue à Paris en 2015.

Celle-ci a débouché sur un accord qualifié d’historique puisque, pour la première fois, 196 pays se sont engagés à décarboner l’économie mondiale. En pratique, cet accord laisse à chaque État le soin de définir sa stratégie nationale de transition énergétique. Chaque pays membre doit ensuite présenter aux autres signataires sa « contribution déterminée au niveau national » (CDN). L’addition des CDN forme la trajectoire attendue des émissions mondiales de gaz à effet de serre.

Le problème d’une telle stratégie (si tant est qu’elle soit effectivement appliquée), c’est que le compte n’y est pas : même si toutes les promesses annoncées étaient réalisées, les émissions de GES d’origine humaine nous conduiraient à un réchauffement climatique d’environ 2,7 °C d’ici la fin du siècle.

En 2030, il y aura déjà un écart de 12 milliards de tonnes d’équivalent CO₂ par an (Gtéq-CO₂/an) par rapport au plafond requis pour limiter la hausse des températures à 2 °C. Cet écart grimpe à 20 Gtéq-CO2/an si on considère un réchauffement maximal de 1,5 °C.

Dans le cadre de l’Accord de Paris de 2015, les États peuvent théoriquement amender leurs engagements tous les cinq ans pour renforcer leurs ambitions. Dans les faits, rappelons que les émissions continuent d’augmenter pour quasiment tous les pays signataires (lorsqu’elles sont comptabilisées selon la consommation et non selon la production).

Laurent Fabius acte l’adoption de l’accord de Paris, lors de la COP21 de 2015. Cop Paris/Flickr
Comment pourrait-il en être autrement puisque l’Accord de Paris n’incorpore aucun mécanisme de sanction pour les États qui ne respectent pas leurs engagements ? Seule la pression internationale et populaire est censée les contraindre. Mais quel intérêt peut avoir une stratégie de dénonciation si tous les acteurs sont en faute ?

Bien que l’Accord de Paris ait été présenté comme un succès diplomatique, il faut bien admettre qu’il constitue une coquille vide de plus dans la grande liste des engagements inefficaces pour lutter contre le dérèglement climatique. On aurait d’ailleurs pu s’en douter dès la ratification de ce texte puisque les mots « énergie fossile » n’y apparaissent pas une seule fois… Tout a donc été fait pour ne froisser aucun acteur (public ou privé) et pour qu’ainsi un maximum d’États en viennent à signer un accord qui n’apportera aucune solution au problème le plus urgent de l’humanité.

Arriver à se féliciter du contenu de l’Accord de Paris comme l’ont fait de nombreux représentants politiques montre à quel point ces derniers – et les médias relayant complaisamment leurs idées – n’ont pas du tout saisi l’ampleur du problème.

Au moment de la signature de l’accord en 2015, le volume cumulé de CO2 que l’humanité pouvait se permettre d’émettre pour conserver une chance raisonnable de limiter le réchauffement climatique à 2 °C n’était plus que de 1000 Gt. Compte tenu des émissions des cinq dernières années, ce budget carbone n’est déjà plus que de 800 Gt. Cela correspond donc au tiers des 2420 Gt de CO2 émises jusqu’à présent, de 1850 à 2020, dont 1680 Gt par la combustion des énergies fossiles (et la production de ciment) et 740 Gt par l’usage des sols (principalement la déforestation).

Et à raison d’environ 40 Gt d’émissions annuelles, ce budget carbone se réduit comme peau de chagrin : il sera épuisé d’ici 20 ans si rien ne change.

La solution par un traité de non-prolifération des énergies fossiles ?
Pour atteindre ces objectifs de réduction, les humains, et en particulier les plus riches d’entre eux, doivent consentir à ne plus utiliser ce qui a historiquement représenté la source de leur opulence matérielle.

Les réserves de combustibles fossiles correspondent en effet à des émissions potentielles colossales : au niveau mondial, un tiers des réserves de pétrole, la moitié des réserves de gaz et plus de 80 % des réserves de charbon doivent rester inutilisés. Dans ce cadre, l’augmentation de la production d’hydrocarbures, que ce soit au travers de mines de charbon ou de gisements de pétroles et de gaz déjà connus, ou par l’exploitation de nouvelles ressources fossiles (par exemple en Arctique), vont à contresens des efforts nécessaires pour limiter le dérèglement du climat.

Par ailleurs, plus nous retardons le moment où nous amorcerons réellement la décarbonation de l’économie mondiale, plus les efforts nécessaires deviendront draconiens. Si la réduction des émissions mondiales de CO2 avait été engagée en 2018, l’humanité aurait pu se contenter d’une baisse annuelle de 5 % jusqu’en 2100 pour limiter le réchauffement à 2 °C. Amorcer ce travail colossal en 2020 aurait demandé une réduction annuelle de 6 %. Patienter jusqu’en 2025, c’est s’obliger à une réduction de 10 % par an.

Face à l’urgence, certains en appellent depuis quelques années à un traité de non-prolifération des combustibles fossiles.

Il « suffirait », en somme, que tout le monde s’engage à ne plus utiliser ce qui active l’économie mondiale depuis 150 ans !

À ce jour, seuls les pays insulaires les plus vulnérables (comme le Vanuatu, les Fidji ou encore les îles Salomon) ont signé ce traité, pas les pays producteurs d’hydrocarbures ni les grands pays importateurs. Il est facile de comprendre pourquoi : cette initiative ne comporte aucun mécanisme financier pour compenser les gouvernements détenteurs de ressources d’hydrocarbures qui accepteraient de laisser sous leurs pieds ce PIB potentiel.

Or, pour que les réserves de combustibles fossiles ne soient pas exploitées, c’est bien une compensation de ce type qu’il faudrait mettre en place pour qu’un accord international puisse aboutir à des résultats significatifs.

La finance, cet acteur clé
Alors, tout est foutu ? Pas forcément !

Une étude a récemment apporté une lueur d’espoir. Deux chercheurs de la Harvard Business School ont montré que le choix de certaines banques de ne plus investir dans le secteur du charbon semble porter leurs fruits.

Les données étudiées (de 2009 à 2021), montrent que les entreprises charbonnières confrontées à de fortes politiques de désinvestissement de la part de leurs bailleurs de fonds réduisent leurs emprunts d’un quart par rapport à leurs homologues non affectés. Ce rationnement du capital semble bien entraîner une réduction des émissions de CO2, car les entreprises « désinvesties » sont plus susceptibles de fermer certaines de leurs installations.

Pourrait-on envisager la même approche avec le secteur du pétrole et du gaz ? En théorie, oui, mais cela serait plus difficile à mettre en œuvre.

Les acteurs du charbon disposent d’un nombre limité d’options pour obtenir un financement alternatif de leur dette si une source existante disparaît. En effet, le nombre de banques qui facilitent les transactions liées au charbon est si faible – et les relations si profondément ancrées – que, par défaut, les banquiers exercent une grande influence sur ce qui est financé dans ce secteur. Ce n’est pas le cas dans le secteur du pétrole et du gaz, où les possibilités de financement sont plus diversifiées. Néanmoins, tout cela montre que le secteur de la finance a bel et bien un rôle à jouer dans la transition bas carbone.

Mais croire que le secteur financier va rediriger l’économie mondiale vers une voie plus écologique, comme par enchantement, serait un leurre.

Le capitalisme impose un impératif de croissance qui n’a tout simplement aucun sens dans un monde aux ressources finies. Ne plus dépasser les limites écologiques du système Terre demande de redéfinir entièrement ce à quoi nous tenons et ce à quoi nous sommes prêts à renoncer.

Catastrophe environnementale : comment en est-on arrivé là ?

Catastrophe environnementale : comment en est-on arrivé là ?

La Terre à l’époque de l’Anthropocène : comment en est-on arrivé là ? Peut-on en limiter les dégâts ?

Par
Victor Court
Économiste, chercheur associé au Laboratoire interdisciplinaire des énergies de demain, Université Paris Cité dans The Conversation

En 2000, deux scientifiques proposèrent pour la première fois l’hypothèse que l’époque de l’Holocène, amorcée il y a 11 700 ans, était révolue.

L’emprise de l’humanité sur le système terrestre serait devenue si profonde qu’elle rivaliserait avec certaines des grandes forces de la nature, au point d’avoir fait bifurquer la trajectoire géologique et écologique de la Terre.

Il faudrait désormais utiliser le terme d’« Anthropocène » pour désigner avec plus de justesse l’époque géologique actuelle. Cette annonce a ouvert des débats considérables.

Parmi les nombreuses polémiques soulevées par ce nouveau concept, la plus évidente porte encore aujourd’hui sur la date du début de l’Anthropocène.

La proposition initiale portait symboliquement sur 1784, l’année du dépôt du brevet de James Watt pour sa machine à vapeur, véritable emblème de l’amorce de la révolution industrielle. Ce choix coïncide en effet avec l’augmentation significative des concentrations atmosphériques de plusieurs gaz à effet de serre, comme en témoignent les données extraites des carottes de glace.

Des chercheurs d’autres disciplines, archéologie et archéobiologie en l’occurrence, avancèrent ensuite l’idée que l’Anthropocène et l’Holocène devraient être considérés comme une même époque géologique.

Dans la perspective de ces disciplines, c’est la fin de la dernière période glaciaire, il y a plus de 10 000 ans, qui aurait favorisé une augmentation sans précédent de la population humaine (grâce à l’apparition progressive de l’agriculture) et, donc, l’émergence de son rôle de force géoécologique.

Une autre approche défend une idée assez similaire, mais en ajoutant quelques milliers d’années à la date du début de l’Anthropocène. Il aurait fallu attendre que la domestication des plantes et des animaux soit suffisamment développée pour que les répercussions environnementales des sociétés agraires – en particulier les rejets de dioxyde de carbone (CO2) dus à la déforestation – soient assez importantes pour faire sortir la Terre de l’Holocène.

À l’opposé, certains membres de la communauté scientifique penchent pour une date plus récente que celle initialement avancée.

La course de l’humanité semble en effet suivre dans sa partie la plus contemporaine une trajectoire particulière qu’on a qualifiée de « Grande Accélération ». C’est autour de 1950 que les principaux indicateurs du système socioéconomique mondial et du système Terre se sont mis à avoir une tendance réellement exponentielle.

L’empreinte écologique de l’humanité prend des formes diverses et interconnectées qui ne cessent de s’aggraver depuis cette date : une modification du climat sans précédent, par sa vitesse et son intensité ; une dégradation généralisée du tissu de la vie, par l’artificialisation des écosystèmes et les rejets de substances entièrement nouvelles (comme les produits de la chimie de synthèse, les plastiques, les pesticides, les perturbateurs endocriniens, les radionucléides et les gaz fluorés) ; un effondrement de la biodiversité d’une ampleur et d’une rapidité inédites (signe pour certains d’une sixième grande extinction, la cinquième étant celle qui vit disparaître les dinosaures, il y a 66 millions d’années) ; et de multiples perturbations des cycles biogéochimiques (notamment ceux de l’eau, de l’azote et du phosphore).

En parallèle avec cette question sur la date du début de l’Anthropocène, d’autres débats ont émergé autour de ce concept. Le plus important a été porté par Andreas Malm et Alf Hornborg, tous deux membres du département de géographie humaine de l’Université de Lund (Suède).

Ces deux chercheurs ont remarqué que le concept d’Anthropocène suggère que toute l’espèce humaine serait responsable des bouleversements planétaires. C’est pour cette raison que de nombreux auteurs ont tendance, même lorsqu’ils font remonter l’Anthropocène au moment du décollage industriel de quelques nations, à affirmer que la cause ultime de l’émergence de sociétés reposant sur les énergies fossiles correspondrait à un processus évolutif long, donc naturel, qui aurait commencé avec la maîtrise du feu par nos ancêtres (il y a au moins 400 000 ans).

Malm et Hornborg affirment que parler de l’Anthropocène en utilisant des catégories généralisantes, comme « l’espèce humaine », « les humains » ou « l’humanité », revient à naturaliser ce phénomène, c’est-à-dire à supposer qu’il était inéluctable, car découlant d’une propension naturelle de notre espèce à exploiter un maximum de ressources dès qu’elle en a l’occasion.

Pour les deux chercheurs, cette naturalisation occulte la dimension sociale du régime fossile des 200 dernières années.

L’adoption de la machine à vapeur alimentée par le charbon, puis des technologies reposant sur le pétrole et le gaz, n’a pas été réalisée à la suite d’une décision unanime de tous les membres de l’humanité, et ce ne sont pas non plus quelques représentants de cette dernière – qui auraient été élus sur la base de caractéristiques naturelles – qui ont décidé de la trajectoire empruntée par notre espèce.

L’exploitation des énergies fossiles émet du CO₂, première cause du réchauffement climatique. Zbynek Burival/Unsplash
Pour Malm et Hornborg, ce sont au contraire des conditions sociales et politiques particulières qui ont, chaque fois, créé la possibilité d’un investissement lucratif pour quelques détenteurs de capitaux, quasi systématiquement des hommes blancs, bourgeois ou aristocrates.

Par exemple, la possibilité d’exploiter les travailleurs britanniques dans les mines de charbon a été déterminante dans le cas de la machine à vapeur aux XVIIIe et XIXe siècles ; tout comme le soutien de plusieurs gouvernements occidentaux l’a été en ce qui concerne la mise en place des infrastructures nécessaires à l’exploitation du pétrole depuis le milieu du XIXe siècle.

L’Anthropocène perçu à l’échelle de la totalité de l’humanité occulte un autre fait majeur : l’inégalité intraespèce dans la responsabilité des bouleversements climatiques et écologiques.

À l’heure actuelle, parmi tous les habitants du monde, les 10 % qui émettent le plus de gaz à effet de serre (GES) sont responsables de 48 % du total des émissions mondiales, alors que les 50 % qui en émettent le moins sont responsables d’à peine 12 % des émissions globales. Parmi les plus gros émetteurs individuels de la planète, les estimations mettent en avant le 1 % le plus riche (composé majoritairement d’Américains, de Luxembourgeois, de Singapouriens, de Saoudiens, etc.), avec des émissions par personne supérieures à 200 tonnes d’équivalent CO2 par année.

À l’autre extrémité du spectre des émetteurs, on trouve les individus les plus pauvres du Honduras, du Mozambique, du Rwanda et du Malawi, avec des émissions 2000 fois plus faibles, proches de 0,1 tonne d’équivalent CO2 par personne et par an.

Ce lien étroit entre richesse et empreinte carbone implique une responsabilité commune, mais différenciée, qui sied mal à la catégorisation englobante de l’Anthropocène.

Par ailleurs, cette critique prend encore plus de sens dans une perspective historique puisque le dérèglement climatique dépend du cumul des émissions de GES. À titre d’exemple, on peut se dire que le Royaume-Uni n’a pas à être à l’avant-garde de la lutte contre le changement climatique, car il ne représente actuellement qu’environ 1 % des émissions mondiales de carbone… C’est oublier un peu vite que ce pays a contribué à 4,5 % des émissions globales depuis 1850, ce qui le place au huitième rang des plus gros pollueurs de l’histoire.

Les nations du monde, et les individus au sein de chacune d’entre elles, n’ont pas contribué de façon équivalente à la trajectoire exponentielle du système Terre depuis 200 ans. L’Europe et l’Amérique du Nord sont historiquement les régions les plus polluantes de l’histoire. Le Royaume-Uni et les États-Unis, chefs d’orchestre respectifs du développement économique mondialisé du XIXe et du XXe siècle, ont une dette écologique particulièrement colossale envers les autres nations. Le charbon a été le carburant du projet de domination impériale britannique, alors que c’est le pétrole qui a joué ce rôle pour les États-Unis.

Pour garder les idées claires sur ce sujet épineux de la contribution historique de chaque nation à la dérive climatique, il peut être avisé de toujours garder en tête que les émissions de GES, et plus généralement l’empreinte environnementale d’un pays ou d’une personne donnée, sont déterminées au premier ordre par leur niveau de consommation de biens et de services.

Habiter dans un pays riche et penser être « écolo » n’a généralement aucun rapport avec la réalité. De plus, toutes les données quantitatives en notre possession ne disent rien de la nécessité vitale – ou, au contraire, de la futilité la plus extrême – à l’origine de l’émission d’un même kilogramme de dioxyde de carbone !

Pour certains, émettre un peu plus de gaz à effet de serre est une question de survie : cela peut représenter une ration de riz ou l’installation d’une toiture. Pour d’autres, il ne s’agit que d’acheter un gadget de plus pour se divertir quelques heures. À ceux qui avancent qu’il faudrait réduire la taille de la population mondiale pour lutter efficacement contre le dérèglement climatique (et toutes les autres perturbations environnementales), on répondra qu’il suffirait plutôt d’empêcher les plus riches de continuer de mener leur train de vie indécent et climaticide.

Parce qu’il fabrique une humanité abstraite qui est uniformément concernée, le discours dominant sur l’Anthropocène suggère une responsabilité tout aussi uniformisée. Les Yanomami et les Achuar d’Amazonie, qui vivent sans recourir à un gramme d’énergie fossile et se contentent de ce qu’ils retirent de la chasse, de la pêche, de la cueillette et d’une agriculture vivrière, devraient-ils donc se sentir aussi responsables du changement climatique et de l’effondrement de la biodiversité que les plus riches industriels, banquiers et autres avocats d’affaires ?

Si la Terre est vraiment entrée dans une nouvelle époque géologique, les responsabilités de chaque nation et de chaque individu sont trop différentes dans l’espace et dans le temps pour qu’on puisse considérer que « l’espèce humaine » est une abstraction satisfaisante pour endosser le fardeau de la culpabilité.

Au-delà de ces nombreux débats et controverses, le dérèglement climatique et l’érosion de la biodiversité réclament des actions massives, concrètes, sans délai. Les efforts et les initiatives, dont certaines conduites à un niveau global, ne semblent pas manquer… Mais lesquelles fonctionnent véritablement ?

Quelle efficacité réelle pour l’Accord de Paris ?

Prenons par exemple la 21e Conférence des parties (COP21) à la Convention-cadre des Nations unies sur le changement climatique, qui s’est tenue à Paris en 2015.

Celle-ci a débouché sur un accord qualifié d’historique puisque, pour la première fois, 196 pays se sont engagés à décarboner l’économie mondiale. En pratique, cet accord laisse à chaque État le soin de définir sa stratégie nationale de transition énergétique. Chaque pays membre doit ensuite présenter aux autres signataires sa « contribution déterminée au niveau national » (CDN). L’addition des CDN forme la trajectoire attendue des émissions mondiales de gaz à effet de serre.

Le problème d’une telle stratégie (si tant est qu’elle soit effectivement appliquée), c’est que le compte n’y est pas : même si toutes les promesses annoncées étaient réalisées, les émissions de GES d’origine humaine nous conduiraient à un réchauffement climatique d’environ 2,7 °C d’ici la fin du siècle.

En 2030, il y aura déjà un écart de 12 milliards de tonnes d’équivalent CO₂ par an (Gtéq-CO₂/an) par rapport au plafond requis pour limiter la hausse des températures à 2 °C. Cet écart grimpe à 20 Gtéq-CO2/an si on considère un réchauffement maximal de 1,5 °C.

Dans le cadre de l’Accord de Paris de 2015, les États peuvent théoriquement amender leurs engagements tous les cinq ans pour renforcer leurs ambitions. Dans les faits, rappelons que les émissions continuent d’augmenter pour quasiment tous les pays signataires (lorsqu’elles sont comptabilisées selon la consommation et non selon la production).

Laurent Fabius acte l’adoption de l’accord de Paris, lors de la COP21 de 2015. Cop Paris/Flickr
Comment pourrait-il en être autrement puisque l’Accord de Paris n’incorpore aucun mécanisme de sanction pour les États qui ne respectent pas leurs engagements ? Seule la pression internationale et populaire est censée les contraindre. Mais quel intérêt peut avoir une stratégie de dénonciation si tous les acteurs sont en faute ?

Bien que l’Accord de Paris ait été présenté comme un succès diplomatique, il faut bien admettre qu’il constitue une coquille vide de plus dans la grande liste des engagements inefficaces pour lutter contre le dérèglement climatique. On aurait d’ailleurs pu s’en douter dès la ratification de ce texte puisque les mots « énergie fossile » n’y apparaissent pas une seule fois… Tout a donc été fait pour ne froisser aucun acteur (public ou privé) et pour qu’ainsi un maximum d’États en viennent à signer un accord qui n’apportera aucune solution au problème le plus urgent de l’humanité.

Arriver à se féliciter du contenu de l’Accord de Paris comme l’ont fait de nombreux représentants politiques montre à quel point ces derniers – et les médias relayant complaisamment leurs idées – n’ont pas du tout saisi l’ampleur du problème.

Au moment de la signature de l’accord en 2015, le volume cumulé de CO2 que l’humanité pouvait se permettre d’émettre pour conserver une chance raisonnable de limiter le réchauffement climatique à 2 °C n’était plus que de 1000 Gt. Compte tenu des émissions des cinq dernières années, ce budget carbone n’est déjà plus que de 800 Gt. Cela correspond donc au tiers des 2420 Gt de CO2 émises jusqu’à présent, de 1850 à 2020, dont 1680 Gt par la combustion des énergies fossiles (et la production de ciment) et 740 Gt par l’usage des sols (principalement la déforestation).

Et à raison d’environ 40 Gt d’émissions annuelles, ce budget carbone se réduit comme peau de chagrin : il sera épuisé d’ici 20 ans si rien ne change.

La solution par un traité de non-prolifération des énergies fossiles ?
Pour atteindre ces objectifs de réduction, les humains, et en particulier les plus riches d’entre eux, doivent consentir à ne plus utiliser ce qui a historiquement représenté la source de leur opulence matérielle.

Les réserves de combustibles fossiles correspondent en effet à des émissions potentielles colossales : au niveau mondial, un tiers des réserves de pétrole, la moitié des réserves de gaz et plus de 80 % des réserves de charbon doivent rester inutilisés. Dans ce cadre, l’augmentation de la production d’hydrocarbures, que ce soit au travers de mines de charbon ou de gisements de pétroles et de gaz déjà connus, ou par l’exploitation de nouvelles ressources fossiles (par exemple en Arctique), vont à contresens des efforts nécessaires pour limiter le dérèglement du climat.

Par ailleurs, plus nous retardons le moment où nous amorcerons réellement la décarbonation de l’économie mondiale, plus les efforts nécessaires deviendront draconiens. Si la réduction des émissions mondiales de CO2 avait été engagée en 2018, l’humanité aurait pu se contenter d’une baisse annuelle de 5 % jusqu’en 2100 pour limiter le réchauffement à 2 °C. Amorcer ce travail colossal en 2020 aurait demandé une réduction annuelle de 6 %. Patienter jusqu’en 2025, c’est s’obliger à une réduction de 10 % par an.

Face à l’urgence, certains en appellent depuis quelques années à un traité de non-prolifération des combustibles fossiles.

Il « suffirait », en somme, que tout le monde s’engage à ne plus utiliser ce qui active l’économie mondiale depuis 150 ans !

À ce jour, seuls les pays insulaires les plus vulnérables (comme le Vanuatu, les Fidji ou encore les îles Salomon) ont signé ce traité, pas les pays producteurs d’hydrocarbures ni les grands pays importateurs. Il est facile de comprendre pourquoi : cette initiative ne comporte aucun mécanisme financier pour compenser les gouvernements détenteurs de ressources d’hydrocarbures qui accepteraient de laisser sous leurs pieds ce PIB potentiel.

Or, pour que les réserves de combustibles fossiles ne soient pas exploitées, c’est bien une compensation de ce type qu’il faudrait mettre en place pour qu’un accord international puisse aboutir à des résultats significatifs.

La finance, cet acteur clé
Alors, tout est foutu ? Pas forcément !

Une étude a récemment apporté une lueur d’espoir. Deux chercheurs de la Harvard Business School ont montré que le choix de certaines banques de ne plus investir dans le secteur du charbon semble porter leurs fruits.

Les données étudiées (de 2009 à 2021), montrent que les entreprises charbonnières confrontées à de fortes politiques de désinvestissement de la part de leurs bailleurs de fonds réduisent leurs emprunts d’un quart par rapport à leurs homologues non affectés. Ce rationnement du capital semble bien entraîner une réduction des émissions de CO2, car les entreprises « désinvesties » sont plus susceptibles de fermer certaines de leurs installations.

Pourrait-on envisager la même approche avec le secteur du pétrole et du gaz ? En théorie, oui, mais cela serait plus difficile à mettre en œuvre.

Les acteurs du charbon disposent d’un nombre limité d’options pour obtenir un financement alternatif de leur dette si une source existante disparaît. En effet, le nombre de banques qui facilitent les transactions liées au charbon est si faible – et les relations si profondément ancrées – que, par défaut, les banquiers exercent une grande influence sur ce qui est financé dans ce secteur. Ce n’est pas le cas dans le secteur du pétrole et du gaz, où les possibilités de financement sont plus diversifiées. Néanmoins, tout cela montre que le secteur de la finance a bel et bien un rôle à jouer dans la transition bas carbone.

Mais croire que le secteur financier va rediriger l’économie mondiale vers une voie plus écologique, comme par enchantement, serait un leurre.

Le capitalisme impose un impératif de croissance qui n’a tout simplement aucun sens dans un monde aux ressources finies. Ne plus dépasser les limites écologiques du système Terre demande de redéfinir entièrement ce à quoi nous tenons et ce à quoi nous sommes prêts à renoncer.

Comment réformer le marché européen de l’électricité

Comment réformer le marché européen de l’électricité

Face à l’explosion des prix de l’énergie et aux difficultés de certains fournisseurs, la Commission européenne a lancé en janvier dernier une consultation (*) pour réformer le marché européen de l’électricité dans une grande indifférence (**). Le problème aurait-il disparu ? Par Alexandre Joly, manager chez Carbone4 et Alain Grandjean, Economiste chez Carbone4.dans la Tribune.

Les causes de la hausse du prix de l’électricité sont connues : la guerre en Ukraine a provoqué une raréfaction du gaz, dont le prix a explosé, les réacteurs nucléaires français ont dysfonctionné et nous n’avons évité les coupures d’électricité que du fait d’un hiver doux et d’une réduction plutôt subie de notre consommation. Malgré tout, ces événements ne rendent pas compréhensibles la hausse des prix de l’électricité pour les consommateurs français. Après tout, même si le nucléaire a été peu efficace, en quoi sont-ils concernés par le gaz qui contribue à moins de 10% de la production d’électricité ?

Affirmons tout de suite que l’interconnexion du marché européen de l’électricité a été une chance pour les consommateurs français, car elle a permis d’importer une électricité qui nous aurait manquée cet hiver. Plus généralement, cette interconnexion permet d’économiser des dizaines de milliards d’euros, notamment en mutualisant les moyens de production. En réalité, la hausse du prix du marché de gros n’a fait que refléter une pénurie physique d’ensemble. Ce marché a donc plutôt fonctionné de ce point de vue et vouloir s’en passer est une voie sans issue. Nous avons intérêt à plus de solidarité énergétique au niveau européen tout en défendant nos intérêts.

Car il est clair que la situation de manque d’énergie va se reproduire. L’Europe est de plus en plus dépendante de ses importations en énergies fossiles, et le changement climatique est une source croissante d’aléas majeurs. De même, le bouclier tarifaire mis en place en France a déjà coûté une centaine de milliards d’euros à l’Etat dont plus d’un tiers pour l’électricité. La récente dégradation de la note de l’Etat par l’agence de notation financière Fitch rappelle à tous qu’il est présomptueux de parier sur une prolongation illimitée de ce dispositif. Ce d’autant que l’Etat et les collectivités publiques sont devant un mur d’investissements pour décarboner notre économie. En outre, le bouclier tarifaire en rendant le prix des énergies relativement indolores incite peu à réduire sa consommation énergétique. Dès lors, il convient donc de réformer le marché européen de l’électricité. La question qu’il convient désormais de se poser est : comment ?

Face au risque de pénurie et au risque climatique, les solutions physiques sont assez claires. Nous devons tout d’abord être de plus en plus économes de notre énergie. Ensuite, la décarbonation de nos énergies et l’électrification de nos usages font figure de priorités pour réduire nos importations de pétrole et de gaz naturel. Une ambition qui ne peut advenir que par une hausse de la production des énergies renouvelables (électriques ou non), du fait d’un parc nucléaire existant sur le déclin et de potentiels nouveaux réacteurs qui n’arriveraient qu’aux alentours de 2040. Leur part dans le mix électrique pourrait atteindre près de 70 % de la production totale européenne d’ici 2030, selon les dernières projections de la Commission européenne. Nous avons donc un intérêt stratégique à encourager cette production et à en maîtriser la plus grande partie de la chaine de valeur.

Comment réformer le marché européen de l’électricité

Financer sur la durée les investissements à engager pour produire et acheminer de l’électricité bas-carbone, en particulier les énergies renouvelables ; il faut rémunérer les entreprises qui les installent en leur donnant de la visibilité.
Assurer une rémunération suffisante sur le long terme des dispositifs de flexibilité de l’offre (exemple : stockage) et de la demande (exemple : décalage de la consommation), nécessaires pour faire face aux aléas croissants que nous allons connaître.$
Protéger les consommateurs de fournisseurs mal armés pour résister à ces aléas.
Conduire à un tarif final stable et régulé qui ne se limiterait pas à un « prix de marché » soumis à d’inévitables secousses.
Inciter à consommer avec mesure un bien précieux, surtout dans les périodes où il est plus difficile à produire.
Les pistes proposées par la Commission européenne ne répondent qu’à une partie de ces enjeux, et nous sommes encore bien loin de disposer d’une architecture claire et actionnable.

_____

(*) https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/13668-Electricity-market-reform-of-the-EUs-electricity-market-design/F_en

(**) https://www.carbone4.com/publication-note-reforme-marche-electrcitite

Comment faire face à la crise du logement ?

Comment faire face à la crise du logement ?

Xavier Lépine , président de l’Institut de l’épargne immobilière et foncière (IEIF) appelle à repenser les manières de soutenir le secteur pour permettre aux Français d’accéder à la propriété. Tribune dans le JDD.


« 3,5 milliards d’euros : c’est le montant que la Caisse des dépôts va engager pour « sauver » le logement, en rachetant des programmes de construction. C’est beaucoup d’argent, nécessaire et bienvenu ; et en même temps, c’est bien peu. C’est l’équivalent de 17 000 logements, autrement dit pas grand-chose en regard du 1,2 million de transactions annuelles, représentant 250 milliards d’euros, et de l’angoisse qui traverse notre pays du fait de l’impossibilité de bien se loger, ou de se loger tout court. Les politiques publiques à coups de milliards, qui devraient faire disparaître le problème mais ne le font en réalité que superficiellement, nous en avons l’habitude. Elles sont l’expression d’un mal français, fait de résignation, de conservatisme et d’une croyance naïve dans la toute-puissance de l’État. Le logement est en crise : soit ! Eh bien, pour reprendre l’aphorisme churchillien : ne gâchons pas une bonne crise ! À la résignation, opposons l’optimisme, et au conservatisme, l’innovation !

Faisons-le en partant du bon constat. En vingt ans, le prix du logement a doublé alors que les revenus n’ont augmenté que de 35 %. Par ailleurs, les coûts de construction ne vont pas baisser : le réchauffement climatique imposera des coûts supplémentaires d’adaptation de nos habitats. Autre réalité : les taux d’intérêt ne reviendront pas de sitôt à 1 %. Enfin, ce que l’on ne dit pas assez fort, c’est que l’accès à la propriété – rêve que pouvaient encore réaliser les générations précédentes – est devenu pour de multiples raisons un objectif inaccessible. Pour beaucoup de Français, la location s’est imposée comme un horizon indépassable. Pour autant, être locataire suppose déjà que des investisseurs soient prêts à détenir des actifs immobiliers dont la rentabilité est de plus en plus faible.

Jeunes générations, familles monoparentales, familles recomposées, familles nombreuses, ou tout simplement résidents dans une zone dense hors de prix : la réponse aux aspirations légitimes de toutes ces personnes ne peut se limiter à soutenir le marché à hauteur de moins de 10 % de la production annuelle de logements neufs, alors même que l’essentiel des transactions concerne l’ancien, dont le volume d’échange est cinq fois supérieur ; elle ne doit pas se limiter à un « coup de pouce » de l’État, ou à généraliser le logement social comme norme de la septième puissance économique mondiale.

Des milliards, oui ! Mais, surtout, plus d’intelligence dans la manière de les investir. Nous avons le devoir de réinventer un marché devenu dysfonctionnel. Et nous sommes quelques acteurs, nouveaux entrants sur le marché de l’immobilier et de l’accès à la propriété, à être persuadés que cette crise est une opportunité d’innover, de penser « out of the box », pour reprendre une expression que Churchill aurait sûrement appréciée.

Il est urgent de faire évoluer notre système de financement, de détention des actifs ; urgent d’adapter au logement ce que le secteur automobile fait depuis des années. Aujourd’hui, on n’achète plus sa voiture comme avant, on l’achète en LOA (location avec option d’achat). On peut imaginer des solutions équivalentes pour l’immobilier. Il existe des voies alternatives à la pleine propriété, qui permettent de faire converger les intérêts de ceux qui aspirent à acheter, jusqu’ici en vain, et ceux d’acteurs institutionnels prêts à investir en sortant des schémas classiques pour autant que la rentabilité soit au rendez-vous. Il y a des voies nouvelles pour permettre à de nombreuses personnes d’acquérir autrement le logement dont elles ont besoin, avec les moyens financiers dont elles disposent.

En nous penchant vraiment sur la question de la propriété, nous touchons à l’âme de notre nation, et à son tourment du déclassement. Cette crise du logement nous invite collectivement, acteurs privés et publics, à faire preuve de plus d’inventivité pour rendre de nouveau possible cette aspiration si puissante dans notre imaginaire : devenir propriétaire de son logement. »

Climat- Sécheresse : comment les plantes s’adaptent au manque d’eau

Climat- Sécheresse : comment les plantes s’adaptent au manque d’eau

Des sols craquelés, des barques condamnées à l’immobilité, des cultures carbonisées sur pieds et, parfois, plus une goutte au robinet… Les effets des épisodes de sécheresse sévères se font sentir chaque été de plus en plus nettement sous nos latitudes. Une situation que les scientifiques ont clairement identifiée comme l’une des conséquences du réchauffement climatique global.

par Delphine Luquet
Écophysiologiste, Cirad

Benoît Tonson
Chef de rubrique Science + Technologie, The Conversation France

Jennifer Gallé
Cheffe de rubrique Environnement + Énergie, The Conversation France

Dans les années à venir, nos températures vont augmenter en moyenne de 1,5 °C au moins, avec évidemment des variations régionales très marquées. À la fois « victime » et « coupable », le secteur agricole, qui contribue pour une part significative aux émissions de gaz à effet de serre, va devoir s’adapter à cette situation, nouvelle pour certaines parties du globe, déjà bien connue pour d’autres.

Pour continuer à pouvoir cultiver et assurer la sécurité alimentaire des populations, comprendre comment les végétaux peuvent s’adapter au manque d’eau devient une priorité. « Faire pousser des végétaux sans eau, c’est de la science-fiction ! », nous rappelle Delphine Luquet, écophysiologiste au Cirad. Cette scientifique, qui a travaillé sur le sorgho et le riz, est l’invitée de ce nouvel épisode de « L’échappée Sciences ».

Avec Delphine Luquet, on va donc découvrir ce que l’eau fait aux plantes et ce que les plantes font avec l’eau. Comment certaines espèces végétales supportent mieux le stress hydrique que d’autres, à l’image de la famille des mils, céréales présentes au Sahel depuis des siècles. Et comment les scientifiques, les agriculteurs et agricultrices peuvent rendre les végétaux moins vulnérables à la sécheresse, en travaillant notamment à la sélection variétale et au changement des pratiques dans une démarche agroécologique.

Au menu de la chronique de ce nouvel épisode de « L’échappée Sciences », on s’intéresse à une technique prometteuse permettant de mieux comprendre la génétique des plantes : CRISPR-Cas9. Ces « ciseaux moléculaires » rendent possible une édition très fine du génome. Si cette technique n’est pas autorisée dans les champs en Europe, où les plantes éditées sont classées comme OGM, elle existe déjà au Japon où des tomates modifiées ont été récemment commercialisées comme « alicaments »…

Sécheresse : comment les plantes s’adaptent au manque d’eau

Sécheresse : comment les plantes s’adaptent au manque d’eau

Des sols craquelés, des barques condamnées à l’immobilité, des cultures carbonisées sur pieds et, parfois, plus une goutte au robinet… Les effets des épisodes de sécheresse sévères se font sentir chaque été de plus en plus nettement sous nos latitudes. Une situation que les scientifiques ont clairement identifiée comme l’une des conséquences du réchauffement climatique global.

par Delphine Luquet
Écophysiologiste, Cirad

Benoît Tonson
Chef de rubrique Science + Technologie, The Conversation France

Jennifer Gallé
Cheffe de rubrique Environnement + Énergie, The Conversation France

Dans les années à venir, nos températures vont augmenter en moyenne de 1,5 °C au moins, avec évidemment des variations régionales très marquées. À la fois « victime » et « coupable », le secteur agricole, qui contribue pour une part significative aux émissions de gaz à effet de serre, va devoir s’adapter à cette situation, nouvelle pour certaines parties du globe, déjà bien connue pour d’autres.

Pour continuer à pouvoir cultiver et assurer la sécurité alimentaire des populations, comprendre comment les végétaux peuvent s’adapter au manque d’eau devient une priorité. « Faire pousser des végétaux sans eau, c’est de la science-fiction ! », nous rappelle Delphine Luquet, écophysiologiste au Cirad. Cette scientifique, qui a travaillé sur le sorgho et le riz, est l’invitée de ce nouvel épisode de « L’échappée Sciences ».

Avec Delphine Luquet, on va donc découvrir ce que l’eau fait aux plantes et ce que les plantes font avec l’eau. Comment certaines espèces végétales supportent mieux le stress hydrique que d’autres, à l’image de la famille des mils, céréales présentes au Sahel depuis des siècles. Et comment les scientifiques, les agriculteurs et agricultrices peuvent rendre les végétaux moins vulnérables à la sécheresse, en travaillant notamment à la sélection variétale et au changement des pratiques dans une démarche agroécologique.

Au menu de la chronique de ce nouvel épisode de « L’échappée Sciences », on s’intéresse à une technique prometteuse permettant de mieux comprendre la génétique des plantes : CRISPR-Cas9. Ces « ciseaux moléculaires » rendent possible une édition très fine du génome. Si cette technique n’est pas autorisée dans les champs en Europe, où les plantes éditées sont classées comme OGM, elle existe déjà au Japon où des tomates modifiées ont été récemment commercialisées comme « alicaments »…

Comment débloquer l’ascenseur social

Comment débloquer l’ascenseur social

Les entreprises n’ont pas forcément intérêt à favoriser l’ascenseur social dans la mesure où elles bénéficient de déductions fiscales pour les bas salaires. Parallèlement, les salariés n’ont pas intérêt non plus à trop évoluer, ce qui les ferait éjecter des différentes aides sociales. « L’ascenseur social dans l’entreprise n’est pas bloqué, mais il est ralenti », a alerté le président du Medef, Geoffroy Roux de Bézieux invité du grand jury RTL – « Le Figaro » – LCI dimanche.

« C’est une des spécificités françaises, confirme l’économiste Gilbert Cette, professeur à Neoma Business School. Elle tient à l’empilement des dispositifs d’aide aux bas revenus », selon lui.
Côté employeurs, l’arme des allègements de charges sur les bas salaires, inférieurs à 1,6 fois le SMIC (où les charges sont désormais nulles), a été utilisée pour favoriser l’emploi.

Coté employés, pour que le travail paie davantage, différentes allocations visent à apporter un complément de revenu et à soutenir le pouvoir d’achat des bas salaires : le revenu de solidarité active (RSA) et la prime d’activité . S’ajoutent enfin les aides au logement. Tout autant de prestations dégressives qui diminuent et peuvent disparaître lorsque les revenus tirés du travail augmentent. De quoi dissuader les salariés de monter en grade dans l’entreprise. Et les employeurs de les augmenter.

Comment les médias déforment l’information

Comment les médias déforment l’information

par Éric Dacheux,Professeur en information et communication, Université Clermont Auvergne (UCA) dans the Conversation

La question se pose en particulier en France pour les grands médias qui appartiennent presque tous à des groupes financiers moins pour réaliser des profits que pour influencer l’information NDLR

Quand le média en ligne The Conversation publie un article sur le revenu d’existence par création monétaire, il met en relation des chercheurs d’une université de province et des lecteurs de toute la francophonie. The Conversation établit une communication entre deux êtres qui ne sont pas dans le même espace. C’est ce que l’on appelle une médiation. Mais la médiation n’est pas neutre, elle est toujours active. Quand on fait appel à un médiateur pour régler un problème entre voisins, on espère que celui-ci va déployer une activité diplomatique suffisante pour permettre le rétablissement de bonnes relations.

Dans nos sociétés démocratiques, il existe une médiation singulière, celle des médias de masse : presse, radio, télévision. Ces médias de masse relaient l’information entre les journalistes et les citoyens, ils renvoient à la société une représentation d’elle-même.

Cette représentation n’est pas objective, elle est construite selon des règles qui ont été étudiées par les sciences de l’information et de la communication. Parmi toutes les notions explicatives, en voici trois.

La première notion est celle de médium. Marshall McLuhan, philosophe canadien, a écrit un livre intitulé « Pour comprendre les médias » paru dans les années 1960. Dans ce livre, il affirme que « le message c’est le médium ». Cette affirmation signifie que le sens profond n’est pas à rechercher dans les mots, les images ou les sons transmis par les médias de masse, mais dans leur nature technique. Pour lui, les moyens de communication déterminent la société et la font évoluer. Nous étions, toujours selon ce penseur, dans les débuts de l’humanité, dans une civilisation dominée par la communication orale. Nous sommes, dit-il, grâce à l’imprimerie, rentrés, à la Renaissance, dans une civilisation de l’écrit qui au XXe siècle à laissé la place à une nouvelle civilisation, celle de l’audiovisuelle.

Cette idée que les médias déterminent le monde est au cœur de ce que certains nomment aujourd’hui la révolution Internet. Or, cette idée est fausse. Elle ne repose sur aucune enquête de terrain. Elle ne rend pas compte de la complexité des relations entre la technique, l’économie, le politique et les croyances. Elle nie la réalité historique de la coexistence des différents médiums (la télévision n’a pas tué le livre et n’a pas été tuée par Internet). Elle confond le monde et l’Occident. Elle oublie le rôle des conflits dans l’histoire humaine, etc.

Pourtant, cette théorie a eu le mérite de pousser à s’interroger sur un fait que l’on négligeait jusqu’alors : le médium n’est pas neutre. Le médium ne transmet pas le sens, il participe, de manière souvent invisible, à la compréhension de la signification. Envoyé un « Je t’aime » ou un « je te quitte » par SMS, le dire en vidéo ou l’exprimer en face à face ne sera pas compris avec la même sensibilité, n’aura pas la même force, ne provoquera pas le même effet.

Le médium n’est pas un support qui inscrit, sans la changer, la signification dans sa matérialité (du papier, un écran, du son), ce n’est pas davantage un moyen de communication qui fabrique, à lui tout seul, du sens, c’est une médiation matérielle qui transforme la signification.

Pour bien comprendre un message médiatique, il faut donc comprendre la nature de cette médiation singulière. Or, la plupart du temps, nous n’avons pas conscience de l’importance du médium dans la signification.

La seconde notion importante pour comprendre une communication médiatique est celle de cadrage. Dans le domaine des médias de masse, parler de « cadrage », c’est s’intéresser à la façon dont les médias représentent un sujet précis, en attirant l’attention sur tels points qu’ils jugent pertinents au détriment de tels autres que le destinataire pourrait pourtant juger tout aussi pertinents. Les médias ne se contentent pas d’attirer l’attention sur telle question plutôt que telle autre, ils proposent une définition particulière d’un problème qui est déjà une interprétation, une orientation de la réponse. Parler de l’accueil des migrants comme un problème politique, comme une nécessité morale ou comme un danger terroriste, c’est déjà orienter la compréhension de l’actualité.

Dans ces opérations de cadrage, le titre et les illustrations sont des éléments clefs qui vont orienter la compréhension du message, même si celui-ci est plus nuancé, plus rationnel que le titre ou l’illustration choisie. Ce cadrage obéit à des logiques professionnelles (le spectaculaire plutôt que l’ordinaire), des logiques éditoriales – la suppression de l’impôt sur la fortune ne sera pas cadrée de la même façon dans L’Humanité que dans Le Figaro, puisque leur lectorat est idéologiquement opposé –, des logiques économiques (ne pas trop déplaire à un annonceur qui est sur la sellette), etc.

Ce cadrage obéit aussi à des logiques culturelles comme l’a montré Tourya Guaaybess, chercheure en communication internationnalement reconnue, dans un livre sur le cadrage médiatique des révolutions arabes. En Ukraine, par exemple, ces révolutions étaient lues par certains médias conservateurs comme des épisodes violents de foules en colère et menaçantes pour l’ordre public, alors que d’autres médias, plus progressistes, y voyaient, à l’image de la révolution orange, un peuple en train de se libérer de la tyrannie.

Loin de ces deux manières de cadrer la réalité révolutionnaire, les médias français insistaient plutôt sur le rôle des nouvelles technologies et faisaient référence au « printemps des peuples de 1848 ».

Dans ces conditions, comprendre pleinement un message médiatique demande de connaître le média qui a construit ce message afin de pouvoir décrypter le cadrage qu’il a mis en œuvre. Cela demande aussi de s’exposer à des médias non nationaux pour déconstruire le cadrage culturel de ce message. Autant de conditions qui ne sont que rarement remplies.

La troisième et dernière notion qui permet d’expliquer la difficulté de comprendre une communication médiatique est celle d’énonciateur. Les sciences du langage distinguent ce qui relève de la langue (code structuré par un ensemble de règles obligatoires comme l’accord du sujet et du verbe, par exemple) et l’énonciation qui est le style expressif utilisé par un locuteur.

L’énonciation met en œuvre au moins trois instances, un énonciateur (celui qui s’exprime, ici, le journaliste), un destinataire (l’auditeur, le lecteur, le téléspectateur), un énoncé (le message médiatique). Or, pour comprendre correctement un énoncé, il est souvent nécessaire d’identifier l’énonciateur. Par exemple, la phrase entendue à la radio « Les Belges n’ont pas d’humour » ne sera pas comprise de la même façon si elle est énoncée par l’animatrice belge de l’émission humoristique « Par Jupiter » sur France Inter que par un sondeur invité à commenter le rapport à l’humour de plusieurs habitants de l’Europe.

Or, le problème est qu’identifier un énonciateur dans les médias de masse n’est pas chose aisée. En effet, ce n’est pas forcément celui qui parle qui est le véritable énonciateur. Par exemple, le présentateur du journal de TF1 peut lire un texte sur le prompteur qui est une dépêche d’agence, une information rédigée par le rédacteur en chef ou une citation d’un homme politique. Dans ce dernier cas, est-ce vraiment l’homme politique qui a tenu ce propos ? Un adversaire qui déforme sciemment son propos, un conseil en communication de l’homme politique ?

Ce qui est compliqué lorsqu’on s’efforce de comprendre un message d’un média bien déterminé devient, de nos jours, encore plus complexe puisque les nouvelles sont agrégées automatiquement, déformées et reformées par des centaines de personnes sur les réseaux sociaux, si bien que l’on ne sait plus qui est l’énonciateur du message. On ne peut plus alors le comprendre dans son intégralité, le soumettre au jugement critique de son libre arbitre. Quand l’énonciateur s’efface, la compréhension recule et la désinformation avance.

Comment sortir le quinquennat du naufrage

Comment sortir le quinquennat du naufrage

Fonctionnement démocratique, décision publique et maintien de l’ordre : la crise est désormais triple. Si le bloc central qui s’est constitué sur les cendres du PS et de LR renonce à réformer, il perd son identité et sa raison d’exister, estime, dans sa chronique, Françoise Fressoz, éditorialiste au « Monde ».

« Le conflit des retraites est devenu une crise du fonctionnement démocratique doublée d’une crise de la décision publique, triplée d’une crise de l’ordre public. »L’éditorialiste suggère que les partis de gouvernement prennent la responsabilité au lieu de se cantonner uniquement dans l’opposition. Force est de constater qu’aujourd’hui Macron et son parti sont dans une impasse caractérisée notamment par une absence de majorité qui leur interdira de passer nombre de lois fondamentales.

Le président de la république a déjà prévenu que ces lois seront plus nombreuses et plus courtes. Bref un travail législatif ratatiné qui va bloquer le gouvernement. La fin du quinquennat risque de connaître un véritable naufrage empêtré dans ses contradictions et son immobilisme. Il faudrait sans doute plus fondamentalement permettre une respiration démocratique avec le recours à des élections. Le problème, c’est que les études d’opinion ont montré que la majorité déjà relative du pouvoir perdrait à peu près les deux tiers de ses élus.

La situation est donc explosive car à la crise sociale va succéder une crise économique avec la probable récession, l’inflation et une crise politique dont on ne voit pas l’issue compte tenu de l’entêtement du chef de l’État.

Comment sont comptés les manifestants ?

Comment sont comptés les manifestants ?

Par Jean-François Royer, Statisticien, Société Française de Statistique (SFdS) dans the conversation

« La manifestation contre la réforme des retraites mardi 31 janvier a rassemblé 2,8 millions de personnes en France, d’après la CGT, qui a également évoqué 500 000 personnes dans le cortège parisien. La police a estimé à 1,2 million le nombre de manifestants dans le pays et 87 000 dans la capitale. Le cabinet indépendant Occurrence n’en a lui dénombré que 55 000 dans les rues de Paris », comme l’a rapporté « La Croix ».

Le conflit social de ce début 2023 donne lieu aux habituelles polémiques sur le comptage des manifestants. Les médias ont pris l’habitude de présenter deux chiffres très éloignés, en miroir, sans plus de commentaire : beaucoup semblent penser vaguement que « la vérité est entre les deux ». Est-il si difficile, dans un pays développé, au début du XXIe siècle, de déterminer approximativement combien de personnes ont participé à une manifestation déclarée, prévue et autorisée ?

Tout le monde ne se résigne pas à cette situation. En 2014, une commission d’étude sur le comptage des manifestants a été mise en place par le Préfet de police de Paris. Elle était constituée par Dominique Schnapper, ancienne membre du Conseil constitutionnel, Pierre Muller, ancien inspecteur général de l’Insee, et Pierre Gaxie, professeur de sciences politiques à Paris.

Ces trois personnalités ont remis leur rapport en avril 2015. Pour l’essentiel, ce rapport validait les méthodes de comptage de la préfecture de police. La presse nationale y a très largement fait écho à l’époque, et aucune voix ne s’est élevée pour contester cette conclusion. Libération a même titré « Et les meilleurs en comptage de manifestants sont… les policiers ». Une expérience menée par des journalistes de Mediapart avait d’ailleurs conclu dans le même sens quelques années auparavant.

Après ce rapport, on aurait pu espérer un changement. Il n’en a rien été, ni en 2016 (manifestations contre la loi Travail), ni en 2017 (rassemblements à l’occasion de l’élection présidentielle). De nouveau, un effort a été entrepris. Fin 2017, un collectif de 80 médias a mandaté un cabinet d’études spécialisé, Occurrence, pour réaliser des estimations du nombre de manifestants dans les cortèges, indépendamment du travail du ministère de l’Intérieur et des comptages des syndicats. Cinq ans après, cette tentative d’arbitrage a fait long feu : les syndicats et les partis de gauche récusent les estimations d’Occurrence, les jugeant trop proches de celles du ministère de l’Intérieur. Retour à la case départ.

Un collectif de 80 médias a mandaté un cabinet d’études spécialisé, Occurrence, pour réaliser des estimations du nombre de manifestants dans les cortèges.

Pourquoi cette impasse du comptage ?
S’agit-il d’un désaccord sur la définition de l’objet à mesurer ? On le sait, tout travail statistique sérieux suppose un effort de définition ; et l’objet « manifestation » n’est pas aussi simple qu’il y paraît. Les défilés peuvent avoir plusieurs parcours ; certains manifestants peuvent n’en réaliser qu’une partie ou la manifestation peut s’étirer dans le temps.

Mais tout cela ne peut avoir qu’une influence limitée. Délimitée dans le temps et dans l’espace, caractérisée par une intention commune claire des participants, la manifestation classique est un « objet social » bien plus simple que beaucoup d’autres : bien plus simple, par exemple, que les démonstrations des « gilets jaunes » en 2018-2019. Pour définir une manifestation classique, un petit nombre de caractéristiques suffisent, et peuvent faire l’objet d’un accord rapide.

S’agit-il, alors, d’incertitudes dues aux méthodes de mesure ?

Un problème de méthode ?

Les méthodes de la préfecture de police de Paris n’ont rien de moderne : selon le rapport de la commission Schnapper, ce sont des fonctionnaires de police, placés en hauteur dans plusieurs locaux en bordure du parcours des cortèges, qui comptent « à vue », manuellement, les rangées qui défilent, pendant toute la durée de la manifestation. Ce travail est recommencé quelques jours après, en bureau, en visionnant des vidéos de l’évènement. Les différents comptages sont confrontés, et une estimation finale est produite et diffusée à la presse.

On connaît très peu les méthodes des syndicats : « nous n’avons pas pour habitude de communiquer sur nos méthodes de comptage » a déclaré par exemple un porte-parole de la CGT au Télégramme de Brest après la manifestation du 31 janvier, et ce syndicat a refusé d’être entendu par la commission Schnapper en 2014. D’autres sources au sein des syndicats affirment que des comptages sont réalisés à partir des moyens de transports – trains et bus – réservés pour amener les groupes de manifestants sur place. Les syndicats font aussi appel à des compteurs qui se placent à des points de passage précis du cortège. Chaque union départementale effectue un comptage et fait ensuite remonter les chiffres au siège national. Mais comment sont prises en compte les données sur les cars ? Comment sont éliminés les double-comptes ? Et surtout, comment un comptage « depuis le sol » peut-il s’appliquer à une foule nombreuse dans une avenue de Paris ?

La méthode de comptage la plus répandue est simple : se placer en bordure du parcours des cortèges et compter « à vue », manuellement, les rangées qui défilent, pendant toute la durée de la manifestation.

Quant au cabinet Occurrence, il a recours à des outils plus modernes de traitement des enregistrements vidéo des cortèges, impliquant un logiciel d’intelligence artificielle ; le principe reste de dénombrer les franchissements de lignes virtuelles dessinées sur le parcours du cortège.

Toutes les méthodes ont certainement leurs qualités et leurs défauts. Pour les apprécier, il faudrait les confronter en détail sur des cas précis, avec la collaboration de toutes les parties. Faute de quoi, on ne peut juger que d’après les résultats et noter que les résultats de l’administration et ceux des bureaux d’étude sont en général proches. Déjà relevée par la commission Schnapper, cette proximité a été confirmée lors de la mise en place de la convention entre le consortium de médias et Occurence en 2017. Le 16 novembre 2017 a eu lieu une manifestation « contre la politique libérale d’Emmanuel Macron ». Le cabinet Occurrence a alors dénombré 8 250 manifestants. Pour valider cette estimation, cette manifestation a été intégralement filmée par BFM TV puis comptée manuellement, manifestant par manifestant, par 4 équipes séparément : Occurrence, Europe 1, TF1 et Le Monde. Ces recomptages ont validé la méthode de comptage puisqu’ils étaient proches de celui d’Occurrence. Ce jour-là, la police avait dénombré 8 000 manifestants, alors que la CGT en annonçait 40 000.

Qu’il s’agisse des conventions de définition, ou des méthodes de dénombrement, rien n’indique qu’une divergence technique puisse expliquer des écarts aussi grands que ceux qui nous sont présentés. Alors, de quoi s’agit-il ?

Revenons aux conditions fondamentales de l’observation. Si l’on veut qu’une observation partagée puisse advenir, il faut que deux conditions soient remplies :

Il faut admettre l’existence d’une « vérité » indépendante de la volonté des acteurs ;

Il faut chercher à s’en approcher « de bonne foi » en mettant de côté toute considération politique ou militante.

Si ces deux conditions sont remplies, les techniciens de la statistique peuvent se mettre au travail ; et alors ils parviennent en général rapidement à se mettre d’accord, au moins sur les ordres de grandeur.

Quand on s’intéresse aux manifestations, ces deux conditions ne sont pas remplies. On ne peut évidemment pas garantir que la plus entière bonne foi règne du côté de l’administration et des bureaux d’études ; mais on doit exprimer des doutes sur celle des syndicats et des voix qui les soutiennent dans cette polémique. Ces derniers critiquent souvent les méthodes du camp opposé, en n’hésitant pas à discréditer les observateurs qui n’arrivent pas aux mêmes résultats qu’eux, en invoquant leurs appartenances politiques) ou idéologiques, réelles ou supposées mais ne communiquent pas les leurs d’une manière suffisamment détaillée pour en permettre la critique.

En statistique, la confiance se construit par la publicité des définitions et des méthodes, et par le travail en commun des techniciens. Tant que cela manquera dans le domaine du comptage des manifestants, les conflits de chiffres persisteront.

Pétrole : profits records comment et pour qui ?

Pétrole : profits records comment et pour qui ?

par Valérie Mignon
Professeure en économie, Chercheure à EconomiX-CNRS, Conseiller scientifique au CEPII, Université Paris Nanterre – Université Paris Lumières dans the  » conversation »


Des profits record pour 2022, les plus hauts qu’elles aient connus de toute leur histoire. Côté américain, 55,7 milliards de dollars de profits ont ainsi été enregistrés par ExxonMobil et 36,5 milliards par Chevron.Les majors européennes ne sont pas en reste, avec des profits s’élevant à 39,9 milliards de dollars pour Shell ou encore 20,5 milliards de dollars de bénéfice net engrangés pour TotalEnergies et 27,6 pour le groupe britannique British Petroleum. Ces chiffres mirobolants ne manquent pas de faire polémique dans l’actuel contexte de crise énergétique. Répondre à cette question nécessite d’effectuer un bref retour sur l’évolution du cours du baril lors de l’année 2022. La forte reprise de l’activité qui a suivi la crise économique mondiale liée à la pandémie de Covid-19 s’est traduite par une hausse de la demande de pétrole qui a, mécaniquement, tiré les prix du brut vers le haut.

À ce facteur économique s’est ajouté un élément géopolitique majeur, l’invasion de l’Ukraine par la Russie le 24 février 2022. Cette attaque a créé une onde de choc sur le marché pétrolier avec un cours du baril qui s’est immédiatement envolé pour côtoyer les sommets de mars à mai 2022.

Cette flambée des prix du brut dès le début du conflit s’explique par les craintes provoquées par la guerre en Ukraine quant à un possible manque d’approvisionnement en hydrocarbures, tirant en conséquence les prix de l’or noir vers le haut. Les incertitudes relatives aux perspectives économiques mondiales ont ensuite pris le relais, en particulier quant à un éventuel ralentissement de l’activité économique en Chine, deuxième plus gros pays consommateur de pétrole au monde.

La recrudescence des cas de Covid-19 a en effet jeté un doute sur la santé économique à venir de l’empire du Milieu, générant une vive incertitude au niveau mondial. Les prix du brut ont alors été tirés vers le bas en raison des anticipations à la baisse de la demande chinoise de pétrole. Quoi qu’il en soit, sur l’ensemble de l’année 2022, les prix du brut (brent) ont enregistré une croissance moyenne de 42,6 % par rapport à 2021.
Outre l’impact conséquent sur le pouvoir d’achat des ménages, si cette flambée du cours du baril a engendré une hausse des coûts de production pour la très grande majorité des entreprises, tel n’est pas le cas pour les compagnies pétrolières qui produisent des hydrocarbures. C’est la raison pour laquelle l’envolée des prix du brut s’est traduite par des bénéfices record pour les groupes pétroliers.
Des profits pour qui ?
C’est évidemment la question qui fait couler beaucoup d’encre, puisqu’une grande partie des bénéfices est redistribuée aux actionnaires sous la forme de dividendes. Le sujet des dividendes a toujours fait l’objet de vifs débats en France, dans la mesure où une (très) faible minorité de Français détient des actions, contrairement à la population de nombreux autres pays (États-Unis, Royaume-Uni, Pays-Bas, etc.) pour qui il s’agit de la principale source d’épargne constituée en vue, notamment, de la retraite. Du côté des compagnies, leur réticence à ralentir les versements de dividendes tient au fait que ceux-ci leur permettent d’attirer des actionnaires dont les placements tirent à la hausse leur valeur boursière.

À ces versements de dividendes s’ajoutent les rachats d’actions. La partie des sommes colossales accumulées par les compagnies pétrolières qui n’est pas utilisée pour investir leur sert ainsi aussi à racheter leurs propres actions sur le marché boursier, ce qui a pour effet de faire monter les cours.

On entre alors dans une boucle autoentretenue : les « superprofits » des compagnies pétrolières leur permettent de faire monter le cours de leurs actions en bourse et cette croissance de la valeur boursière alimente à son tour les bénéfices engrangés par les majors, d’autant plus lorsque les prix du brut sont orientés à la hausse.

En pleine crise énergétique mondiale, ces pratiques ont naturellement de quoi être décriées. D’un point de vue strictement économique, il est toutefois important d’étudier si des dividendes en hausse et des rachats d’actions pèsent sur les bénéfices que les firmes pourraient consacrer à l’investissement.

Si tel peut effectivement être le cas pour des entreprises non cotées qui n’auraient pas facilement accès aux marchés financiers, il n’en est pas de même pour les majors. Ces dernières ont généralement des niveaux de trésorerie très élevés et les dividendes n’en constituent qu’une faible proportion. Elles sont donc à même tout à la fois d’investir massivement, en fonction de leurs projets et des opportunités qui se présentent, et de distribuer des dividendes.

Une partie des bénéfices des groupes pétroliers est ainsi destinée à l’investissement dans les hydrocarbures, mais aussi dans les énergies renouvelables. Sur ce dernier point, les compagnies – en particulier américaines – ont été vivement critiquées du fait des faibles montants investis dans le solaire, l’éolien et les autres énergies renouvelables comparativement aux sommes qu’elles versent aux actionnaires. C’est une des raisons qui a conduit le président américain Joe Biden à vouloir quadrupler la taxe sur les rachats d’actions entrée en vigueur en janvier 2023.

Taxer ces superprofits ?

La question de l’instauration d’une taxe sur les profits des géants du pétrole est toujours l’objet de nombreux débats. En Europe, certains pays comme la France avaient choisi d’instaurer un bouclier tarifaire alors que d’autres, tels le Royaume-Uni, l’Italie ou la Hongrie, ont opté pour la mise en place de taxes.
Si l’instauration de taxes exceptionnelles sur les superprofits des compagnies pétrolières peut s’avérer utile pour compenser la hausse des prix de l’énergie, elle pourrait cependant avoir des effets contre-productifs en retardant la transition énergétique. Si les énergies renouvelables sont destinées à devenir des sources d’énergie essentielles d’ici quelques années, elles ne peuvent remplacer « au pied levé » le pétrole : la transition n’est pas

Afin de promouvoir le passage aux énergies renouvelables et assurer la transition énergétique, il convient de prendre garde à ne pas interrompre brutalement les investissements dans le secteur pétrolier, ce qui pourrait advenir en cas d’instauration de taxes très élevées. Cela est encore plus important dans le contexte actuel de la guerre en Ukraine, puisqu’il est nécessaire de remplacer le pétrole russe par du pétrole en provenance d’autres pays. Il faut donc faire preuve de vigilance afin de ne pas entraver cette dynamique.

Taxer lourdement les entreprises lorsque celles-ci réalisent des investissements qui s’avèrent gagnants peut en outre être contre-productif puisque cela reviendrait à taxer les compagnies les plus innovantes. Cela ne profiterait pas aux entreprises du secteur des énergies renouvelables qui pourraient, elles aussi, se voir taxer en cas de réalisation de superprofits alors même que ceux-ci découleraient d’une stratégie d’investissement ambitieuse.

À ce jour, l’urgence est d’aider les consommateurs à faire face aux prix à la pompe élevés sans entraver les investissements des entreprises, nécessaires à la transition énergétique. De ce point de vue, une piste réside dans la redistribution des recettes provenant de la taxe carbone aux ménages les plus vulnérables afin de les aider dans la réalisation de la transition énergétique. De même, une taxe carbone « flottante » évoluant en fonction des fluctuations du cours du baril permettrait de contrebalancer la hausse des prix du brut via une réduction du montant de la taxe et limiter ainsi l’impact sur les prix affichés des carburants.

Retraites : augmenter la population active ?

Retraites : augmenter la population active ?

par Bernard Laurent, Professeur, EM Lyon Business School et Kévin Parmas Instructeur d’économie, EM Lyon Business School dans The Conversation

Le président de la République Emmanuel Macron défend actuellement le projet de réforme des retraites au nom de la fidélité à ses engagements formulés lors de campagne présidentielle de 2022. Le chef de l’État sortant avait alors proposé un allongement progressif de l’âge de départ à la retraite à 65 ans. Environ 9 mois après sa réélection, la première ministre Élisabeth Borne a présenté, le mardi 10 janvier, les grandes lignes du texte qui prévoit effectivement un report de l’âge légal, mais finalement à 64 ans. Selon la cheffe du gouvernement, « notre système par répartition sera alors à l’équilibre ».

Pourtant, en avril 2019, Emmanuel Macron affirmait exactement le contraire, comme ne manquent pas aujourd’hui de le rappeler les opposants à la réforme, qui ont défilé massivement sur tout le territoire le jeudi 19 janvier. En effet, le système actuel ne nécessite aucune réforme pour rester à l’équilibre, comme nous le rappelions dans un précédent article.
Quand Macron promettait de ne pas reculer l’âge légal de départ à la retraite (L’Obs, 2022).

Projections erronées

En effet, selon les dernières estimations du Conseil d’orientation des retraites (COR) publiées en septembre 2022, le système dégageait un excédent de 900 millions d’euros en 2021 et de 3,2 milliards en 2022. Il devrait enregistrer ensuite un déficit d’environ 10 milliards d’euros par an jusqu’en 2032.

Or, les prévisions récentes du COR ont été invalidées par la réalité : les déficits annoncés pour les années 2021 et 2022 n’ont ainsi pas été observés. De plus, les projections du COR tablent notamment sur une augmentation de la population active qui suivrait la même tendance que celle observée entre 2006 et 2019, 123 000 en moyenne par an.

Cependant, ce chiffre pourrait être relevé pour renouer avec les rythmes observés entre 1990 et 2005, soit environ 173 000 personnes par an en plus dans la population active, ce qui éviterait de demander aux actifs de travailler plus longtemps. Trois leviers pourraient être actionnés : l’immigration, le taux d’emploi des jeunes et le taux d’emploi des seniors.
Des tendances qui peuvent être infléchies

En ce qui concerne l’immigration, le COR retient une estimation située entre 62 000 et 87 000 entrées nettes par an dans la population active. Ce solde s’est tari ces dernières années, notamment en raison d’un resserrement de la politique migratoire, puisqu’il se situait au-delà de 100 000 entre 2001 et 2006. Un assouplissement permettrait donc d’augmenter le nombre de cotisants et les montants qui entreraient chaque année dans les caisses de retraite.

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. [Abonnez-vous aujourd’hui](https://theconversation.com/fr/newsl
Le gouvernement pourrait également adopter des politiques visant à améliorer la participation des jeunes au marché du travail. Rappelons qu’aujourd’hui, la France enregistre l’un des taux de chômage des moins de 25 ans les plus élevés en Europe : 18,3 % en novembre 2022, contre 15,1 % en moyenne dans la zone euro (15,1 %).
Le taux d’emploi des plus de 55 ans pourrait enfin être renforcé : fin 2021, seuls 56,1 % des 55-64 ans étaient en emploi. Il existe donc une véritable marge de manœuvre pour le relever en valorisant davantage les compétences des seniors en entreprise. Sans compter que, sous l’effet des précédentes réformes qui allongeaient la durée de cotisations, ce taux augmente déjà mécaniquement depuis 20 ans.

Le COR s’en tient donc à des tendances qui pourraient parfaitement être infléchies à plus long terme par certaines mesures de politique économique.
L’espérance de vie stagne

Pendant la campagne de 2022, le président-candidat avançait en outre qu’il fallait « travailler plus » et « plus longtemps parce que nous vivons plus vieux ». Cet argument de l’allongement de la durée est pourtant contredit par les données récentes qui livrent un enseignement différent. Si effectivement avant 2014, nous gagnions 1 année de vie tous les 4 ans il n’en est plus rien depuis, avec un petit mois gagné en 8 ans.

Si demain nous connaissions une augmentation forte de l’espérance de vie, pourquoi n’accepterions-nous pas de convenir, sans toucher aux autres paramètres du régime, l’automaticité d’une augmentation de la durée des cotisations, en phase avec la réalité de la situation ?

Actuellement, bien que l’espérance de vie n’augmente que très peu, l’augmentation de la durée de cotisation pour pouvoir toucher une retraite à taux plein reste pourtant bel et bien envisagée dans le cadre de la réforme. La première ministre Élisabeth Borne avait ainsi introduit sa conférence de presse de présentation du projet, le mardi 10 janvier, par ce point. Or, la réforme antérieure de 2013 avait déjà porté à 43 ans les annuités de cotisation nécessaires pour les générations postérieures à 1973.

Plutôt que de faire porter l’effort sur un nouvel allongement de la durée de cotisation, le gouvernement pourrait donc mettre en place une politique pour augmenter la population active comme décrite ci-dessus. Ou alors, choisir de faire contribuer les retraités (dont le niveau de vie est aujourd’hui supérieur à celui des actifs) en taxant les pensions les plus importantes. Le président Macron pourrait alors donner un contenu concret à son intention, formulée au cours de son premier mandat, en 2018, de « réinventer » l’État-providence.

Comment dormir sans-domicile-fixe ?

Comment dormir sans-domicile-fixe

Par Thibaut Besozzi,Docteur en sociologie, LIR3S, Université de Bourgogne – UBFC dans the conversation

Le scandale sans doute le plus inadmissible dans nos sociétés développées est sans doute celui qui accepte une sorte d’institutionnalisation des marginaux sans domicile fixe .

Tribune

Dormir ne va pas de soi pour tout le monde. La question du sommeil et du repos se pose évidemment de manière criante quand on s’intéresse aux personnes sans-abri qui peuplent nos centres-villes. Cela est d’autant plus vrai pour les personnes sans-domicile qui n’accèdent pas aux centres d’hébergement. Pour comprendre les options qu’ils privilégient pour passer la nuit, et les logiques de survie sous-tendues, il faut repartir de l’expérience et du point de vue des sans-abri eux-mêmes.

Plusieurs critères président aux choix contraints qu’ils opèrent pour s’accommoder des moments de repos. Les lieux appropriés temporairement sont évalués au regard de leur confort matériel (abri, chauffage, salubrité, mobilier…), de la sécurité qu’ils procurent (visibilité ou invisibilité des lieux d’élection, possibilité ou non d’en limiter l’accès, nécessité de se protéger des agressions, possibilité de dormir en groupe pour se protéger mutuellement…) ou encore de l’intimité qu’ils permettent (solitude, calme ou promiscuité et bruit). Ils se différencient également en fonction de la liberté qu’ils octroient ou qu’ils brident (horaires d’ouverture et de fermeture, règlement intérieur ou non, contrôle plus ou moins fort des illégalismes).

Ces facteurs conduisent les sans-abri à opter pour des solutions variées afin de passer la nuit et se reposer tant bien que mal. Ces options vont de la sollicitation des centres d’hébergement d’urgence (via le 115 et la mise à l’abri à la nuitée notamment) à l’installation de tentes dans l’espace public, en passant par l’appropriation de parcelles de parkings souterrains, l’ouverture de squats, l’invitation chez des tiers ou l’occupation d’interstices urbains comme des parvis, des porches abrités ou des dessous de pont.

Chacune de ces solutions éphémères offre des avantages et des inconvénients au regard des critères sus mentionnés. Certains sans-abri préfèrent dormir durant la journée afin de se protéger des potentielles agressions qu’ils ont peur de subir pendant la nuit. Ils passent alors la nuit à arpenter la ville en marchant et somnolent en journée, dans l’espace public, relativement protégés par la présence des passants.

Avantages et inconvénients des lieux de repos
Les hébergements d’urgence offrent généralement des conditions matérielles normalisées et sécurisées (chambre, lit, chauffage, accès à l’eau et aux sanitaires, possibilité de fermer sa porte à clé…). Ils imposent néanmoins une collectivité qui n’est pas toujours souhaitée et une promiscuité menaçante exposant aux vols, aux agressions et aux souillures symboliques (traces de sangs, d’urine, déchets de matériel d’injection, etc.). Qui plus est, ces lieux institués de l’assistance font état de règles de fonctionnement souvent perçues comme contraignantes par les sans-abri (impossibilité d’y inviter des connaissances, interdiction d’y consommer alcools et drogues, horaires d’ouverture et de fermeture qui s’imposent aux « usagers », etc.). Cela limite l’appropriation des lieux, à tel point que certains préfèrent ne pas y recourir.

La solution qui semble la plus enviée est celle qui consiste à dormir chez un tiers (un ami, un membre de la famille) offrant l’hospitalité plus ou moins durablement. Les conditions optimales de confort, de sécurité, d’intimité et de liberté y sont généralement réunies, sans que s’imposent des contraintes institutionnelles. La cohabitation soulève néanmoins souvent des difficultés pouvant mettre un terme à la solidarité prodiguée.

Bien qu’elle relève de l’illégalité, la possibilité d’accéder à un squat – entendons un local vacant illégalement habité, qu’il s’agisse d’un appartement, d’un bâtiment public désaffecté ou d’un garage – constitue une option qui présente quant à elle plusieurs caractéristiques intéressantes.

Elle offre la possibilité de s’y établir en groupe et sans contrainte comportementale tout en bénéficiant d’un certain confort matériel (pièces fermées et abritées, ameublement, éventuel accès à l’eau et à l’électricité…). Cela favorise évidemment l’appropriation des lieux.

Cependant, dormir dans un squat collectif expose à des visites impromptues limitant ainsi l’intimité et le sentiment de sécurité, sans compter sur l’éventualité d’être expulsé par les forces de l’ordre ou d’autres squatteurs menaçants. Il faut néanmoins disposer de certaines compétences pour ouvrir des squats et s’y maintenir.

Le dilemme de l’intimité

À l’instar des tentes et parkings souterrains, d’autres options sont mobilisées par les sans-abri pour dormir : elles accordent la possibilité de recréer un « chez-soi » rudimentaire individuellement ou collectivement défendu. Si elles s’avèrent limitées sur le plan du confort matériel qu’elles apportent (faibles protections contre les intempéries, indigence du mobilier, absence d’accès à l’eau et aux sanitaires…), ces solutions permettent néanmoins de s’aménager des espaces d’intimité et de liberté où inviter des amis et consommer sans entrave de l’alcool et/ou des drogues. En revanche, parce qu’elles s’inscrivent dans des espaces reclus et soustraits à la vue des passants, ces options suscitent aussi l’insécurité en exposant à d’éventuelles agressions contre lesquelles il vaut mieux se prémunir (par la présence de chiens, la protection mutuelle du groupe, le fait d’avoir un couteau sous la main, etc.).

« Perdre en intimité pour gagner en sécurité. »

Perdre en intimité pour gagner en sécurité. Jeanne Manjoulet/Flickr
Par ailleurs, certains sans-abri élisent domicile dans des recoins d’espace public, à même la rue, où ils dorment à la vue des tous, le plus souvent dans un simple sac de couchage. Quoiqu’ils semblent alors exposés au regard et aux interpellations des passants, c’est précisément cette perte d’intimité et de confort qui assure leur sécurité, dans la mesure où les caméras de vidéosurveillance et la proximité des citadins dissuadent les agresseurs potentiels.

Finalement, en étudiant leurs points de vue et leur expérience de la survie à partir d’une approche ethnographique, on constate que les sans-abri disposent de multiples options pour trouver des lieux où dormir, quoique chacune d’elle atteste d’aspects (matériels, juridiques, sociaux…) qui en rappellent la précarité. Les choix s’opèrent alors au regard de dialectiques qui articulent différemment la visibilité et l’invisibilité, la liberté et les contraintes, la sécurité et l’intimité.

Finalement, les lieux qu’occupent les sans-abri sont concurrencés et soumis aux aléas de la précarité. Généralement, au fil de leur expérience de la survie, les sans-abri sont amenés à mobiliser successivement différentes options pour dormir, plutôt qu’en privilégier une seule. Leurs nuits sont donc toujours susceptibles d’être tourmentées.

Concilier croissance et sobriété ?



•Concilier croissance et sobriété ?

Un thème intéressant mais article un peu général voire confus et qui manque de documentation NDLR

Changement climatique, déclin rapide et massif des espèces, recul continu du jour du dépassement, accroissement des inégalités… À mesure que les signaux d’alerte sociaux et environnementaux se multiplient, nos modes de développement apparaissent de plus en plus incompatibles avec un avenir positif et durable.

Dans ce contexte, le modèle économique « en volume », universellement partagé, n’est plus tenable. Il induit une création de valeur via l’augmentation du chiffre d’affaires – et des bénéfices – qui passe nécessairement par une hausse des flux (vente de biens et de services) et par conséquent par des consommations de ressources.

Il s’agit donc de penser à de nouveaux modèles de production et de consommation à la hauteur de ces enjeux. Par la vision de société qu’elle porte, la sobriété peut constituer une réponse intéressante à explorer. Encore faut-il savoir ce qui se cache derrière cette notion parfois floue.

Assimilée à la modération ou à la frugalité, la notion de sobriété trouve ses racines dans des traditions philosophiques et religieuses anciennes. Le sujet suscite un regain d’intérêt au XXe siècle, en lien avec des questionnements sur les modes de vie modernes, les systèmes productifs et consuméristes actuels et leurs conséquences sur l’environnement, le lien social et le bien-vivre.

La sobriété, dans notre vie quotidienne, renvoie généralement au « moins mais mieux », en reliant consommation, bien-être, santé, environnement et qualité de vie (et non pas niveau de vie).

Le « moins » peut être rattaché à la notion de limite planétaire ; il peut s’illustrer, par exemple, par la réduction du nombre de produits ou équipements dont nous nous entourons (textiles, électroniques…) ou la limitation des distances ou des kilomètres réalisés (tourisme)…

Le « mieux », qui vise à développer une consommation de biens et services plus « responsables » (production et acquisition de produits à moindres impacts sur l’environnement) soulève également des questionnements au regard de son accessibilité pour les publics plus défavorisés.

Par ailleurs, la définition du « moins » et du « mieux » est rendue difficile par les distinctions complexes entre « besoins » et « désirs », « essentiel » et « non essentiel ».

En dehors des démarches pionnières de sobriété émergent à l’échelle individuelle et de petits collectifs, les enquêtes menées par l’Ademe et ses partenaires depuis quelques années révèlent un désir croissant pour une consommation plus responsable et une aspiration à repenser nos modèles économiques.

Les Français expriment avec constance une forte sensibilité aux enjeux environnementaux et ils sont aujourd’hui 58 % à penser qu’il faudra modifier nos modes de vie pour faire face au changement climatique. Par ailleurs, 88 % des Français considèrent que l’on vit dans une société qui nous pousse à acheter sans cesse et 83 % des Français souhaiteraient que la consommation y prenne moins de place.

Selon eux, il s’agirait de la réduire, plus globalement, et de supprimer le superflu pour consommer de manière responsable. Plus de la moitié d’entre eux (52 %) pensent aussi qu’il faut sortir du mythe de la croissance infinie et revoir complètement notre modèle économique.

Toutefois, malgré une sensibilité à la sobriété de plus en plus prégnante, une majorité de Français reste très attachée à la consommation et aspire même ce qu’elle augmente : 60 % des Français souhaitent « pouvoir se payer plus souvent des choses qui leur font envie » et 35 % déclarent céder à la tentation lors de leurs achats.

On relève ainsi un paradoxe fort entre des aspirations croissantes à un autre modèle de société remettant en cause le système économique actuel et des pratiques qui demeurent largement ancrées dans un modèle consumériste.

Trois difficultés peuvent être ici relevées.

Nos sociétés dites développées se sont structurées autour de l’accès à la consommation de masse, puissant vecteur d’inclusion sociale, et nombre de nos concitoyens aspirent légitimement à l’augmentation de leur niveau de vie.

Il est difficile pour un individu d’adopter un mode de vie sobre appliqué à l’ensemble de nos besoins essentiels (s’alimenter, s’équiper, se déplacer…) : certaines marges de manœuvre sont directement liées aux offres ainsi qu’aux infrastructures existantes, ce qui renvoie au rôle des entreprises (metteurs sur le marché des biens et services), aux collectivités territoriales et à l’État.

Par ailleurs, l’omniprésence des messages publicitaires dans notre environnement quotidien complexifie toute approche visant à se détacher d’une consommation effrénée.

Il existe en outre le risque qu’apparaissent au sein de notre société des clivages entre plusieurs populations : les plus défavorisés qui ne peuvent pas accéder à la consommation comme ils le souhaiteraient versus les plus riches qui ont souvent un mode de vie ostentatoire. Les plus désireux de changer qui peuvent se le permettre versus celles et ceux qui aspirent à consommer plus, quel que soit leur niveau de revenus.

Le lien entre sobriété et qualité de vie, santé, convivialité et épanouissement personnel reste donc à mettre en évidence pour une partie de la population, tout comme les enjeux d’inégalités qui ne peuvent être écartés.

La sobriété dans le monde économique est déjà intégrée par certains acteurs, voire incluse dans des stratégies à moyen ou long terme : le Conseil national de l’industrie évoque l’objectif de « frugalité » dans ses axes structurants d’action.

L’interprétation mise en avant porte toutefois souvent sur la progression de l’efficience (consommer moins de ressources pour la production d’un même produit) via l’amélioration des procédés, en restant dans un modèle dit « en volume » (qui vise à écouler un maximum de produits).

Cette amélioration apporte souvent des solutions techniques et technologiques permettant certes de consommer moins (matières, énergie…), mais à aucun moment ne remet en cause le modèle économique en soi.

Cela entraîne parfois des effets rebonds. L’efficacité est certes meilleure, mais les transformations techniques, comportementales ou sociales entraînent en parallèle des phénomènes de compensation qui peuvent altérer le bilan des gains réalisés.

Prenons l’exemple de la réglementation thermique des bâtiments. À mesure que leur efficacité énergétique a augmenté, la taille des maisons s’est agrandie, et l’évolution des modèles familiaux a provoqué une hausse des surfaces à chauffer.

De la même manière, le poids des véhicules a peut-être baissé (avant une nouvelle augmentation ces dernières années) grâce à une amélioration des performances des moteurs, mais l’entrée dans la société du tourisme et des loisirs a multiplié les distances parcourues par les Français. Les gains de l’efficacité sont alors annulés par les effets de ces évolutions sociétales.

D’autres remettent en cause ce modèle économique « en volume » en proposant leur propre modèle – par exemple en assurant un juste dimensionnement de leur offre – ou via de nouvelles approches comme l’économie de la fonctionnalité, qui vise à répondre à une fonction (se déplacer, s’éclairer, avoir un confort thermique…) plutôt qu’à la seule vente du produit.

Cette dernière a un rôle certainement majeur à jouer. Elle établit une nouvelle relation entre l’offre et la demande qui n’est plus uniquement basée sur la simple commercialisation de biens ou de services. La contractualisation repose sur les effets utiles (les bénéfices).

On vise par exemple à garantir un confort thermique optimisé plutôt que de vendre uniquement de l’énergie, à fournir des solutions de mobilité durable au lieu de vendre des voitures, à proposer des aides pédagogiques pour la réussite des élèves plutôt que de simples manuels scolaires, etc. C’est une économie orientée vers l’usage, l’offre s’adapte aux besoins réels des personnes, des entreprises et des collectivités. Cela implique des transformations profondes dans la façon de produire.

Elle permet donc d’envisager une création de valeur avec moins de ressources, mais c’est aussi une économie du « plus » car elle vise à générer de la valeur sociale et environnementale, à augmenter la satisfaction et la fidélité des clients, à développer les compétences et la créativité des salariés, à accroître la confiance et la coopération entre les acteurs d’un territoire ou d’une filière industrielle…

Plusieurs collectivités « pionnières » (avec un rôle essentiel des élus) se sont déjà lancées dans la mise en œuvre de plans d’action « sobriété », même si la définition et le périmètre de cette dernière restent mal identifiés.

Une des spécificités porte sur le nombre important d’acteurs présents sur leur territoire et de thématiques potentiellement couvertes par ces évolutions : foncier, immobilier, éclairage public, tourisme…

Une mise en lumière de ces actions et de leurs résultats est indispensable pour développer les bonnes pratiques. L’Ademe vient de publier une étude présentant plusieurs retours d’expériences en France et en Europe qui témoignent de la richesse et de l’apprentissage face à de telles démarches.

Dans la mesure où elle passe par une réévaluation des besoins et une distinction entre le superflu et le nécessaire, la sobriété interroge la construction de notre identité et de nos représentations, et donc le rôle de la publicité.

L’accès à un certain niveau de consommation garantissant un standing de vie reste cependant une préoccupation largement partagée par nos compatriotes, qui expriment année après année, depuis bientôt 40 ans, une préférence pour l’augmentation du pouvoir d’achat plutôt que du temps libre.

Aussi, les discours sur la sobriété font courir le risque de divisions au sein de la population. Il est donc essentiel de documenter les impacts et co-bénéfices des démarches de sobriété ainsi que les transformations nécessaires pour construire d’autres formes de scénarios de « vie future » et d’imaginaires collectifs.

Anaïs Rocci, Patrick Jolivet, Dominique Traineau, Marianne Bloquel et Stéphanie Guignard, qui travaillent à l’Ademe ont contribué à la rédaction de cet article paru dans the conversation

Pénurie d’essence : Comment réguler les pénuries ?

Pénurie d’essence : Comment réguler les pénuries ?

Par Florian Léon, Research officer à la Fondation pour les Etudes et Recherches sur le Développement International, Agence Universitaire de la Francophonie (AUF) dans « The conversation »

Face aux nouvelles alarmantes, de nombreux automobilistes ont anticipé une incapacité des stations à pouvoir servir tout le monde et se sont rués vers les pompes, même si leurs besoins étaient limités.

Depuis plus d’une semaine, les automobilistes français font face à une situation de pénurie de carburant à la suite de mouvements de grève dans plusieurs raffineries. L’actualité de la semaine passée a également été marquée, de manière beaucoup plus discrète, par la remise du prix de la Banque de Suède en l’honneur d’Alfred Nobel à trois économistes américains pour leurs travaux sur les banques et la stabilité financière.

Si ces deux évènements n’ont a priori rien en commun, les travaux de Douglas Diamond et Philip Dybvig, récipiendaires du prix au côté de Ben Bernanke, ancien président de la Réserve fédérale américaine (Fed), apportent un éclairage intéressant sur la situation actuelle en France.

En 1983, Diamond et Dybvig ont écrit un article fondateur qui a permis de comprendre que ce qui fait la raison d’être des banques est aussi une source de leur fragilité. L’existence des banques s’explique par leur rôle d’intermédiaires entre épargnants et emprunteurs. Les premiers cherchent à placer leur épargne dans des placements sûrs et liquides, c’est-à-dire disponibles à tout moment. Les emprunteurs ont besoin de fonds, mobilisés pour une durée assez longue, afin d’investir.

En l’absence de banque, il est impossible de transférer le surplus d’épargne vers les emprunteurs en raison de temporalité différente. Les banques assurent cette intermédiation en collectant l’épargne disponible à court terme pour la prêter à long terme. En opérant cette transformation de maturité, les banques contribuent à l’investissement et donc à l’activité économique.

Diamond et Dybvig ont mis en évidence que cette activité d’intermédiation est aussi ce qui rend les banques intrinsèquement fragiles. Les banques sont structurellement en position d’illiquidité car une partie de l’épargne est non disponible à court terme puisqu’elle est prêtée à long terme. En temps normal, cette situation ne pose pas de problème. Seule une part limitée de l’épargne totale est retirée tous les jours. Les banques ne sont donc pas dans l’obligation de disposer de toute l’épargne placée par les déposants.

Diamond et Dybvig s’intéressent aux situations de ruées vers les guichets (« bank runs ») au cours desquelles de nombreux épargnants vont vouloir retirer leur épargne au même moment mettant les banques, voire le système bancaire, en difficulté. Les origines de ces paniques bancaires sont multiples, allant de doute sur la solvabilité d’une banque à des décisions politiques comme à Chypre en 2013 lorsque le gouvernement a souhaité taxer les dépôts.

Le point intéressant de l’analyse de Diamond et Dybvig est de montrer que même si les retraits ne concernent initialement qu’un nombre limité d’épargnants, ils peuvent induire une ruée vers les guichets de l’ensemble des déposants en raison des prophéties autoréalisatrices et d’absence de coordination. Supposons qu’une proportion des épargnants décident de vouloir retirer leurs dépôts. Si les autres déposants commencent à douter de la capacité de la banque à faire face aux demandes de retraits, il est alors rationnel pour eux d’aller retirer leurs dépôts. Si ces déposants arrivent trop tard, ils ne pourront plus accéder à leur argent dans la mesure où le principe de retrait étant celui de la file d’attente (premiers arrivés, premiers servis).

À partir de ce moment-là, tous les déposants vont se ruer sur les guichets bancaires pour retirer leurs dépôts. La banque ne pourra servir toutes ces demandes et elle se retrouvera face à une situation d’illiquidité qui peut même se transformer en un risque de solvabilité (si la banque doit vendre ses actifs en urgence pour obtenir de la liquidité). Il est possible que le phénomène se diffuse rapidement aux autres banques, par exemple si les déposants qui ont des comptes dans plusieurs banques vont retirer leurs fonds dans les autres banques.

Bien que ce modèle soit très simple, il permet d’éclairer en partie la pénurie actuelle de carburants. La pénurie s’explique en premier lieu par les grèves qui ont impacté plusieurs raffineries. Néanmoins, les grèves ne permettent pas d’expliquer les ruptures observées dans plusieurs stations-service, notamment dans des zones initialement non servies par les raffineries fermées. Une explication des pénuries tient aux phénomènes de prophéties autoréalisatrices, mises à jour dans le modèle de Diamond et Dybvig.

Les solutions des « Nobel »…

Comme dans le cas des banques, les stations-service n’ont qu’une quantité limitée d’essence et le principe qui s’applique est celui de la file d’attente. Face aux nouvelles alarmantes, de nombreux automobilistes ont anticipé une incapacité des stations à pouvoir servir tout le monde. Ils se sont rués vers les pompes même si leurs besoins étaient limités, épuisant les stocks et créant de fait une situation de pénuries.

Il est utile de pousser l’analogie un peu plus loin en étudiant les propositions de solutions avancées (ou ignorées) par Diamond et Dybvig pour voir comment elles pourraient s’appliquer dans le cas de pénurie des carburants. Les deux économistes proposent deux solutions pour contrer la ruée vers les guichets.

La première solution est un système d’assurance qui permet à chaque citoyen d’avoir une couverture de son épargne en cas de faillite de sa banque (100 000 euros par banque et par déposant au sein de l’Union européenne). L’objectif de ce dispositif est surtout préventif, pour éviter qu’une panique apparaisse, mais s’avère inutile dès que la crise s’est matérialisée.

La seconde solution est plus utile en cas de panique. Elle consiste à empêcher les agents à retirer de l’argent au-delà d’un certain seuil. En pratique, cette solution a pris la forme d’un montant de plafond de retrait. Une solution similaire a été appliquée dans certaines stations-service en limitant la capacité maximale lors de chaque plein ou en interdisant le remplissage de réservoirs annexes. Le risque est alors que les automobilistes « paniqués » multiplient les passages à la pompe.

Une solution plus proche du modèle de Diamond et Dybvig serait de mettre en œuvre des « bons carburant » qui seraient rattachés à chaque automobiliste ou véhicule et pourraient être modulés selon les activités (prioritaires ou non), voire avec la possibilité d’être échangés. Cette solution est peut-être théoriquement attrayante mais reste techniquement très difficile à mettre en œuvre dans un délai aussi court.

… et les autres

Il est également intéressant d’étudier des solutions non envisagées par Diamond et Dybvig. Les auteurs ignorent dans leur analyse le rôle de la création monétaire (ce qui est une limite de leur modèle). Face à des crises de liquidité, la banque centrale peut injecter de la liquidité dans le système bancaire afin de donner de l’oxygène aux banques.

En ce qui concerne l’essence, le gouvernement a ainsi commencé à recourir aux stocks stratégiques afin de réduire la tension. Néanmoins, l’analogie avec le système bancaire a ses limites. Contrairement à la monnaie de banque centrale, le carburant ne se crée pas ex nihilo. Cette solution implique donc de réduire ces stocks avec le risque de se trouver dépourvu si la crise perdure.

Enfin, il est utile de se demander pourquoi des économistes n’ont pas pensé à la régulation par les prix. Une solution aux deux problèmes serait de modifier le mode d’allocation de la ressource selon un principe de prix plutôt que de rationnement (file d’attente). Concrètement, les banques pourraient facturer les retraits en proportion du montant retiré ou alors jouer sur le prix des carburants.

Il ressort d’ailleurs que les prix à la pompe ont connu une hausse depuis le début de la pénurie, notamment dans les zones les plus tendues.

Cette solution a deux limites essentielles. D’une part, augmenter les prix est politiquement explosif dans la situation actuelle d’inflation. Ce choix reviendrait à donner la priorité aux plus aisés au risque d’accroître les tensions et donc l’origine du problème. D’autre part, on peut douter que la régulation par les prix soit le meilleur outil en situation de panique, lorsque les incitations économiques perdent de leur efficacité.

L’expérience vécue pourrait servir pour anticiper les futures crises afin de juguler au plus vite les phénomènes d’anticipations autoréalisatrices qui sont au cœur des difficultés actuelles.

12345...10



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol