Archive pour le Tag 'sous estimation'

Une sous-estimation des impacts climatiques par la BCE

Une sous-estimation des impacts climatiques par la BCE

Les professeurs Aurélien Acquier et Jérôme Creel analysent, dans une tribune au « Monde », les résultats du premier stress test climatique conduit par la Banque centrale européenne (BCE), mais se demandent si les auteurs ont bien lu les rapports du GIEC.

A la veille de l’ouverture de la COP26 (31 octobre-12 novembre 2021), la Banque centrale européenne (BCE) publiait, le 22 septembre 2021, les résultats de son étude de résilience au risque climatique (climate stress test) en Europe à l’horizon 2050, reconnaissant ainsi que « le changement climatique constitue une source majeure de risque systémique » pour les économies européennes.

Outre la composition d’une base statistique impressionnante de quatre millions d’entreprises et 1 600 banques, cette étude fait partie d’une nouvelle génération de stress tests climatiques qui dépasse les études précédentes. Jusqu’ici, elles ne portaient que sur les « risques de transition », c’est-à-dire les coûts économiques induits par les politiques visant à « décarboner » l’économie.

 

Dans ce cadre, le risque n’était envisagé qu’à travers les pertes financières des industries fortement dépendantes des énergies fossiles (industrie automobile, pétrolière). Ce faisant, ces premiers tests ignoraient les risques liés aux catastrophes climatiques (inondations, sécheresses, perte de productivité agricole, etc.).

PIB européen inférieur de 10 % en 2100

L’étude de la BCE corrige cette myopie : à côté des « risques de transition », elle intègre l’existence de « risques physiques », c’est-à-dire les dommages financiers causés par les catastrophes climatiques, vouées à s’accroître drastiquement faute d’action significative sur le front du climat.

Ce qui interpelle néanmoins, c’est l’écart entre un discours empreint de gravité dans la présentation des principales conclusions et le contenu concret et chiffré de l’étude de la BCE. Selon celle-ci, sans mesures fortes, en 2100 le PIB européen pourrait être de 10 % inférieur à ce qu’il serait dans un scénario de transition ordonnée.

Si aucune politique de lutte contre le changement climatique n’était mise en œuvre, une entreprise européenne médiane subirait une perte de 40 % de sa profitabilité et une hausse de 6 % de sa probabilité de défaut en 2050, par rapport à une situation dans laquelle l’accord de Paris serait respecté.

Aucun pays européen en conformité avec les objectifs climat

La lecture détaillée de l’étude laisse entrevoir une grave sous-estimation des impacts du changement climatique sur les économies européennes, en lien avec certaines hypothèses discutables du Network for Greening the Financial System (NGFS – réseau lancé en 2017 et qui réunit 89 banques centrales et superviseurs) sur lesquelles se fonde la BCE. Une première série de questions concerne le réalisme des scénarios retenus.

La sous-estimation du déficit structurel français en 2020

La  sous-estimation du déficit structurel français en 2020

 

 

Par Éric Pichet, Professeur et directeur du Mastère Spécialisé Patrimoine et Immobilier, Kedge Business School critique la sous-estimation du déficit structurel français en 2020 ( La tribune)

 

Millésime exceptionnel à tous points de vue, l’année 2020 l’est également pour l’évaluation très disparate du déficit structurel, défini comme le déficit public qui n’est pas lié aux évolutions conjoncturelles du cycle économique.

Ainsi la dernière estimation de ce déficit structurel donnée par le ministère de l’Économie et des Finances (dans le quatrième projet de loi de finances rectificative) est de 0,6 % en 2020 puis de 3,6 % en 2021, soit moitié moins que celle donnée… deux mois plus tôt dans le projet de loi de finances (PLF) pour 2021 (1,2 % en 2020 pour toujours 3,6 % en 2021).

Elle était en outre significativement plus basse que celle de 2019 (2,2 %) ce qui est particulièrement loufoque, même avec une hypothèse de croissance potentielle optimiste (1,25 % en 2019 et 2020 et 1,3 % en 2021).

Cette amélioration du solde structurel saugrenue provenait du choix d’enregistrer les mesures d’urgence de 2020 (de l’ordre de 3 points de PIB) comme temporaires – et sans impact sur le solde structurel en 2020 – et les mesures du plan de relance (dépenses supplémentaires et baisses de prélèvements obligatoires, pour un total de l’ordre de 4 points de PIB sur l’ensemble de la durée d’exécution du plan de relance) comme structurelles.

Devant une telle aberration, le Haut Conseil des finances publiques (HCFP), censé s’assurer du respect du traité sur la stabilité, la coordination et la gouvernance (TSCG), avait prudemment considéré que « les estimations de solde structurel présentées par le gouvernement dans le PLF pour 2021 ne peuvent être interprétées que sur l’année 2021 en comparaison avec l’année 2019 ».

Sa contre-expertise, fondée sur des documents fournis par le gouvernement, aboutissait à un déficit structurel plus élevé – mais toujours éloigné du bon sens – de 1,9 % en 2020 et à un niveau bien plus raisonnable de 4,8 % en 2021.

Déficit structurel autour de 5 %

La Commission européenne, qui évalue le déficit structurel car il s’agit de l’un des indicateurs budgétaires européens clés du Pacte de stabilité et de croissance (PSC) adopté en 1997, a effectué une analyse qui semble beaucoup plus pertinente de la situation.

Dans son avis sur le projet de loi de finances français pour 2021, Bruxelles relève qu’une bonne partie des dépenses de soutien dédiées à la lutte contre la crise « ne semblent pas être temporaires ni compensées », mentionnant en particulier les hausses de salaire des personnels hospitaliers et la baisse des impôts de production soit 18 milliards d’euros ou près de 1 % de PIB.

La Commission européenne évalue finalement le déficit structurel français de manière beaucoup plus lucide que nos institutions nationales à 3,3 % en 2019, 5,1 % en 2020 et 5,7 % en 2021.

Nous jugeons pour notre part aujourd’hui, comme ce fut le cas après la crise de 2008, que l’output gap (écart de production) constaté en 2020 ne sera jamais totalement rattrapé, même dans un scénario de croissance de 5 % en 2021, car la crise économique de 2020 est trois fois plus violente que celle de 2008-2009.

Avec le recul, il est désormais évident que 2019 signait une année de haut de cycle et donc que le solde structurel était alors, comme en 2000, supérieur au déficit public nominal de 3 %, comme nous l’avions d’ailleurs relevé l’an dernier.

C’est pourquoi nous estimons, comme la Commission européenne, la dégradation du déficit structurel d’au moins 2 points de PIB en 2020 ce qui l’amène autour de 5 % et sans doute un peu plus, soit 5,5 % en 2021.

Un calcul difficile

Comment expliquer un tel écart ? À la différence du déficit nominal, établi par des institutions publiques indépendantes et compétentes comme l’Insee ou Eurostat et certifié par la Cour des comptes, le déficit structurel n’est pas immédiatement quantifiable. La meilleure manière de le calculer est de retrancher au déficit nominal le déficit dit conjoncturel – c’est-à-dire exclusivement dû à la conjoncture.

Pour ce faire, il faut tout d’abord estimer le potentiel de croissance de l’économie qui est, selon la définition du Fonds monétaire international (FMI), le niveau maximal de production qu’une économie peut soutenir sans tensions inflationnistes.

Un large consensus existe chez les économistes pour l’estimer en France autour de 1,5 % avant la crise sanitaire et depuis 2020 autour de 1 %. L’écart de production annuel, soit la différence entre le niveau de croissance du PIB réel et son potentiel s’en déduit : cet écart est positif en période faste, négatif en période creuse.

La somme des écarts de production cumulés depuis le début d’un cycle économique est l’« output gap », c’est-à-dire l’écart entre le niveau du PIB effectivement mesuré et le PIB théorique calculé à partir de la croissance potentielle.

 

Ainsi, au début d’un nouveau cycle et avec une reprise poussive de 0,5 % pendant deux ans, pour un potentiel de croissance estimé à 1,5 % l’output put gap final au terme des deux ans accusera un retard de 2 % du PIB.

Comme en France les prélèvements obligatoires représentent environ la moitié du PIB (43,8 % en 2013) et que, sur longue période, leur élasticité historique est globalement proche de l’unité (une baisse de 1 % du PIB générant une baisse de 1 % des recettes publiques), on peut considérer qu’une baisse de 1 % du PIB implique une hausse conjoncturelle du déficit public, ceteris paribus, de 0,5 %.

Pour reprendre notre exemple, avec un output gap de 2 %, le déficit conjoncturel serait donc de 1 %, ce qui pour un déficit nominal de 3 % (soit le niveau en France en 2019) aboutirait à un déficit structurel de 2 %.

Créativité comptable

La principale difficulté de l’exercice est bien de mesurer avec précision l’output gap et donc la situation économique dans le cycle, ce qui explique des révisions rétrospectives parfois spectaculaires de ce dernier.

À titre d’exemple, en 2000, une année de haut de cycle, l’output gap avait été évalué à l’époque à 0 par les organisations internationales et l’État pour être revu à… +3 % quelques années plus tard.

Devant de telles difficultés d’évaluation, on comprend bien comment un gouvernement soucieux de présenter à la Commission européenne un effort structurel important peut faire preuve de comptabilité publique créative. Il lui suffit d’augmenter artificiellement le déficit conjoncturel par divers procédés (comme afficher un potentiel de croissance plus élevé qu’il ne l’est réellement) pour réduire mécaniquement le déficit structurel.

Bien entendu ces manipulations ne sont pas tenables à long terme mais il suffit de les corriger à la faveur d’un… changement de gouvernement. C’est exactement ce qui s’est produit en septembre 2017, juste après l’élection du président Emmanuel Macron, puisque le ministère de l’Économie avait alors carrément doublé son estimation du déficit structurel pour 2017, passée de 1,1 % en 2016 à 2,2 % en 2017 (nous l’estimions à l’époque aux environs de 3 %).

Avec une croissance potentielle désormais estimée autour de 1 % l’incantation du ministre de l’Économie Bruno Le Maire, selon laquelle la reprise économique réglerait tous les problèmes budgétaires semble bien irréaliste. Il ne semble pas non plus envisageable d’augmenter les prélèvements obligatoires sur les entreprises au moment où le gouvernement décide de réduire les impôts de production pour relancer l’investissement.

Il en est de même pour les particuliers, de plus en plus allergiques à toute hausse d’impôts comme l’ont montré les mouvements des « bonnets rouges » et des « gilets jaunes ». Enfin, l’utopie d’une éventuelle annulation de la dette publique française détenue par la Banque centrale européenne, formellement interdite par l’article 123 du Traité de l’Union européenne, traité que les pays vertueux du nord de la zone euro refuseront d’amender, a été douchée tout récemment par la présidente de la Banque centrale européenne, Christine Lagarde.

Dans ces conditions, la seule manière de réduire le déficit structurel reste l’effort en dépenses, c’est-à-dire la réduction des dépenses publiques. Cette réduction – et surtout la répartition des coupes – devrait donc être au cœur de la politique budgétaire de ces prochaines années.

______

(*) Par Éric Pichet, Professeur et directeur du Mastère Spécialisé Patrimoine et Immobilier, Kedge Business School.

La version originale de cet article a été publiée sur The Conversation.

Croissance États-Unis : une sous-estimation du tassement

Croissance États-Unis : une sous-estimation du tassement

 

 

Sans doute pour ne pas désespérer les acteurs économiques le secrétaire d’État américain au Trésor a indiqué que la croissance pourrait ne pas dépasser 3 % en 2020 en raison de différents facteurs négatifs qui vont peser sur l’activité. On est sans doute loin de la véritable hypothèse de croissance. En effet déjà en 2019, le PIB américain n’a atteint que 2,3 % au lieu des 3 % prévus. Du coup, cette année, la croissance américaine pourrait avoir des difficultés atteints non par les 3 % mais les 2 %. Surtout avec les conséquences de la guerre commerciale mais aussi du virus chinois qui va désorganiser pendant des mois les chaînes d’approvisionnement de l’économie américaine. Le secrétaire américain au Trésor, Steven Mnuchin, a déclaré vendredi qu’il s’attendait à une croissance de moins de 3% du produit intérieur brut (PIB) des Etats-Unis cette année, en partie à cause des problèmes de Boeing qui a dû suspendre la production de son 737 MAX pour des raisons de sécurité. S’exprimant dans un entretien à la chaîne de télévision Fox Business, il a indiqué que les projections de l’administration américaine «ont été réduites du fait de Boeing et d’autres impacts»«Je pense que nous aurions atteint 3%», a-t-il poursuivi, «mais, je le répète, Boeing a eu un impact important sur nos exportations, étant donné qu’il est notre principal importateur».

Mnuchin a par ailleurs déclaré que l’épidémie de coronavirus qui s’est déclarée en Chine et propagée dans différents pays aurait à coup sûr un «certain impact sur la croissance mondiale et sur les Etats-Unis». En 2019, l’économie américaine a progressé de 2,3%, en dessous de l’objectif de croissance de 3% fixé par l’administration Trump.

La sous-estimation de la problématique énergétique dans la croissance (Gaël Giraud, CNRS)

La sous-estimation de la problématique énergétique dans la croissance (Gaël Giraud, du CNRS)  

Une très longue e interview de Gaël Giraud, du CNRS qui explique dans le Monde  que la consommation d’énergie est le moteur de la croissance et qu’il faut de changer de logiciel d’analyse pour envisager une sortie de crise.

 

Quels sont d’après vous les indices d’un lien intime entre consommation d’énergie et croissance de l’économie ?
Depuis deux siècles, depuis les travaux d’Adam Smith et de David Ricardo par exemple, la plupart des économistes expliquent que l’accumulation du capital est le secret de la croissance économique inédite que connaissent les sociétés occidentales, puis une partie du reste du monde. Marx était, lui aussi, convaincu de cette apparente évidence. Or, historiquement, l’accumulation du capital (au sens moderne) n’a pas commencé au 18ème siècle avec le début de la révolution industrielle, mais au moins deux cents ans plus tôt. Inversement, la première “révolution marchande” des 12ème et 13ème siècles, qui permit à l’Europe de sortir de la féodalité rurale, coïncide avec la généralisation des moulins à eau et à vent. Une nouvelle source énergétique, en plus de la photosynthèse (agriculture) et de la force animale, devenait disponible. De même, qui peut nier que la découverte des applications industrielles du charbon, puis du gaz et du pétrole (et, plus récemment, de l’atome) a joué un rôle décisif dans la révolution industrielle, et partant, comme moteur de la croissance ? De 1945 à 1975, les “trente glorieuses” ont été une période de croissance accélérée et aussi de consommation inédite d’hydrocarbures. Depuis lors, la planète n’a jamais retrouvé la vitesse de consommation d’énergies fossiles qui fut la sienne après guerre. C’est une bonne nouvelle pour le climat. Mais cela n’est pas étranger au fait que nous n’avons jamais retrouvé non plus les taux de croissance du PIB des trente glorieuses.

Au cours des dix dernières années en France, la consommation d’énergie et de pétrole en particulier a diminué, tandis que le PIB, lui, a progressé.
Cela ne prouve-t-il pas qu’il n’y a pas de lien entre consommation d’énergie et croissance économique ?
La consommation d’énergie primaire française est passée de 255 millions de tonnes d’équivalent pétrole (MTep) en 2000 à 265 MTep en 2004 [corr.]. Elle a ensuite décliné légèrement jusqu’en 2008, avant de connaître un trou d’air en 2008-2009, suivi d’un second trou d’air en 2011. Elle a touché un plancher (provisoire ?) en 2012 à 245 MTep. Le PIB français a connu des variations analogues, ces variations ont simplement été plus amorties. C’est tout à fait normal dans la mesure où, heureusement, l’énergie n’est pas le seul facteur de production qui “tire” le PIB. Le travail réalisé avec Zeynep Kahraman, membre du Shift Project, montre que l’efficacité énergétique joue également un rôle majeur, là aussi devant le capital.
Reste que sur le long terme, une relation extrêmement stable existe entre la consommation d’énergie et la croissance du PIB. On retrouve la même très grande stabilité lorsque l’on élargit la perspective non plus dans le temps, mais dans l’espace. Pour des pays importateurs comme la France, l’externalisation de la consommation d’énergie par le biais des importations conduit à sous-estimer l’influence de l’énergie dans l’évolution de la croissance économique. L’estimation de la relation entre énergie et croissance est beaucoup plus fiable à l’échelle mondiale qu’à l’échelle nationale.

Vos travaux aboutissent à une conclusion qui diverge totalement des analyses classiques : “l’élasticité”, c’est-à-dire la sensibilité du PIB par habitant vis-à-vis de la consommation d’énergie, est d’après vous de l’ordre de 60 %, et non de moins de 10 % (soit le coût de la facture énergétique dans la production), comme l’indique la littérature économique habituelle. [ Autrement dit, si la consommation d’énergie augmente de 100 %, la théorie économique conventionnelle prédit que la hausse induite du PIB par habitant se limitera à moins de 10 %. D’après Gaël Giraud, l’observation empirique montre que l’augmentation est en réalité de 60 %, pas moins ! ]
Comment justifiez-vous cet énorme écart ?
La raison profonde de cet écart, c’est évidemment le très bas niveau du prix des hydrocarbures, même aujourd’hui.
Beaucoup d’économistes postulent que le marché international de l’énergie est à l’équilibre, et que les prix qui en émergent reflètent les tensions réelles s’exprimant sur ce marché. D’abord quelques remarques sur cette idée d’un équilibre naturel. Le prix de la plupart des énergies fossiles est influencé par celui du pétrole et, tout récemment, du gaz. Or le prix du pétrole, comme celui du gaz de schiste nord-américain, ne résulte pas d’une pure rencontre concurrentielle de l’offre et de la demande. Tous deux sont soumis à diverses manipulations. Il apparaît que le mode de fixation du prix du pétrole spot, livrable à court terme, ressemble davantage à la fixation des taux monétaires du LIBOR qu’aux fictions idéales des manuels d’économie. Nous savons aujourd’hui que ces taux interbancaires du LIBOR ont été sciemment manipulés par diverses banques de la City de Londres, cela durant des années et avec éventuellement la complicité passive de leur régulateur, la banque centrale d’Angleterre. De même, le prix du pétrole est un sujet politiquement très sensible, il n’est pas étonnant qu’il soit soumis à diverses pressions. Par exemple, la chute du prix du pétrole durant la seconde moitié des années quatre-vingt n’est pas étrangère à la stratégie de Washington qui visait à étrangler l’économie de l’URSS [en demandant à l’allié saoudien d’ouvrir ses vannes de brut à fond, NDLR], ce qui a conduit à précipiter la chute de l’empire soviétique. Je ne prétends pas que ce contre-choc pétrolier des années quatre-vingt ait résulté uniquement de cette initiative de l’administration Reagan, mais que l’on mesure, à travers un exemple de ce type d’exemple, la nature en partie géopolitique du prix de l’or noir.
A l’étage supérieur des marchés internationaux, celui des marchés financiers, le prix des futures, les contrats de livraison à terme sur le pétrole est, lui aussi, soumis à des mouvements de capitaux qui n’ont pas grand chose à voir avec la réalité économique de l’énergie, mais qui ont tout à voir avec des stratégies spéculatives mises en place par une poignée de grandes banques d’affaires américaines.
Enfin, concernant le gaz de schiste nord-américain, il fait très certainement l’objet d’un dumping à la baisse, favorisé par des subventions plus ou moins cachées de l’administration américaine.
Il résulte de tout ceci une déconnexion assez forte entre les réalités strictement économiques des hydrocarbures et leurs prix.

Revenons au point clé : le degré d’élasticité du PIB par rapport à l’énergie est selon vous très largement sous-estimé…
Si malgré les remarques liminaires que je viens de faire, vous croyez, comme la plupart des économistes universitaires, que le prix de l’énergie reflète fidèlement l’offre et la demande réelles, et si en plus et surtout, vous postulez que l’industrie des hydrocarbures n’est soumise à aucune contrainte du côté de l’extraction, alors vous concluez tranquillement que l’élasticité du PIB par rapport à l’énergie est proche de la part du coût de l’énergie dans le PIB, ce que l’on appelle son “cost share” en anglais. Soit moins de 10%, en effet. C’est ce raisonnement qui permet à certains de mes collègues économistes, à tort je pense, de prétendre que l’énergie est un sujet marginal et, pour tout dire, un non-sujet.
Admettons un instant, pour les besoins de la discussion, que le prix du pétrole soit vraiment un prix de marché concurrentiel. Même dans pareil cas, il est évidemment faux de prétendre que l’extraction physique des hydrocarbures n’est soumise à aucune contrainte géologique, politique, etc. Or, dès que l’on réintroduit ce type de contraintes, on peut aisément montrer que (même sur un marché purement concurrentiel), il y aura une déconnexion complète entre l’élasticité et la part de l’énergie dans le cost share : les calculs font apparaître des “prix fantômes”, lesquels reflètent la puissance des contraintes extérieures et déforment le cost share à la baisse par rapport à l’élasticité. Cette remarque a déjà été faite depuis longtemps par un physicien allemand, Reiner Kümmel, ainsi que par l’Américain Robert Ayres. Pourtant la plupart des économistes continuent de postuler que l’élasticité de l’énergie est égale à son cost share, c’est-à-dire très faible, sans eux-mêmes y être allés regarder de plus près. Je pense que cela est dû, en profondeur, au fait que beaucoup d’économistes préfèrent regarder des prix et des quantités monétaires plutôt que des quantités physiques. Ce qui est paradoxal, puisque beaucoup de leurs modèles fonctionnent en réalité comme des modèles sans monnaie ! (Je sais, ça vous étonne, mais il faudrait un autre entretien pour expliquer ce point…)
Mes propres travaux empiriques, menés sur près d’une cinquantaine de pays, et sur plus de quarante ans, montrent qu’en réalité l’élasticité du PIB par rapport à l’énergie primaire est comprise entre 40 %, pour les zones les moins dépendantes du pétrole, comme la France, et 70 % pour les Etats-Unis, avec une moyenne mondiale tournant autour de 60 %.

L’élasticité (la sensibilité) du PIB par rapport au capital vous apparaît par conséquent beaucoup plus faible que ce qui est couramment admis.
Quelles conséquences en tirez-vous sur le niveau des prix de l’énergie d’une part, et d’autre part sur la rémunération du capital ?
L’une des conséquences de la réévaluation à la hausse de l’élasticité du PIB par rapport à l’énergie est, en effet, une réévaluation à la baisse de l’élasticité par rapport au capital. D’après les manuels, cette dernière devrait de nouveau être égale au cost share du capital, traditionnellement évalué entre 30 et 40 % du PIB. Je trouve pour ma part des élasticités moitié plus faibles et ce, même en adoptant des définitions empiriques larges du capital, comme celle de Thomas Piketty. On pourrait être tenté d’en déduire que le capital est sur-rémunéré, et que l’énergie est sous-rémunérée. Ce n’est pas forcément faux mais, de mon point de vue, ce type de conclusion continue de raisonner comme si l’égalité de l’élasticité et du cost share devait être vérifiée dans un monde idéal. Or, et c’est un point fondamental, je ne connais pas de démonstration entièrement convaincante de cette égalité. Même si le prix de l’énergie (ou du capital) était fixé sur un marché mondial parfaitement concurrentiel, ce qui n’est nullement le cas en pratique, et même si l’on croit que les compagnies pétrolières ne sont soumises à nulle contrainte externe à leur business (de sorte qu’aucun “prix fantôme” ne viendrait déformer la relation élasticité/cost share, ce qui est une fiction), même dans un tel monde idéal, cette égalité reste encore suspecte. Cela est lié au fait que la micro-économie traditionnelle souffre de nombreuses erreurs internes, approximations et autres court-circuits intellectuels, qui rendent ses conclusions extrêmement fragiles. Un excellent livre, rédigé par un économiste australien, Steve Keen, fait le point sur ces problèmes d’apparence technique mais qui sont, au fond, décisifs pour le débat politique contemporain. J’assure la traduction de ce livre avec Aurélien Goutsmedt, il paraîtra à l’automne prochain (L’Imposture économique, Steve Keen, Ed. de l’Atelier).

Vous estimez qu’il existe une sorte de “force de rappel” entre la consommation énergie et le rythme de croissance du PIB. Les deux apparaissent “co-intégrés”, c’est-à-dire qu’ils seraient voués perpétuellement à revenir l’un vers l’autre, au bout d’un certain temps.
Existe-t-il un lien de cause à effet entre l’énergie disponible et le niveau d’activité économique, ou au contraire du niveau d’activité économique sur la consommation énergie, ou bien encore s’agit-il d’un lien réciproque ?
Cette question a déjà été étudiée abondamment par les économistes spécialisés dans l’énergie. Il n’y a plus de doute, aujourd’hui, sur le caractère co-intégré de l’énergie et du PIB. Mes travaux montrent que la force de rappel entre ces deux grandeurs est telle qu’après un choc exogène (un krach financier, par exemple), ces variables mettent en moyenne un an et demi à retrouver leur relation de long terme. Si vous regardez la séquence 2007-2009, c’est à peu près ce que l’on observe.
Vous posez à juste titre la question de la relation de causalité : est-ce la consommation d’énergie qui cause le PIB ou bien l’inverse ? Là-dessus, même les économistes énergéticiens sont beaucoup plus divisés. Mes travaux avec Zeynep Kahraman penchent clairement en faveur d’une relation causale univoque de la consommation d’énergie primaire vers le PIB, et non l’inverse. Jean-Marc Jancoviciavait déjà anticipé ce résultat depuis un moment, en observant par exemple qu’à la suite du krach 2007, la baisse de la consommation d’énergie précède la baisse du PIB dans un nombre important de pays. Comme l’indique le bon sens physique, une relation de causalité ne peut se traduire que par une précédence temporelle de la cause sur l’effet. C’est exactement ce que confirme mon travail.
Il y a beaucoup de malentendus sur cette question de la causalité. La causalité est une notion métaphysique : même la mécanique newtonienne ne prétend pas démontrer que la gravité universelle fait tomber les pommes des arbres ! Tout ce qu’elle peut dire, c’est qu’elle dispose d’un modèle au sein duquel une grandeur appelée force gravitationnelle est supposée se manifester par le mouvement des masses, et que ce modèle n’a jamais été mis en défaut – pour des vitesses faibles par rapport à la lumière, évidemment ! Ici, il en va de même : tout ce que nous pouvons dire, c’est que nous observons une relation empirique entre l’énergie et le PIB, qui peut s’interpréter statistiquement comme une relation causale.

A vos yeux, dans quelle mesure la crise de 2008 pourrait-elle être une sorte de choc pétrolier ?
L’argument est facile à concevoir : en 1999, le baril est à 9 dollars. En 2007, il tourne autour de 60 dollars (avant de s’envoler à 140$ du fait de la tempête financière). Nos économies ont donc connu un troisième choc pétrolier au cours des premières années 2000, de même amplitude que ceux des années 1970, quoique davantage étalé dans le temps. Or ce “choc pétrolier” n’a pas eu l’effet récessif majeur de ceux de 1973 et 1979. Pourquoi ? Certains économistes avancent que cela serait dû à la plus grande flexibilité du marché du travail aux Etats-Unis, dans les années 2000, comparée à celle qui prévalait dans les années 1970, ainsi qu’à la politique monétaire très accommodante menée par la Réserve fédérale américaine (ainsi que par la Banque centrale européenne).
La première explication ne me convainc nullement : elle repose très largement sur le postulat de l’égalité élasticité/cost share, dont j’ai dit combien elle est suspecte. Elle vise de manière trop évidente à légitimer des programmes de flexibilisation tous azimuts du marché du travail, qui ont pourtant montré leur inefficacité. En revanche, la seconde explication se rapproche de ce que vous suggérez. La politique monétaire de taux directeurs très faibles a rendu possible une expansion significative du crédit, elle-même facilitée par la dérégulation financière. Autrement dit, nos économies se sont endettées pour compenser la hausse du prix du pétrole ! Comme le crédit était très bon marché, cela a permis de rendre le choc pétrolier relativement indolore. Dans le même temps, la politique monétaire, la déréglementation et la myopie du secteur bancaire ont aussi provoqué le gonflement de la bulle des subprimes, dont l’éclatement en 2007 a enclenché la crise. Le remède qui a rendu possible d’amortir le choc pétrolier a donc aussi provoqué la pire crise financière de l’histoire, elle-même largement responsable de la crise actuelle des dettes publiques, de la fragilisation de l’euro, etc. Tout se passe donc comme si nous étions en train de payer, maintenant, le véritable coût de ce troisième choc pétrolier.

L’évolution de la consommation d’énergie est, dites-vous, un non-sujet pour la plupart des économistes. D’autres travaux analogues aux vôtres (ceux de Robert Ayres, notamment) aboutissent également à la conclusion que le rôle de l’énergie dans l’économie est totalement sous-estimé.
Où en est la prise en compte de votre type d’approche dans la recherche économique et dans la pensée économique en général ? Obtenez-vous un écho auprès de vos confrères, ou bien prêchez-vous dans le désert ?
La communauté des économistes universitaires n’est nullement homogène. Certains continuent de réciter le catéchisme des manuels, dont nous avons pourtant bien des raisons de penser qu’il contient de nombreuses contre-vérités majeures, lesquelles ne sont pas étrangères à l’incapacité d’une partie de la profession à anticiper une crise monumentale comme celle des subprimes, ou encore à imaginer d’autres solutions à la crise européenne que l’approfondissement des programmes de rigueur budgétaire qui, pourtant, nous condamnent à la déflation.
Mais d’autres économistes font un travail remarquable : vous avez cité à juste titre Robert Ayres, il y a aussi des personnes comme Michael Kumhof au FMI [son interview sur ‘Oil Man’], James Hamilton [présentation sur ‘Oil Man’], David Stern, Tim Jackson, Steve Keen, Alain Grandjean, Jean-Charles Hourcade, Christian de Perthuis,… Je suis convaincu qu’au fur et à mesure que la société prendra conscience du rôle vital de l’énergie – ce processus de prise de conscience a déjà commencé –, la première catégorie d’économistes sera contrainte de changer ses dogmes. Le reste appartient à la sociologie du champ académique.

Les contraintes du pic pétrolier et du changement climatique promettent de dessiner un avenir dans lequel la machine économique aura de moins en moins d’énergie à sa disposition pour fonctionner.
Ces deux contraintes impliquent-elles selon vous la fin prochaine de l’économie de croissance ?
Oui, très vraisemblablement. Sans transition énergétique (c’est-à-dire, sans réorientation volontariste de nos forces productives et de nos modes de consommation vers une économie moins dépendante des énergies fossiles), nous ne pourrons tout simplement plus retrouver la moindre croissance durable. Même si certains prétendent aller la chercher avec les dents. Les travaux que j’ai conduits avec Antonin Pottier suggèrent que des économies comme les nôtres ne peuvent connaître, au fond, que trois régimes de moyen terme : une croissance significative accompagnée d’une forte inflation (les trente glorieuses), la déflation (Le Japon depuis 20 ans, l’Europe et les Etats-Unis durant l’entre-deux-guerres), ou bien une croissance molle accompagnée de bulles spéculatives à répétition sur les marchés financiers. L’Europe de l’Ouest est à l’évidence dans le troisième régime, vers lequel nous avons bifurqué au cours des années 1980, à la faveur de la dérégulation financière. La question qui nous est posée aujourd’hui est de savoir si nous voulons poursuivre cette expérience, au prix du creusement des inégalités inouï que nous connaissons et de la destruction à terme du secteur industriel européen par la sphère financière. Ou nous pouvons nous laisser glisser paresseusement dans la déflation (le plus dangereux) comme c’est déjà le cas pour une bonne partie du sud de l’Europe. Ou bien encore, nous pouvons tenter de renouer avec la prospérité. Cette dernière ne coïncide pas avec la croissance du PIB. Comme vous le savez, le PIB est, à plein d’égards, un très mauvais indicateur. Il est temps d’en changer. Le rapport Sen-Stiglitz-Fitoussi ou, mieux encore, les travaux de Jean Gadrey et de Florence Jany-Catrice indiquent des pistes très prometteuses permettant d’aller dans ce sens. Autrement dit, faire croître le PIB n’a guère d’importance. D’où l’inanité des débats sur la croissance verte, qui s’interrogent sur le fait de savoir si la transition est compatible avec la croissance du PIB. La bonne question, c’est : comment opérer la transition de manière à assurer du travail pour le plus grand nombre, et un style de vie à la fois démocratique et prospère ?

L’anthropologue américain Joseph Tainter affirme qu’il existe une « spirale énergie-complexité » : « Vous ne pouvez avoir de complexité sans énergie, et si vous avez de l’énergie, vous allez avoir de la complexité », dit-il.
Que vous inspire cette assertion ?
Le parallèle que Tainter propose entre la dépendance de l’empire romain à l’égard de l’énergie pillée chez les sociétés conquises, et notre propre dépendance énergétique me paraît très pertinent. Le colonialisme a constitué – n’en déplaise à certains historiens, tels que Jacques Marseille – une grande opération de captation d’un certain nombre de ressources énergétiques majeures, de la part d’un continent (l’Europe) qui manque cruellement de ressources énergétiques fossiles sur son propre sol. Que notre continent soit plus ou moins condamné au déclin s’il ne réalise pas la transition énergétique, cela également me paraît assez évident. En revanche, je suis moins Tainter sur sa thèse concernant le lien intangible entre la complexité d’une société et son usage de l’énergie. Cette notion de complexité ne risque-t-elle pas de justifier la démission du politique, si elle est comprise comme impliquant que, décidément, les choses sont beaucoup trop complexes pour qu’un gouvernement puisse prétendre décider quoi que ce soit ? Il est vrai, par ailleurs, que la déréglementation financière a provoqué un brouillard d’informations contradictoires (les prix de marchés financiers) qui sèment une énorme confusion sur les tendances économiques lourdes, et paralysent aussi bien les investissements de long terme que la décision politique. En ce sens-là, l’expérience de la déréglementation nous a plongés dans un monde “complexe”, au sens de confus. Mais ce n’est nullement irréversible, et c’est une raison supplémentaire pour ne pas faire dépendre notre prospérité des marchés financiers.
Si l’on suit Tainter, nous serions condamnés, dans la mesure où notre société aurait atteint son “pic de complexité”, au-delà duquel les gains de productivité de la complexité deviendraient négligeables ? Je peux me tromper, mais je suis convaincu, pour ma part, que seules deux régions au monde peuvent lancer la transition énergétique en tant que vaste projet économique et politique : l’Europe et le Japon. En effet, il faut, pour cela, d’excellents ingénieurs et une population à la fois riche et très éduquée. Si l’Europe devient leader dans la transition énergétique et, plus globalement, écologique, alors elle pourra, avec son propre retour d’expérience, exporter auprès du reste du monde son savoir-faire. Sinon, elle sera condamnée à devoir faire la guerre, comme l’empire romain, pour capter l’énergie des autres, ce qu’elle n’a plus guère les moyens de faire. La transition est devant nous : elle est le secret de la prospérité future de l’Europe si, du moins, notre continent se donne les moyens de la mettre en oeuvre.

Délinquance: sous-estimation

 Délinquance: sous estimation

Se fondant sur un rapport de l’administration « les Echos » observe que   la «politique du chiffre » menée en matière de sécurité s’est traduite par des dérives dans le contrôle de l’enregistrement des plaintes observées «depuis 2006 ou 2007 ». «Le management par objectifs de la délinquance, connu sous la dénomination de «politique du chiffre», a largement contribué à cette absence ou ce désengagement du contrôle de l’enregistrement» des plaintes par la hiérarchie, affirme l’Inspection générale de l’administration (IGA) dans un rapport commandé par Manuel Valls, publié ce vendredi. A peine arrivé place Beauvau le 17 mai 2012, le ministre de l’Intérieur avait prévenu qu’il n’y aurait pas, en matière de sécurité, de « course effrénée aux chiffres » contrairement, selon lui, à la pratique du précédent gouvernement. « Les chefs de service, placés entre l’injonction d’afficher de bons résultats et l’impératif de contrôler la bonne application du guide de méthodologie statistique, privilégiaient souvent la première option», poursuit le rapport. Il ajoute que « certaines directives de l’administration centrale ont pu contribuer à minorer fortement les statistiques de la délinquance en généralisant des pratiques d’enregistrement non conformes». L’IGA cite notamment deux directives qui ont fait sortir «dès 2007 et les années suivantes, près de 130.000 faits» par an de « l’Etat 4001 » des forces de l’ordre – l’outil statistique classifiant les infractions en zones police et gendarmerie en fonction des plaintes.  Le rapport confirme par ailleurs «une rupture statistique » consécutive au déploiement, dans la gendarmerie, du logiciel Pulsar en janvier 2012. Ce qui a eu un impact sur les chiffres entre 2011 et 2012, à hauteur de 35.000 à 50.000 faits annuels, soit 3,5 à 5% de la hausse de la délinquance constatée en zone gendarmerie. L’explosion des chiffres de la gendarmerie connue depuis fin 2012 a alimenté les critiques de l’opposition qui dénonce un «laxisme» du gouvernement. Ce rapport intervient après qu’ en avril une mission parlementaire (PS et UMP) a mis en cause l’outil de mesure de la délinquance , rejoignant ainsi la volonté de Manuel Valls de réformer en profondeur cet appareil statistique contesté. Parmi ses dix recommandations, l’IGA préconise notamment d’instaurer un contrôle de l’enregistrement des plaintes. La mission de l’IGA, menée en collaboration avec l’inspection générale de l’Insee, plaide aussi pour la création d’un Service statistique ministériel qui incorporerait des statisticiens à l’Intérieur, tout en renforçant la place de l’Observatoire national de la délinquance et des réponses pénales qui publie également des chiffres à partir de plusieurs sources, notamment judiciaires.

 




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol