Archive pour le Tag 'Vrai'

Le vrai risque d’une crise financière ( Xerfi)

 

Le vrai risque d’une crise financière ( Xerfi)

« La récession est là. Et chacun va de son pronostic sur la conflagration financière qui ne manquera pas de l’aggraver. Comme toutes celles qui tous les 10 ans sont venues ébranler la planète finance et la trajectoire du cycle d’affaire (1987, 1997, 2000, 2007). Il y a encore quelques années, les oiseaux de mauvais augure, les Roubini, les Aglietta étaient ostracisés.

Aujourd’hui, les prophètes de la prochaine crise se bousculent au portillon. Avec une course à l’échalote à qui annoncera la plus forte, la plus meurtrière. Et, des arguments massues en apparence : nous vivons aujourd’hui les conséquences de la folle thérapie du QE, avec des banques centrales apprenti sorcier, qui ont surchargé la sphère financière en liquidité. Résultat : Un monde incongru à taux négatifs est né, condamné à péricliter où ne s’opère plus aucune sélection de l’investissement ; ni aucune récompense de l’épargnant…. Et surtout, un monstre hideux a prospéré sur l’argent gratuit : la possibilité pour les États de s’endetter sans limite. La finance a perdu le contrôle. Tous ceux que rassuraient la grande tutelle rationnelle de la finance sur les choix d’investissement, les choix sociaux, et la mise sous surveillance des États, voient leur monde s’écrouler. La rationalité financière n’est plus aux commandes … Et ça va péter.

Aussi étonnant que cela puisse paraître, l’argumentation est bien courte. Le monde développé 1/ a déjà lésé sur de longues périodes les épargnants, sans que cela ne soit préjudiciable à la croissance, à l’emploi ou à l’investissement. 2/ Tous les enchainements pronostiqués par les cassandres ont viré jusqu’ici au fiasco : où est la fameuse inflation sur laquelle devait se fracasser le QE, la brutale remontée des taux qui devait précipiter la perte des États endettés ? Au contraire, la récession devrait encore approfondir  toutes les tendances déflationnistes et de décrue des taux. 3/ Reste l’effet délétère de l’argent gratuit sur les choix d’investissement… mais il s’agit là d’un effet diffus, sur longue période, qui n’implique nullement un séisme imminent.

Paradoxalement, les économistes qui historiquement  avaient mis en alerte sur l’instabilité systémique de la finance et anticipé les accidents passés, à l’instar de Robert Shiller, modèrent aujourd’hui la peur d’un Big One. Pour Robert Shiller, le cycle de hausse des prix d’actifs, mobilier ou immobilier, n’a pas la même ampleur que celui observé avant 2000 ou 2007. Cette crise, nous fera chuter de moins haut. Et on n’observe pas non plus de bulle de crédit équivalente aux précédents cycles. Il y aura une récession, une correction des prix d’actifs, certes, mais rien de comparable à 2007-2008.

Interrogeons-nous alors sur l’anatomie de la prochaine crise, les enchainements qui la sous-tendraient, plutôt que de lancer des cris d’Orfraies, face au dérèglement de nos repères. Ni hausse des taux, ni inflation en vue… l’étincelle ne viendra pas de là. Si elle ne vient pas de là, d’où peut-elle venir ? De l’effondrement du prix des actifs emportés par la récession mondiale ? En partie peut-être. Mais à l’instar de Shiller, la chute restera contenue, surtout dans le contexte d’affaissement des taux que produira la récession. Et une chute des prix d’actifs n’a pas forcément des effets systémiques. Ce sont massivement les ménages qui in fine subissent les pertes, bien plus que les gestionnaires de fonds… Cela produit des effets de richesse négatifs, qui aggravent une récession, mais cela reste de deuxième ordre. Le capital investissement, risque aussi de boire la tasse… mais il en est coutumier, sans conséquence systémique sur le reste du système financier.

Le vrai talon d’Achille est ailleurs. Ce qui a sauvé la finance jusqu’ici de l’évaporation des revenus d’intérêt, c’est la coexistence de plus-values (sur les actions cotées, notamment techno, sur le non côté, et sur l’immobilier). C’est ce qui a fait prospérer les grands fonds de gestion ces dernières années. Ces grands fonds, très concentrés au sommet, se détiennent mutuellement. Derrière Black Rock, il y a Vanguard, et une myriade d’autres fonds … Derrière Vanguard, il y a Black Rock et la même myriade de fonds. Et puis, il y a les banques, très souvent en principal actionnaire : comme la banque américaine PNC, qui détient 22% de Black rock, ou le crédit agricole qui détient 70% d’Amundi, premier fond européen. Et cette source de revenus a joué un rôle décisif dans le maintien à flot du système bancaire. Avec la récession qui se dessine et le nouvel affaissement des taux, les banques entrent dans une nouvelle zone de compression de leur marge d’intérêt. Le refinancement à taux zéro après des banques centrales ne suffit plus à sauver leurs marges. Et la dépréciation des actifs va mettre à mal la « fair value » des grands fonds, avec les normes IFRS. Ce n’est donc plus là-dessus que vont se récupérer les banques. Dans une sphère ou chacun détient chacun, où le risque systémique est donc maximal…là oui ça peut craquer ».

 

Xerfi

Politique énergétique : Pour un « vrai » green new deal

Politique énergétique : Pour un « vrai » green new deal

 

 

Il faut des  solutions économiques concrètes et durables analyse Alain Grandjean qui estime par ailleurs qu’on ne pourra compter seulement sur le changement de comportement  pour décarboner les  économies et qu’il conviendra aussi de développer des politiques publiques volontaristes. Alain Grandjean est  le président de la Fondation Nicolas Hulot. Alain Grandjean est  docteur en économie de l’environnement, diplômé de l’Ecole polytechnique et de l’Ensae, co-fondateur et associé de Carbone 4 ( la Tribune)

 

« La question climatique et plus généralement écologique doit et va devenir centrale dans les politiques publiques. Il faut « remettre l’église au centre du village ». C’est tout le sens du rapport du Haut Conseil pour le Climat qui plaide pour une mise en cohérence de ces politiques.

Pour cela, s’impose le lancement en Europe et en France d’un « vrai » green new deal. Il s’agit d’un projet d’ensemble y incluant un programme d’investissement des publics et privés à la hauteur des enjeux.

Tout simplement parce que ce sont nos équipements, nos machines, leurs moteurs etc. qui émettent du CO2. Par ailleurs nous devons anticiper les changements climatiques des 20 prochaines années qui sont déjà largement prévisibles et dont les impacts sociaux et économiques attendus sont importants.

Les taux d’intérêt très bas actuels facilitent le financement de ces investissements ; il faut cependant recréer des marges budgétaires tant pour financer les investissements publics (infrastructures de transport, bâtiments publics) que pour accompagner voire subventionner les investissements privés, qui ne sont pas toujours rentabilisables au vu d’un prix du carbone explicite trop faible aujourd’hui.

Le prix du carbone va devoir être revu à la hausse mais cela nécessitera, dans le contexte actuel, que le produit de la taxe soit largement réalloué aux ménages.

Le sujet est sur la table, comme le montre par exemple un rapport du conseil budgétaire européen. Il est bien acquis que leur design actuel a défavorisé les investissements publics.

Enfin la politique commerciale internationale doit être revue à cette aune. Cette remise en cause s’impose de toutes façons du fait des méthodes employées par l’actuel président américain.

Les projets bas-carbone donnant de l’activité en France et en Europe doivent de conditions équitables dans la compétition économiques et le cadre de l’action publique favorable à cette transition ne doivent pas pouvoir être remis en cause. »

 

Un vrai ordinateur quantique : Pour quand ?

Un vrai ordinateur quantique : Pour quand ?

Passer l’ordinateur classique à l’ordinateur quantique , c’est se donner une puissance de calcul dont il est difficile de prendre l’ampleur. Un peu comme si on comparaît le boulier à l’ordinateur actuel. Les champs d’application du calcul quantique concerneraient beaucoup de domaines par exemple la médecine, la logistique, la finance, l’intelligence artificielle ou la traduction des langues.

 

« Dans un entretien de vulgarisation avec Etienne KleinThierry Breton schématise le fonctionnement d’un calcul quantique comme un avis de recherche : si l’on cherche dans une salle de mille personnes quelqu’un mesurant plus de 1,80 m et parlant anglais, il compare l’informatique classique à l’interrogation de chaque participant un par un en posant les questions « Mesurez-vous plus de 1,80 m ? » et « Parlez-vous anglais ? » et en notant les numéros de ceux qui répondent « oui » aux deux questions, ce qui va prendre un certain temps. En calcul quantique, tout se passe comme si on lançait un appel général : « Les personnes mesurant plus de 1,80 m et parlant anglais peuvent-elles lever la main ? » et on a la réponse quasi instantanément. Thierry Breton parle de calcul holistique et non plus séquentiel. Reste à mettre au point des langages traitant globalement un ensemble de valeurs possibles comme une seule. Pour le moment, Atos travaille sur une sorte d’assembleur approprié, nommé AQAL (Atos Quantum Assembly Language). Le nom d’ »assembleur » peut induire en erreur, puisqu’il s’agit d’un langage de description de traitements qui est au contraire indépendant de la machine utilisée (contrairement à un assembleur au sens classique, donc) à condition qu’elle respecte quelques grandes lignes d’une sorte de machine virtuelle. » (Wikipédia)

Un pas important pourrait avoir été franchi ces jours-ci. Un mois après avoir fait fuiter l’information par erreur, Google a annoncé mercredi avoir atteint la suprématie quantique. Dans un communiqué publié le 23 octobre, la firme de Mountain View prétend avoir « démontré sa capacité à calculer en quelques secondes ce qui prendrait des milliers d’années aux supercalculateurs les plus grands et avancés, atteignant ainsi une étape majeure connue comme la suprématie quantique« .

Mais il y a loin la théorie à la réalité d’après un papier du Monde

« . Dompter les lois de la physique à l’échelle de l’infiniment petit pour créer un appareil avec une puissance de calcul sans équivalent avec les machines actuelles capable de résoudre les problèmes les plus complexes. Après l’espace dans les années 50, la communauté scientifique et technologique s’emploie aujourd’hui à conquérir une nouvelle frontière, celle de l’informatique quantique, un horizon de plus en plus convoité depuis les années 80.

Aux avant-postes de cette course technologique mondiale, on retrouve les Etats-Unis et la Chine, dont les grands industriels investissent massivement en R&D pour ne pas rester à quai de la révolution annoncée. Côté américain, Google, IBM et Microsoft sont convaincus de pouvoir réaliser des calculs quantiques totalement inaccessibles aux ordinateurs traditionnels dans les prochaines années.

Un pas important pourrait avoir été franchi ces jours-ci. Un mois après avoir fait fuiter l’information par erreur, Google a annoncé mercredi avoir atteint la suprématie quantique. Dans un communiqué publié le 23 octobre, la firme de Mountain View prétend avoir « démontré sa capacité à calculer en quelques secondes ce qui prendrait des milliers d’années aux supercalculateurs les plus grands et avancés, atteignant ainsi une étape majeure connue comme la suprématie quantique« .

La suprématie quantique est un concept né dans les années 80. Elle désigne le moment où est démontrée la supériorité d’un ordinateur quantique sur un ordinateur classique sur une tâche particulière. Les ingénieurs de Google, aidés par la Nasa et le laboratoire national d’Oak Ridge, affirment avoir réussi à créer un processeur capable de réaliser un calcul en 200 secondes quand le plus avancé des ordinateurs actuels aurait besoin de 10.000 ans. »

Hollande écrit un livre pour enfants, son vrai public !

Hollande écrit  un livre pour enfants, son vrai public !

Hollande va peut-être trouver son vrai public en sortant un livre pour enfants mais sur un sujet sérieux : la république. Il faut dire que tant l’action que les discours de Hollande ont toujours été enfantins quand notamment il a prétendu mettre en œuvre  une politique socialiste alors qu’il n’a fait que prolonger voire amplifier les politiques antérieures ; sauf dans les moments de campagne électorale évidemment où là les valeurs socialistes s’affichaient.

 

Souvenons-nous de l’ennemi, c’est la finance ! Et pour finir avec Macron comme conseiller économique puis ministre de l’économie liquidant par exemple Alstom et autres et privilégiant déjà les intérêts financiers dominants. Bref, le grand guignol habituel du PS qui l’a réduit à pas grand-chose avant sans doute de disparaitre comme la SFIO en son temps ; Un discours révolutionnaire dans les congrès et les campagnes électorales et une politique classique  au pouvoir, en plus irresponsable. Bref une posture pour enfants. Et Hollande se recycle justement face à son vrai public.   . Le livre, intitulé Leur République expliquée aux jeunes et au moins jeunes sera publié dans la collection « Quand ça va, quand ça va pas », une série documentaire pour les enfants à partir de 5 ans. Il paraîtra en février 2020.

 

Au fil des pages, les jeunes lecteurs pourront découvrir ce qu’est un pays, une constitution ou quels ont été les différents régimes politiques depuis la Révolution française. Il est illustré par la dessinatrice Laure Monloubou. Il s’agit d’« un livre clair et didactique sur les bases de notre République et ce qui en fait une démocratie », a expliqué l’éditeur. Glénat se félicite de la publication de cet ouvrage « écrit par un homme qui en a exercé les plus hautes fonctions et qui, à travers 40 ans de vie politique locale puis nationale, a cerné les attentes et les incompréhensions de ses concitoyens ». Pas sûr malheureusement qu’il ait compris grand-chose, le petit bourgeois sympa, rigolo parfois mais aussi incompétent qu’inconscient des réalités socio économiques.

SNCF: enfin un vrai patron ?

SNCF: enfin un vrai patron ?

La plupart du temps la SNCF a dû se contenter d’un patron à profil relativement politique ayant surtout pour vocation de se taire devant les contradictions de la politique des transports et de faire le dos rond face à certaines organisations syndicales. Du coup,  l’entreprise s’est enfoncée dans le déclin économique et surtout financier. Or la question de la succession de Guillaume Pepy se pose. Il serait souhaitable évidemment qu’on ne nomme pas un nouveau technocrate surtout occupé de communication c’est-à-dire davantage dans l’apparence que dans l’action. Bref, il faudrait enfin un vrai patron à l’entreprise,  un patron qui prenne en compte les deux champs prioritaires à savoir d’abord le commercial ensuite les ressources humaines. Il s’agit de transformer la SNCF en véritable entreprise pour éviter qu’elle disparaisse.

Selon plusieurs sources gouvernementales et dans l’entreprise, l’annonce du nom du successeur de Guillaume Pepy à la tête de la SNCF devrait avoir lieu dans les prochains jours, sans doute mercredi ou d’ici la fin de la semaine. Dans la course à sa propre succession, l’actuel patron, à la tête de l’entreprise depuis 2008, n’est pas inactif.

Ces derniers jours, la « short list » ne comporte plus que deux noms susceptibles de succéder à Guillaume Pepy à la tête de la SNCF. Celui de Patrick Jeantet, l’actuel patron du Réseau, et celui de Jean-Pierre Farandou, actuel président de Keolis, groupe spécialiste des transports publics et filiale de la SNCF à 70 %. L’hypothèse d’un binôme entre Jean Castex, ex-secrétaire général adjoint à la présidence de la République de Nicolas Sarkozy, actuellement délégué interministériel aux grands événements sportifs, et Rachel Picard, directrice de Voyages SNCF a sérieusement tenu la corde, mais a finalement achoppé.

« Il y avait plusieurs inconvénients. D’abord, Jean Castex ne connaît pas du tout le secteur des transports. Or, la SNCF est en pleine transformation et l’on ne peut pas se permettre d’attendre trois ans que le nouveau patron s’acclimate. Rachel Picard, elle, maîtrise bien l’entreprise, elle y travaille depuis 2004. Et c’est une “Pepy girl”. Mais elle incarne vraiment le TGV, dans l’entreprise, à un moment où la priorité est de retisser des liens avec les régions. Et surtout, un exécutif à deux têtes n’incarne pas forcément l’image d’une entreprise réformée et prête à affronter la concurrence », commente un cadre de premier plan. Ce sont donc Patrick Jeantet et Jean-Pierre Farandou qui restent en lice.

La candidature Villani montre le vrai visage théocratique de LREM

 

 

La candidature Villani  montre le vrai visage théocratique de LREM

 

Avec la candidature de Villani, la république en marche a pris d’un coup 20 ou 30 ans de plus en se comportant finalement de manière aussi bureaucratique et sectaire que les autres partis. En effet, la plupart des ténors de la majorité sont montés au créneau pour critiquer la décision du mathématicien de se présenter à Paris et donc de s’asseoir sur la candidature officielle de Griveaux. Une candidature pourtant décidée par un comité de désignation bidon comme d’ailleurs la plupart des comités qui désignent les responsables dans le parti de Macron. Et pour cause, ce parti n’existe pas. Macron l’a transformé dès le départ en club de fans. Ce parti n’a aucun fonctionnement démocratique, aucune vie, aucune réalité régionale et locale. Pour faire semblant de satisfaire à la démocratie, on désigne deux ou trois membres chargés d’adouber des candidats désignés par avance. Villani  a transgressé les règles déclarent nombre de responsables de la république en marche. Finalement , il n’a fait qu’imiter Macron qui a fait exactement la même chose en accédant pouvoir grâce au parti socialiste puis en s’affranchissant des règles de ce parti.

 

Cette affaire pourrait être grave pour la république en marche qui montre ainsi son vrai visage d’appareil et de club d’élus et de futurs élus. La décision de Villani constitue une sorte de crime de lèse-majesté à l’égard du monarque républicain Macron. Macron n’est sans doute pas le premier monarque républicain mais son autoritarisme dépasse tout ce qu’on a connu aussi bien dans le champ politique que dans l’appareil d’État. Voir à cet égard l’ampleur et la vitesse de d’enterrement par la justice des affaires politico financières. Bêtement, les responsables de la république en marche reprennent en chœur les critiques à l’égard de Villani. Ils pourraient le payer très cher car l’opinion va découvrir la réalité d’un parti qui se voulait transgressif mais qui n’est en réalité que bureaucratique, théocratique et archaïque.-  Ce qui est certain c’est que Villani ne renoncera pas car lui au contrairement à  d’autres comme Griveaux n’a pas besoin de la politique pour exister.

“Je m’engage dans cette course pour aller jusqu’au bout”, a-t-il dit sur BFM TV-RMC. “Nous avons eu (avec Benjamin Griveaux) quelques échanges sur diverses formules pour mener la campagne, tout pris en compte, j’ai estimé que la meilleure façon d’être fidèle à mes engagements et ce pourquoi je suis entré en politique, c’était ma déclaration hier”.

“Je joue toujours collectif, je me lance dans une démarche libre, indépendante, précisément parce que je pense que c’est la démarche qui permet de rassembler”, a-t-il ajouté. “C’est sûr qu’on ne s’improvise pas, et cette annonce de candidature hier a été préparée dans un très grand détail avec les équipes”.

Malgré l’”engagement rompu”, le délégué général de LaRem, Stanislas Guerini a confirmé mercredi soir que Cédric Villani ne serait pas exclu du parti.

Selon une enquête Ifop commandée par l’équipe de Cédric Villani et publiée en juillet par l’Opinion, le député de l’Essonne était donné gagnant au second tour des municipales face à Anne Hidalgo (51% contre 49%) tandis que Benjamin Griveaux était donné battu (49% contre 51%).

Villani : une candidature qui montre le vrai visage théocratique de LREM

 

Avec la candidature de Villani, la république en marche a pris d’un coup 20 ou 30 ans de plus en se comportant finalement de manière aussi bureaucratique et sectaire que les autres partis. En effet, la plupart des ténors de la majorité sont montés au créneau pour critiquer la décision du mathématicien de se présenter à Paris et donc de s’asseoir sur la candidature officielle de Griveaux. Une candidature pourtant décidée par un comité de désignation bidon comme d’ailleurs la plupart des comités qui désignent les responsables dans le parti de Macon. Et pour cause, ce parti n’existe pas. Macron l’a transformé dès le départ en club de fans. Ce parti n’a aucun fonctionnement démocratique, aucune vie, aucune réalité régionale et locale. Pour f aire semblant de satisfaire la démocratie, on désigne deux ou trois membres chargés d’adouber des candidats désignés par avance. Villani  a transgressé les règles déclarent nombre de responsables de la république en marche. Finalement , il n’a fait qu’imiter Macron qui a fait exactement la même chose en accédant pouvoir grâce au parti socialiste puis en s’affranchissant des règles de ce parti.

Cette affaire pourrait être grave pour la république en marche qui montre ainsi son vrai visage d’appareil et de club d’élus et de futurs élus. La décision de Villani constitue une sorte de crime de lèse-majesté à l’égard du monarque républicain Macron. Macron n’est sans doute pas le premier monarque républicain mais son autoritarisme dépasse tout ce qu’on a connu aussi bien dans le champ politique que dans l’appareil d’État. Voir à cet égard l’ampleur et la vitesse de d’enterrement par la justice des affaires politico financières. Bêtement, les responsables de la république en marche reprennent en chœur les critiques à l’égard de Villani. Ils pourraient le payer très cher car l’opinion va découvrir la réalité d’un parti qui se voulait transgressif mais qui n’est en réalité que bureaucratique, théocratique et archaïque.-  Ce qui est certain c’est que Villani ne renoncera pas car lui au contrairement à  d’autres comme Griveaux n’a pas besoin de la politique pour exister.

“Je m’engage dans cette course pour aller jusqu’au bout”, a-t-il dit sur BFM TV-RMC. “Nous avons eu (avec Benjamin Griveaux) quelques échanges sur diverses formules pour mener la campagne, tout pris en compte, j’ai estimé que la meilleure façon d’être fidèle à mes engagements et ce pourquoi je suis entré en politique, c’était ma déclaration hier”.

“Je joue toujours collectif, je me lance dans une démarche libre, indépendante, précisément parce que je pense que c’est la démarche qui permet de rassembler”, a-t-il ajouté. “C’est sûr qu’on ne s’improvise pas, et cette annonce de candidature hier a été préparée dans un très grand détail avec les équipes”.

Malgré l’”engagement rompu”, le délégué général de LaRem, Stanislas Guerini a confirmé mercredi soir que Cédric Villani ne serait pas exclu du parti.

Selon une enquête Ifop commandée par l’équipe de Cédric Villani et publiée en juillet par l’Opinion, le député de l’Essonne était donné gagnant au second tour des municipales face à Anne Hidalgo (51% contre 49%) tandis que Benjamin Griveaux était donné battu (49% contre 51%).

Foot : Strasbourg-Guingamp : un vrai match nul !

Foot : Strasbourg-Guingamp : un vrai match nul !

Beaucoup d’observateurs avisés s’étonnent de la faiblesse récurrente des clubs français dans les grandes compétitions européennes. Parmi les facteurs explicatifs, il faut sans doute prendre en compte e niveau du  championnat français. Une nouvelle preuve a encore été fournie lors de la finale de la coupe de la ligue où s’affrontaient Strasbourg et Guingamp le 18e du championnat qui n’est même pas certain d’assurer son maintien en Ligue 1 et qui pourtant auraient pu obtenir une place pour les compétitions européennes s’il n’avait pas été battu lors de la séance des penalties. Pour tout dire, le match a été d’une grande médiocrité et c’est le hasard des penalties qui a désigné de vainqueur. Pas vraiment de quoi rehausser le prestige des clubs professionnels français et cette coupe de la ligue déjà peu appréciée. Depuis six ans cette coupe était remportée par le PSG qui domine normalement toutes les compétitions nationales mais malheureusement peine au plan européen. Cette fois deux autres clubs brillaient cette coupe de la ligue. On aurait pu imaginer une rencontre emballante alors que la plupart du temps le spectacle a été décevant il serait sans doute temps d’ouvrir un grand débat sur la question structurelle du niveau du football français.

Grand débat: Les conditions d’un vrai dialogue

Les conditions d’un vrai dialogue

 

À l’occasion du grand débat, on peut constater la grande confusion qui règne entre le concept de débat, de conférence voir de discours à caractère évangélique. L’Odissée*, rappelle dans la Tribune rappelle les conditions d’un véritable échange et d’une véritable réflexion collective, l’objectif est notamment de notre pas tomber sous la domination d’un animateur au profil de dictateur. Des principes qu’il serait bon de rappeler à Macon lui-même !

« Dans la plupart des réunions publiques, la diversité des parties prenantes n’est pas au rendez-vous et ne sont le plus souvent présents que trois types d’acteurs :

  • Les sympathisants : les convaincus de l’importance du sujet, les proches des organisateurs d’un point de vue intellectuel,
  • Les obligés : redevables à l’organisateur pour avoir bénéficié d’un service rendu, pour appartenir à son écurie politique,
  • Les contres : opposants à l’organisateur pour avoir la sensation de ne pas avoir été entendu dans le passé, voire pour appartenir à une écurie politique concurrente.

La majorité silencieuse se tait car la parole est confisquée, parfois même de façon involontaire, par trois types de personnes présentes :

  • Les extravertis : les forts en gueule, dotés de charisme, de confiance en soi, sûrs que leur point de vue est le seul valable, que leurs propositions l’emportent a priori sur toutes les autres,
  • Les orateurs : doués d’aisance dans l’expression orale, habitués à prendre la parole en public qui sollicitent la parole plus que les autres,
  • Les suiveurs : en accord avec l’avis dominant, qui se reconnaissent de façon plus ou moins réfléchie dans des portes parole identifiés avant le débat dans des cercles plus restreints porteurs d’intérêts particuliers ou corporatistes dans lesquels ils se reconnaissent ou croient se reconnaître.

L’animateur reste un amateur de l’animation et peine à éviter les risques du consensus mou :

  • Une préparation non exhaustive : la remontée partielle d’information, voire pas de remontée d’information ni de propositions en amont de la rencontre place chaque intervenant en position de prendre pour point de départ son seul vécu et son seul avis. Le chemin à parcourir pour parvenir au croisement des expériences et des analyses est alors quasiment impossible en un temps réduit,
  • Une reformulation aléatoire et partisane : l’animateur improvisé anime avec son prisme personnel, le plus souvent sans faire la différence entre un fait et une opinion, entre la relance de la réflexion et l’entrée dans l’échange, entre le jugement et la reformulation bienveillante mais non complaisante,
  • Un agencement partiel des arguments : la pression du sentiment majoritaire, la domination des intervenants les plus préparés et les plus habiles, l’éclipse des intérêts des absents non représentés entrainent la construction d’un raisonnement imparfait, voire grossier, voire aucun raisonnement du tout !

Les 9 clés

Un vrai dialogue vise à mieux poser les problèmes pour mieux les résoudre. Cela suppose de ne pas donner tort aux absents, de tout entendre sans aucun a priori sur ceux qui parlent, de s’engager dans la recherche de meilleurs niveaux de savoirs pour approfondir les diagnostics et découvrir des solutions innovantes. Voici 9 clés pour y parvenir, chacune indispensable.

Les organisateurs doivent s’assurer de la présence de la diversité des profils, différents et complémentaires par leurs savoirs et leurs propositions, leurs expériences et leurs statuts, leurs savoirs faire et leurs pratiques. Il convient de bien inviter et même solliciter en amont de l’événement :

  • Les concernés : impliquer dans la co-organisation et le relais des invitations tous les corps intermédiaires dont les mandants sont potentiellement concernés par l’une quelconque des analyses et propositions qui pourraient être amenés à être formulées lors du débat,
  • Les constructifs : rechercher, repérer, mobiliser tous les porteurs potentiels de propositions,
  • Les praticiens : s’assurer de la présence des acteurs qui pourraient être amenés à s’impliquer dans le déploiement sur le terrain des solutions nouvelles issues du débat.

Les participants doivent être mis en situation d’accepter que l’instant du dialogue n’est pas l’instant de la décision et que tout doit être entendu par tous, en responsabilité et en solidarité intellectuelles de tous les intérêts particuliers, y compris lorsqu’ils paraissent a priori en opposition les uns aux autres. Pour être répartie de façon équilibrée, la parole de certaines personnes présentes doit être mieux accompagnée :

  • Les introvertis : plus réservés, peu habitués à s’exprimer en public, leur expression moins spontanée doit être plus accompagnée
  • Les minoritaires : il convient de systématiser la sollicitation des acteurs marginalisés par la composition de la salle qui peut les placer en position d’être dominés par le nombre et leur paraitre hostile a priori.
  • Les innovants : par nature, le regard sur le passé et le présent ainsi que la vision du futur

Le décideur ne doit jamais être l’animateur, ni même intervenir pendant les forums, mais avant ou après, sauf à ce qu’il reste bien et apparaisse bien pendant le débat en position de réflexion et surtout pas de décision. L’animateur doit être un expert de l’animation de la réflexion collective. Sa mission consiste à conjuguer tous les propos de façon objective, constructive, pragmatique et prospective en trois dimensions :

  • Une préparation exhaustive : tous les faits et toutes les idées doivent être recueillis, classés, et synthétisés en amont du débat afin d’être présentés en introduction des échanges. Dès la première prise de parole, l’expression du premier intervenant embrasse déjà alors une plus grande gamme de contraintes et d’opportunités,
  • Une reformulation dans une grille d’analyse thématique à large spectre qui agrège les faits et idées de toute nature : aucun propos ne doit être pris comme reflétant toute la vérité, mais tous doivent être compris comme détenant une part de la vérité qu’il convient de mettre en perspective de toutes les autres parts,
  • Un agencement de tous les arguments : des liens, corrélations, complémentarités doivent être établis de façon constructive à mesure de l’avancement du débat. Chaque intervention doit être utilisée pour alimenter la construction progressive d’un raisonnement collectif qui embrasse la diversité et donc la complexité.

Lorsque le débat respecte ces 9 clés, il devient possible de construire une analyse de faits et idées partagée entre acteurs différents pour dessiner ensemble les contours de projets collectifs innovants et porteurs de performance au profit de tous ! «

 

NOTES

*L’Odissée, l’Organisation du Dialogue et de l’Intelligence Sociale dans la Société Et l’Entreprise, est un organisme bicéphale composé d’un centre de conseil et recherche (l’Odis) et d’une ONG reconnue d’Intérêt général (les Amis de l’Odissée) dont l’objet consiste à « Faire progresser la démocratie dans tous les domaines et partout dans le monde ».

Grande-Bretagne Trump en vrai beau beauf !

Grande-Bretagne Trump en  vrai beau beauf !

 

Il se confirme que Trump est sans doute très atteint mentalement sans parler de ses incompétences (il ne lit jamais les dossiers techniques de ses collaborateurs). En Grande Bretagne, il s’est comporté comme un véritable beauf en attaquant la position de la première ministre et même en suggérant son remplacement ; Il  a bien sûr démoli l’Union Européenne et mis KO Theresa May en déclarant sans complexe «  c’est pas comme ça que j’aurai négocié le Brexit ». Pas sûr cependant que ces sorties  qui heurtent les pratiques diplomatiques traditionnelles se traduisent en retombées positives pour Trump. Nombre de britanniques attachés au respect des traditions ont été choqués par cette ingérence de Trump dans la politique intérieure du pays. En outre cette vulgarité a surpris pour ne pas dire révolter. Bref un vrai beauf au pays des gentlemens.  Pour tenter de rattraper le coup, Trump a encore dite le contraire de se affirmation de la veille.  Les amabilités échangées un peu plus tard lors d’une conférence de presse dans les jardins du manoir du XVIe siècle n’ont pas réparé les dégâts. Theresa May, dont il n’hésite pas à prendre la main dans la sienne, est «une femme formidable, très intelligente, très dure, a flatté à sa façon le président. Je préfère l’avoir comme amie que comme ennemie». Il a d’ailleurs confirmé ses propos tenus dans The Sun, tout en assimilant leur présentation par le journal aux fake news, ce dont il s’est excusé auprès de son hôte. «Une fois que la procédure du Brexit sera terminée et que le Royaume-Uni aura, peut-être, quitté l’UE, quoi que vous fassiez, ça me va, c’est votre décision», a-t-il relativisé mollement, continuant à semer le doute. Juste avant le référendum de 2016, Barack Obama avait été vertement critiqué par les pro-Brexit, en affirmant qu’un vote pour sortir de l’UE placerait le pays «à l’arrière de la queue» pour négocier un accord commercial avec les États-Unis. Une intervention destinée alors à épauler le premier ministre alors en fonction, David Cameron, dans sa campagne. Cette fois, le président est non seulement accusé d’ingérence, mais aussi d’affaiblir délibérément sa partenaire, comme il l’a fait avec Angela Merkel au sommet de l’Otan, à Bruxelles, plus tôt dans la semaine. «Où sont vos bonnes manières, Monsieur le Président?» a interpellé sur Twitter le secrétaire d’État britannique aux Universités, Sam Gyimah. Beaucoup de Britanniques, pour qui les principes et l’éducation ne sont pas de vains mots, se sont sentis insultés.

L’envol du pétrole : un vrai danger pour la croissance

L’envol du pétrole : un vrai danger pour la croissance

 

 

 

La montée des cours constitue évidemment un danger pour la croissance car comme les autres matières premières, elle va affecter la compétitivité. Cette hausse va aussi plomber le pouvoir d’achat des ménages et de la consommation. Discrètement mais sûrement les prix du pétrole ne cessent en effet de grimper. Il y a à peine dix jours les spécialistes craignaient que les cours atteignent pour le Brent les 80 dollars dans les mois à venir. En fait c’est déjà presque fait ;  le  baril de Brent de la mer du Nord pour livraison en juillet a terminé à 78,23 dollars sur l’Intercontinental Exchange (ICE) de Londres, en hausse de 1,11 dollar par rapport à la clôture de vendredi et à nouveau à un plus haut depuis la fin 2014. Sur le New York Mercantile Exchange (Nymex), le baril de « light sweet crude » (WTI) pour le contrat de juin a pris 26 cents à 70,96 dollars. Les producteurs profitent d’autant plus de cette hausse qu’ils produisent moins que l’accord de modération qu’ils ont conclus (qui se termine fin 2018 et dont on ne sait pas s’il sera reconduit) quand les cours étaient bas. En outre la crise au Venezuela, les tensions avec l’Iran qui se répercutent aussi au moyen orient nourrissent les inquiétudes de sorte qu’on pourraiat bien s’orienter vers un baril à 100 dollars d’ici quelques semaines.

 

 

SNCF, le vrai du faux : tissu d’approximations et de mensonges

SNCF,  le vrai du faux : tissu d’approximations et de mensonges  

 De nombreux journaux prétendent distinguer le vrai du faux par rapport aux informations très contradictoires qui circulent sur la SNCF. Les ultras libéraux s’en donnent à cœur joie mais aussi les corporatistes gauchos.  Quelques exemples : pas de privatisation de la SNCF ? Personne n’en sait rien, voir l’évolution de la poste et de France télécoms. Au départ on va créer une SA pour bien encadrer l’endettement. Ce statut de SA n’engage que le gouvernement actuel. Il pourra donc évoluer. Second aspect, ça va changer quoi si l’endettement de la SNCF est imputé à cette nouvelle SA. Notons qu’avant 1982 la SNCF avait un statut de SA ce qui n’a pas empêché l’endettement excessif. Le statu des cheminots. Ils auraient un système de soins dédié. En fait ils ont les mêmes droits que la SS et ils payent une complémentaire. Pour l’emploi ils sont dans les conditions des fonctionnaires. Pour les salaires, ils sont dans la moyenne des salariés français. Pour la retraite théoriquement ils peuvent partir plus tôt mais sans retraite pleine, en pratique ils partent  6 à 12 mois avant la moyenne des français. Le seul vrai avantage est celui du calcul de la retraites proche de celui des fonctionnaires (calculé sur les 6 derniers mois au lieu de 25 ans).   La durée du travail est de 35heures comme dans le privé mais la productivité pourrait certainement être augmentée avec une autre organisation du travail. La suppression des petites lignes était annoncée dans le rapport Spinetta, elle est démentie  par le premier ministre. Cependant le transfert de la responsabilité de ces lignes (et d’autres) aux régions conduira inévitablement à des fermetures faute de moyens financiers des régions. Résultat : la dette du groupe s’élève à 54,5 milliards d’euros. Sans cette dette le groupe se porte relativement bien. Ses résultats pour 2017 affichent en effet un chiffre d’affaires en hausse de 4,2%, atteignant 33,5 milliards d’euros pour un bénéfice net de 1,33 milliard d’euros.  La qualité de service s’est dégradée au fil des ans ? Une enquête, menée par l’Union européenne et citée dans le rapport, atteste que le niveau de satisfaction des Français à l’égard des transports ferroviaires est supérieur à la moyenne européenne, devançant notamment celui des Allemands. On pourrait multiplier l’exemple les approximations et de mensonges. Ceci étant personne ne peut contester que l a SNCF n’est pas un modèle de gestion mais la responsabilité en revient essentiellement à la direction et à l’Etat. A l’Etat qui nome Polytechniciens et énarques en provenance de cabinets ministériels au lieu de chefs d’entreprises d’expérience.

Énergies renouvelables : pour un vrai débat scientifique (Stefan Ambec et Claude Crampes)

Énergies renouvelables : pour un vrai débat scientifique (Stefan Ambec et Claude Crampes)

Stefan Ambec et Claude Crampes, Toulouse School of Economics réclame dans la Tribune  un vrai débat scientifique sur les énergies renouvelables qui soit à l’abri des lobbys qui faussent l’analyse et les perspectives.

 

 

« Est-il possible de produire notre électricité exclusivement à partir d’énergies renouvelables ? Cette question fait l’objet de débats plus ou moins policés dans la plupart des pays mais, aux Etats-Unis, elle peut conduire devant les tribunaux. Si c’est ainsi que doivent se conclure les controverses scientifiques dans l’avenir, les cabinets de juristes ont de beaux jours devant eux. Soit un groupe de scientifiques menés par Mark Jacobson, Professeur de sciences de l’ingénieur à l’Université de Stanford, qui considèrent que la production d’une électricité 100% verte est possible techniquement, économiquement viable et socialement désirable à l’horizon 2050. Dans un rapport de l’Académie des Sciences américaine[1], les auteurs imaginent un monde où l’énergie que nous consommons pour ses différents usages (chauffage et transport compris) serait exclusivement de l’électricité produite à partir du vent, de l’eau et du soleil et acheminée par le réseau. Ils se basent sur des données et des estimations de coûts et de disponibilité des trois sources d’énergies primaires dans la partie continentale des Etats-Unis. Aux objections habituelles présentées à l’encontre de l’électricité (non-stockable à grande échelle à un coût raisonnable) et des énergies renouvelables (cyclicité et incertitude), les auteurs répondent en termes de stockage par résilience thermique des matériaux (chauffage et refroidissement), de pompage hydraulique et de transformation en hydrogène. Ils obtiennent ainsi un mix énergétique sans gaz naturel, ni pétrole, ni nucléaire, ni biocarburant, ni batteries. En complétant leur scénario par un comportement vertueux des consommateurs en matière environnementale, ils concluent que leur solution présente des coûts économiques plus que compensés par les gains liés à la réduction de la pollution atmosphérique. Soit maintenant un second groupe de scientifiques, conduits par Christopher Clack de l’Université du Colorado, qui pensent que l’étude de l’équipe Jacobson contient de grossières erreurs de modélisation et d’estimation. Ce second groupe publie dans le même support, un rapport[2] concluant que l’étude sur la performance et le coût d’un système de pénétration à 100% du vent, de l’eau et du soleil pour répondre à l’ensemble des besoins énergétiques n’est pas soutenue par une analyse réaliste et ne fournit pas un guide fiable pour savoir si une telle transition est réalisable ni à quel coût. La suite aurait pu être constituée d’échanges d’arguments, voire d’invectives, dans des revues scientifiques et lors de colloques. Mais Jacobson (sans ses co-auteurs) a préféré porter plainte contre l’Académie des Sciences américaine et contre Clack (mais pas ses coauteurs), demandant 10 millions de dollars en compensation du préjudice subi.[3] Il faut dire que Jacobson est devenu une vedette des medias et qu’il est soutenu par des personnalités politiques et du monde du spectacle, dont Leonardo DiCaprio. [4] La crédibilité de son rapport n’est donc pas seulement un problème de rigueur scientifique. Elle engage aussi en partie une mouvance (et une industrie) pro énergies vertes. Les enjeux financiers sont tels qu’il n’a pas été difficile de trouver des avocats pour lancer la procédure. La suite s’est donc en partie jouée devant les tribunaux. C’est un précédent qui pourrait impacter la manière dont se conduit une recherche scientifique.[5] Pour ce qui est des gains, comme dans la fable, il y a fort à parier que l’huitre n’aurait été gobée par aucun des deux plaideurs. En fait, on apprenait le 22 février 2018 que, suite à une audience tenue à Washington, Jacobson avait retiré sa plainte en diffamation,[6] considérant que le débat public qui en avait découlé lui donnait satisfaction. La raison est aussi, comme il le reconnaît, que les procédures judiciaires bien plus longues et plus coûteuses que les débats académiques risquaient de le marginaliser jusque dans son institution.

Conclusion

Si l’on se concentre sur le fond, quelles leçons tirer de cette polémique sur le 100% d’énergie éolienne, solaire et hydraulique ?

Un premier enseignement est le rappel des coûts spatiaux des énergies naturelles. Les énergies éolienne et solaire ont une densité d’énergie au mètre carré relativement faible. La meilleure estimation actuelle pour l’utilisation des terres par les parcs éoliens on-shore est de 0,33 km2/MW, en incluant l’espacement. D’après Clack, le projet de Jacobson se traduit par un demi-million de kilomètres carrés, soit plus du double de la superficie totale de toutes les zones urbaines aux États-Unis. Il faut y ajouter 100.000 kilomètres carrés de terres pour les centrales solaires photovoltaïques et les centrales solaires à concentration, une superficie équivalente à celle du Kentucky. Pour arriver à la cible de 2050, chaque jour plus de 60 km2 de nouvelles terres devraient être affectés aux installations de production d’énergie. C’est techniquement possible (une grande partie du terrain occupé par les éoliennes peut rester à usage agricole), mais le coût est gigantesque. Plus généralement, on peut reprocher au travail de l’équipe Jacobson d’extrapoler à l’échelle d’un continent les résultats obtenus dans quelques installations de petite taille avec des technologies relativement immatures.

Le  stockage

En deuxième lieu, l’affaire nous rappelle que les technologies de stockage de l’énergie sont aussi importantes que la production des énergies éoliennes ou solaires. En effet, la production d’énergie 100% renouvelable est tributaire des conditions météorologiques. On aura beau multiplier les capacités de production, investir massivement dans les éoliennes et les panneaux solaires, sans une adaptation en temps réel de la consommation, il restera un déficit d’énergie solaire (bien sûr après le coucher du soleil mais aussi par temps couvert), et d’énergie éolienne par temps calme ou très perturbé. A titre d’exemple, le parc éolien français d’une capacité de 13.541 MW n’a produit que 671 MW le 19 février dernier à 11h30, soit moins de 5% de la capacité installée.[7] La consommation était alors de 76.780 MW et donc le vent a fourni moins de 1% de la demande alors que les éoliennes constituent environ 11% de la capacité de production d’électricité. Si on enlève les 14.256 MW d’énergie hydraulique et les 2.347 MW d’énergie solaire produite à ce moment, il reste 63.130 MW à trouver soit 100 fois plus d’énergie éolienne ! Une autre solution est évidemment de puiser dans des réserves d’électricité accumulées à des périodes où la production d’origine renouvelable est excédentaire.

Ce constat plaide pour une réorientation des aides publiques des énergies éoliennes et solaires vers les technologies de stockage de l’énergie. Si les pouvoirs publics veulent de l’électricité exclusivement verte, ils doivent encourager l’innovation et l’investissement dans des équipements de stockage afin d’accompagner la montée en puissance des énergies intermittentes. Les tarifs d’achats subventionnés des énergies éolienne et solaire ont largement contribué à faire baisser les coûts de production des éoliennes et des panneaux solaires, à améliorer leur productivité, et ainsi à accroître la capacité installée. Une évolution similaire est souhaitable pour le stockage de l’énergie.

La réduction des émissions de CO2

La troisième leçon est que l’objectif des 100% d’énergies renouvelables, bien que très accrocheur et particulièrement médiatique, est trompeur. Il suggère que les énergies vertes sont une nécessité sui generis en raison de la rareté des énergies fossiles qui sont, par nature, non-renouvelables et qu’il faudra donc remplacer. En réalité, il apparaît maintenant clairement que nous ne pourrons pas extraire tout le charbon présent dans le sol sans fortement perturber le climat et mettre en péril l’espèce humaine. La contrainte porte en fait sur le stock de gaz à effet de serre dans l’atmosphère et non sur le stock limité d’énergies fossiles. L’objectif devrait être exprimé en termes de réduction des émissions de gaz à effet de serre plutôt que de la part des énergies renouvelables dans le mix énergétique. On ne devrait pas contraindre le choix de technologies aux seules ressources renouvelables mais plutôt utiliser toutes les ressources disponibles pour réduire les émissions à moindre coût. Pourquoi s’interdire d’utiliser des ressources naturelles épuisables pour produire ou stocker l’électricité si le bilan économique et environnemental est meilleur? Idéalement, on devrait prendre en compte tous les coûts environnementaux des différents modes de production d’électricité y compris la pollution atmosphérique (particules fines, oxyde d’azote, dioxyde de soufre), la production de déchets (notamment nucléaire) et le risque de radiation. La constitution du mix énergétique décarboné, stockage compris, devrait être le résultat d’un calcul d’optimisation basé sur le coût des ressources et des émissions polluantes et non sur un a priori technologique. L’abandon de la plainte par Jacobson est une bonne nouvelle pour la recherche. A une époque reculée, c’est l’Inquisition qui aurait tranché la question et, plus récemment, l’affaire aurait pu se conclure par un duel. Le passage devant un juge non ecclésiastique est une forme douce de règlement des conflits. Mais le débat académique reste une meilleure solution. »

[1] http://www.pnas.org/content/112/49/15060

[2] http://www.pnas.org/content/114/26/6722

[3] http://www.sciencemag.org/news/2017/11/10-million-lawsuit-over-disputed-energy-study-sparks-twitter-war

[4] https://cee.stanford.edu/news/what-do-mark-z-jacobson-leonardo-dicaprio-and-united-nations-have-common

[5] Voir cet article du Washington Post : https://www.washingtonpost.com/news/volokh-conspiracy/wp/2017/11/03/when-scientists-sue-scientists/?utm_term=.7343c1d2d8ac

[6] http://web.stanford.edu/group/efmh/jacobson/Articles/I/CombiningRenew/18-02-FAQs.pdf

[7] Source : http://www.rte-france.com/fr/eco2mix/chiffres-cles#chcleparc

Radicalisation : enfin un vrai plan ?

Radicalisation : enfin un vrai plan ?

Le Premier ministre Édouard Philippe entourés des ministres concernés dont la Garde des Sceaux, a présenté 60 mesures pour prévenir. Parmi celles-ci, 9 relèvent du ministère de la Justice.

 

« Prévenir pour protéger » illustre l’ambition gouvernementale pour mieux identifier, signaler et prendre en charge les signes avant-coureurs d’une rupture avec les principes républicains. Le Comité interministériel de prévention de la délinquance et de la radicalisation (CIPDR) s’appuie sur la mobilisation et la coordination entre les acteurs de l’État, les collectivités territoriales et la société civile. Les retours d’expérience du terrain et les pratiques des partenaires européens ont été pris en compte pour établir le plan national de prévention.

 

 

 

Les 60 mesures du plan national de prévention de la radicalisation reposent sur 5 axes :

1) Prémunir les esprits face à la radicalisation

2) Compléter le maillage détection / prévention

3) Comprendre et anticiper l’évolution de la radicalisation

4) Professionnaliser les acteurs locaux et évaluer les pratiques

5) Adapter le désengagement

 

9 mesures pour le  ministère de la Justice

 

3 mesures se rapportent à la réinsertion des mineurs de retour de zones de groupements terroristes. Il s’agit notamment de renforcer la professionnalisation  et la coordination des acteurs et d’évaluer régulièrement la situation des mineurs dans le cadre d’un suivi dans la durée.

3 mesures concernent le suivi de détenues radicalisés comme le développement des capacités d’évaluation des détenus ; la conception et la répartition sur le territoire des quartiers de prise en charge des personnes radicalisées (QPR) ou encore des programmes de prévention de la radicalisation violente dans l’ensemble des établissements susceptibles d’accueillir des détenus poursuivis pour des faits de terrorisme islamiste.

1 mesure porte sur les centres de prise en charge individualisée pour des publics radicalisés ou en voie de radicalisation placés sous-main de justice.

1 mesure pour objectif l’accompagnement et le suivi renforcés en appui de ces centres et en sortie de détention

Enfin, une 9ème mesure a pour objectif d’organiser les retours et partages d’expériences entre les services du ministère de la Justice et le Comité interministériel de prévention de la délinquance et de la radicalisation concernant la prise en charge des différents publics sous-main de justice dans les programmes de prévention de la radicalisation.

 

« Il ne faut pas continuer à mettre des pansements partout mais plutôt prendre le problème à la racine », explique au JDD Sandrine Mörch, députée de La République en marche qui va prendre la tête d’une mission « flash » sur le sujet en compagnie de Michèle Victory (PS). « Jusque-là, on n’avait pas su prendre cette problématique et on se retrouve avec des jeunes sous le joug de certaines théories du complot, regrette de son côté Danièle Cazarian députée LREM du Rhône et membre d’un groupe de travail sur le sujet. En aidant nos jeunes à bien se construire, on peut lutter efficacement contre ce phénomène de radicalisation. » L’une des propositions du gouvernement vise à « mieux encadrer l’ouverture des établissements privés hors contrat et leur affecter des équipes d’inspecteurs académiques spécialisés » pour ainsi éviter la montée en puissance de structures islamistes. En 2016, Najat Vallaud-Belkacem, alors ministre de l’Education, avait tenté de conditionner l’ouverture de ces écoles par l’obtention d’une autorisation préalable mais sa proposition avait été retoquée par le Conseil constitutionnel.

Le gouvernement veut aussi « développer les dispositifs de soutien à la laïcité et renforcer la formation des enseignants ». Un premier pas vers l’instauration d’un enseignement laïc du fait religieux à l’école? Le gouvernement n’a pas souhaité s’avancer jusque-là mais la mesure est souhaitée par plusieurs parlementaires membres du groupe de travail sur la prévention de la radicalisation dont Brigitte Liso députée LREM du Nord. Selon elle, cela pourrait se matérialiser par un cours spécifique ou un « enseignement transversal qui serait évoqué dans les cours de science, d’art plastique ou d’histoire ». « Je crois qu’on y est prêt, on le préconise à moyen terme », renchérit Danièle Cazarian qui affirme que la question a été évoquée avec le ministre de l’Education Jean-Michel Blanquer. En attendant, le gouvernement veut faire un effort sur « l’éducation aux médias, notamment pour prémunir les élèves des théories du complot ». « Il faut donner plus d’outils aux enseignants pour aborder ces questions », affirme Sandrine Mörch qui veut par exemple encourager le recours aux intervenants extérieurs. Danièle Cazarian envisage aussi d’agir dans le milieu du sport, qui est « à la fois un vecteur de radicalisation et de désengagement ».

Notre-Dame des Landes : un vrai dossier pourri dès le départ

Notre-Dame des Landes : un vrai dossier pourri dès le départ

Contrairement à ce que disent certains experts,  les lobbys et les élus nantais la perspective d’un nouvel aéroport à Notre-Dame des Landes ne s’inscrivait pas dans une problématique aéroportuaire. Il est démontré que l’aéroport actuel peut facilement -pour peu qu’il soit un peu modernisé- avaler trois à quatre fois plus de trafic qu’actuellement si l’on se réfère à des aéroports étrangers. L’enjeu était ailleurs il s’agissait de récupérer environ 3 km² occupés par l’aéroport actuel de Nantes Atlantique pour une vaste opération urbanistique afin d’y développer commerce, habitat et services. Bref de faire croître la ville de Nantes qui d’un coup aurait pu voir sa population augmenter de 30 à 50 000 habitants avec les ressources fiscales qui sont attachées. Une vraie aubaine les élus nantais aussi pour les  lobby qui auraient eu l’occasion de faire du béton d’abord sur l’ancienne aéroport de Nantes Atlantique ensuite sur le nouveau projeté à Notre-Dame des Landes. Les élus s’appuient  sur la saturation de Nantes Atlantique, ce qui est totalement faux. Ils avancent aussi le problème des nuisances notamment de bruits. Il est clair que certains habitants subissent les conséquences de ces bruits mais s’il y a de plus en plus d’habitants concernés c’est que la zone a vu ses habitants progresser. Comme souvent au départ il n’y a pas beaucoup d’urbanisation autour de la zone aéroportuaire est progressivement la région se densifie ne serait-ce que pour loger les salariés de  l’aéroport. Ainsi à Bouguenais, la population a doublé depuis 1970. Tous les aéroports mondiaux connaissent le même phénomène. Au départ la zone est presque vide de toute habitation mais progressivement l’urbanisme progresse d’autant que les activités économiques sont favorables.

 

Le vrai Erdogan : un dictateur !

Le vrai Erdogan : un dictateur !

 

Lors de la conférence de presse Macon-Erdogan, le chef de L’Etat turc a montré son vrai visage en libérant sa colère sur un journaliste, se permettant même de le tutoyer et pas loin de le traiter de terroriste. Cette attitude dans un cadre diplomatique officiel en dit long sur le comportement qui peut être celui d’Erdogan dans des circonstances moins officielles. Cela démontre à l’évidence Erdogan à des difficultés à accepter la moindre contestation et même à contrôler son tempérament dictatorial. Pendant l’échange entre Erdogan et le journaliste visé on aura remarqué que Macon était particulièrement gêné par la tournure de la mission « Peut-on décemment vous faire confiance? »"La France, l’Union européenne peuvent-elles décemment vous faire confiance en matière de lutte contre le terrorisme? Sept ans après le début du conflit en Syrie, regrettez-vous d’avoir fourni autant d’armes et de munitions aux groupes combattants islamistes et d’avoir laissé passer autant de djihadistes en route vers la Syrie par votre pays la Turquie? » a-t-il demandé au chef d’Etat. « Avez-vous fait libérer des membres de Daesh en échange de la libération du personnel turc du consulat turc de Mossoul dont des ressortissants européens? Savez-vous ce que ces djihadistes sont devenus? » a-t-il enchaîné.  Se tournant alors vers Emmanuel Macron, le reporter a cherché à savoir s’il était possible de faire confiance à la Turquie, qu’il a accusée d’avoir joué un « double jeu en Syrie pendant de longues années », parlant de « son soutien à certains groupes salafistes armés en Syrie ».  « Qui a envoyé des armes en Syrie? » a alors tonné Recep Tayyip Erdogan, qui n’a pris position que sur l’une des interrogations de son interlocuteur. Le journaliste lui a répondu: « Des membres de vos services de renseignement, les services du MIT qui ont été interceptés en décembre 2013 et janvier 2014 à un poste frontière. On a retrouvé des mortiers, ça a été filmé mais immédiatement censuré… » Le coupant alors, le président turc est, comme l’a indiqué la traduction, passé au tutoiement.  »Toi, tu parles comme quelqu’un du FETÖ, avec leurs mêmes arguments », a-t-il lancé, utilisant le nom que le gouvernement turc donne au mouvement de Fethullah Güllen que l’Etat turc voit comme la cheville ouvrière de la tentative de coup d’Etat de 2016. « Je parle comme un journaliste français », a voulu rétablir Laurent Richard.  »Non, pas comme un journaliste, exactement comme un membre du FETÖ. Ceux qui ont fait cette opération, c’était des procureurs liés au FETÖ, ils sont aujourd’hui en état d’arrestation et sont en prison », a maintenu le président turc. 

France face au Japon : un vrai match nul, la honte

France face au Japon : un vrai match nul, la honte

 

 

Inutile de tourner autour du pot, le match de rugby contre le Japon signe l’acte de décès des bleus en tant que grande nation du rugby. On avait honte à regarder ce match avec des Japonais beaucoup plus mobiles, beaucoup plus inventifs, plus déterminées aussi qui ont failli battre les Bleus. Un vrai match nul pour la France. La France qui a voulu copier le rugby de l’hémisphère sud avec des joueurs lourdauds, sans inspiration et sans grande motivation aussi. Tout évidemment est à revoir. La France a abandonné ce qui faisait son originalité sa vitesse et  sa créativité. Le rugby français n’a pas compris que l’ordre du jour était à la vitesse quand nous demis  mettent  des minutes avant de transmettre la balle à un partenaire déjà marqué. Le mal est profond car il n’est n’affecte pas uniquement l’équipe de France mais le championnat caractérisé par un rythme ralenti et où on s’ennuie de plus en plus. De ce point de vue,  le rugby rejoint l’ennui qu’on ressent souvent dans le football lors de certains matchs. Bref le rugby français roupille, il bégaie, il y a il a oublié ce qui faisait les fondamentaux de la France. Les Français passent leur temps à aller s’empaler en vain sur la défense adverse en comptant sur des joueurs de plus en plus lourds mais de plus en plus lents. Or comme le montraient les Japonais l’avenir de rugby appartiendra à la vitesse et à la créativité. À l’envie aussi ! Les Bleus, incapables de dominer les Japonais, se sont ridiculisés. Un match nul 23-23 qui appelle des mesures fortes. Pour enrayer une chute incessante. Quand les joueurs français seront se servir de leurs pieds, de leurs mains, de leur cerveau et courir vite on aura résolu une grande partie du problème. Le XV de France peut tomber plus bas. Toujours plus bas.

La plus grande fiabilité des voitures électriques : un vrai défi pour les constructeurs

La plus grande fiabilité des voitures électriques : un vrai défi pour les constructeurs

 

Ce n’est pas vraiment une découverte mais une confirmation : les voitures électriques sont notoirement plus fiables que les voitures thermiques. Des études de l’Institut Allemand pour l’économie automobile révèlent que les coûts d’entretiens pour une voiture électrique seraient jusqu’à 40% inférieurs à une voiture thermique. Pour 8 000 kilomètres parcourus en cycle urbain, une voiture thermique demanderait 3 650 euros à entretenir. C’est 1 300 euros de plus qu’une voiture électrique, qui exigerait 2 350 euros selon des devis. Le moteur électrique est très endurant. Sa durée de vie est de plusieurs millions de kilomètres. Ce moteur à courant continue est donc plus fort qu’un moteur classique. Le principal point d’entretien de la voiture électrique se situe au niveau de sa batterie. Sa longévité varie de trois à dix ans et elle est changée pour des raisons de capacités.  Un moteur électrique permettrait de rouler au moins un million de kilomètres. Dès lors le taux de renouvellement du parc posera un redoutable problème au plan de charge des constructeurs.   »Les voitures électriques sont en effet très fiables », a affirmé Jake Fisher, responsable des essais automobiles pour Consumer Reports, une association à but non lucratif, lors d’une rencontre avec la presse jeudi à Detroit, la capitale de l’automobile américaine. « Les voitures électriques sont de par leur conception moins compliquées que celles à moteur à combustion ou hybrides », a-t-il souligné, en raison notamment de l’absence de système d’alimentation en essence, de refroidissement ou de pièces d’usure comme les filtres et les bougies. Selon les essais réalisés par Consumer Reports, la Chevrolet Bolt fabriquée par General Motors présente ainsi une très grande fiabilité, même si ce constructeur est connu pour la relative fragilité de ses modèles. « Il s’agit de l’un des véhicules les plus fiables de la gamme de General Motors », a affirmé Jake Fisher. Il a précisé que les voitures électriques Tesla figuraient également parmi les voitures les plus fiables testées par Consumer Reports lorsqu’il s’agit de la mécanique. Le Model X fabriqué par le constructeur californien a toutefois reçu de mauvaises notes mais liées à l’aménagement intérieur et au système d’info-divertissement (autoradio, GPS…). Une enquête effectuée auprès de 640.000 consommateurs a permis de constater que les problèmes sur des voitures neuves étaient désormais plus fréquents avec des véhicules neufs qu’auparavant, notamment en raison de l’augmentation des équipements électroniques, a-t-il ajouté. Les voitures électriques sont depuis quelques années en plein développement en raison de leur contribution à la lutte contre la pollution et au réchauffement climatique, plusieurs pays ayant mis en place des politiques d’incitations à leur achat.

 

Catalogne : un vrai dialogue de sourds

Catalogne : un vrai dialogue de sourds

Le moins que l’on puisse dire c’est que la Catalogne est surtout victime d’un vrai dialogue de sourds. Du côté de Madrid, on fait semblant de n’avoir pas entendu l’appel à la concertation lancée par le président de la généralité de Catalogne. On oppose les institutions et la loi a toute de perspective de discussion avec les indépendantistes. Pire,  on réfute toute spécificité culturelle et politique à la région. Pour le gouvernement espagnol, rien n’est négociable alors qu’on s’ait bien que certaines revendications pourraient être traitées comme elles l’ont été pour le Pays basque. Du côté des indépendantistes (en faite seulement environ 40 % des catalans sont pour l’indépendance), on cultive la plus grande ambiguïté en appelant au dialogue mais sur la base d’une perspective d’indépendance proclamée mais aussitôt suspendue. L’Europe elle ne veut pas se mouiller dans cette affaire complexe et laisse l’Espagne se dépatouiller. En cause évidemment les velléités d’indépendance de certaines régions qui pourraient être encouragées par la démarche scissionniste  des catalans. L’Europe ne veut même pas envisager la perspective d’une éventuelle médiation. Du coup la crise ne peut que s’approfondir. Le gouvernement espagnol va sans doute montrer son flexibilité en menaçant de suspendre les autorités catalanes. Certes l’appel à la négociation du président catalan ne manque pas d’ambiguïté mais c’est une perche qu’on aurait dû  saisir à la fois par  le gouvernement espagnol et même par  l’Europe. D’une certaine manière l’affaire catalane offre  une opportunité de réfléchir à la perspective d’une Europe fédérale s’appuyant sur des états eux-mêmes largement plus décentralisés. Une sorte d’Europe fédérale s’appuyant sur des Etats eux-mêmes fédéraux. Au lieu de cela on privilégie le conflit qui devient de plus en plus inévitable et dont les conséquences pourraient être particulièrement malheureuses tant pour l’Espagne que pour l’Europe. Pour l’instant aucune perspective de compromis ne paraît possible puisque Mariano Rajoy pourrait prendre l‘initiative sans précédent de dissoudre le Parlement catalan et de convoquer de nouvelles élections régionales, ce qui est souvent qualifié d’“option nucléaire”. Madrid pourrait aussi demander à la justice de déclarer anticonstitutionnelle une déclaration d‘indépendance. L’objective de Madrid éclaire éliminer le président du Parlement catalan, faire éclater sa coalition et le tuer définitivement sur le plan politique. De son côté, Puigdemont est de plus en plus coincé entre des indépendantistes radicaux et des partisans d’une ligne plus conciliante avec Madrid. En clair chacun attend l’incident pour instrumentaliser des conséquences qui pourraient être difficilement maîtrisables. Pour parler clair pour l’instant c’est l’irresponsabilité qui l’emporte et le dialogue de sourds ne peut conduire qu’à une impasse voire  à une crise encore plus grave.

« L ’énergie le vrai moteur de la croissance » (Gaël Giraud, du CNRS)

 « L ’énergie le vrai moteur de la croissance » (Gaël Giraud, du CNRS)

 

Gaël Giraud, du CNRS) dans le Monde remet en cause ce qui est le vrai moteur de la croissance à savoir l’énergie.

 

 

Quels sont d’après vous les indices d’un lien intime entre consommation d’énergie et croissance de l’économie ?
Depuis deux siècles, depuis les travaux d’Adam Smith et de David Ricardo par exemple, la plupart des économistes expliquent que l’accumulation du capital est le secret de la croissance économique inédite que connaissent les sociétés occidentales, puis une partie du reste du monde. Marx était, lui aussi, convaincu de cette apparente évidence. Or, historiquement, l’accumulation du capital (au sens moderne) n’a pas commencé au 18ème siècle avec le début de la révolution industrielle, mais au moins deux cents ans plus tôt. Inversement, la première “révolution marchande” des 12ème et 13ème siècles, qui permit à l’Europe de sortir de la féodalité rurale, coïncide avec la généralisation des moulins à eau et à vent. Une nouvelle source énergétique, en plus de la photosynthèse (agriculture) et de la force animale, devenait disponible. De même, qui peut nier que la découverte des applications industrielles du charbon, puis du gaz et du pétrole (et, plus récemment, de l’atome) a joué un rôle décisif dans la révolution industrielle, et partant, comme moteur de la croissance ? De 1945 à 1975, les “trente glorieuses” ont été une période de croissance accélérée et aussi de consommation inédite d’hydrocarbures. Depuis lors, la planète n’a jamais retrouvé la vitesse de consommation d’énergies fossiles qui fut la sienne après guerre. C’est une bonne nouvelle pour le climat. Mais cela n’est pas étranger au fait que nous n’avons jamais retrouvé non plus les taux de croissance du PIB des trente glorieuses.

Au cours des dix dernières années en France, la consommation d’énergie et de pétrole en particulier a diminué, tandis que le PIB, lui, a progressé.
Cela ne prouve-t-il pas qu’il n’y a pas de lien entre consommation d’énergie et croissance économique ?
La consommation d’énergie primaire française est passée de 255 millions de tonnes d’équivalent pétrole (MTep) en 2000 à 265 MTep en 2004 [corr.]. Elle a ensuite décliné légèrement jusqu’en 2008, avant de connaître un trou d’air en 2008-2009, suivi d’un second trou d’air en 2011. Elle a touché un plancher (provisoire ?) en 2012 à 245 MTep. Le PIB français a connu des variations analogues, ces variations ont simplement été plus amorties. C’est tout à fait normal dans la mesure où, heureusement, l’énergie n’est pas le seul facteur de production qui “tire” le PIB. Le travail réalisé avec Zeynep Kahraman, membre du Shift Project, montre que l’efficacité énergétique joue également un rôle majeur, là aussi devant le capital. Reste que sur le long terme, une relation extrêmement stable existe entre la consommation d’énergie et la croissance du PIB. On retrouve la même très grande stabilité lorsque l’on élargit la perspective non plus dans le temps, mais dans l’espace. Pour des pays importateurs comme la France, l’externalisation de la consommation d’énergie par le biais des importations conduit à sous-estimer l’influence de l’énergie dans l’évolution de la croissance économique. L’estimation de la relation entre énergie et croissance est beaucoup plus fiable à l’échelle mondiale qu’à l’échelle nationale.

Vos travaux aboutissent à une conclusion qui diverge totalement des analyses classiques : “l’élasticité”, c’est-à-dire la sensibilité du PIB par habitant vis-à-vis de la consommation d’énergie, est d’après vous de l’ordre de 60 %, et non de moins de 10 % (soit le coût de la facture énergétique dans la production), comme l’indique la littérature économique habituelle. [Autrement dit, si la consommation d’énergie augmente de 100 %, la théorie économique conventionnelle prédit que la hausse induite du PIB par habitant se limitera à moins de 10 %. D’après Gaël Giraud, l’observation empirique montre que l’augmentation est en réalité de 60 %, pas moins ! ]
Comment justifiez-vous cet énorme écart ?
La raison profonde de cet écart, c’est évidemment le très bas niveau du prix des hydrocarbures, même aujourd’hui. Beaucoup d’économistes postulent que le marché international de l’énergie est à l’équilibre, et que les prix qui en émergent reflètent les tensions réelles s’exprimant sur ce marché. D’abord quelques remarques sur cette idée d’un équilibre naturel. Le prix de la plupart des énergies fossiles est influencé par celui du pétrole et, tout récemment, du gaz. Or le prix du pétrole, comme celui du gaz de schiste nord-américain, ne résulte pas d’une pure rencontre concurrentielle de l’offre et de la demande. Tous deux sont soumis à diverses manipulations. Il apparaît que le mode de fixation du prix du pétrole spot, livrable à court terme, ressemble davantage à la fixation des taux monétaires du LIBOR qu’aux fictions idéales des manuels d’économie. Nous savons aujourd’hui que ces taux interbancaires du LIBOR ont été sciemment manipulés par diverses banques de la City de Londres, cela durant des années et avec éventuellement la complicité passive de leur régulateur, la banque centrale d’Angleterre. De même, le prix du pétrole est un sujet politiquement très sensible, il n’est pas étonnant qu’il soit soumis à diverses pressions. Par exemple, la chute du prix du pétrole durant la seconde moitié des années quatre-vingt n’est pas étrangère à la stratégie de Washington qui visait à étrangler l’économie de l’URSS [en demandant à l’allié saoudien d’ouvrir ses vannes de brut à fond, NDLR], ce qui a conduit à précipiter la chute de l’empire soviétique. Je ne prétends pas que ce contre-choc pétrolier des années quatre-vingt ait résulté uniquement de cette initiative de l’administration Reagan, mais que l’on mesure, à travers un exemple de ce type d’exemple, la nature en partie géopolitique du prix de l’or noir. A l’étage supérieur des marchés internationaux, celui des marchés financiers, le prix des futures, les contrats de livraison à terme sur le pétrole est, lui aussi, soumis à des mouvements de capitaux qui n’ont pas grand chose à voir avec la réalité économique de l’énergie, mais qui ont tout à voir avec des stratégies spéculatives mises en place par une poignée de grandes banques d’affaires américaines. Enfin, concernant le gaz de schiste nord-américain, il fait très certainement l’objet d’un dumping à la baisse, favorisé par des subventions plus ou moins cachées de l’administration américaine. Il résulte de tout ceci une déconnexion assez forte entre les réalités strictement économiques des hydrocarbures et leurs prix.

Revenons au point clé : le degré d’élasticité du PIB par rapport à l’énergie est selon vous très largement sous-estimé…
Si malgré les remarques liminaires que je viens de faire, vous croyez, comme la plupart des économistes universitaires, que le prix de l’énergie reflète fidèlement l’offre et la demande réelles, et si en plus et surtout, vous postulez que l’industrie des hydrocarbures n’est soumise à aucune contrainte du côté de l’extraction, alors vous concluez tranquillement que l’élasticité du PIB par rapport à l’énergie est proche de la part du coût de l’énergie dans le PIB, ce que l’on appelle son “cost share” en anglais. Soit moins de 10%, en effet. C’est ce raisonnement qui permet à certains de mes collègues économistes, à tort je pense, de prétendre que l’énergie est un sujet marginal et, pour tout dire, un non-sujet. Admettons un instant, pour les besoins de la discussion, que le prix du pétrole soit vraiment un prix de marché concurrentiel. Même dans pareil cas, il est évidemment faux de prétendre que l’extraction physique des hydrocarbures n’est soumise à aucune contrainte géologique, politique, etc. Or, dès que l’on réintroduit ce type de contraintes, on peut aisément montrer que (même sur un marché purement concurrentiel), il y aura une déconnexion complète entre l’élasticité et la part de l’énergie dans le cost share : les calculs font apparaître des “prix fantômes”, lesquels reflètent la puissance des contraintes extérieures et déforment le cost share à la baisse par rapport à l’élasticité. Cette remarque a déjà été faite depuis longtemps par un physicien allemand, Reiner Kümmel, ainsi que par l’Américain Robert Ayres. Pourtant la plupart des économistes continuent de postuler que l’élasticité de l’énergie est égale à son cost share, c’est-à-dire très faible, sans eux-mêmes y être allés regarder de plus près. Je pense que cela est dû, en profondeur, au fait que beaucoup d’économistes préfèrent regarder des prix et des quantités monétaires plutôt que des quantités physiques. Ce qui est paradoxal, puisque beaucoup de leurs modèles fonctionnent en réalité comme des modèles sans monnaie ! (Je sais, ça vous étonne, mais il faudrait un autre entretien pour expliquer ce point…) Mes propres travaux empiriques, menés sur près d’une cinquantaine de pays, et sur plus de quarante ans, montrent qu’en réalité l’élasticité du PIB par rapport à l’énergie primaire est comprise entre 40 %, pour les zones les moins dépendantes du pétrole, comme la France, et 70 % pour les Etats-Unis, avec une moyenne mondiale tournant autour de 60 %.

L’élasticité (la sensibilité) du PIB par rapport au capital vous apparaît par conséquent beaucoup plus faible que ce qui est couramment admis.
Quelles conséquences en tirez-vous sur le niveau des prix de l’énergie d’une part, et d’autre part sur la rémunération du capital ?
L’une des conséquences de la réévaluation à la hausse de l’élasticité du PIB par rapport à l’énergie est, en effet, une réévaluation à la baisse de l’élasticité par rapport au capital. D’après les manuels, cette dernière devrait de nouveau être égale au cost share du capital, traditionnellement évalué entre 30 et 40 % du PIB. Je trouve pour ma part des élasticités moitié plus faibles et ce, même en adoptant des définitions empiriques larges du capital, comme celle de Thomas Piketty. On pourrait être tenté d’en déduire que le capital est sur-rémunéré, et que l’énergie est sous-rémunérée. Ce n’est pas forcément faux mais, de mon point de vue, ce type de conclusion continue de raisonner comme si l’égalité de l’élasticité et du cost share devait être vérifiée dans un monde idéal. Or, et c’est un point fondamental, je ne connais pas de démonstration entièrement convaincante de cette égalité. Même si le prix de l’énergie (ou du capital) était fixé sur un marché mondial parfaitement concurrentiel, ce qui n’est nullement le cas en pratique, et même si l’on croit que les compagnies pétrolières ne sont soumises à nulle contrainte externe à leur business (de sorte qu’aucun “prix fantôme” ne viendrait déformer la relation élasticité/cost share, ce qui est une fiction), même dans un tel monde idéal, cette égalité reste encore suspecte. Cela est lié au fait que la micro-économie traditionnelle souffre de nombreuses erreurs internes, approximations et autres court-circuits intellectuels, qui rendent ses conclusions extrêmement fragiles. Un excellent livre, rédigé par un économiste australien, Steve Keen, fait le point sur ces problèmes d’apparence technique mais qui sont, au fond, décisifs pour le débat politique contemporain. J’assure la traduction de ce livre avec Aurélien Goutsmedt, il paraîtra à l’automne prochain (L’Imposture économique, Steve Keen, Ed. de l’Atelier).

Vous estimez qu’il existe une sorte de “force de rappel” entre la consommation énergie et le rythme de croissance du PIB. Les deux apparaissent “co-intégrés”, c’est-à-dire qu’ils seraient voués perpétuellement à revenir l’un vers l’autre, au bout d’un certain temps. Existe-t-il un lien de cause à effet entre l’énergie disponible et le niveau d’activité économique, ou au contraire du niveau d’activité économique sur la consommation énergie, ou bien encore s’agit-il d’un lien réciproque ?
Cette question a déjà été étudiée abondamment par les économistes spécialisés dans l’énergie. Il n’y a plus de doute, aujourd’hui, sur le caractère co-intégré de l’énergie et du PIB. Mes travaux montrent que la force de rappel entre ces deux grandeurs est telle qu’après un choc exogène (un krach financier, par exemple), ces variables mettent en moyenne un an et demi à retrouver leur relation de long terme. Si vous regardez la séquence 2007-2009, c’est à peu près ce que l’on observe. Vous posez à juste titre la question de la relation de causalité : est-ce la consommation d’énergie qui cause le PIB ou bien l’inverse ? Là-dessus, même les économistes énergéticiens sont beaucoup plus divisés. Mes travaux avec Zeynep Kahraman penchent clairement en faveur d’une relation causale univoque de la consommation d’énergie primaire vers le PIB, et non l’inverse. Jean-Marc Jancoviciavait déjà anticipé ce résultat depuis un moment, en observant par exemple qu’à la suite du krach 2007, la baisse de la consommation d’énergie précède la baisse du PIB dans un nombre important de pays. Comme l’indique le bon sens physique, une relation de causalité ne peut se traduire que par une précédence temporelle de la cause sur l’effet. C’est exactement ce que confirme mon travail. Il y a beaucoup de malentendus sur cette question de la causalité. La causalité est une notion métaphysique : même la mécanique newtonienne ne prétend pas démontrer que la gravité universelle fait tomber les pommes des arbres ! Tout ce qu’elle peut dire, c’est qu’elle dispose d’un modèle au sein duquel une grandeur appelée force gravitationnelle est supposée se manifester par le mouvement des masses, et que ce modèle n’a jamais été mis en défaut – pour des vitesses faibles par rapport à la lumière, évidemment ! Ici, il en va de même : tout ce que nous pouvons dire, c’est que nous observons une relation empirique entre l’énergie et le PIB, qui peut s’interpréter statistiquement comme une relation causale.

A vos yeux, dans quelle mesure la crise de 2008 pourrait-elle être une sorte de choc pétrolier ?
L’argument est facile à concevoir : en 1999, le baril est à 9 dollars. En 2007, il tourne autour de 60 dollars (avant de s’envoler à 140$ du fait de la tempête financière). Nos économies ont donc connu un troisième choc pétrolier au cours des premières années 2000, de même amplitude que ceux des années 1970, quoique davantage étalé dans le temps. Or ce “choc pétrolier” n’a pas eu l’effet récessif majeur de ceux de 1973 et 1979. Pourquoi ? Certains économistes avancent que cela serait dû à la plus grande flexibilité du marché du travail aux Etats-Unis, dans les années 2000, comparée à celle qui prévalait dans les années 1970, ainsi qu’à la politique monétaire très accommodante menée par la Réserve fédérale américaine (ainsi que par la Banque centrale européenne). La première explication ne me convainc nullement : elle repose très largement sur le postulat de l’égalité élasticité/cost share, dont j’ai dit combien elle est suspecte. Elle vise de manière trop évidente à légitimer des programmes de flexibilisation tous azimuts du marché du travail, qui ont pourtant montré leur inefficacité. En revanche, la seconde explication se rapproche de ce que vous suggérez. La politique monétaire de taux directeurs très faibles a rendu possible une expansion significative du crédit, elle-même facilitée par la dérégulation financière. Autrement dit, nos économies se sont endettées pour compenser la hausse du prix du pétrole ! Comme le crédit était très bon marché, cela a permis de rendre le choc pétrolier relativement indolore. Dans le même temps, la politique monétaire, la déréglementation et la myopie du secteur bancaire ont aussi provoqué le gonflement de la bulle des subprimes, dont l’éclatement en 2007 a enclenché la crise. Le remède qui a rendu possible d’amortir le choc pétrolier a donc aussi provoqué la pire crise financière de l’histoire, elle-même largement responsable de la crise actuelle des dettes publiques, de la fragilisation de l’euro, etc. Tout se passe donc comme si nous étions en train de payer, maintenant, le véritable coût de ce troisième choc pétrolier.

L’évolution de la consommation d’énergie est, dites-vous, un non-sujet pour la plupart des économistes. D’autres travaux analogues aux vôtres (ceux de Robert Ayres, notamment) aboutissent également à la conclusion que le rôle de l’énergie dans l’économie est totalement sous-estimé. Où en est la prise en compte de votre type d’approche dans la recherche économique et dans la pensée économique en général ? Obtenez-vous un écho auprès de vos confrères, ou bien prêchez-vous dans le désert ?
La communauté des économistes universitaires n’est nullement homogène. Certains continuent de réciter le catéchisme des manuels, dont nous avons pourtant bien des raisons de penser qu’il contient de nombreuses contre-vérités majeures, lesquelles ne sont pas étrangères à l’incapacité d’une partie de la profession à anticiper une crise monumentale comme celle des subprimes, ou encore à imaginer d’autres solutions à la crise européenne que l’approfondissement des programmes de rigueur budgétaire qui, pourtant, nous condamnent à la déflation. Mais d’autres économistes font un travail remarquable : vous avez cité à juste titre Robert Ayres, il y a aussi des personnes comme Michael Kumhof au FMI [son interview sur ‘Oil Man’], James Hamilton [présentation sur ‘Oil Man’], David Stern, Tim Jackson, Steve Keen, Alain Grandjean, Jean-Charles Hourcade, Christian de Perthuis,… Je suis convaincu qu’au fur et à mesure que la société prendra conscience du rôle vital de l’énergie – ce processus de prise de conscience a déjà commencé –, la première catégorie d’économistes sera contrainte de changer ses dogmes. Le reste appartient à la sociologie du champ académique.

Les contraintes du pic pétrolier et du changement climatique promettent de dessiner un avenir dans lequel la machine économique aura de moins en moins d’énergie à sa disposition pour fonctionner. Ces deux contraintes impliquent-elles selon vous la fin prochaine de l’économie de croissance ?
Oui, très vraisemblablement. Sans transition énergétique (c’est-à-dire, sans réorientation volontariste de nos forces productives et de nos modes de consommation vers une économie moins dépendante des énergies fossiles), nous ne pourrons tout simplement plus retrouver la moindre croissance durable. Même si certains prétendent aller la chercher avec les dents. Les travaux que j’ai conduits avec Antonin Pottier suggèrent que des économies comme les nôtres ne peuvent connaître, au fond, que trois régimes de moyen terme : une croissance significative accompagnée d’une forte inflation (les trente glorieuses), la déflation (Le Japon depuis 20 ans, l’Europe et les Etats-Unis durant l’entre-deux-guerres), ou bien une croissance molle accompagnée de bulles spéculatives à répétition sur les marchés financiers. L’Europe de l’Ouest est à l’évidence dans le troisième régime, vers lequel nous avons bifurqué au cours des années 1980, à la faveur de la dérégulation financière. La question qui nous est posée aujourd’hui est de savoir si nous voulons poursuivre cette expérience, au prix du creusement des inégalités inouï que nous connaissons et de la destruction à terme du secteur industriel européen par la sphère financière. Ou nous pouvons nous laisser glisser paresseusement dans la déflation (le plus dangereux) comme c’est déjà le cas pour une bonne partie du sud de l’Europe. Ou bien encore, nous pouvons tenter de renouer avec la prospérité. Cette dernière ne coïncide pas avec la croissance du PIB. Comme vous le savez, le PIB est, à plein d’égards, un très mauvais indicateur. Il est temps d’en changer. Le rapport Sen-Stiglitz-Fitoussi ou, mieux encore, les travaux de Jean Gadrey et de Florence Jany-Catrice indiquent des pistes très prometteuses permettant d’aller dans ce sens. Autrement dit, faire croître le PIB n’a guère d’importance. D’où l’inanité des débats sur la croissance verte, qui s’interrogent sur le fait de savoir si la transition est compatible avec la croissance du PIB. La bonne question, c’est : comment opérer la transition de manière à assurer du travail pour le plus grand nombre, et un style de vie à la fois démocratique et prospère ?

L’anthropologue américain Joseph Tainter affirme qu’il existe une « spirale énergie-complexité » : « Vous ne pouvez avoir de complexité sans énergie, et si vous avez de l’énergie, vous allez avoir de la complexité », dit-il.
Que vous inspire cette assertion ?
Le parallèle que Tainter propose entre la dépendance de l’empire romain à l’égard de l’énergie pillée chez les sociétés conquises, et notre propre dépendance énergétique me paraît très pertinent. Le colonialisme a constitué – n’en déplaise à certains historiens, tels que Jacques Marseille – une grande opération de captation d’un certain nombre de ressources énergétiques majeures, de la part d’un continent (l’Europe) qui manque cruellement de ressources énergétiques fossiles sur son propre sol. Que notre continent soit plus ou moins condamné au déclin s’il ne réalise pas la transition énergétique, cela également me paraît assez évident. En revanche, je suis moins Tainter sur sa thèse concernant le lien intangible entre la complexité d’une société et son usage de l’énergie. Cette notion de complexité ne risque-t-elle pas de justifier la démission du politique, si elle est comprise comme impliquant que, décidément, les choses sont beaucoup trop complexes pour qu’un gouvernement puisse prétendre décider quoi que ce soit ? Il est vrai, par ailleurs, que la déréglementation financière a provoqué un brouillard d’informations contradictoires (les prix de marchés financiers) qui sèment une énorme confusion sur les tendances économiques lourdes, et paralysent aussi bien les investissements de long terme que la décision politique. En ce sens-là, l’expérience de la déréglementation nous a plongés dans un monde “complexe”, au sens de confus. Mais ce n’est nullement irréversible, et c’est une raison supplémentaire pour ne pas faire dépendre notre prospérité des marchés financiers. Si l’on suit Tainter, nous serions condamnés, dans la mesure où notre société aurait atteint son “pic de complexité”, au-delà duquel les gains de productivité de la complexité deviendraient négligeables ? Je peux me tromper, mais je suis convaincu, pour ma part, que seules deux régions au monde peuvent lancer la transition énergétique en tant que vaste projet économique et politique : l’Europe et le Japon. En effet, il faut, pour cela, d’excellents ingénieurs et une population à la fois riche et très éduquée. Si l’Europe devient leader dans la transition énergétique et, plus globalement, écologique, alors elle pourra, avec son propre retour d’expérience, exporter auprès du reste du monde son savoir-faire. Sinon, elle sera condamnée à devoir faire la guerre, comme l’empire romain, pour capter l’énergie des autres, ce qu’elle n’a plus guère les moyens de faire. La transition est devant nous : elle est le secret de la prospérité future de l’Europe si, du moins, notre continent se donne les moyens de la mettre en oeuvre.

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol