Archive pour le Tag 'manque de'

Société- Le grave manque de culture et de vision des économistes ( Robert Boyer, économiste)

Société- Le grave manque de culture et de vision  des économistes  ( Robert Boyer, économiste)

 

L’économiste Robert Boyer pointe dans son dernier ouvrage « Une discipline sans réflexivité peut-elle être une science ? Epistémologie de l’économie » (Ed. La Sorbonne) les nombreuses failles de la science économique dominante à expliquer les grande crises économique et sanitaire récentes. Figure de l’école de la régulation en France avec l’économiste Michel Aglietta, l’économiste Robert Boyer  plaide pour la création d’agora géante qui pourrait « être le terreau d’une bifurcation de la discipline économique, en particulier de sa réinsertion tant dans les sciences de la nature que dans celles de la société ».

Robert Boyer est une figure de l’école de la régulation en France avec l’économiste Michel Aglietta. Anciennement directeur de recherche au CNRS et directeur d’études à l’EHESS, ce polytechnicien collabore à l’institut des Amériques et anime l’association Recherche et régulation. 

LA TRIBUNE- Pourquoi avez-vous décidé de vous attaquer à ce sujet dans votre dernier ouvrage ?

ROBERT BOYER- J’ai commencé à travailler comme économiste en 1967. A cette époque, je pensais qu’une discipline économique était en voie de constitution et j’espérais y participer. Elle était rigoureuse et permettait d’éclairer de façon assez précise les choix de politique économique. Rétrospectivement le keynésianisme était en effet relativement adapté à la prise en compte des compromis sociaux de l’après Seconde guerre mondiale. Ce n’est plus le cas lorsqu’apparait en 1973 le phénomène de la stagflation, soit une forte inflation malgré la chute de l’activité économique. C’était l’indice de l’entrée dans une nouvelle époque du capitalisme, hypothèse fondatrice de la théorie de la régulation, que je n’ai cessé depuis lors de travailler. De son côté la majorité des économistes a interprété cet échec comme la conséquence directe de l’absence de bases microéconomiques de la théorie générale de Keynes.

S’est imposée l’idée qu’il fallait refonder la macroéconomie sur la microéconomie. Ce n’était pas forcément une mauvaise idée, mais très vite plusieurs problèmes ont surgi tel le recours à la notion d’agent représentatif, d’anticipations rationnelles, d’équilibre structurellement stable, autant d’hypothèses intenables. Ce programme qui était au début scientifique a été utilisé, au fil du temps, comme justification des stratégies de déréglementation et de libéralisation. Pendant 30 ans, la macroéconomie s’est enfoncée dans l’exploration de prémices totalement faux. Les Etats-Unis étaient réduits à un ensemble de producteurs et de consommateurs, sans prise en compte aucune du rôle des banques, des marchés financiers, et de toutes les organisations et institutions encadrant l’activité économique.

J’ai vu avec étonnement la discipline évoluer et perdre beaucoup de sa pertinence. Pour cerner les raisons de cette dérive, je l’ai resituée par rapport à l’histoire des grands courants de la pensée. Au fil des décennies, j’ai accumulé suffisamment de matériaux pour montrer que la profession d’économiste a beaucoup changé. A grands traits elle est animée par de virtuoses techniciens qui rendent des services aux acteurs mais de moins en moins par de grands économistes dont la visée serait d’analyser les enjeux du monde contemporain. La crise de la macroéconomie est beaucoup plus profonde que l’on ne pense. Le livre soutient que ce sont les bases de la discipline qui sont en cause et non pas quelques erreurs mineures. La crise de 2008 a fait éclater au grand jour la crise de cette nouvelle macroéconomie classique.

Vous affirmez que l’institutionnalisation de la profession d’économiste a conduit à produire des spécialistes de la modélisation mais peu de chercheurs capables de conceptualiser les bases de la discipline. Que voulez-vous dire par là ?

R.B- Dans les années 30, les Etats-Unis comptaient quelques milliers d’économistes. Aujourd’hui, ce pays en recense des centaines de milliers. A l’époque, de grands économistes, de Joseph Schumpeter à Frederick von Hayek, dialoguaient entre eux dans la recherche d’explications à la crise de 1929. C’est l’éclatement du métier qui prévaut : certains sont économistes de banque, d’autres sont économètres, d’autres encore travaillent dans des think tank visant à influencer la politique des gouvernements. Le métier s’est considérablement diversifié en une myriade d’approches, de techniques appliquées aux différents secteurs de l’économie. On note aussi un éclatement des demandes à l’égard des économistes. Leur spécialisation est tellement poussée qu’elle débouche sur une anomie de la division du travail, telle que conceptualisée par le sociologue Emile Durkheim. Sur une même question – par exemple les marchés financiers sont-ils efficients ? – les diverses branches de la discipline livrent des réponses contradictoires.

La structuration du champ académique (hiérarchie des revues, modalités de recrutement des enseignants) crée un système formant essentiellement des techniciens affirmez-vous. Comment faire pour accorder plus de reconnaissance aux intellectuels en économie ?

R.B- On peut distinguer trois phases dans la structuration du champ académique. La première avait pour projet de fonder la discipline sur la théorie de l’équilibre général. Les chercheurs allaient pouvoir produire une formalisation d’une économie de marché justifiant l’image de la main invisible d’Adam Smith, à savoir la possibilité et l’optimalité d’une économie décentralisée où chacun ne poursuit que son intérêt. En fait les mathématiciens finissent par conclure que ce n’est le cas que sous des hypothèses très restrictives, non satisfaites dans les économies contemporaines du fait de l’existence du crédit, de rendements d’échelle, de pouvoir de monopole. Ainsi loin d’être un fait scientifique, la main invisible devient une croyance.

Une deuxième phase enregistre une succession de modélisations macroéconomiques qui entendent remplacer celles inspirées par Keynes. C’est d’abord la théorie monétariste de Milton Friedman qui s’impose comme explicative de l’inflation. Mais elle périclite lorsque se multiplient les innovations qui assurent la liquidité de nombreux actifs financiers, puis quand l’aisance monétaire ne débouche pas sur une accélération de l’inflation, mesurée par les prix à la consommation. Ce sont ensuite des modèles qui modernisent la théorie classique sous l’hypothèse d’auto-équilibration des marchés, transitoirement perturbés par des « chocs » réels ou monétaires. Les Banques Centrales usent de ces modèles mais ils montrent leurs limites lors de la crise de 2008.

Aussi dans une troisième étape, passe-t-on des grandes théories à l’économétrie et de l’économétrie à la « métrie », c’est-à-dire l’application des avancées des techniques statistiques à toutes les données disponibles, bien au-delà des phénomènes économiques.

D’un côté, avec les masses de données produites en temps réel par la finance, une nouvelle discipline, fondée sur les mathématiques financières, prend son essor, sans trop se préoccuper des conséquences macroéconomiques des nouveaux instruments qu’elle invente. Avec l’économie de l’information, apparaît ensuite le besoin d’analyser ces données grâce à l’intelligence artificielle.

De l’autre côté, les recherches en macroéconomie sont presque complètement désertées. Rares sont les jeunes et talentueux chercheurs qui osent se lancer dans un domaine aussi difficile. Or, les dernières crises ont fait apparaître le besoin d’une analyse des économies et des relations qu’elles entretiennent dans un système international en crise. Lorsque la crise financière de 2008 éclate, la macroéconomie se rappelle au bon souvenir des gouvernements et des économistes. L’irruption de la pandémie appelle des réponses, en matière de politique monétaire et budgétaire, soit des questions que la microéconomie ne peut traiter.

Vous évoquez notamment une crise de la macroéconomie. Quels sont les facteurs qui ont pu contribuer à affaiblir cette discipline ?

R.B- D’abord trop souvent le chercheur ne distingue pas entre vision, théorie, modèle, mécanisme, alors que ce sont des concepts bien différents. Une série de modèles, au demeurant fragiles dès qu’on les utilise pour prévoir, ne fondent pas une science car ce ne sont souvent que des éclairages partiels ou des aides à la décision. Ensuite chacun a tendance à se focaliser sur un mécanisme parmi beaucoup d’autres or le propre de la macroéconomie est de prendre en compte et d’articuler l’ensemble des mécanismes pertinents. Enfin, la clôture du champ de la macroéconomie sur lui-même lui interdit de reconnaître sa dépendance vis-à-vis du pouvoir politique. Plus encore, son accent sur le court terme n’est guère favorable à la reconnaissance des enjeux que sont devenus l’écologie, les pandémies, l’inégalité tant domestique qu’internationale.

Il est sans doute illusoire d’attendre la venue d’un nouveau Keynes. De nos jours, la formation universitaire des économistes ne livre pas une formation suffisamment généraliste permettant de formuler des questions pertinentes et les éclairer. Keynes considérait que « l’économiste doit posséder une rare combinaison de dons…D’une certaine façon, il doit être mathématicien, historien, homme d’État, philosophe… Aucune partie de la nature de l’homme ou de ses institutions ne devrait être entièrement hors de sa considération. » Bref un grand intellectuel !

Pourquoi les grands courants économiques dominants ont échoué à rendre compte des grandes crises du 20ème siècle et du 21ème siècle ?

R-B- Les macro-économistes ont pris beaucoup de retard par rapport aux considérables transformations du capitalisme. La plupart ont exclu de leurs modèles la possibilité même de crises. Par définition, l’économie perturbée par des chocs externes revient automatiquement vers l’équilibre de long terme. Or tel n’est pas le cas car la nature des processus économiques est beaucoup plus complexe et changeante dans le temps.

Dans un tel contexte d’incertitude sur les mécanismes à l’œuvre, chaque école de pensée tend à privilégier son interprétation. Ainsi les enjeux s’en trouvent simplifiés, ce qui polarise les conseils adressés aux gouvernements. On observe alors une inversion des relations entre le prince et le conseiller. En théorie, le conseiller estime qu’il est porteur de science et le prince pense qu’il trouve ainsi une justification « objective » de sa politique. En pratique, ce dernier va chercher dans les théories économiques en concurrence celles qui lui sont favorables. Par exemple, la nouvelle théorie monétaire américaine vient à point nommé réhabiliter la politique budgétaire face aux limites que rencontrent la Banque Centrale. Cette apparente révolution intellectuelle vient appuyer le fait que la dépense publique doit être à nouveau un outil puissant pour les Etats-Unis.

Pourtant, ils sont encore très écoutés par les élites et le pouvoir. Comment expliquez-vous ce paradoxe ?

R.B- Se reproduit aujourd’hui un phénomène déjà observé à propos des instituts de prévision lors de la fin des trente glorieuses. Plus mauvaise était la qualité de leurs prévisions, plus ils se multipliaient car tour à tour ils avaient raison puis se trompaient. Aucun ne parvenait à percer la grande incertitude liée à un changement d’époque. De nos jours, la même configuration prévaut concernant l’expertise économique : le politique demande d’autant plus d’avis aux économistes qu’il doute de leur expertise ! Il en est de même concernant l’explosion des sondages d’opinion censés éclairer les élections. Comment devrait progresser la connaissance économique ? Par la reconnaissance des erreurs et leur correction, phénomène trop rare. Par ailleurs, il faut savoir avouer que l’on ne sait pas.

La pandémie pourrait-elle permettre de renouveler la vision des économistes dans les pays riches ?

R.B- Les pays riches étaient sûrs que la sophistication de leur système de santé et la vigueur de la recherche pharmaceutique et biologique allaient leur permettre d’éviter le retour des épidémies. Lorsque la Covid-19 est apparue à Wuhan, beaucoup de gouvernements des pays riches pensaient que ce virus allait concerner seulement les pays pauvres. En fait, beaucoup d’Etats ont découvert un bien commun passé jusque-là inaperçu : la sécurité sanitaire mondiale.

Les pays africains qui étaient supposés plus vulnérables ont résisté car leur population était beaucoup plus jeune et les responsables avaient appris des épidémies précédentes, telle Ebola. De même certains Etats asiatiques avaient conservé des stratégies de prévention pour affronter collectivement des nouvelles pandémies. Voilà qui devrait renouveler l’intérêt des économistes pour le rôle parfois déterminant du système de santé : au-delà du contrôle de la croissance des coûts s’impose la prise en considération de sa résilience face à l’imprévu. De même, une série de décisions de court terme peut déboucher sur une crise majeure, comme le montre la situation présente des hôpitaux.

 

Quel(s) rôle(s) les Etats ont-ils pu jouer depuis les dernières crises économiques et sanitaires ?

R.B- Après 2008 et la pandémie, l’Etat est redevenu le maître des horloges. Il socialise les anticipations, ce qui permet aux acteurs de se repérer face à une incertitude qui leur échappe. C’est à l’Etat de fixer le cap en matière de stratégie sanitaire. La pandémie a également rappelé que la monnaie est créée en fonction des besoins de la société. La Banque Centrale Européenne a pu refinancer sur le marché secondaire les dettes publiques associées au Covid-19 et non plus seulement des crédits privés.

Le déficit public est redevenu un outil essentiel pour passer les périodes difficiles. Certains voulaient interdire dans la constitution tout déficit public. On a redécouvert que la solidarité nationale s’exprime grâce à l’Etat. Les années Covid-19 resteront comme une grande césure dans l’histoire. Il est peu probable que l’on retourne vers un passé marqué par de nombreux problèmes structurels non résolus.

Quelles sont les leçons de la crise sanitaire en matière d’inégalités ?

R.B- Sur le plan des inégalités, la pandémie a rappelé qu’au sein des sociétés la privation de l’accès aux services publics, aux hôpitaux, aux médecins accentue les disparités entre les riches et les pauvres. Les plus précaires obligés de travailler habitent dans des zones bien moins desservies sur le plan médical. On redécouvre des inégalités dans le pronostic vital et l’espérance de vie. La pandémie a reformulé la question à partir de la capacité des personnes à mener une vie en bonne santé.

Le système de santé, miné par la volonté de réduire les coûts, a tenu grâce aux initiatives et au dévouement du personnel, situation qui n’est pas tenable à long terme. La médecine de ville et les hôpitaux publics et privés n’ont pas été réorganisés. En 2000, la France avait le meilleur système de santé d’après l’OMS. Il a dégringolé depuis et est devenu inégalitaire et inefficient.

Sur le plan international, la pandémie risque de laisser des traces durables dans nombre de pays pauvres. L’illettrisme dans les pays pauvres s’y est développé, ce qui augure mal des possibilités de développement humain et économique. Dans tous les pays, la pandémie a attisé les tensions sociales.

Les institutions internationales ont-elles joué leur rôle ces dernières années ?

R.B- L’organisation mondiale du commerce (OMC) est bloquée et le FMI n’apparaît qu’au moment des crises les plus graves, comme c’est encore le cas en Argentine. Sur le front international, font défaut les institutions nécessaires. Il faudrait créer une agence pour le climat qui soit aussi forte que le FMI ou la Banque mondiale à une certaine époque. Un institut international de la migration ne serait pas inutile car avec le changement climatique, les vagues migratoires pourraient être considérables.

Enfin, l’organisation mondiale de la santé (OMS) devrait avoir le pouvoir d’organiser la sécurité sanitaire mondiale mais aussi de piloter l’innovation médicale pour répondre par des dispositifs de prévention à des pandémies. Ce avec un budget conséquent et des moyens pour vacciner à l’échelle mondiale. Les institutions de Brettons Woods ont vieilli et de nouvelles peinent à émerger. La crise va durer en fonction de l’incapacité à engendrer ces institutions. Nous vivons donc une période charnière et historique mais lourde de risques.

Dans votre ouvrage, Les capitalismes à l’épreuve de la pandémie, vous avez travaillé sur plusieurs scénarios de sortie de crise. Plus de deux années après le début de la pandémie, sur quel type de capitalisme cette crise pourrait-elle déboucher ?

R.B- Nous avons échappé au scénario de la dystopie d’un repliement nationaliste général, qui serait intervenu avec une seconde victoire de Donald Trump. Joe Biden a provisoirement enrayé ce scénario. Cette crise a cependant révélé un très grand retard dans la coopération internationale. On enregistre certes quelques avancées sur la fiscalité des multinationales, ou encore l’initiative COVAX pour les vaccins. L’Europe a pour la première fois émis des titres de dette européens. Un pas a été franchi mais d’autres seront nécessaires. Prise entre les Etats-Unis et la Russie, l’Europe est un partenaire sans grand pouvoir géopolitique. Dans la crise de l’Ukraine, le multilatéralisme est loin de s’affirmer. L’économie mondiale est à nouveau proche de conflits ouverts impliquant les Etats-Unis, la Chine et la Russie.

La crise de 2008 et la pandémie ont révélé beaucoup de structures cachées. La finance était aux yeux de beaucoup un facteur de stabilisation. Ce n’était pas le cas puisqu’elle peut durablement enrayer la croissance de certains pays, ce dont l’Argentine donne un cruel exemple. Le monde a-t-il raison de continuer la financiarisation ?

La mondialisation a été beaucoup critiquée ces dernières décennies. Dans quelle direction la globalisation pourrait-elle évoluer dans les prochaines années ?

R.B- La globalisation a certes permis à la Chine de se développer mais elle a induit beaucoup de problèmes qui ne sont pas résolus. La mondialisation a été heureuse pour quelques-uns et moins bonne pour beaucoup d’autres. La pandémie a redistribué la carte du monde, en accélérant le déplacement de son centre de gravité en direction de l’Asie. Partout les failles de la globalisation ont favorisé le retour du principe de souveraineté nationale qui est aussi une menace pour l’Union Européenne qui se trouve sans doute à la croisée des chemins.

Nous vivons une période charnière. Les Etats-Unis attendaient l’effondrement de la Chine, à l’image de celle de l’URSS. Or la Chine ne va pas rejoindre l’idéal occidental. Elle vient de signer le plus grand traité régional de libre-échange sur la planète. L’Europe ne peut plus affirmer qu’elle est la plus vaste zone de libre-échange. Taïwan, la Corée du Sud et d’autres pays du Sud ont réussi à bien mieux s’en sortir que d’autres pays. Le monde a changé mais l’Europe est à la traîne.

Quel regard portez-vous sur la polarisation à l’intérieur des sociétés ?

R.B- Dans beaucoup de pays, deux fractions de la société aux conceptions opposées s’affrontent sur toutes les questions : l’ouverture à l’international, l’immigration, l’organisation des services collectifs ou encore la fiscalité. Le Brexit est à ce titre emblématique car il a mis en exergue la profondeur de cette division. Les différents sondages et enquêtes ont montré que les ruraux, peu diplômés et âgés ont voté en faveur du Brexit. A l’inverse, les jeunes urbains diplômés ont voté pour l’Europe. Les gouvernements doivent faire face à de redoutables difficultés d’intermédiation car ils ne peuvent trouver une solution médiane tant les attentes sont contradictoires.

Auparavant, les Etats compensaient les perdants par des transferts monétaires. Comme cette solution traditionnelle est inopérante car le conflit porte sur les valeurs, les gouvernements sont tentés par l’autoritarisme. La démocratie représentative est en crise, ce qui appelle une refondation. Dans beaucoup de pays, la polarisation s’avère insurmontable. Ainsi Joe Biden s’est retrouvé coincé entre la gauche des démocrates et les trumpistes du parti républicain qui entendent gagner les élections de mi-mandat. Alors même que son expérience de négociateur est reconnue, les marges de manœuvre se sont vite rétrécies, car il y a peu de compromis possibles. La question de la reconstruction du lien social est posée et les solutions sont à trouver

 

Dissuasion nucléaire: contestation de son manque de crédibilité

Dissuasion nucléaire: contestation de son manque de crédibilité

 

Deux spécialistes de la stratégie et des armes nucléaires, François Géré et Philippe Wodka-Gallien réagissent à leur tour aux propos des deux chercheurs remettant en cause la crédibilité de la force de frappe française à ses débuts ( dans l’Opinion)

Le 13 février 1960, le premier engin nucléaire français « Gerboise bleue » explose avec succès dans le désert saharien du Tanezrouft.

Sous le titre « Pendant longtemps, la dissuasion nucléaire française n’a pas été crédible », l’Opinion a publié le 23 février un entretien avec deux chercheurs. Ce texte provoque de nombreuses et vives réactions dans les milieux spécialisés. Soucieux d’ouvrir le débat, après une première réponse de deux historiens réputés Maurice Vaïsse et Dominique Mongin, nous publions celle, très polémique, de deux spécialistes de la dissuasion française, François Géré et Philippe Wodka-Gallien.

A propos d’un article récent de Pélopidas and C°, remercions les auteurs d’avoir fouillé dans les poubelles de l’histoire pour exhumer les arguments tendancieux et ineptes qui ont marqué les débuts de la construction de la stratégie de dissuasion nucléaire française en les reprenant à leur compte. Saluons une démarche qui démontre une ignorance du principe même de cette stratégie en accumulant les erreurs involontaires ou délibérées et les affirmations infondées. Il y en a tant qu’il serait fastidieux de les reprendre toutes. Par souci de brièveté, nous n’accorderons d’attention qu’aux falsifications les plus grossières.

Il est faux d’affirmer que la doctrine s’est bornée à suivre l’avancée des capacités techniques. Les fondements de la stratégie nucléaire ont été énoncés dès le début des années 1950 par le colonel Ailleret (responsable des essais atomiques du Sahara, devenu ensuite chef d’état-major des Armées). En janvier 1955, il publie dans Défense Nationale — la revue fait référence en matière de travaux académiques — un article intitulé « L’arme atomique : facteur de paix » où il explique : « Si villes, richesses, populations doivent de toute manière être détruites, la guerre n’a plus aucun sens. » Ses articles et conférences ont fait l’objet d’une synthèse, « Essai général de stratégie », rédigée en 1959, avant son entrée en fonction où figurent les principes d’utilisation par la France de l’arme nucléaire.

Le général de Gaulle s’est tenu constamment informé des évolutions de l’arme nucléaire. Fin 1956, après Suez, il avait reçu le colonel Gallois. La synthèse de ses réflexions a été exprimée en décembre 1959, dans le discours dit « de la Rotonde Gabriel », à l’Ecole militaire, qui donne les raisons et présente sans ambiguïté les grandes lignes de la stratégie de dissuasion nucléaire.

 

« Se prétendant novateurs, les auteurs ne font que reprendre l’ouvrage polémique de Raymond Aron “Le grand débat” »

Lavage de cerveau. Se prétendant novateurs, les auteurs ne font que reprendre l’ouvrage polémique de Raymond Aron Le grand débat, 1963, dirigé contre Gallois — qu’il avait pourtant encensé dans la préface de son livre de 1960 Stratégie de l’âge atomique. A la suite d’un séjour aux Etats-Unis où il avait complaisamment subi un lavage de cerveau par les « crânes d’œuf » entourant McNamara, Aron a repris l’argumentaire de ce dernier qualifiant la petite force nucléaire française « d’inefficace, inutile et dangereuse ». L’approche d’Aron était d’autant plus étrange qu’à cette date, il ne pouvait ignorer les objectifs capacitaires fixés par la loi de programmation militaire de 1960.

Sur le plan technique, il est faux de prétendre que les Mirages IV ne pouvaient accomplir leur mission. En dépit d’une défense aérienne, même très performante, l’interception à 100 % n’existe pas. S’agissant de bombes conventionnelles, le phénomène est évidemment gênant mais tolérable ; avec des armes nucléaires, le fait que quelques avions puissent passer relève du risque exorbitant. Quel dirigeant rationnel prendrait le risque de la guerre nucléaire devant la probabilité que quelques appareils puissent passer ? Mach 2 est encore l’atout maître du Mirage IV pour percer. Aucun adversaire ne saurait faire le pari de stopper la totalité d’un raid de saturation, qui bénéfice en outre d’avions d’escorte.

S’attaquer à la crédibilité revient à saper les fondements de la politique française, fondée sur l’autonomie de décision. La crédibilité repose sur une capacité de riposte garantie vers des cibles démographiques de haute valeur, donc un petit nombre. Dès l’entrée en service du Mirage IV en octobre 1964, première composante de la force de frappe, la crédibilité repose sur deux éléments : le vecteur et la charge. La loi de programmation militaire de 1960 prévoit de constituer en dix ans un parc diversifié de vecteurs pour, peu ou prou, traverser les défenses adverses. L’objectif capacitaire prévoit plus de 60 bombardiers Mirage IV (50 au titre d’un premier contrat, puis 16, le tout livré en cinq ans !), les missiles du Plateau d’Albion (ce sera 18, mai 1968 ayant eu raison du budget), et cinq sous-marins lanceurs d’engins dotés chacun de 16 missiles (un à deux sont en mer).

 

Dès 1965, le potentiel balistique est démontré avec la mise en orbite réussie d’Astérix, le premier satellite français. La fusée Diamant sert à la mise au point des missiles de la force de frappe. L’engin est 100 % « made in Normandie ». La démarche est ab initio. La nouvelle Direction de l’armement lance le projet de SNLE sans passer par l’étape intermédiaire du sous-marin d’attaque, à l’inverse des Soviétiques, des Américains et des Britanniques. Un seul M1 ou M2, équivaut à 40 Hiroshima, une mégatonne avec le M20.

« A Washington, McNamara, secrétaire d’Etat, s’oppose à la constitution de forces nucléaires indépendantes au sein de l’Alliance. Pourtant, il doit s’incliner devant John Kennedy qui accepte de nous fournir des avions de ravitaillement »

« Bombinette ». Parlons « charges ». C’est la vocation des essais nucléaires. Le premier, le 13 février 1960, dans le désert algérien, dégage 40 kilotonnes, trois fois l’arme qui a ravagé Hiroshima. En juillet 1966, l’essai Tamouré voit un Mirage IV larguer une bombe opérationnelle, validant ainsi le combiné Mirage IV-bombe AN21, une « bombinette » qui produit 50 kilotonnes. L’opération est renouvelée avec un Mirage III en 1973 puis un Jaguar en 1974. Le premier essai thermonucléaire, en août 1968, donne 2,6 mégatonnes.

La relation avec les alliés a toute sa place dans notre récit nucléaire. Le général de Gaulle s’appuie sur l’atome pour s’affirmer vis-à-vis de Londres et de Washington. Coopérer entre alliés : rien de plus normal. A Washington, McNamara, secrétaire d’Etat, s’oppose à la constitution de forces nucléaires indépendantes au sein de l’Alliance. Pourtant, il doit s’incliner devant John Kennedy qui accepte de nous fournir des avions de ravitaillement d’autant que cette demande reçoit le soutien du général Curtis Le May. La solution alternative aurait fait appel à des Caravelle modifiées en citernes volantes. L’aide des alliés est bienvenue en apportant gain de temps et gain d’argent.

Il est faux et ridicule de reprendre la thèse, sans lendemains, du « détonateur », selon laquelle la force française n’aurait eu pour fin que de pousser les Etats-Unis à une frappe nucléaire contre l’Union soviétique.

Il est faux de mentionner qu’un chiffre a été retenu pour déterminer les pertes de l’URSS. On s’est contenté de mentionner des « dommages intolérables », parfois d’un équivalent à la « valeur France », mais sans jamais fixer de seuil.

« La raison de cette entreprise négationniste se révèle en fin de parcours : remettre en question les programmes de modernisation de l’armement nucléaire français. Nommons cela la stratégie du castor : “Ronger les racines pour faire tomber l’arbre” »

Domaine du virtuel. Mis à part Gallois, les auteurs ignorent (ou veulent ignorer) les théoriciens de la stratégie de dissuasion nucléaire : Ailleret, Beaufre et Poirier. Ceci explique une incompréhension totale des particularités, uniques, de ce mode dissuasif. Beaufre remarquait « la compréhension générale du phénomène est faussée chaque fois que l’on envisage un problème nucléaire sous l’angle de son déclenchement et non sous celui de la dissuasion — ce qui est juste l’inverse. » On ne saurait confondre, ajoute Beaufre, « la menace de déclenchement avec le déclenchement effectif. » (Dissuasion et Stratégie, 1964).

Cette distinction fondamentale se retrouve dans les écrits de Lucien Poirier auteur du « modèle de stratégie nucléaire concevable pour la France » (1966) fondant le concept de « dissuasion du faible au fort », validé par le ministre des Armées, Pierre Messmer et approuvé par de Gaulle. Poirier explique que la dissuasion nucléaire opère dans le domaine du virtuel. L’arme nucléaire constitue une menace pour le candidat agresseur éventuel qui se voit dans l’obligation de l’intégrer en amont dans son calcul du gain escompté au regard des pertes probables. Si la dissuasion venait à échouer, cela n’entraînerait nullement de manière automatique une riposte nucléaire. Les responsables auraient à déterminer le choix d’une nouvelle stratégie soit de manière autonome, soit en concertation avec leurs alliés.

Il est faux d’affirmer que la notion de « tous azimuts » a figuré dans la doctrine française. L’article du général Ailleret dans la « Revue de Défense nationale », en décembre 1967 était conçu par de Gaulle comme un « ballon d’essai » qui fut rapidement abandonné.

La raison de cette entreprise négationniste se révèle en fin de parcours : remettre en question les programmes de modernisation de l’armement nucléaire français. Nommons cela la stratégie du castor : « Ronger les racines pour faire tomber l’arbre. » Mais ce n’est pas par des artifices aussi grossiers que l’on y parviendra.

François Géré est président du Cercle Lucien Poirier et de l’Institut français d’analyse stratégique (Ifas), auteur du livre «  La pensée stratégique française contemporaine » (Economica).

Philippe Wodka-Gallien est membre de l’Institut français d’analyse stratégique (Ifas) et auteur du livre «  La dissuasion nucléaire française en action – Dictionnaire d’un récit national  » (Ed. Decoopman).




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol