Archive pour la Catégorie 'sciences'

Ce concept de réseau qui fait société

Ce concept de réseau qui fait société

 

Histoire d’une notion : le réseau, ce filet qui nous relie

Il est ce qui retient et laisse passer, ce qui enserre le solide et connecte les flux. Ce concept, dont la riche symbolique s’enracine dans l’Antiquité, s’est étendu jusqu’à désigner toutes les infrastructures de nos sociétés industrielles et numériques.

Par Youness Bousenna dans le « Monde »

 

Histoire d’une notion.

 

L’humanité vit dans une grande toile d’araignée. En choisissant d’appeler « World Wide Web » leur système de navigation par lien hypertexte, les scientifiques du CERN Tim Berners-Lee et Robert Cailliau ont fourni la métaphore évocatrice d’une société que leur technologie s’apprêtait à modeler. Car la « toile d’araignée mondiale » allait, au sein d’Internet, devenir l’ultra-réseau d’une époque déjà tissée par d’innombrables infrastructures définies par cette notion. Des transports à l’énergie, des télécommunications à l’informatique, tout est réseau dans nos sociétés contemporaines… Jusqu’aux relations humaines : dans le sillage des Facebook et LinkedIn, les entourages amicaux comme professionnels ont eux aussi fini par devenir des « réseaux ».

Cette omniprésence du réseau contribue paradoxalement à rendre la notion fuyante, puisque le terme renvoie autant à un concept qu’à un imaginaire et une technologie. Au sens générique, le réseau s’apparente à « une structure d’interconnexion instable composée d’éléments en interaction » dont la variabilité obéit à une « norme régulatrice », esquisse le philosophe Pierre Musso dans son récent L’Imaginaire du réseau (Manucius, 66 pages, 5 euros). Mais la meilleure expression du réseau reste une image, plutôt qu’une définition : celle de lignes formant des nœuds à leurs intersections, dont le maillage signale les riches significations ensevelies par l’usage profus qu’en fera la société industrielle. Son étymologie latine le rattache au filet (retis), lui offrant une symbolique puissante – dans la mythologie antique, le filage est relié au temps et au destin – chargeant le réseau d’une ambivalence intrinsèque.

« Là où se fait le tissu, se nouent les contraires : le lieu et le lien, l’immobile et le mouvement, le point et le cercle », relève Pierre Musso. Le réseau est donc tout à la fois ce qui retient et laisse passer, ce qui enserre le solide et connecte les flux. Le mot entre dans notre langue après avoir connu plusieurs formes : en 1180, Marie de France parle de « resel » pour désigner un petit filet ; soixante ans plus tard, le poète Guillaume de Lorris utilise « roisiau » dans un sens figuré ; vers 1330, le Roman de Renart le contrefait écrit enfin « réseau » dans sa graphie actuelle. Mais sa signification moderne n’adviendra que par la fusion de deux évolutions parallèles de la notion. Elle va d’abord être reconfigurée par le développement de la cristallographie (l’étude des cristaux) et de l’ingénierie militaire, qui contribueront à lui donner une acception spatiale.

Crise démocratique française : La même qu’en Afrique ?

 Crise démocratique française : La même qu’en Afrique ?

Pour le journaliste béninois Francis Laloupo, « nous sommes entrés dans le cycle des revanches ».( « Le Monde »)

L’euphorie qui a accompagné les transitions démocratiques en Afrique a vécu. La mauvaise gouvernance, les crises économiques, les coups d’Etat militaires et constitutionnels ont mis à mal les fragiles édifices politiques nés il y a trente ans dans la foulée des conférences nationales. Sur le continent comme en Occident, les populismes prospèrent.

Mais, souligne Francis Laloupo, journaliste béninois, enseignant et auteur de Blues démocratique, Afrique 1990-2020 (éd. Karthala), ce malaise se nourrit aussi des crises qui touchent les vieilles démocraties. Un phénomène d’autant plus prégnant que les autocraties russes et chinoises ont, dans leurs échanges avec l’Afrique, également exporté leur modèle politique.

Pour la troisième fois en vingt ans, l’extrême droite se retrouve au second tour de l’élection présidentielle en France. Comment cette montée en puissance est-elle perçue en Afrique francophone ?

Francis Laloupo Les démocraties africaines émergentes ne peuvent que constater la fragilité des démocraties anciennes. La prise du Capitole par les partisans de Donald Trump en a été un bon exemple. La présence de Marine Le Pen au deuxième tour en est un autre. Mais, si le processus n’est jamais complètement achevé, la démocratie a montré qu’elle était aussi un système capable de dépasser les épreuves. Aux Etats-Unis comme en Europe, elle tient malgré les assauts des partis d’extrême droite. Les gens continuent de voter même si l’abstention reste forte.

Néanmoins, cette flambée populiste qui balaie le monde, des Etats-Unis au Brésil en passant par l’Europe, résonne aussi en Afrique. On s’inquiète pour les diasporas confrontées aux discours racistes, en France notamment. Mais il y a aussi, sur le continent, une fascination trouble à l’égard des discours d’extrême droite qui a tendance à renforcer les populismes émergents. On peut se dire que, puisque les Français se défendent contre l’étranger, nous, Africains, sommes également fondés à le faire, en particulier contre la France. Nous sommes entrés dans le cycle des revanches. Le repli sur soi que promeuvent les lepénistes et des zemmouriens légitiment le positionnement nationaliste des autorités maliennes actuelles et leur discours anti-français.

Sanctionner la Russie mais pas les Russes ?

Sanctionner la Russie mais pas les Russes ?

Une réflexion d’ensemble s’impose sur le thème des sanctions scientifiques, non seulement pour ménager, à l’avenir, des espaces de collaboration avec la Russie, mais aussi pour anticiper d’autres crises possibles, notamment avec la Chine, affirment, dans une tribune au « Monde », la politiste Stéphanie Balme et le physicien Pierre Lemonde.

 

Un article intéressant mais qui pose les difficultés de sanctionner un pays en épargnant la science. Autrement dit comment sanctionner la Russie mais pas les Russes, demain la Chine mais pas les chinois NDLR

 

Tribune. 

 Depuis l’invasion de l’Ukraine, un train de sanctions scientifiques historique par son ampleur s’est abattu sur la Russie de Vladimir Poutine. Normalement centrée sur des actions de coopération, la diplomatie scientifique doit aujourd’hui se réinventer face à la guerre. Les sanctions mettent en avant la volonté de promouvoir une « Europe-puissance » démocratique en matière de science et d’enseignement supérieur, ce que reflète la « Déclaration de Marseille relative à la coopération internationale en matière de recherche et d’innovation », publiée le 9 mars à la suite de la conférence des ministres de l’Union européenne.

Dès le 25 février, une pétition de chercheurs et de journalistes scientifiques russes s’opposant à la guerre avait recueilli des centaines de signatures, devenues par la suite des milliers, dont celles de membres éminents de l’Académie des sciences de Russie. Constatant que la Russie s’était « condamnée à l’isolement sur la scène internationale », ce texte ajoutait : « Cela signifie que nous, les chercheurs, ne pourrons désormais plus faire nos recherches normalement, tant il est vrai que l’avancement des recherches scientifiques est impensable sans coopération approfondie avec les collègues des autres pays. »

Le 28 février, un texte du Conseil des jeunes scientifiques ukrainiens réclamait l’arrêt immédiat de toute coopération académique avec la Russie.

Cet appel a été suivi, chronologiquement, par l’Alliance des organisations scientifiques allemandes puis par l’Union européenne et de nombreux pays de l’Organisation de coopération et de développement économiques (OCDE) sous la forme d’un gel de nouvelles collaborations institutionnelles, du boycott d’événements scientifiques internationaux et de la mise en place de dispositifs d’accueil unifiés pour les étudiants comme pour les réfugiés scientifiques ukrainiens (et parfois russes).

Le Massachusetts Institute of Technology (MIT) a aussi annoncé mettre fin à onze ans de coopération avec Skoltech, un institut de recherche privé basé à Moscou qui formait jusque-là la fine fleur de la jeune tech russe. De même, la conférence quadriennale de l’Union mathématique internationale, responsable de l’attribution de la médaille Fields et qui devait se réunir en juillet à Saint-Pétersbourg, se tiendra finalement en ligne et sans les cerveaux russes.

Le 9 avril, à la suite des révélations des atrocités perpétrées contre les civils ukrainiens, notamment à Boutcha et à Marioupol, l’Europe a décrété l’arrêt de la participation de tous les organismes publics russes à ses programmes-phares de financements de la recherche et de la mobilité que sont Horizon Europe, Euratom et Erasmus+. Seule la Chine, parmi les dix principaux pays scientifiques collaborateurs de la Fédération de Russie, a choisi de maintenir ses collaborations.

 

Sciences: nouvelles cathédrales ?

Sciences: nouvelles  cathédrales ?

Dans une tribune au « Monde »,  Stéphane Van Damme , (Professeur d’histoire des sciences à l’Ecole normale supérieure (Paris), retrace l’évolution des infrastructures de recherche, jadis promesses de modernisation infinie, aujourd’hui outils incontournables d’une géopolitique de la science.

Un hymne à la science internationale, nouvelles cathédrales,  un peu coloré de corporatisme NDLR

Tribune  

Dans quelles mesures les infrastructures scientifiques sont-elles un des piliers de la politique de recherche ? A l’occasion du 20e anniversaire du Forum stratégique européen sur les infrastructures de recherche (Esfri), un colloque organisé à l’Académie des sciences, à Paris, le 25 mars, a rappelé les réalisations concrètes de la recherche européenne dans ce domaine, du synchrotron de l’ESRF à Grenoble utilisé en archéologie et en paléontologie à la spectroscopie de la source de spallation européenne (ESS) en construction à Lund (Suède), en passant par l’European Social Survey en sciences sociales.

Cet anniversaire nous invite à revenir sur le champ des infrastructure studies qui s’est affirmé depuis la fin des années 1990. On doit à Geoffrey C. Bowker et Susan Leigh Star d’avoir reconceptualisé la notion d’infrastructure pour montrer qu’elle recoupe aussi bien des réalités physiques et matérielles comme des équipements, des instruments que des concepts et des normes qui visent à classer et hiérarchiser les flux d’informations. En insistant sur les pratiques de coopération et de coordination de l’activité scientifique, les infrastructures matérialisent une dimension relationnelle des sciences.

Certes, la notion d’infrastructure n’est pas nouvelle puisqu’elle apparaît dans le vocabulaire scientifique de l’ingénieur comme dans le lexique philosophique avec Marx dès le XIXe siècle. Au XXe siècle, elle sera associée aux champs de l’économie et de la planification. Elle est souvent considérée comme impure, partagée entre le monde de la recherche et le monde des décideurs publics et du management.

Pour les historiens des sciences, les infrastructures posent une double difficulté : elles sont célébrées dans des grands discours qui lissent les difficultés à imposer ces projets, les anomalies, voire les défaillances ; elles sont le plus souvent perçues comme invisibles dans le temps ordinaire de la recherche. Sociologues et historiens ont ainsi bien mis en évidence ce paradoxe des infrastructures oscillant entre l’imaginaire du « sublime » et de la grandeur et les représentations d’infrastructures en ruine.

Dans les années 2000, le terme « infrastructure » va resurgir de manière massive dans le vocabulaire étatique, accolé aux adjectifs « vitale » ou « critique »

Sur une perspective longue, ces études opposent l’émergence, dans le sillage de la révolution scientifique, d’une révolution de l’organisation des sciences à l’absence d’une logique toujours fonctionnelle qui présidait à leur création. C’est l’époque où se multiplient aussi les petites technologies intellectuelles qu’ont en commun les sciences et les premières bureaucraties : des fiches de papier aux listes. Des grandes cathédrales des sciences du XIXe siècle aux équipements géants de la big science des années 1950, elles sont désormais associées à une nouvelle économie de la promesse, indicateurs de prospérité et d’efficacité. C’est le moment d’émergence des grands systèmes techniques qui annoncent une modernisation infinie.

 

L’incompatibilité entre science et démocratie ?

L’incompatibilité entre  science et démocratie ?

 

L’ancien délégué interministériel au ­développement durable Christian Brodhag plaide, dans une tribune au « Monde », en faveur d’institutions associant les citoyens à la construction de politiques basées sur une connaissance scientifique acceptée.

 

Tribune.

 

 L’offre politique et le débat de la campagne présidentielle semblent, pour l’instant, se réduire à un marketing politique qui conduit les candidats à formuler des propositions visant spécifiquement chacun des segments de la population.

Or, la somme des intérêts particuliers n’est pas l’intérêt collectif. Faire société dépasse les échelles catégorielle et individuelle. En société, la liberté individuelle repose aussi sur des règles collectives et des institutions qui organisent les droits et les devoirs des citoyens. Faire société au niveau de la nation repose sur la confiance dans les institutions et sur l’usage de règles collectives acceptées.

Le débat sur les institutions est aujourd’hui dominé, au mieux, par des revendications de participation plus démocratique, au pire par la dévalorisation des élus et de la démocratie représentative elle-même. L’insoumission et la contestation du « système » rallient les électeurs vers les partis extrêmes.

L’économiste et sociologue allemand Max Weber (1864-1920) distinguait, il y a un siècle, trois sources de légitimité : deux modèles archaïques, les pouvoirs traditionnel et charismatique, remplacés historiquement par le modèle rationnel légal, qui appuie l’élaboration du droit sur les institutions sociales et politiques.

Or, les deux modèles archaïques reviennent en force. Le pouvoir traditionnel prend aujourd’hui la forme de revendications religieuses solidement installées dans les Etats religieux. Le pouvoir charismatique prend la forme de leaders tribuniciens en prise directe avec le peuple, via notamment les réseaux sociaux. Les « démocratures » tiennent lieu de modèles alternatifs, au niveau mondial.

En s’incarnant dans la bureaucratie et la technocratie, le modèle « rationnel légal » n’a pas tenu ses promesses. En s’éloignant du peuple, il a perdu sa légitimité. L’Etat n’est plus ce Léviathan qui possède et contrôle toutes les informations. L’information et les connaissances sont désormais partagées. Le numérique et les réseaux sociaux contribuent à la décrédibilisation des institutions, et même de la réalité au profit de vérités alternatives.

Il est donc aujourd’hui nécessaire d’actualiser et de dépasser le modèle rationnel légal, si l’on veut sauver la démocratie. Les transitions écologique et numérique sont des défis nouveaux pour les institutions et les règles sociales, parce qu’elles les transforment en profondeur. En effet, elles ne touchent pas directement les règles elles-mêmes, mais les connaissances qui fondent ces règles, et celles qui orientent les comportements des acteurs et des institutions.

Pour une diplomatie énergétique européenne

Pour une diplomatie énergétique européenne 

 

Le spécialiste de l’énergie Michel Derdevet dessine une Europe de l’énergie plus résiliente, ce qui passe par le choix du nucléaire, des énergies renouvelables et un rapprochement avec la Turquie.

 

Tribune.

 L’invasion de l’Ukraine par la Russie et la guerre durable qui s’installe au cœur de l’Europe nous rappellent à quel point l’énergie a toujours façonné la géopolitique, déterminé les grandes puissances et souvent l’issue des conflits.

Tous les ordres internationaux de l’histoire moderne ont été fondés sur une ressource énergétique : au XIXe siècle, le charbon a été la toile de fond de l’Empire britannique ; le pétrole fut au cœur du « siècle américain » ; et Vladimir Poutine, depuis vingt ans, a fait de l’énergie un instrument politique majeur, à la fois pour redorer son blason national (grande campagne d’électrification, etc.), et pour affirmer sa puissance régionale et devenir incontournable sur l’échiquier énergétique mondial.

La Russie dispose ainsi, aujourd’hui, d’une capacité de transit théorique de plus de 250 milliards de mètres cubes de gaz par an vers l’Europe, qui correspond à plus de la moitié de la consommation annuelle de gaz du Vieux Continent (450 milliards de mètres cubes).

Certes, tous les pays n’ont pas la même dépendance au gaz russe. Dans plusieurs Etats membres de l’Union européenne (UE), l’essentiel, voire la totalité, des importations de gaz naturel provient de Russie. C’est le cas de la Lettonie (100 %), de la Finlande (97,6 %), ou encore de la Hongrie (95 %). C’est également le cas de l’Allemagne, qui dépend à 66 % de la Russie pour sa consommation de gaz naturel et qui est le premier importateur de l’UE.

La France, quant à elle, a un approvisionnement plus diversifié. Nous nous fournissons essentiellement auprès de la Norvège (36 %), la Russie n’arrivant qu’en deuxième position (17 %), devant l’Algérie (8 %).

Que conclure de tout cela ? Cinq réflexions s’imposent à ce stade.

D’abord, cette dépendance énergétique vis-à-vis de la Russie s’est forgée à cause de nous ! Tel l’agneau endormi, l’Europe a fait preuve d’une « myopie » coupable depuis les trois crises gazières des hivers 2005 à 2008, qui pourtant étaient prémonitoires.

Déjà, Vladimir Poutine avait mis la pression sur Kiev, et sur les Occidentaux, pour livrer en gaz aux coûts qu’il souhaitait les Européens de l’Ouest. La voie de la raison aurait dû nous conduire, dès lors, à diversifier nos approvisionnements gaziers, en parachevant par exemple le gazoduc Nabucco, corridor sud-européen contournant la Russie, imaginé par la Commission, plutôt que de se livrer corps et âme dans les bras des intérêts russes, en investissant dans Nord Stream 2. Les intérêts financiers l’ont incontestablement emporté sur le minimum de prudence politique et la protection des intérêts souverains de l’Union.

 

Économistes : Des comptables, des notaires ou des scientifiques ?

Économistes : Des comptables, des notaires ou des scientifiques ?

 

Les économistes manquent cruellement de culture et de vision généraliste affirme  Robert Boyer, qui fait figure de référence scientifique en France  ( voir article).

 

Robert Boyer fait une analyse sans concession des insuffisances scientifiques des économistes, de leur manque de culture et de leur manque de vision

 

Le problème sans doute de départ, c’est que l’idéologie dominante imprègne la grande majorité des économistes à peu près tous convaincus des vertus du capitalisme, de l’économie de marché et d’une démocratie ratatinée.

Concernant les vertus du capitalisme, ils n’ont pas de peine à démontrer l’impuissance et les gabegies  d’un État de technocrates peu formés à la gestion et aux réalités socio-économiques.

L’économie de marché et sans doute le principe de régulation entre l’offre et la demande qui est le moins contesté dans le monde y compris en Chine. Le problème, c’est que l’économie de marché ne serait être une doctrine pour la régulation de toutes les activités humaines. Elle est sans doute la plus efficace, en tout cas la moins critiquable des modes de régulation, pour les activités ne relevant pas des responsabilités régaliennes qui mettent en cause l’intérêt général.

Enfin la plupart des économistes montrent leur faveur pour une gestion élitiste tant en matière politique qu’économique voire sociale.

D’une certaine manière, compte tenu de leur formation aussi de leur rapport avec les sphères du pouvoir, les économistes se comportent davantage en comptable, en notaire qu’en visionnaire.

Pour preuve , l’activité de recherche prospective a été longtemps contestée comme discipline scientifique.

Pour se rassurer par rapport à leur formation et à leurs convictions, la plupart des économistes se contentent en fait d’enregistrer les faits quantifiables. Un peu comme le ferait un comptable. L’exercice est sans doute incontournable mais sa faiblesse réside dans le fait que tout ne peut être quantifié et ne peut rendre compte d’une réalité plus large et plus complexe. Et pour le plus long terme, ils se contentent de prolonger les tendances.

La plupart des économistes analysent -surtout par prudence -le passé pour ne pas s’aventurer sur le terrain dangereux de l’avenir.

En plus comme  il se bornent a  enregistrer des faits incontestables mais factuels qui ne sont guère éclairants sur le futur  ( les statistiques sont toujours en retard) .

Enfin et surtout beaucoup de ses économistes se sont spécialisés dans des disciplines particulières qui s’isolent plus en plus et ne prennent pas en compte l’organisation de plus en plus complexe et systémique de notre économie et plus largement de notre société.

Du coup,  les avis des économistes ne sont pas toujours très éclairants loin s’en faut et la discipline mériterait un élargissement des formations, des compétences et des champs d’intérêts articulant mieux les problématiques économiques, technologiques, sociales et environnementales.

Les économistes :un déficit cruel de culture et de vision généraliste ( Robert Boyer, économiste)

Les économistes :un déficit cruel de culture et de vision généraliste ( Robert Boyer, économiste)

L’économiste Robert Boyer pointe dans son dernier ouvrage « Une discipline sans réflexivité peut-elle être une science ? Epistémologie de l’économie » (Ed. La Sorbonne) les nombreuses failles de la science économique dominante à expliquer les grande crises économique et sanitaire récentes. Figure de l’école de la régulation en France avec l’économiste Michel Aglietta, l’économiste Robert Boyer  plaide pour la création d’agora géante qui pourrait « être le terreau d’une bifurcation de la discipline économique, en particulier de sa réinsertion tant dans les sciences de la nature que dans celles de la société ».

Robert Boyer est une figure de l’école de la régulation en France avec l’économiste Michel Aglietta. Anciennement directeur de recherche au CNRS et directeur d’études à l’EHESS, ce polytechnicien collabore à l’institut des Amériques et anime l’association Recherche et régulation. 

LA TRIBUNE- Pourquoi avez-vous décidé de vous attaquer à ce sujet dans votre dernier ouvrage ?

ROBERT BOYER- J’ai commencé à travailler comme économiste en 1967. A cette époque, je pensais qu’une discipline économique était en voie de constitution et j’espérais y participer. Elle était rigoureuse et permettait d’éclairer de façon assez précise les choix de politique économique. Rétrospectivement le keynésianisme était en effet relativement adapté à la prise en compte des compromis sociaux de l’après Seconde guerre mondiale. Ce n’est plus le cas lorsqu’apparait en 1973 le phénomène de la stagflation, soit une forte inflation malgré la chute de l’activité économique. C’était l’indice de l’entrée dans une nouvelle époque du capitalisme, hypothèse fondatrice de la théorie de la régulation, que je n’ai cessé depuis lors de travailler. De son côté la majorité des économistes a interprété cet échec comme la conséquence directe de l’absence de bases microéconomiques de la théorie générale de Keynes.

S’est imposée l’idée qu’il fallait refonder la macroéconomie sur la microéconomie. Ce n’était pas forcément une mauvaise idée, mais très vite plusieurs problèmes ont surgi tel le recours à la notion d’agent représentatif, d’anticipations rationnelles, d’équilibre structurellement stable, autant d’hypothèses intenables. Ce programme qui était au début scientifique a été utilisé, au fil du temps, comme justification des stratégies de déréglementation et de libéralisation. Pendant 30 ans, la macroéconomie s’est enfoncée dans l’exploration de prémices totalement faux. Les Etats-Unis étaient réduits à un ensemble de producteurs et de consommateurs, sans prise en compte aucune du rôle des banques, des marchés financiers, et de toutes les organisations et institutions encadrant l’activité économique.

J’ai vu avec étonnement la discipline évoluer et perdre beaucoup de sa pertinence. Pour cerner les raisons de cette dérive, je l’ai resituée par rapport à l’histoire des grands courants de la pensée. Au fil des décennies, j’ai accumulé suffisamment de matériaux pour montrer que la profession d’économiste a beaucoup changé. A grands traits elle est animée par de virtuoses techniciens qui rendent des services aux acteurs mais de moins en moins par de grands économistes dont la visée serait d’analyser les enjeux du monde contemporain. La crise de la macroéconomie est beaucoup plus profonde que l’on ne pense. Le livre soutient que ce sont les bases de la discipline qui sont en cause et non pas quelques erreurs mineures. La crise de 2008 a fait éclater au grand jour la crise de cette nouvelle macroéconomie classique.

Vous affirmez que l’institutionnalisation de la profession d’économiste a conduit à produire des spécialistes de la modélisation mais peu de chercheurs capables de conceptualiser les bases de la discipline. Que voulez-vous dire par là ?

R.B- Dans les années 30, les Etats-Unis comptaient quelques milliers d’économistes. Aujourd’hui, ce pays en recense des centaines de milliers. A l’époque, de grands économistes, de Joseph Schumpeter à Frederick von Hayek, dialoguaient entre eux dans la recherche d’explications à la crise de 1929. C’est l’éclatement du métier qui prévaut : certains sont économistes de banque, d’autres sont économètres, d’autres encore travaillent dans des think tank visant à influencer la politique des gouvernements. Le métier s’est considérablement diversifié en une myriade d’approches, de techniques appliquées aux différents secteurs de l’économie. On note aussi un éclatement des demandes à l’égard des économistes. Leur spécialisation est tellement poussée qu’elle débouche sur une anomie de la division du travail, telle que conceptualisée par le sociologue Emile Durkheim. Sur une même question – par exemple les marchés financiers sont-ils efficients ? – les diverses branches de la discipline livrent des réponses contradictoires.

La structuration du champ académique (hiérarchie des revues, modalités de recrutement des enseignants) crée un système formant essentiellement des techniciens affirmez-vous. Comment faire pour accorder plus de reconnaissance aux intellectuels en économie ?

R.B- On peut distinguer trois phases dans la structuration du champ académique. La première avait pour projet de fonder la discipline sur la théorie de l’équilibre général. Les chercheurs allaient pouvoir produire une formalisation d’une économie de marché justifiant l’image de la main invisible d’Adam Smith, à savoir la possibilité et l’optimalité d’une économie décentralisée où chacun ne poursuit que son intérêt. En fait les mathématiciens finissent par conclure que ce n’est le cas que sous des hypothèses très restrictives, non satisfaites dans les économies contemporaines du fait de l’existence du crédit, de rendements d’échelle, de pouvoir de monopole. Ainsi loin d’être un fait scientifique, la main invisible devient une croyance.

Une deuxième phase enregistre une succession de modélisations macroéconomiques qui entendent remplacer celles inspirées par Keynes. C’est d’abord la théorie monétariste de Milton Friedman qui s’impose comme explicative de l’inflation. Mais elle périclite lorsque se multiplient les innovations qui assurent la liquidité de nombreux actifs financiers, puis quand l’aisance monétaire ne débouche pas sur une accélération de l’inflation, mesurée par les prix à la consommation. Ce sont ensuite des modèles qui modernisent la théorie classique sous l’hypothèse d’auto-équilibration des marchés, transitoirement perturbés par des « chocs » réels ou monétaires. Les Banques Centrales usent de ces modèles mais ils montrent leurs limites lors de la crise de 2008.

Aussi dans une troisième étape, passe-t-on des grandes théories à l’économétrie et de l’économétrie à la « métrie », c’est-à-dire l’application des avancées des techniques statistiques à toutes les données disponibles, bien au-delà des phénomènes économiques.

D’un côté, avec les masses de données produites en temps réel par la finance, une nouvelle discipline, fondée sur les mathématiques financières, prend son essor, sans trop se préoccuper des conséquences macroéconomiques des nouveaux instruments qu’elle invente. Avec l’économie de l’information, apparaît ensuite le besoin d’analyser ces données grâce à l’intelligence artificielle.

De l’autre côté, les recherches en macroéconomie sont presque complètement désertées. Rares sont les jeunes et talentueux chercheurs qui osent se lancer dans un domaine aussi difficile. Or, les dernières crises ont fait apparaître le besoin d’une analyse des économies et des relations qu’elles entretiennent dans un système international en crise. Lorsque la crise financière de 2008 éclate, la macroéconomie se rappelle au bon souvenir des gouvernements et des économistes. L’irruption de la pandémie appelle des réponses, en matière de politique monétaire et budgétaire, soit des questions que la microéconomie ne peut traiter.

Vous évoquez notamment une crise de la macroéconomie. Quels sont les facteurs qui ont pu contribuer à affaiblir cette discipline ?

R.B- D’abord trop souvent le chercheur ne distingue pas entre vision, théorie, modèle, mécanisme, alors que ce sont des concepts bien différents. Une série de modèles, au demeurant fragiles dès qu’on les utilise pour prévoir, ne fondent pas une science car ce ne sont souvent que des éclairages partiels ou des aides à la décision. Ensuite chacun a tendance à se focaliser sur un mécanisme parmi beaucoup d’autres or le propre de la macroéconomie est de prendre en compte et d’articuler l’ensemble des mécanismes pertinents. Enfin, la clôture du champ de la macroéconomie sur lui-même lui interdit de reconnaître sa dépendance vis-à-vis du pouvoir politique. Plus encore, son accent sur le court terme n’est guère favorable à la reconnaissance des enjeux que sont devenus l’écologie, les pandémies, l’inégalité tant domestique qu’internationale.

Il est sans doute illusoire d’attendre la venue d’un nouveau Keynes. De nos jours, la formation universitaire des économistes ne livre pas une formation suffisamment généraliste permettant de formuler des questions pertinentes et les éclairer. Keynes considérait que « l’économiste doit posséder une rare combinaison de dons…D’une certaine façon, il doit être mathématicien, historien, homme d’État, philosophe… Aucune partie de la nature de l’homme ou de ses institutions ne devrait être entièrement hors de sa considération. » Bref un grand intellectuel !

Pourquoi les grands courants économiques dominants ont échoué à rendre compte des grandes crises du 20ème siècle et du 21ème siècle ?

R-B- Les macro-économistes ont pris beaucoup de retard par rapport aux considérables transformations du capitalisme. La plupart ont exclu de leurs modèles la possibilité même de crises. Par définition, l’économie perturbée par des chocs externes revient automatiquement vers l’équilibre de long terme. Or tel n’est pas le cas car la nature des processus économiques est beaucoup plus complexe et changeante dans le temps.

Dans un tel contexte d’incertitude sur les mécanismes à l’œuvre, chaque école de pensée tend à privilégier son interprétation. Ainsi les enjeux s’en trouvent simplifiés, ce qui polarise les conseils adressés aux gouvernements. On observe alors une inversion des relations entre le prince et le conseiller. En théorie, le conseiller estime qu’il est porteur de science et le prince pense qu’il trouve ainsi une justification « objective » de sa politique. En pratique, ce dernier va chercher dans les théories économiques en concurrence celles qui lui sont favorables. Par exemple, la nouvelle théorie monétaire américaine vient à point nommé réhabiliter la politique budgétaire face aux limites que rencontrent la Banque Centrale. Cette apparente révolution intellectuelle vient appuyer le fait que la dépense publique doit être à nouveau un outil puissant pour les Etats-Unis.

Pourtant, ils sont encore très écoutés par les élites et le pouvoir. Comment expliquez-vous ce paradoxe ?

R.B- Se reproduit aujourd’hui un phénomène déjà observé à propos des instituts de prévision lors de la fin des trente glorieuses. Plus mauvaise était la qualité de leurs prévisions, plus ils se multipliaient car tour à tour ils avaient raison puis se trompaient. Aucun ne parvenait à percer la grande incertitude liée à un changement d’époque. De nos jours, la même configuration prévaut concernant l’expertise économique : le politique demande d’autant plus d’avis aux économistes qu’il doute de leur expertise ! Il en est de même concernant l’explosion des sondages d’opinion censés éclairer les élections. Comment devrait progresser la connaissance économique ? Par la reconnaissance des erreurs et leur correction, phénomène trop rare. Par ailleurs, il faut savoir avouer que l’on ne sait pas.

La pandémie pourrait-elle permettre de renouveler la vision des économistes dans les pays riches ?

R.B- Les pays riches étaient sûrs que la sophistication de leur système de santé et la vigueur de la recherche pharmaceutique et biologique allaient leur permettre d’éviter le retour des épidémies. Lorsque la Covid-19 est apparue à Wuhan, beaucoup de gouvernements des pays riches pensaient que ce virus allait concerner seulement les pays pauvres. En fait, beaucoup d’Etats ont découvert un bien commun passé jusque-là inaperçu : la sécurité sanitaire mondiale.

Les pays africains qui étaient supposés plus vulnérables ont résisté car leur population était beaucoup plus jeune et les responsables avaient appris des épidémies précédentes, telle Ebola. De même certains Etats asiatiques avaient conservé des stratégies de prévention pour affronter collectivement des nouvelles pandémies. Voilà qui devrait renouveler l’intérêt des économistes pour le rôle parfois déterminant du système de santé : au-delà du contrôle de la croissance des coûts s’impose la prise en considération de sa résilience face à l’imprévu. De même, une série de décisions de court terme peut déboucher sur une crise majeure, comme le montre la situation présente des hôpitaux.

 

Quel(s) rôle(s) les Etats ont-ils pu jouer depuis les dernières crises économiques et sanitaires ?

R.B- Après 2008 et la pandémie, l’Etat est redevenu le maître des horloges. Il socialise les anticipations, ce qui permet aux acteurs de se repérer face à une incertitude qui leur échappe. C’est à l’Etat de fixer le cap en matière de stratégie sanitaire. La pandémie a également rappelé que la monnaie est créée en fonction des besoins de la société. La Banque Centrale Européenne a pu refinancer sur le marché secondaire les dettes publiques associées au Covid-19 et non plus seulement des crédits privés.

Le déficit public est redevenu un outil essentiel pour passer les périodes difficiles. Certains voulaient interdire dans la constitution tout déficit public. On a redécouvert que la solidarité nationale s’exprime grâce à l’Etat. Les années Covid-19 resteront comme une grande césure dans l’histoire. Il est peu probable que l’on retourne vers un passé marqué par de nombreux problèmes structurels non résolus.

Quelles sont les leçons de la crise sanitaire en matière d’inégalités ?

R.B- Sur le plan des inégalités, la pandémie a rappelé qu’au sein des sociétés la privation de l’accès aux services publics, aux hôpitaux, aux médecins accentue les disparités entre les riches et les pauvres. Les plus précaires obligés de travailler habitent dans des zones bien moins desservies sur le plan médical. On redécouvre des inégalités dans le pronostic vital et l’espérance de vie. La pandémie a reformulé la question à partir de la capacité des personnes à mener une vie en bonne santé.

Le système de santé, miné par la volonté de réduire les coûts, a tenu grâce aux initiatives et au dévouement du personnel, situation qui n’est pas tenable à long terme. La médecine de ville et les hôpitaux publics et privés n’ont pas été réorganisés. En 2000, la France avait le meilleur système de santé d’après l’OMS. Il a dégringolé depuis et est devenu inégalitaire et inefficient.

Sur le plan international, la pandémie risque de laisser des traces durables dans nombre de pays pauvres. L’illettrisme dans les pays pauvres s’y est développé, ce qui augure mal des possibilités de développement humain et économique. Dans tous les pays, la pandémie a attisé les tensions sociales.

Les institutions internationales ont-elles joué leur rôle ces dernières années ?

R.B- L’organisation mondiale du commerce (OMC) est bloquée et le FMI n’apparaît qu’au moment des crises les plus graves, comme c’est encore le cas en Argentine. Sur le front international, font défaut les institutions nécessaires. Il faudrait créer une agence pour le climat qui soit aussi forte que le FMI ou la Banque mondiale à une certaine époque. Un institut international de la migration ne serait pas inutile car avec le changement climatique, les vagues migratoires pourraient être considérables.

Enfin, l’organisation mondiale de la santé (OMS) devrait avoir le pouvoir d’organiser la sécurité sanitaire mondiale mais aussi de piloter l’innovation médicale pour répondre par des dispositifs de prévention à des pandémies. Ce avec un budget conséquent et des moyens pour vacciner à l’échelle mondiale. Les institutions de Brettons Woods ont vieilli et de nouvelles peinent à émerger. La crise va durer en fonction de l’incapacité à engendrer ces institutions. Nous vivons donc une période charnière et historique mais lourde de risques.

Dans votre ouvrage, Les capitalismes à l’épreuve de la pandémie, vous avez travaillé sur plusieurs scénarios de sortie de crise. Plus de deux années après le début de la pandémie, sur quel type de capitalisme cette crise pourrait-elle déboucher ?

R.B- Nous avons échappé au scénario de la dystopie d’un repliement nationaliste général, qui serait intervenu avec une seconde victoire de Donald Trump. Joe Biden a provisoirement enrayé ce scénario. Cette crise a cependant révélé un très grand retard dans la coopération internationale. On enregistre certes quelques avancées sur la fiscalité des multinationales, ou encore l’initiative COVAX pour les vaccins. L’Europe a pour la première fois émis des titres de dette européens. Un pas a été franchi mais d’autres seront nécessaires. Prise entre les Etats-Unis et la Russie, l’Europe est un partenaire sans grand pouvoir géopolitique. Dans la crise de l’Ukraine, le multilatéralisme est loin de s’affirmer. L’économie mondiale est à nouveau proche de conflits ouverts impliquant les Etats-Unis, la Chine et la Russie.

La crise de 2008 et la pandémie ont révélé beaucoup de structures cachées. La finance était aux yeux de beaucoup un facteur de stabilisation. Ce n’était pas le cas puisqu’elle peut durablement enrayer la croissance de certains pays, ce dont l’Argentine donne un cruel exemple. Le monde a-t-il raison de continuer la financiarisation ?

La mondialisation a été beaucoup critiquée ces dernières décennies. Dans quelle direction la globalisation pourrait-elle évoluer dans les prochaines années ?

R.B- La globalisation a certes permis à la Chine de se développer mais elle a induit beaucoup de problèmes qui ne sont pas résolus. La mondialisation a été heureuse pour quelques-uns et moins bonne pour beaucoup d’autres. La pandémie a redistribué la carte du monde, en accélérant le déplacement de son centre de gravité en direction de l’Asie. Partout les failles de la globalisation ont favorisé le retour du principe de souveraineté nationale qui est aussi une menace pour l’Union Européenne qui se trouve sans doute à la croisée des chemins.

Nous vivons une période charnière. Les Etats-Unis attendaient l’effondrement de la Chine, à l’image de celle de l’URSS. Or la Chine ne va pas rejoindre l’idéal occidental. Elle vient de signer le plus grand traité régional de libre-échange sur la planète. L’Europe ne peut plus affirmer qu’elle est la plus vaste zone de libre-échange. Taïwan, la Corée du Sud et d’autres pays du Sud ont réussi à bien mieux s’en sortir que d’autres pays. Le monde a changé mais l’Europe est à la traîne.

Quel regard portez-vous sur la polarisation à l’intérieur des sociétés ?

R.B- Dans beaucoup de pays, deux fractions de la société aux conceptions opposées s’affrontent sur toutes les questions : l’ouverture à l’international, l’immigration, l’organisation des services collectifs ou encore la fiscalité. Le Brexit est à ce titre emblématique car il a mis en exergue la profondeur de cette division. Les différents sondages et enquêtes ont montré que les ruraux, peu diplômés et âgés ont voté en faveur du Brexit. A l’inverse, les jeunes urbains diplômés ont voté pour l’Europe. Les gouvernements doivent faire face à de redoutables difficultés d’intermédiation car ils ne peuvent trouver une solution médiane tant les attentes sont contradictoires.

Auparavant, les Etats compensaient les perdants par des transferts monétaires. Comme cette solution traditionnelle est inopérante car le conflit porte sur les valeurs, les gouvernements sont tentés par l’autoritarisme. La démocratie représentative est en crise, ce qui appelle une refondation. Dans beaucoup de pays, la polarisation s’avère insurmontable. Ainsi Joe Biden s’est retrouvé coincé entre la gauche des démocrates et les trumpistes du parti républicain qui entendent gagner les élections de mi-mandat. Alors même que son expérience de négociateur est reconnue, les marges de manœuvre se sont vite rétrécies, car il y a peu de compromis possibles. La question de la reconstruction du lien social est posée et les solutions sont à trouver

Science et humanité: la place de l’homme face à l’intelligence artificielle (Eric Salobir)

Science et humanité: la  place  de l’homme face à l’intelligence artificielle (Eric Salobir)

(Cet article est issu de T La Revue de La Tribune – N°7 Décembre 2021)

 

Eric Salobir est président de Human Technology Foundation

Depuis quelques années, les observateurs remarquent une défiance accrue de la société civile vis-à-vis du progrès ; une certaine crainte même envers la science et les nouvelles technologies. Comment expliquer que nous en sommes arrivés là ?

Éric Salobir Ce dont on a peur, c’est de la nouveauté quand elle est disruptive, c’est-à-dire quand elle n’est pas incrémentale et que l’on voit doucement s’améliorer les choses. Or nous sommes en train de vivre un point de bascule. Depuis 20 ans, avec l’arrivée du numérique, de l’Internet et maintenant de l’intelligence artificielle, nous faisons face à ce qui est de l’ordre d’une révolution. Selon le World Economic Forum, cette phase de notre histoire s’apparente à une quatrième révolution industrielle. Selon moi, il s’agit avant tout d’une révolution épistémologique, j’entends par là que ce qui a profondément changé c’est notre rapport à la connaissance et notre rapport au monde. Cette révolution nous fait perdre et gagner des choses tout à la fois. Or, comme bien souvent, on voit vite ce que l’on perd mais pas tout de suite ce que l’on gagne. Nous sommes à une pliure de l’histoire. Tout se passe de l’autre côté du versant qui n’est pas forcément vu par tous. C’est ce voile qui est facteur d’inquiétude pour beaucoup de gens. Cela dit, je me souviens d’une très belle conversation que j’ai eue avec Michel Serres quelques mois avant son décès ; il était beaucoup plus optimiste que moi qui le suis pourtant déjà ! Il m’a rappelé que Socrate était contre l’utilisation de l’écriture car ce dernier était convaincu que la pensée allait être accessible à tout le monde y compris à des gens à qui elle n’était pas destinée et à qui elle ne serait pas expliquée. Pour Socrate, la pensée naît de la rencontre, du dialogue ; à partir du moment où l’on ne peut pas poser de questions, on ne peut pas débattre et donc il n’y a pas de pensée. Aujourd’hui on sait comment l’écriture a contribué au progrès de l’humanité et il est impensable de la remettre en question. Cela a été également le cas avec l’invention des caractères mobiles d’imprimerie qui ont permis de généraliser l’utilisation de l’écrit longtemps réservé aux plus riches. La crainte d’alors était que les textes soient transformés… c’étaient les fake news de l’époque. Mais encore une fois, on s’en est très bien sortis. Le monde s’est transformé. Michel Serres me faisait d’ailleurs remarquer qu’avec la génération de l’écrit, l’homme a beaucoup perdu de ses capacités de mémoire. Les civilisations de l’oral sont des civilisations de la mémoire, qui connaissaient par cœur des récits entiers. Il y avait d’ailleurs une formule latine qui était assez péjorative : « Doctus cum libro », que l’on peut traduire par « est savant quand il a ses livres ». Maintenant c’est « Doctus cum Google ». Tout le monde est savant dès qu’il a accès à des bases de données. Mais ce n’est plus péjoratif.

Surgit peut-être une nouvelle crainte : celle de voir l’humanité régresser intellectuellement, voire même de perdre en intelligence. À force d’être assisté par les outils numériques, l’homme aurait-il tendance à ne plus faire d’effort ? À trop utiliser le GPS par exemple, ne perd-il pas le sens de la lecture d’une carte ? Pour autant cette vision ne suggère-t-elle pas que le côté obscur de ce que l’on perd sans considérer ce que le numérique peut offrir culturellement parlant par exemple ?

É.S. La réponse est double. C’est-à-dire que d’un côté effectivement on perd des choses, il a été prouvé que les personnes utilisant tout le temps le GPS perdent le sens de l’orientation. Donc se repèrent moins bien dans l’espace en trois dimensions. Cela change notre appréhension du monde, c’est vrai. Mais, en même temps, une certaine forme de polychronie est apparue dans notre vie sociale. Nous explorons aujourd’hui des formes d’intelligence collaboratives qui n’existaient pas il y a 50 ans. On est plus multitâches, on travaille plus facilement en réseau, on crée de l’intelligence ensemble.

En revanche, je ne suis pas du tout naïf sur le fait que certains mésusages ou usages abusifs en termes de quantité de certaines technologies, de certains médias, finissent par induire des déséquilibres. Quand le patron d’une grande plateforme de streaming dit « mon concurrent principal c’est le sommeil », c’est extrêmement inquiétant car c’est la santé des personnes qui est en danger. Cela dit, on n’a pas attendu le numérique pour cela. Le président d’une grande chaîne de télévision française affirmait il y a quelques années « vendre du temps de cerveau disponible ». Finalement, le numérique n’est venu qu’à la suite d’un fonctionnement qui existait déjà. Ce que j’observe en revanche, c’est l’accroissement de nouvelles formes de fractures numériques.

C’est-à-dire ?

É.S. Les premières fractures se sont placées entre ceux qui n’avaient pas d’ordinateur ou ne savaient pas s’en servir, ceux qui étaient dans les zones blanches, et les autres. Maintenant la fracture se situe entre ceux qui sont capables de soulever le voile et de comprendre ce qui se passe derrière. C’est là le nouvel enjeu : faire en sorte qu’il n’y ait pas qu’une minorité de gens qui connaissent le fonctionnement des outils digitaux à l’instar des réseaux sociaux. Avoir conscience que les photos de comptes d’influenceurs sont souvent retouchées et donc ne reflètent pas la réalité ; apprendre à recouper l’information, à vérifier les sources. Car pour une immense majorité, l’influence du numérique peut conduire à la déprime et à la manipulation. Est-ce vraiment cela le progrès ? Non, je ne pense pas.

Justement, comment définiriez-vous le progrès ?

É.S. Je suis persuadé que le progrès ne vaut que s’il est partagé par tous. Célèbre allocution d’Aristote reprise comme slogan d’une compagnie de chemin de fer en son temps ! Mais je pense que c’est extrêmement vrai. Cela s’est confirmé notamment avec la pandémie. Il n’y a pas si longtemps, certains mouvements dits transhumanistes encourageaient l’investissement technologique dans l’amélioration significative de la vie d’une petite quantité de gens.

Certains se targuaient même de prendre des pilules à 1 000 dollars en espérant que cela allait rallonger leur vie. Depuis la pandémie, il est clair qu’en termes de santé, ce qui compte de manière essentielle c’est qu’il y ait des lits d’urgence pour tout le monde à l’hôpital quand il y a une épidémie. Cette situation a recentré le débat. En termes d’investissement, on est passé de chercher la pilule qui rendrait les milliardaires immortels à chercher un vaccin qui sauverait toute la planète. C’est un recentrage positif.

Cela dit, la crainte envers les vaccins n’a pas tardé à ressurgir, et cela de manière violente.

É.S. C’est vrai. Cette crainte est l’aboutissement d’une tendance que nous avions vue éclore il y a déjà quelques années. Nous avons d’ailleurs organisé un colloque il y a deux ans dont le but était de recréer la confiance dans les technologies, alors même que les gens de la Silicon Valley apparaissaient encore en couverture des magazines. Nous sentions pourtant qu’une certaine défiance était en train de naître. La vraie question c’est contre quoi et contre qui se tourne cette défiance ? Plusieurs éléments entrent en jeu. D’abord, on confond parfois science et progrès et malheureusement la crise pandémique aura sans doute fait tomber le dernier bastion de la parole qui existait : celui de la parole scientifique. Cela faisait longtemps que le public mettait en doute la parole des politiques, la parole des médias, même la parole des sphères économiques, mais pas la parole scientifique. C’était une parole qui était restée pure. Et ce bastion est tombé lorsqu’on a demandé à des scientifiques de se positionner sur des sujets sur lesquels ils n’avaient pas encore l’information. Est-ce la faute des médias qui les ont poussés à le faire ? Est-ce la faute des scientifiques qui ont cédé à cela ? Et puis, est arrivé le moment où l’on a demandé à tout le monde de parler de tout. Or, en dehors de sa discipline, un expert manque terriblement de discipline justement. Cela a contribué à l’émergence du mouvement antivax, dans lequel beaucoup ne croient plus les scientifiques. La parole des scientifiques semble abîmée.

Il y a là un transfert d’inquiétude. Prenons l’exemple des technologies numériques. Beaucoup accusent les algorithmes des pires maux, comme s’ils étaient capables de penser et d’agir. Mais c’est ce que l’homme fait des algorithmes qui est à remettre en cause, et plus largement la manière dont il utilise toutes ces nouvelles technologies. La défiance ne serait-elle pas à replacer vis-à-vis de l’humain tout simplement ?

É.S. La défiance vis-à-vis des scientifiques c’est une défiance vis-à-vis de l’humain. Et la difficulté avec l’algorithmique notamment c’est justement de savoir ce que l’on fait avec les algorithmes. Je me souviens d’une plateforme de recrutement en ligne qui avait mis en place un algorithme pour sélectionner les CV ; les dirigeants ne voulaient pas que ce soit basé sur un critère de genre mais en même temps il fallait bien mettre des critères et parmi eux il y avait la rapidité de réponse ; or il se trouve que les hommes réagissent souvent beaucoup plus vite que les femmes quand ils reçoivent une annonce car ils y voient une opportunité immédiate et beaucoup d’entre eux se sentent tout à fait confiants pour répondre. Alors qu’une femme va s’interroger sur ses compétences, se demander si le poste est bien pour elle et donc elle ne va pas répondre tout de suite. De fait, ce critère-là a induit indirectement un biais de genre. Heureusement la plateforme s’en est aperçue et ils ont mis en place un algorithme qui vérifie que la sélection comporte un pourcentage de femmes qui correspond à celui du marché. Cet exemple prouve que l’on n’a pas toujours toutes les clés et qu’à partir du moment où l’algorithme est apprenant il y a un risque de biais.

En tout état de cause, ce qu’il faut retenir de cette histoire, c’est que ce sont les humains qui sont en jeu. Dans le cadre d’un recrutement, d’une entrée à l’université, dans le cadre d’un crédit pour acheter une maison, c’est notre vie qui est en jeu et c’est là qu’il faut avoir une prudence particulière. Face à cela, mon but n’est pas de rassurer les gens mais de les aider pour qu’ensemble on éclaire le chemin. Les aider à voir les vrais dangers afin de déboulonner les fausses peurs qui, par essence sont mauvaises conseillères. Ces peurs risquent de freiner certaines populations dans l’adoption des technologiques alors que d’autres ne vont pas se freiner ; ce qui, de fait, va accroître la fracture que j’évoquais. Et l’une des difficultés que l’on voit c’est que cette fracture numérique existe aussi sur le marché du travail. Prenons l’exemple des livreurs, une application leur indique le chemin à utiliser et ils n’ont pas le droit d’en dévier. Au fond, ils travaillent pour une IA. Certaines plateformes de livraison en ligne calculent aussi les temps de pauses, la rapidité des gestes et n’hésitent pas à désigner ceux qui ne sont pas très performants. Et parfois même les remercier.

On est face à l’émergence d’un prolétariat numérique. Il y a ceux qui sont enchaînés à la machine et ceux qui sont remplacés par la machine. Aujourd’hui, il existe des algorithmes qui sont capables d’établir la base de contrats ou de vérifier des comptes. Or avant de devenir expert, que l’on soit comptable ou avocat, il faut passer par la case junior. Si l’algorithme fait le travail à la place d’un débutant, comment allons-nous former des experts chevronnés ? Il faut donc reconnaître que nous avons quelques défis à relever. Notre société va devoir s’adapter et il faut s’assurer que la façon dont elle s’adapte ne met pas en danger l’humain.

Comment faire pour redonner confiance au progrès ? Quelles actions avez-vous mises en œuvre ?

É.S. Human Technology Foundation, que je préside, est née de la rencontre d’un certain nombre de gens qui venaient du secteur privé technologique qui se sont aperçus que les lieux de dialogue fécond étaient quand même assez rares. Et qu’il fallait pouvoir se parler loin de la fureur, des micros, se parler calmement, penser, élaborer des solutions. Je n’ai été qu’un catalyseur de ce réseau, autour des autorités de l’Église catholique, des grandes entreprises mais aussi des start-ups, des universitaires, d’un certain nombre de représentants des régulateurs et de la société civile. Au départ, notre but était de dialoguer. Nous considérions que chacun avait un bout du puzzle, une vision propre. Et si nous voulions une vision à 360° il fallait s’asseoir autour d’une table. Dépassant le cadre d’une éthique conséquentialiste, largement répandue outre-Atlantique, nous tentons une approche plurielle, notamment fondée sur une éthique kantienne : la question n’est pas de savoir si vous ne faites de mal à personne mais de savoir si le principe de votre action est bon. Est-ce que je souhaite que tout le monde fasse ainsi ? Ne pas être néfaste ne suffit plus. Il faut un impact positif. Mais, paradoxalement, on l’atteint mieux en se focalisant non sur les conséquences mais sur les principes. C’est ce questionnement qui bouscule les choses, et qui plaît dans la Silicon Valley. Ce sont l’intention et la raison d’être qui sont questionnées. D’où l’émergence des entreprises à mission. Tout le travail qui a été fait en France avec la Loi Pacte va dans ce sens. Puis, nous nous sommes rendu compte que se parler entre nous n’allait pas suffire. Et qu’il fallait faire des études un peu plus approfondies. Nous avons alors travaillé sur la gouvernance des technologies en situation de crise. En ce moment, nous travaillons sur l’investissement responsable dans la technologie : nous souhaitons donner des métriques pour les investisseurs, des indicateurs extra-financiers pour les aider à vérifier que leurs investissements dans la technologie ont bien un impact positif.

Je suis ainsi partisan de l’autorégulation, car comme le dit l’un de nos partenaires de la Silicon Valley « les bad guys trouveront toujours un moyen de contourner la règle ». Pourtant, je suis aussi persuadé qu’il faut baliser le terrain pour éviter les débordements. Nous voulons donc également accompagner les acteurs des politiques publiques. Ils ont un rôle-clé.

Si la régulation ne suffit pas, que faut-il faire ? Avez-vous mis au point des méthodes spécifiques pour aider à redonner confiance dans le progrès ?

É.S. Il est nécessaire de mettre en place au sein des entreprises une culture de l’éthique, des bonnes pratiques. C’est déterminant. Et pour cela, nous avons créé un certain nombre d’outils. Nous avons par exemple élaboré une méthode d’évaluation éthique des technologies qui permet de vérifier l’impact d’un projet développé par une entreprise. Elle est très utile quand on aborde des technologies sensibles comme celle de la reconnaissance faciale. Cette méthode permet aux entreprises qui veulent bien faire, et il y en a un certain nombre, d’avoir les moyens de vérifier qu’elles font bien. Car l’éthique, en réalité, c’est assez complexe. Si je vous demande : « La reconnaissance faciale c’est bien ou pas bien ? » La question n’a pas de sens : l’identification des terroristes à la volée dans un aéroport, par le scan de tous les visages, n’a rien à voir avec le système d’authentification qui déverrouille votre téléphone. Ce sont deux approches très différentes. Notre méthode aide l’entreprise à se positionner au carrefour entre la technologie, le marché (le public cible qui peut être plus ou moins vulnérable) et le produit ; et l’aider à voir si ce qu’elle fait correspond bien à ses valeurs. Nous avons testé cette méthode au sein du groupe La Poste, qui a élaboré une charte éthique de l’IA et souhaite vérifier que ses projets technologiques sont en accord avec les valeurs exprimées dans ce document. La préoccupation forte était ici de s’assurer de l’adéquation entre les actions et les affirmations. Je trouve cela très sain. C’est une très belle démarche de prendre le temps de réfléchir aux principes que l’on veut appliquer. Et de se doter d’outils pour vérifier que cela ne reste pas lettre morte accrochée à un mur comme une espèce de mantra auquel on se réfère de temps en temps.

En tant qu’homme d’Église, pourquoi avoir choisi de travailler avec les entreprises ?

É.S. En fait, ce ne serait pas respectueux de travailler sur les nouvelles technologies sans dialoguer avec leurs développeurs. J’ai énormément de respect pour les dirigeants d’entreprises qui sont systématiquement stigmatisés quand quelque chose ne va pas mais à qui on ne dira pas forcément merci s’ils développent des process qui fonctionnent bien. Or, c’est un rôle difficile en ce moment. Il n’y a pas si longtemps, il suffisait d’avoir quelques bonnes intentions et de les afficher. Maintenant beaucoup d’entreprises approfondissent leurs projets pour vérifier que tout ce qui est fait, corresponde bien à ce qui est dit ; et ça c’est extrêmement compliqué. J’ai beaucoup de respect pour tous ceux qui innovent et tous ceux qui entreprennent et je pense qu’il faut s’asseoir à leurs côtés pour les aider à prendre la bonne direction. Parfois il faut les éclairer, les pousser du coude et leur dire quand cela pose problème, parfois il faut juste les aider à éclairer le chemin et à trouver des solutions.

Quand le changement de prisme se formalise, ne peut-on pas considérer cela aussi comme une innovation ?

É.S. On fait preuve d’innovation chaque fois que l’on déplace l’angle de vue et là, effectivement, le fait de penser autrement y contribue. Ce qui est une forme d’innovation c’est de penser aussi des nouveaux cadres, je prêche en ce sens. Ce n’est pas seulement d’inventer de nouvelles techniques : il existe aussi une innovation sociale. Par exemple, mettre en place un nouveau cadre pour la valorisation de la donnée en Europe c’est une forme d’innovation sociétale et technologique. Et là où l’innovation devient un progrès c’est effectivement au moment où l’innovation a un impact positif sur le plus grand nombre. C’est un point extrêmement important pour nous. Au sein de la Human Technology Foundation, nous défendons la technologie au service de l’humain. Mais l’humain, cela veut dire « tous les humains » !

Votre confiance en l’humain semble d’ailleurs inébranlable. Pour autant, l’air du temps est particulièrement anxiogène. Avez-vous un regard positif sur l’avenir ? Comment voyez-vous le monde en 2050 ?

É.S. Nous sommes dans une situation de recomposition du monde aussi bien économique que sociétale, avec des nouvelles lignes de fractures, même au niveau militaire où l’on voit l’émergence de nouvelles guerres froides, donc effectivement cette situation est assez anxiogène. Par ailleurs, sur un certain nombre de sujets, nous arrivons à la fin d’un cycle. Je pense que notre démocratie connaît des difficultés. Il existe peut-être un peu le fantasme d’une démocratie directe, où l’on gouvernerait directement par la rue, où l’on se rassemblerait sur les réseaux. Le danger c’est que les fins de cycle passent souvent par des ruptures qui sont plus ou moins violentes. Ce qui m’inquiète c’est qu’elles sont souvent violentes pour les mêmes. Ceux qui sont exposés, qui sont vulnérables.

Les crises que nous traversons et que nous allons traverser – la crise pandémique en est une, la crise climatique sera beaucoup plus importante – vont surtout marquer les plus vulnérables : ceux qui ont le moins de prise sur l’évolution du monde risquent d’en pâtir le plus. La violence de certaines de ces ruptures est inquiétante, on l’a vu avec des contestations très fortes, comme celles des antivax. On voit, en France, un groupe quasiment à l’affût d’une bonne raison de descendre dans la rue. C’est inquiétant.

Ce n’est pas très optimiste…

É.S. Oui, à court terme. Mais, à long terme, je partage la vision de Michel Serres que j’évoquais. L’humain s’est toujours tiré par le haut de toutes les révolutions épistémologiques. Je vous citais les caractères d’imprimerie mais chaque fois qu’une invention a bouleversé le quotidien, la résilience et l’inventivité de l’humain ont toujours pris le dessus. J’ai une grande confiance dans l’humain pour sa capacité à trouver des nouveaux modèles et nouveaux équilibres à moyen et long terme.

Plutôt que de croire au progrès - d’ailleurs peut-on croire au progrès ? On a la foi dans une religion, mais peut-on l’avoir dans le progrès, dans la science ? - aujourd’hui l’enjeu n’est-il pas de retrouver la foi en l’être humain ?

É.S. Un certain nombre de scientifiques vous diront que la foi dans la science existe car lorsque vous êtes scientifique, vous êtes obligé de croire ce que vous disent vos confrères. Car tout le monde ne refait pas toutes les démonstrations. Et d’une discipline à l’autre, les scientifiques s’appuient aussi sur des choses qui ont été découvertes par d’autres dans des domaines qu’ils ne sont pas du tout capables de comprendre. En effet, la foi est liée à la confiance. Et à un moment, il faut avoir confiance. Or, aujourd’hui, la parole scientifique est mise à mal, donc la foi dans la science est mise à mal également. En revanche, l’humain ne se départit pas d’une forme de pensée magique, chamanique presque. Et je pense que cette pensée-là, on l’a quand même beaucoup investie dans des moyens technologiques, c’est un peu le principe du totem.

C’est-à-dire ?

É.S. Je pense aux enceintes connectées. Elles sont un peu à l’image des dieux Lares que l’on plaçait dans l’atrium pour protéger le foyer, dans la Rome antique. Aujourd’hui, elles sont dans la cuisine ou dans le salon, ce sont des petits objets qui sont censés eux aussi protéger le foyer sauf que les dieux Lares étaient des statuettes, et qu’il fallait vraiment y croire. Les auteurs de psaumes se moquaient ainsi des faux dieux : « Ils ont une bouche mais ne parlent pas, ils ont des oreilles mais n’entendent pas ». Mais si vous dites « Alexa, Siri ou Google, commande-moi une pizza », ils le font. Ces enceintes sont connectées au système d’alarme, aux téléphones des enfants et vous envoient un bip pour vous rassurer quand ils rentrent le soir, elles sont connectées au système de chauffage et le baissent si vous oubliez de le couper en partant. Finalement, oui, elles prennent soin du foyer. Et elles fonctionnent un peu sur le principe des dieux car elles sont aussi une porte ouverte sur la connaissance et sur l’extérieur. Quand vous leur posez une question et qu’elles vous répondent, ne peut-on pas les comparer à la voix de la Pythie ?

Tout cela est de l’ordre du totem. On les admire, les vénère, on ne sait pas bien comment elles fonctionnent et on attend d’elles une forme de protection. Le problème c’est que le totem par définition, c’est l’aliénation. Vous remettez une partie de vous-même, de votre liberté. Vous l’aurez compris, je n’en veux pas à la technologie, en revanche je m’inquiète pour l’humain. J’ai foi en Dieu et confiance dans l’humain. En tant que chrétien, je le dirais conçu à l’image de Dieu créateur ; que l’on soit inventif ce n’est pas un hasard. En même temps, j’ai bien conscience aussi que le vivant ne survit que par économie d’énergie. Le danger est donc que notre esprit cède petit à petit à cette forme de paresse qui consiste à laisser la machine choisir pour lui. L’humain assisté ne risque-t-il pas d’être un peu moins humain ? Je suis profondément persuadé que les technologies sont des productions de la société aux deux sens du génitif, c’est-à-dire que d’un côté nous les produisons, collectivement, ce sont des technologies qui ressemblent à nos sociétés, et d’un autre côté, à mesure qu’on les utilise elles nous façonnent, elles nous transforment. À un moment, est-ce que cette production fait de nous des gens plus humains, ça nous humanise ou ça nous déshumanise ? Nous sommes arrivés à une ligne de fracture, à nous de choisir la bonne direction. Il faut peut-être réinventer la façon dont on est humain à l’âge de l’intelligence artificielle.

…………………………………….

Éric Salobir est l’auteur de Dieu et la Silicon Valley aux Éditions Buchet-Chastel, 2020.

Les visions trop étroites des économistes ( Robert Boyer, économiste)

Les visions trop étroites des économistes ( Robert Boyer, économiste)

L’économiste Robert Boyer pointe dans son dernier ouvrage « Une discipline sans réflexivité peut-elle être une science ? Epistémologie de l’économie » (Ed. La Sorbonne) les nombreuses failles de la science économique dominante à expliquer les grande crises économique et sanitaire récentes. Figure de l’école de la régulation en France avec l’économiste Michel Aglietta, l’économiste Robert Boyer  plaide pour la création d’agora géante qui pourrait « être le terreau d’une bifurcation de la discipline économique, en particulier de sa réinsertion tant dans les sciences de la nature que dans celles de la société ».

Robert Boyer est une figure de l’école de la régulation en France avec l’économiste Michel Aglietta. Anciennement directeur de recherche au CNRS et directeur d’études à l’EHESS, ce polytechnicien collabore à l’institut des Amériques et anime l’association Recherche et régulation. 

LA TRIBUNE- Pourquoi avez-vous décidé de vous attaquer à ce sujet dans votre dernier ouvrage ?

ROBERT BOYER- J’ai commencé à travailler comme économiste en 1967. A cette époque, je pensais qu’une discipline économique était en voie de constitution et j’espérais y participer. Elle était rigoureuse et permettait d’éclairer de façon assez précise les choix de politique économique. Rétrospectivement le keynésianisme était en effet relativement adapté à la prise en compte des compromis sociaux de l’après Seconde guerre mondiale. Ce n’est plus le cas lorsqu’apparait en 1973 le phénomène de la stagflation, soit une forte inflation malgré la chute de l’activité économique. C’était l’indice de l’entrée dans une nouvelle époque du capitalisme, hypothèse fondatrice de la théorie de la régulation, que je n’ai cessé depuis lors de travailler. De son côté la majorité des économistes a interprété cet échec comme la conséquence directe de l’absence de bases microéconomiques de la théorie générale de Keynes.

S’est imposée l’idée qu’il fallait refonder la macroéconomie sur la microéconomie. Ce n’était pas forcément une mauvaise idée, mais très vite plusieurs problèmes ont surgi tel le recours à la notion d’agent représentatif, d’anticipations rationnelles, d’équilibre structurellement stable, autant d’hypothèses intenables. Ce programme qui était au début scientifique a été utilisé, au fil du temps, comme justification des stratégies de déréglementation et de libéralisation. Pendant 30 ans, la macroéconomie s’est enfoncée dans l’exploration de prémices totalement faux. Les Etats-Unis étaient réduits à un ensemble de producteurs et de consommateurs, sans prise en compte aucune du rôle des banques, des marchés financiers, et de toutes les organisations et institutions encadrant l’activité économique.

J’ai vu avec étonnement la discipline évoluer et perdre beaucoup de sa pertinence. Pour cerner les raisons de cette dérive, je l’ai resituée par rapport à l’histoire des grands courants de la pensée. Au fil des décennies, j’ai accumulé suffisamment de matériaux pour montrer que la profession d’économiste a beaucoup changé. A grands traits elle est animée par de virtuoses techniciens qui rendent des services aux acteurs mais de moins en moins par de grands économistes dont la visée serait d’analyser les enjeux du monde contemporain. La crise de la macroéconomie est beaucoup plus profonde que l’on ne pense. Le livre soutient que ce sont les bases de la discipline qui sont en cause et non pas quelques erreurs mineures. La crise de 2008 a fait éclater au grand jour la crise de cette nouvelle macroéconomie classique.

Vous affirmez que l’institutionnalisation de la profession d’économiste a conduit à produire des spécialistes de la modélisation mais peu de chercheurs capables de conceptualiser les bases de la discipline. Que voulez-vous dire par là ?

R.B- Dans les années 30, les Etats-Unis comptaient quelques milliers d’économistes. Aujourd’hui, ce pays en recense des centaines de milliers. A l’époque, de grands économistes, de Joseph Schumpeter à Frederick von Hayek, dialoguaient entre eux dans la recherche d’explications à la crise de 1929. C’est l’éclatement du métier qui prévaut : certains sont économistes de banque, d’autres sont économètres, d’autres encore travaillent dans des think tank visant à influencer la politique des gouvernements. Le métier s’est considérablement diversifié en une myriade d’approches, de techniques appliquées aux différents secteurs de l’économie. On note aussi un éclatement des demandes à l’égard des économistes. Leur spécialisation est tellement poussée qu’elle débouche sur une anomie de la division du travail, telle que conceptualisée par le sociologue Emile Durkheim. Sur une même question – par exemple les marchés financiers sont-ils efficients ? – les diverses branches de la discipline livrent des réponses contradictoires.

La structuration du champ académique (hiérarchie des revues, modalités de recrutement des enseignants) crée un système formant essentiellement des techniciens affirmez-vous. Comment faire pour accorder plus de reconnaissance aux intellectuels en économie ?

R.B- On peut distinguer trois phases dans la structuration du champ académique. La première avait pour projet de fonder la discipline sur la théorie de l’équilibre général. Les chercheurs allaient pouvoir produire une formalisation d’une économie de marché justifiant l’image de la main invisible d’Adam Smith, à savoir la possibilité et l’optimalité d’une économie décentralisée où chacun ne poursuit que son intérêt. En fait les mathématiciens finissent par conclure que ce n’est le cas que sous des hypothèses très restrictives, non satisfaites dans les économies contemporaines du fait de l’existence du crédit, de rendements d’échelle, de pouvoir de monopole. Ainsi loin d’être un fait scientifique, la main invisible devient une croyance.

Une deuxième phase enregistre une succession de modélisations macroéconomiques qui entendent remplacer celles inspirées par Keynes. C’est d’abord la théorie monétariste de Milton Friedman qui s’impose comme explicative de l’inflation. Mais elle périclite lorsque se multiplient les innovations qui assurent la liquidité de nombreux actifs financiers, puis quand l’aisance monétaire ne débouche pas sur une accélération de l’inflation, mesurée par les prix à la consommation. Ce sont ensuite des modèles qui modernisent la théorie classique sous l’hypothèse d’auto-équilibration des marchés, transitoirement perturbés par des « chocs » réels ou monétaires. Les Banques Centrales usent de ces modèles mais ils montrent leurs limites lors de la crise de 2008.

Aussi dans une troisième étape, passe-t-on des grandes théories à l’économétrie et de l’économétrie à la « métrie », c’est-à-dire l’application des avancées des techniques statistiques à toutes les données disponibles, bien au-delà des phénomènes économiques.

D’un côté, avec les masses de données produites en temps réel par la finance, une nouvelle discipline, fondée sur les mathématiques financières, prend son essor, sans trop se préoccuper des conséquences macroéconomiques des nouveaux instruments qu’elle invente. Avec l’économie de l’information, apparaît ensuite le besoin d’analyser ces données grâce à l’intelligence artificielle.

De l’autre côté, les recherches en macroéconomie sont presque complètement désertées. Rares sont les jeunes et talentueux chercheurs qui osent se lancer dans un domaine aussi difficile. Or, les dernières crises ont fait apparaître le besoin d’une analyse des économies et des relations qu’elles entretiennent dans un système international en crise. Lorsque la crise financière de 2008 éclate, la macroéconomie se rappelle au bon souvenir des gouvernements et des économistes. L’irruption de la pandémie appelle des réponses, en matière de politique monétaire et budgétaire, soit des questions que la microéconomie ne peut traiter.

Vous évoquez notamment une crise de la macroéconomie. Quels sont les facteurs qui ont pu contribuer à affaiblir cette discipline ?

R.B- D’abord trop souvent le chercheur ne distingue pas entre vision, théorie, modèle, mécanisme, alors que ce sont des concepts bien différents. Une série de modèles, au demeurant fragiles dès qu’on les utilise pour prévoir, ne fondent pas une science car ce ne sont souvent que des éclairages partiels ou des aides à la décision. Ensuite chacun a tendance à se focaliser sur un mécanisme parmi beaucoup d’autres or le propre de la macroéconomie est de prendre en compte et d’articuler l’ensemble des mécanismes pertinents. Enfin, la clôture du champ de la macroéconomie sur lui-même lui interdit de reconnaître sa dépendance vis-à-vis du pouvoir politique. Plus encore, son accent sur le court terme n’est guère favorable à la reconnaissance des enjeux que sont devenus l’écologie, les pandémies, l’inégalité tant domestique qu’internationale.

Il est sans doute illusoire d’attendre la venue d’un nouveau Keynes. De nos jours, la formation universitaire des économistes ne livre pas une formation suffisamment généraliste permettant de formuler des questions pertinentes et les éclairer. Keynes considérait que « l’économiste doit posséder une rare combinaison de dons…D’une certaine façon, il doit être mathématicien, historien, homme d’État, philosophe… Aucune partie de la nature de l’homme ou de ses institutions ne devrait être entièrement hors de sa considération. » Bref un grand intellectuel !

Pourquoi les grands courants économiques dominants ont échoué à rendre compte des grandes crises du 20ème siècle et du 21ème siècle ?

R-B- Les macro-économistes ont pris beaucoup de retard par rapport aux considérables transformations du capitalisme. La plupart ont exclu de leurs modèles la possibilité même de crises. Par définition, l’économie perturbée par des chocs externes revient automatiquement vers l’équilibre de long terme. Or tel n’est pas le cas car la nature des processus économiques est beaucoup plus complexe et changeante dans le temps.

Dans un tel contexte d’incertitude sur les mécanismes à l’œuvre, chaque école de pensée tend à privilégier son interprétation. Ainsi les enjeux s’en trouvent simplifiés, ce qui polarise les conseils adressés aux gouvernements. On observe alors une inversion des relations entre le prince et le conseiller. En théorie, le conseiller estime qu’il est porteur de science et le prince pense qu’il trouve ainsi une justification « objective » de sa politique. En pratique, ce dernier va chercher dans les théories économiques en concurrence celles qui lui sont favorables. Par exemple, la nouvelle théorie monétaire américaine vient à point nommé réhabiliter la politique budgétaire face aux limites que rencontrent la Banque Centrale. Cette apparente révolution intellectuelle vient appuyer le fait que la dépense publique doit être à nouveau un outil puissant pour les Etats-Unis.

Pourtant, ils sont encore très écoutés par les élites et le pouvoir. Comment expliquez-vous ce paradoxe ?

R.B- Se reproduit aujourd’hui un phénomène déjà observé à propos des instituts de prévision lors de la fin des trente glorieuses. Plus mauvaise était la qualité de leurs prévisions, plus ils se multipliaient car tour à tour ils avaient raison puis se trompaient. Aucun ne parvenait à percer la grande incertitude liée à un changement d’époque. De nos jours, la même configuration prévaut concernant l’expertise économique : le politique demande d’autant plus d’avis aux économistes qu’il doute de leur expertise ! Il en est de même concernant l’explosion des sondages d’opinion censés éclairer les élections. Comment devrait progresser la connaissance économique ? Par la reconnaissance des erreurs et leur correction, phénomène trop rare. Par ailleurs, il faut savoir avouer que l’on ne sait pas.

La pandémie pourrait-elle permettre de renouveler la vision des économistes dans les pays riches ?

R.B- Les pays riches étaient sûrs que la sophistication de leur système de santé et la vigueur de la recherche pharmaceutique et biologique allaient leur permettre d’éviter le retour des épidémies. Lorsque la Covid-19 est apparue à Wuhan, beaucoup de gouvernements des pays riches pensaient que ce virus allait concerner seulement les pays pauvres. En fait, beaucoup d’Etats ont découvert un bien commun passé jusque-là inaperçu : la sécurité sanitaire mondiale.

Les pays africains qui étaient supposés plus vulnérables ont résisté car leur population était beaucoup plus jeune et les responsables avaient appris des épidémies précédentes, telle Ebola. De même certains Etats asiatiques avaient conservé des stratégies de prévention pour affronter collectivement des nouvelles pandémies. Voilà qui devrait renouveler l’intérêt des économistes pour le rôle parfois déterminant du système de santé : au-delà du contrôle de la croissance des coûts s’impose la prise en considération de sa résilience face à l’imprévu. De même, une série de décisions de court terme peut déboucher sur une crise majeure, comme le montre la situation présente des hôpitaux.

 

Quel(s) rôle(s) les Etats ont-ils pu jouer depuis les dernières crises économiques et sanitaires ?

R.B- Après 2008 et la pandémie, l’Etat est redevenu le maître des horloges. Il socialise les anticipations, ce qui permet aux acteurs de se repérer face à une incertitude qui leur échappe. C’est à l’Etat de fixer le cap en matière de stratégie sanitaire. La pandémie a également rappelé que la monnaie est créée en fonction des besoins de la société. La Banque Centrale Européenne a pu refinancer sur le marché secondaire les dettes publiques associées au Covid-19 et non plus seulement des crédits privés.

Le déficit public est redevenu un outil essentiel pour passer les périodes difficiles. Certains voulaient interdire dans la constitution tout déficit public. On a redécouvert que la solidarité nationale s’exprime grâce à l’Etat. Les années Covid-19 resteront comme une grande césure dans l’histoire. Il est peu probable que l’on retourne vers un passé marqué par de nombreux problèmes structurels non résolus.

Quelles sont les leçons de la crise sanitaire en matière d’inégalités ?

R.B- Sur le plan des inégalités, la pandémie a rappelé qu’au sein des sociétés la privation de l’accès aux services publics, aux hôpitaux, aux médecins accentue les disparités entre les riches et les pauvres. Les plus précaires obligés de travailler habitent dans des zones bien moins desservies sur le plan médical. On redécouvre des inégalités dans le pronostic vital et l’espérance de vie. La pandémie a reformulé la question à partir de la capacité des personnes à mener une vie en bonne santé.

Le système de santé, miné par la volonté de réduire les coûts, a tenu grâce aux initiatives et au dévouement du personnel, situation qui n’est pas tenable à long terme. La médecine de ville et les hôpitaux publics et privés n’ont pas été réorganisés. En 2000, la France avait le meilleur système de santé d’après l’OMS. Il a dégringolé depuis et est devenu inégalitaire et inefficient.

Sur le plan international, la pandémie risque de laisser des traces durables dans nombre de pays pauvres. L’illettrisme dans les pays pauvres s’y est développé, ce qui augure mal des possibilités de développement humain et économique. Dans tous les pays, la pandémie a attisé les tensions sociales.

Les institutions internationales ont-elles joué leur rôle ces dernières années ?

R.B- L’organisation mondiale du commerce (OMC) est bloquée et le FMI n’apparaît qu’au moment des crises les plus graves, comme c’est encore le cas en Argentine. Sur le front international, font défaut les institutions nécessaires. Il faudrait créer une agence pour le climat qui soit aussi forte que le FMI ou la Banque mondiale à une certaine époque. Un institut international de la migration ne serait pas inutile car avec le changement climatique, les vagues migratoires pourraient être considérables.

Enfin, l’organisation mondiale de la santé (OMS) devrait avoir le pouvoir d’organiser la sécurité sanitaire mondiale mais aussi de piloter l’innovation médicale pour répondre par des dispositifs de prévention à des pandémies. Ce avec un budget conséquent et des moyens pour vacciner à l’échelle mondiale. Les institutions de Brettons Woods ont vieilli et de nouvelles peinent à émerger. La crise va durer en fonction de l’incapacité à engendrer ces institutions. Nous vivons donc une période charnière et historique mais lourde de risques.

Dans votre ouvrage, Les capitalismes à l’épreuve de la pandémie, vous avez travaillé sur plusieurs scénarios de sortie de crise. Plus de deux années après le début de la pandémie, sur quel type de capitalisme cette crise pourrait-elle déboucher ?

R.B- Nous avons échappé au scénario de la dystopie d’un repliement nationaliste général, qui serait intervenu avec une seconde victoire de Donald Trump. Joe Biden a provisoirement enrayé ce scénario. Cette crise a cependant révélé un très grand retard dans la coopération internationale. On enregistre certes quelques avancées sur la fiscalité des multinationales, ou encore l’initiative COVAX pour les vaccins. L’Europe a pour la première fois émis des titres de dette européens. Un pas a été franchi mais d’autres seront nécessaires. Prise entre les Etats-Unis et la Russie, l’Europe est un partenaire sans grand pouvoir géopolitique. Dans la crise de l’Ukraine, le multilatéralisme est loin de s’affirmer. L’économie mondiale est à nouveau proche de conflits ouverts impliquant les Etats-Unis, la Chine et la Russie.

La crise de 2008 et la pandémie ont révélé beaucoup de structures cachées. La finance était aux yeux de beaucoup un facteur de stabilisation. Ce n’était pas le cas puisqu’elle peut durablement enrayer la croissance de certains pays, ce dont l’Argentine donne un cruel exemple. Le monde a-t-il raison de continuer la financiarisation ?

La mondialisation a été beaucoup critiquée ces dernières décennies. Dans quelle direction la globalisation pourrait-elle évoluer dans les prochaines années ?

R.B- La globalisation a certes permis à la Chine de se développer mais elle a induit beaucoup de problèmes qui ne sont pas résolus. La mondialisation a été heureuse pour quelques-uns et moins bonne pour beaucoup d’autres. La pandémie a redistribué la carte du monde, en accélérant le déplacement de son centre de gravité en direction de l’Asie. Partout les failles de la globalisation ont favorisé le retour du principe de souveraineté nationale qui est aussi une menace pour l’Union Européenne qui se trouve sans doute à la croisée des chemins.

Nous vivons une période charnière. Les Etats-Unis attendaient l’effondrement de la Chine, à l’image de celle de l’URSS. Or la Chine ne va pas rejoindre l’idéal occidental. Elle vient de signer le plus grand traité régional de libre-échange sur la planète. L’Europe ne peut plus affirmer qu’elle est la plus vaste zone de libre-échange. Taïwan, la Corée du Sud et d’autres pays du Sud ont réussi à bien mieux s’en sortir que d’autres pays. Le monde a changé mais l’Europe est à la traîne.

Quel regard portez-vous sur la polarisation à l’intérieur des sociétés ?

R.B- Dans beaucoup de pays, deux fractions de la société aux conceptions opposées s’affrontent sur toutes les questions : l’ouverture à l’international, l’immigration, l’organisation des services collectifs ou encore la fiscalité. Le Brexit est à ce titre emblématique car il a mis en exergue la profondeur de cette division. Les différents sondages et enquêtes ont montré que les ruraux, peu diplômés et âgés ont voté en faveur du Brexit. A l’inverse, les jeunes urbains diplômés ont voté pour l’Europe. Les gouvernements doivent faire face à de redoutables difficultés d’intermédiation car ils ne peuvent trouver une solution médiane tant les attentes sont contradictoires.

Auparavant, les Etats compensaient les perdants par des transferts monétaires. Comme cette solution traditionnelle est inopérante car le conflit porte sur les valeurs, les gouvernements sont tentés par l’autoritarisme. La démocratie représentative est en crise, ce qui appelle une refondation. Dans beaucoup de pays, la polarisation s’avère insurmontable. Ainsi Joe Biden s’est retrouvé coincé entre la gauche des démocrates et les trumpistes du parti républicain qui entendent gagner les élections de mi-mandat. Alors même que son expérience de négociateur est reconnue, les marges de manœuvre se sont vite rétrécies, car il y a peu de compromis possibles. La question de la reconstruction du lien social est posée et les solutions sont à trouver

Science et société:Les économistes manquent cruellement de culture et de vision généraliste

Les économistes manquent cruellement de culture et de vision généraliste ( Robert Boyer, économiste)

L’économiste Robert Boyer pointe dans son dernier ouvrage « Une discipline sans réflexivité peut-elle être une science ? Epistémologie de l’économie » (Ed. La Sorbonne) les nombreuses failles de la science économique dominante à expliquer les grande crises économique et sanitaire récentes. Figure de l’école de la régulation en France avec l’économiste Michel Aglietta, l’économiste Robert Boyer  plaide pour la création d’agora géante qui pourrait « être le terreau d’une bifurcation de la discipline économique, en particulier de sa réinsertion tant dans les sciences de la nature que dans celles de la société ».

Robert Boyer est une figure de l’école de la régulation en France avec l’économiste Michel Aglietta. Anciennement directeur de recherche au CNRS et directeur d’études à l’EHESS, ce polytechnicien collabore à l’institut des Amériques et anime l’association Recherche et régulation. 

LA TRIBUNE- Pourquoi avez-vous décidé de vous attaquer à ce sujet dans votre dernier ouvrage ?

ROBERT BOYER- J’ai commencé à travailler comme économiste en 1967. A cette époque, je pensais qu’une discipline économique était en voie de constitution et j’espérais y participer. Elle était rigoureuse et permettait d’éclairer de façon assez précise les choix de politique économique. Rétrospectivement le keynésianisme était en effet relativement adapté à la prise en compte des compromis sociaux de l’après Seconde guerre mondiale. Ce n’est plus le cas lorsqu’apparait en 1973 le phénomène de la stagflation, soit une forte inflation malgré la chute de l’activité économique. C’était l’indice de l’entrée dans une nouvelle époque du capitalisme, hypothèse fondatrice de la théorie de la régulation, que je n’ai cessé depuis lors de travailler. De son côté la majorité des économistes a interprété cet échec comme la conséquence directe de l’absence de bases microéconomiques de la théorie générale de Keynes.

S’est imposée l’idée qu’il fallait refonder la macroéconomie sur la microéconomie. Ce n’était pas forcément une mauvaise idée, mais très vite plusieurs problèmes ont surgi tel le recours à la notion d’agent représentatif, d’anticipations rationnelles, d’équilibre structurellement stable, autant d’hypothèses intenables. Ce programme qui était au début scientifique a été utilisé, au fil du temps, comme justification des stratégies de déréglementation et de libéralisation. Pendant 30 ans, la macroéconomie s’est enfoncée dans l’exploration de prémices totalement faux. Les Etats-Unis étaient réduits à un ensemble de producteurs et de consommateurs, sans prise en compte aucune du rôle des banques, des marchés financiers, et de toutes les organisations et institutions encadrant l’activité économique.

J’ai vu avec étonnement la discipline évoluer et perdre beaucoup de sa pertinence. Pour cerner les raisons de cette dérive, je l’ai resituée par rapport à l’histoire des grands courants de la pensée. Au fil des décennies, j’ai accumulé suffisamment de matériaux pour montrer que la profession d’économiste a beaucoup changé. A grands traits elle est animée par de virtuoses techniciens qui rendent des services aux acteurs mais de moins en moins par de grands économistes dont la visée serait d’analyser les enjeux du monde contemporain. La crise de la macroéconomie est beaucoup plus profonde que l’on ne pense. Le livre soutient que ce sont les bases de la discipline qui sont en cause et non pas quelques erreurs mineures. La crise de 2008 a fait éclater au grand jour la crise de cette nouvelle macroéconomie classique.

Vous affirmez que l’institutionnalisation de la profession d’économiste a conduit à produire des spécialistes de la modélisation mais peu de chercheurs capables de conceptualiser les bases de la discipline. Que voulez-vous dire par là ?

R.B- Dans les années 30, les Etats-Unis comptaient quelques milliers d’économistes. Aujourd’hui, ce pays en recense des centaines de milliers. A l’époque, de grands économistes, de Joseph Schumpeter à Frederick von Hayek, dialoguaient entre eux dans la recherche d’explications à la crise de 1929. C’est l’éclatement du métier qui prévaut : certains sont économistes de banque, d’autres sont économètres, d’autres encore travaillent dans des think tank visant à influencer la politique des gouvernements. Le métier s’est considérablement diversifié en une myriade d’approches, de techniques appliquées aux différents secteurs de l’économie. On note aussi un éclatement des demandes à l’égard des économistes. Leur spécialisation est tellement poussée qu’elle débouche sur une anomie de la division du travail, telle que conceptualisée par le sociologue Emile Durkheim. Sur une même question – par exemple les marchés financiers sont-ils efficients ? – les diverses branches de la discipline livrent des réponses contradictoires.

La structuration du champ académique (hiérarchie des revues, modalités de recrutement des enseignants) crée un système formant essentiellement des techniciens affirmez-vous. Comment faire pour accorder plus de reconnaissance aux intellectuels en économie ?

R.B- On peut distinguer trois phases dans la structuration du champ académique. La première avait pour projet de fonder la discipline sur la théorie de l’équilibre général. Les chercheurs allaient pouvoir produire une formalisation d’une économie de marché justifiant l’image de la main invisible d’Adam Smith, à savoir la possibilité et l’optimalité d’une économie décentralisée où chacun ne poursuit que son intérêt. En fait les mathématiciens finissent par conclure que ce n’est le cas que sous des hypothèses très restrictives, non satisfaites dans les économies contemporaines du fait de l’existence du crédit, de rendements d’échelle, de pouvoir de monopole. Ainsi loin d’être un fait scientifique, la main invisible devient une croyance.

Une deuxième phase enregistre une succession de modélisations macroéconomiques qui entendent remplacer celles inspirées par Keynes. C’est d’abord la théorie monétariste de Milton Friedman qui s’impose comme explicative de l’inflation. Mais elle périclite lorsque se multiplient les innovations qui assurent la liquidité de nombreux actifs financiers, puis quand l’aisance monétaire ne débouche pas sur une accélération de l’inflation, mesurée par les prix à la consommation. Ce sont ensuite des modèles qui modernisent la théorie classique sous l’hypothèse d’auto-équilibration des marchés, transitoirement perturbés par des « chocs » réels ou monétaires. Les Banques Centrales usent de ces modèles mais ils montrent leurs limites lors de la crise de 2008.

Aussi dans une troisième étape, passe-t-on des grandes théories à l’économétrie et de l’économétrie à la « métrie », c’est-à-dire l’application des avancées des techniques statistiques à toutes les données disponibles, bien au-delà des phénomènes économiques.

D’un côté, avec les masses de données produites en temps réel par la finance, une nouvelle discipline, fondée sur les mathématiques financières, prend son essor, sans trop se préoccuper des conséquences macroéconomiques des nouveaux instruments qu’elle invente. Avec l’économie de l’information, apparaît ensuite le besoin d’analyser ces données grâce à l’intelligence artificielle.

De l’autre côté, les recherches en macroéconomie sont presque complètement désertées. Rares sont les jeunes et talentueux chercheurs qui osent se lancer dans un domaine aussi difficile. Or, les dernières crises ont fait apparaître le besoin d’une analyse des économies et des relations qu’elles entretiennent dans un système international en crise. Lorsque la crise financière de 2008 éclate, la macroéconomie se rappelle au bon souvenir des gouvernements et des économistes. L’irruption de la pandémie appelle des réponses, en matière de politique monétaire et budgétaire, soit des questions que la microéconomie ne peut traiter.

Vous évoquez notamment une crise de la macroéconomie. Quels sont les facteurs qui ont pu contribuer à affaiblir cette discipline ?

R.B- D’abord trop souvent le chercheur ne distingue pas entre vision, théorie, modèle, mécanisme, alors que ce sont des concepts bien différents. Une série de modèles, au demeurant fragiles dès qu’on les utilise pour prévoir, ne fondent pas une science car ce ne sont souvent que des éclairages partiels ou des aides à la décision. Ensuite chacun a tendance à se focaliser sur un mécanisme parmi beaucoup d’autres or le propre de la macroéconomie est de prendre en compte et d’articuler l’ensemble des mécanismes pertinents. Enfin, la clôture du champ de la macroéconomie sur lui-même lui interdit de reconnaître sa dépendance vis-à-vis du pouvoir politique. Plus encore, son accent sur le court terme n’est guère favorable à la reconnaissance des enjeux que sont devenus l’écologie, les pandémies, l’inégalité tant domestique qu’internationale.

Il est sans doute illusoire d’attendre la venue d’un nouveau Keynes. De nos jours, la formation universitaire des économistes ne livre pas une formation suffisamment généraliste permettant de formuler des questions pertinentes et les éclairer. Keynes considérait que « l’économiste doit posséder une rare combinaison de dons…D’une certaine façon, il doit être mathématicien, historien, homme d’État, philosophe… Aucune partie de la nature de l’homme ou de ses institutions ne devrait être entièrement hors de sa considération. » Bref un grand intellectuel !

Pourquoi les grands courants économiques dominants ont échoué à rendre compte des grandes crises du 20ème siècle et du 21ème siècle ?

R-B- Les macro-économistes ont pris beaucoup de retard par rapport aux considérables transformations du capitalisme. La plupart ont exclu de leurs modèles la possibilité même de crises. Par définition, l’économie perturbée par des chocs externes revient automatiquement vers l’équilibre de long terme. Or tel n’est pas le cas car la nature des processus économiques est beaucoup plus complexe et changeante dans le temps.

Dans un tel contexte d’incertitude sur les mécanismes à l’œuvre, chaque école de pensée tend à privilégier son interprétation. Ainsi les enjeux s’en trouvent simplifiés, ce qui polarise les conseils adressés aux gouvernements. On observe alors une inversion des relations entre le prince et le conseiller. En théorie, le conseiller estime qu’il est porteur de science et le prince pense qu’il trouve ainsi une justification « objective » de sa politique. En pratique, ce dernier va chercher dans les théories économiques en concurrence celles qui lui sont favorables. Par exemple, la nouvelle théorie monétaire américaine vient à point nommé réhabiliter la politique budgétaire face aux limites que rencontrent la Banque Centrale. Cette apparente révolution intellectuelle vient appuyer le fait que la dépense publique doit être à nouveau un outil puissant pour les Etats-Unis.

Pourtant, ils sont encore très écoutés par les élites et le pouvoir. Comment expliquez-vous ce paradoxe ?

R.B- Se reproduit aujourd’hui un phénomène déjà observé à propos des instituts de prévision lors de la fin des trente glorieuses. Plus mauvaise était la qualité de leurs prévisions, plus ils se multipliaient car tour à tour ils avaient raison puis se trompaient. Aucun ne parvenait à percer la grande incertitude liée à un changement d’époque. De nos jours, la même configuration prévaut concernant l’expertise économique : le politique demande d’autant plus d’avis aux économistes qu’il doute de leur expertise ! Il en est de même concernant l’explosion des sondages d’opinion censés éclairer les élections. Comment devrait progresser la connaissance économique ? Par la reconnaissance des erreurs et leur correction, phénomène trop rare. Par ailleurs, il faut savoir avouer que l’on ne sait pas.

La pandémie pourrait-elle permettre de renouveler la vision des économistes dans les pays riches ?

R.B- Les pays riches étaient sûrs que la sophistication de leur système de santé et la vigueur de la recherche pharmaceutique et biologique allaient leur permettre d’éviter le retour des épidémies. Lorsque la Covid-19 est apparue à Wuhan, beaucoup de gouvernements des pays riches pensaient que ce virus allait concerner seulement les pays pauvres. En fait, beaucoup d’Etats ont découvert un bien commun passé jusque-là inaperçu : la sécurité sanitaire mondiale.

Les pays africains qui étaient supposés plus vulnérables ont résisté car leur population était beaucoup plus jeune et les responsables avaient appris des épidémies précédentes, telle Ebola. De même certains Etats asiatiques avaient conservé des stratégies de prévention pour affronter collectivement des nouvelles pandémies. Voilà qui devrait renouveler l’intérêt des économistes pour le rôle parfois déterminant du système de santé : au-delà du contrôle de la croissance des coûts s’impose la prise en considération de sa résilience face à l’imprévu. De même, une série de décisions de court terme peut déboucher sur une crise majeure, comme le montre la situation présente des hôpitaux.

 

Quel(s) rôle(s) les Etats ont-ils pu jouer depuis les dernières crises économiques et sanitaires ?

R.B- Après 2008 et la pandémie, l’Etat est redevenu le maître des horloges. Il socialise les anticipations, ce qui permet aux acteurs de se repérer face à une incertitude qui leur échappe. C’est à l’Etat de fixer le cap en matière de stratégie sanitaire. La pandémie a également rappelé que la monnaie est créée en fonction des besoins de la société. La Banque Centrale Européenne a pu refinancer sur le marché secondaire les dettes publiques associées au Covid-19 et non plus seulement des crédits privés.

Le déficit public est redevenu un outil essentiel pour passer les périodes difficiles. Certains voulaient interdire dans la constitution tout déficit public. On a redécouvert que la solidarité nationale s’exprime grâce à l’Etat. Les années Covid-19 resteront comme une grande césure dans l’histoire. Il est peu probable que l’on retourne vers un passé marqué par de nombreux problèmes structurels non résolus.

Quelles sont les leçons de la crise sanitaire en matière d’inégalités ?

R.B- Sur le plan des inégalités, la pandémie a rappelé qu’au sein des sociétés la privation de l’accès aux services publics, aux hôpitaux, aux médecins accentue les disparités entre les riches et les pauvres. Les plus précaires obligés de travailler habitent dans des zones bien moins desservies sur le plan médical. On redécouvre des inégalités dans le pronostic vital et l’espérance de vie. La pandémie a reformulé la question à partir de la capacité des personnes à mener une vie en bonne santé.

Le système de santé, miné par la volonté de réduire les coûts, a tenu grâce aux initiatives et au dévouement du personnel, situation qui n’est pas tenable à long terme. La médecine de ville et les hôpitaux publics et privés n’ont pas été réorganisés. En 2000, la France avait le meilleur système de santé d’après l’OMS. Il a dégringolé depuis et est devenu inégalitaire et inefficient.

Sur le plan international, la pandémie risque de laisser des traces durables dans nombre de pays pauvres. L’illettrisme dans les pays pauvres s’y est développé, ce qui augure mal des possibilités de développement humain et économique. Dans tous les pays, la pandémie a attisé les tensions sociales.

Les institutions internationales ont-elles joué leur rôle ces dernières années ?

R.B- L’organisation mondiale du commerce (OMC) est bloquée et le FMI n’apparaît qu’au moment des crises les plus graves, comme c’est encore le cas en Argentine. Sur le front international, font défaut les institutions nécessaires. Il faudrait créer une agence pour le climat qui soit aussi forte que le FMI ou la Banque mondiale à une certaine époque. Un institut international de la migration ne serait pas inutile car avec le changement climatique, les vagues migratoires pourraient être considérables.

Enfin, l’organisation mondiale de la santé (OMS) devrait avoir le pouvoir d’organiser la sécurité sanitaire mondiale mais aussi de piloter l’innovation médicale pour répondre par des dispositifs de prévention à des pandémies. Ce avec un budget conséquent et des moyens pour vacciner à l’échelle mondiale. Les institutions de Brettons Woods ont vieilli et de nouvelles peinent à émerger. La crise va durer en fonction de l’incapacité à engendrer ces institutions. Nous vivons donc une période charnière et historique mais lourde de risques.

Dans votre ouvrage, Les capitalismes à l’épreuve de la pandémie, vous avez travaillé sur plusieurs scénarios de sortie de crise. Plus de deux années après le début de la pandémie, sur quel type de capitalisme cette crise pourrait-elle déboucher ?

R.B- Nous avons échappé au scénario de la dystopie d’un repliement nationaliste général, qui serait intervenu avec une seconde victoire de Donald Trump. Joe Biden a provisoirement enrayé ce scénario. Cette crise a cependant révélé un très grand retard dans la coopération internationale. On enregistre certes quelques avancées sur la fiscalité des multinationales, ou encore l’initiative COVAX pour les vaccins. L’Europe a pour la première fois émis des titres de dette européens. Un pas a été franchi mais d’autres seront nécessaires. Prise entre les Etats-Unis et la Russie, l’Europe est un partenaire sans grand pouvoir géopolitique. Dans la crise de l’Ukraine, le multilatéralisme est loin de s’affirmer. L’économie mondiale est à nouveau proche de conflits ouverts impliquant les Etats-Unis, la Chine et la Russie.

La crise de 2008 et la pandémie ont révélé beaucoup de structures cachées. La finance était aux yeux de beaucoup un facteur de stabilisation. Ce n’était pas le cas puisqu’elle peut durablement enrayer la croissance de certains pays, ce dont l’Argentine donne un cruel exemple. Le monde a-t-il raison de continuer la financiarisation ?

La mondialisation a été beaucoup critiquée ces dernières décennies. Dans quelle direction la globalisation pourrait-elle évoluer dans les prochaines années ?

R.B- La globalisation a certes permis à la Chine de se développer mais elle a induit beaucoup de problèmes qui ne sont pas résolus. La mondialisation a été heureuse pour quelques-uns et moins bonne pour beaucoup d’autres. La pandémie a redistribué la carte du monde, en accélérant le déplacement de son centre de gravité en direction de l’Asie. Partout les failles de la globalisation ont favorisé le retour du principe de souveraineté nationale qui est aussi une menace pour l’Union Européenne qui se trouve sans doute à la croisée des chemins.

Nous vivons une période charnière. Les Etats-Unis attendaient l’effondrement de la Chine, à l’image de celle de l’URSS. Or la Chine ne va pas rejoindre l’idéal occidental. Elle vient de signer le plus grand traité régional de libre-échange sur la planète. L’Europe ne peut plus affirmer qu’elle est la plus vaste zone de libre-échange. Taïwan, la Corée du Sud et d’autres pays du Sud ont réussi à bien mieux s’en sortir que d’autres pays. Le monde a changé mais l’Europe est à la traîne.

Quel regard portez-vous sur la polarisation à l’intérieur des sociétés ?

R.B- Dans beaucoup de pays, deux fractions de la société aux conceptions opposées s’affrontent sur toutes les questions : l’ouverture à l’international, l’immigration, l’organisation des services collectifs ou encore la fiscalité. Le Brexit est à ce titre emblématique car il a mis en exergue la profondeur de cette division. Les différents sondages et enquêtes ont montré que les ruraux, peu diplômés et âgés ont voté en faveur du Brexit. A l’inverse, les jeunes urbains diplômés ont voté pour l’Europe. Les gouvernements doivent faire face à de redoutables difficultés d’intermédiation car ils ne peuvent trouver une solution médiane tant les attentes sont contradictoires.

Auparavant, les Etats compensaient les perdants par des transferts monétaires. Comme cette solution traditionnelle est inopérante car le conflit porte sur les valeurs, les gouvernements sont tentés par l’autoritarisme. La démocratie représentative est en crise, ce qui appelle une refondation. Dans beaucoup de pays, la polarisation s’avère insurmontable. Ainsi Joe Biden s’est retrouvé coincé entre la gauche des démocrates et les trumpistes du parti républicain qui entendent gagner les élections de mi-mandat. Alors même que son expérience de négociateur est reconnue, les marges de manœuvre se sont vite rétrécies, car il y a peu de compromis possibles. La question de la reconstruction du lien social est posée et les solutions sont à trouver.

Agrégation Droit: Pour l’enseignement mais aussi la recherche

Agrégation Droit: Pour l’enseignement mais aussi la recherche

 

La leçon en vingt-quatre heures, épreuve du concours d’agrégation de droit défendue par certains juristes et qu’un projet d’arrêté gouvernemental veut supprimer, renforce les inégalités et méconnaît la juste place du droit, affirme, dans une tribune au « Monde », le professeur de droit public Antoine Corre-Basset.

 

Tribune

 

Les unités de formation et de recherche (UFR) de droit et de gestion sont-elles tombées bien bas, si leur éclat ne tient qu’à la persistance, comme ces étoiles déjà mortes mais qu’on voit encore, de la leçon de vingt-quatre heures ! On s’excuserait presque de porter sur la place publique un débat récurrent parmi les juristes (dont certains, et même les présidents de récents jurys d’agrégation, ont déjà mis en doute la pertinence de cette épreuve) : nous ne faisons cependant que répondre, et l’argumentation avancée par Jean-François Cesaro et Pierre-Yves Gauthier dans la tribune « L’amélioration du concours d’agrégation ne passe pas par son édulcoration » (Le Monde du 17 janvier) nous paraît, bien malgré eux sans doute, plutôt de nature à remettre en cause le système même du concours d’agrégation du supérieur.

Ramassons ces arguments : la leçon en vingt-quatre heures permettrait de vérifier que les candidats possèdent les qualités qui font un bon professeur. Celui-ci devrait savoir faire ressortir les enjeux juridiques de toute notion de manière pédagogique, sélectionner et animer une équipe et, accessoirement, terminer sa journée de travail après 16 h 30. Cependant, et contrairement à ce qu’affirment MM. Cesaro et Gauthier, l’épreuve est tout à fait impropre – ou, en tout cas, pas plus propre qu’une autre – à cette tâche.

Passons sur la résistance physique, qui n’est d’ailleurs pas réservée aux professions intellectuelles évoquées par nos auteurs. L’argument est si peu spécifique qu’on ose à peine l’évoquer : faut-il donc croire que, seuls parmi leurs pairs, les étudiants en droit, avant de passer l’agrégation (donc en particulier au moment de rendre leur mémoire de M2 puis leur thèse) n’ont jamais passé de nuit blanche à travailler et qu’il faille donc vérifier à l’article de la titularisation qu’ils ont bien cette capacité ?Ou bien doit-on comprendre que l’image idéale d’un enseignant en droit est celle d’un individu si mal organisé qu’il se rend systématiquement compte la veille au soir qu’il doit préparer un cours pour le lendemain ? Et lui saura-t-on gré, donc, de livrer à ses étudiants un résumé hâtif de lectures rapides plutôt que le fruit d’une réflexion de long terme sur un champ longtemps labouré ?

C’est que le rendu de la leçon en vingt-quatre heures n’est pas digne d’un cours en amphithéâtre. Il n’est rien d’autre qu’un exercice rhétorique, comme le sont toutes les leçons d’agrégations, qu’elles soient ou non, d’ailleurs, du supérieur. On y chercherait en vain le résultat d’une recherche, alors même que ce qui fait la spécificité des universitaires est d’être à la fois enseignants et chercheurs, et enseignants parce que chercheurs.

Former les élites à la problématique de la recherche

Former les élites à la problématique de la recherche

 

 

A l’occasion de l’ouverture du nouvel Institut national du service public, le 1er janvier, l’universitaire Elyès Jouini plaide, dans une tribune au « Monde », pour la formation des hauts fonctionnaires par la recherche.

 

Tribune. 

 

En Allemagne, une grande partie des élites est formée par la recherche : 40 % des titulaires de doctorat œuvrent notamment dans l’administration publique (hors enseignement et recherche). Ils ont consacré plusieurs années à des recherches approfondies, apportant modestement leur pierre à l’édifice des connaissances, avant de s’engager dans l’action publique et, pour certains, d’y accéder aux plus hautes responsabilités. Ainsi, Angela Merkel et Helmut Kohl étaient tous deux titulaires d’un doctorat : la première, scientifique, en chimie ; le second, littéraire, en histoire.

La situation est toute différente en France, où seulement 10 % des docteurs formés s’orientent vers la fonction publique, avec, au total, dans la haute administration, sept fois moins de titulaires d’un doctorat qu’en Allemagne.

Les conséquences sont importantes. On ne s’étonnera pas que les décideurs publics français, plus éloignés du monde de la recherche, accordent moins de valeur à la démarche scientifique au sens large que leurs homologues allemands. L’investissement public dans la recherche est, de fait, d’un montant de 20 % plus élevé en Allemagne qu’en France.

La formation par la recherche modifie par ailleurs l’approche des problèmes. Après trois à cinq ans de travaux à la pointe des connaissances, le docteur sait que les savoirs ne sont jamais définitifs. Il sait qu’il doit veiller à recueillir les meilleures expertises, les confronter entre elles et à la réalité. Il sait qu’à un problème donné il peut y avoir plusieurs solutions, et qu’une solution peut être la source de nouveaux questionnements.

L’administration gagnerait beaucoup à accueillir en son sein des hauts fonctionnaires formés à cette école de l’humilité, aux côtés des profils classiques, sélectionnés via les filières traditionnelles pour leur vélocité à résoudre des problèmes pourvus d’une solution déjà connue, et le plus souvent unique.

La haute fonction publique française trouverait également, ainsi, des personnels capables de jouer un rôle de passeur entre le monde de la recherche scientifique et celui des décideurs, rôle crucial dans une période où les politiques sont sommés de prendre des décisions dans des domaines complexes et mouvants : gestion de pandémie, choix énergétiques, régulation des réseaux, etc.

Le faible nombre de hauts fonctionnaires capables aujourd’hui de décrypter et de synthétiser les recherches les plus récentes dans l’entourage immédiat des politiques peut conduire ces derniers à s’appuyer sur des informations dépassées, ou parcellaires, voire à en tirer de fausses certitudes. Et en période de fortes turbulences, le grand public, ballotté de décision en décision, parfois contradictoires en apparence, en arrive à rejeter l’ensemble des mesures proposées.

La bureaucratie ou la recherche ?

La bureaucratie ou la recherche ?

 

L’alourdissement des tâches administratives, synonyme de perte de temps et d’énergie, conduira à un appauvrissement de la science française, prévient un collectif de directeurs de structure de recherche dans une tribune au « Monde ».

 

La protestation des directeurs de recherche est pertinente compte tenu de la bureaucratisation des fêlures de financement des recherches. Cela ne serait cependant dispensé d’une évaluation NDLR

 

 

 

Tribune.

 

 Alors que les sciences et les savoirs sont plus que jamais nécessaires pour faire face aux crises de notre temps, la recherche française est malmenée et menacée par l’intensification du nouveau management public. Après le renforcement de la logique compétitive et du financement par projet, entériné par la loi de programmation pluriannuelle de la recherche, voici l’apparition de nouvelles procédures d’évaluation des activités de recherche, instaurées récemment par le Haut Conseil de l’évaluation de la recherche et de l’enseignement supérieur (Hcéres), qui ne font qu’amplifier ce phénomène délétère.

En mars 2021, la Cour des comptes rendait public un rapport d’une grande sévérité sur les activités menées par le Hcéres entre 2014 et 2020 : « Les rapports d’évaluation du Haut Conseil ne jouissent pas, dans le milieu académique, d’une réputation à la hauteur de l’effort consenti. Menés sur la base de référentiels très normés et de procédures particulièrement longues, les travaux d’évaluation pèsent sur les établissements, et plus encore sur des unités de recherche déjà chargées en travaux non scientifiques. »

Que diraient les magistrats de la Rue Cambon un an après l’arrivée de Thierry Coulhon à la tête du Hcérès ? Ils constateraient certainement, à rebours de leurs recommandations, un alourdissement de la technostructure de cette autorité administrative indépendante, une complexification des procédures normatives et, en conséquence, l’accroissement mécanique de la charge de travail administratif, déjà phénoménale, demandée aux acteurs de la recherche.

Contre-pied

Lors de sa prise de fonctions, en novembre 2020, le nouveau président du Hcérès avait pourtant déclaré : « Il faut trouver un équilibre entre la simplicité, la légèreté de l’évaluation, et son efficacité. » En outre, le Hcérès vient de signer la Déclaration de San Francisco sur l’évaluation de la recherche (DORA), laquelle défend une évaluation qualitative, portant sur les contenus de la recherche, au détriment d’une approche quantitative recourant à des critères « scientométriques ».

Dans la pratique, le Hcérès fait donc tout le contraire de ce qu’il défend publiquement. Sans aucune concertation avec le terrain et en toute opacité, il vient de mettre en place une usine à gaz aux antipodes des principes du texte de DORA. Le Haut Conseil a décidé qu’il n’avait plus à évaluer les contenus scientifiques et les projets des laboratoires : il entend désormais uniquement procéder à un bilan « ex post », c’est-à-dire à une évaluation comptable suivant d’innombrables indicateurs (on n’en recense pas moins de 57 pour les structures de recherche).

 

Robots et machines parlantes : le danger de manipulation

Robots et machines parlantes : le danger de manipulation

 

Pour le psychiatre Serge Tisseron, l’installation à domicile d’enceintes connectées, de plus en plus perfectionnées et dotées d’une subjectivité artificielle, va accroître considérablement les pouvoirs de suggestion de ces machines. (tribune Le Monde)

 

Demain, toutes les machines qui nous entourent vont être progressivement dotées de la voix. Et, comme rien ne mobilise autant l’être humain que de pouvoir parler de lui et d’être écouté, certaines d’entre elles deviendront probablement nos confidents privilégiés. Le problème est que plus ces machines bénéficieront de compétences réelles dans le domaine de la compréhension et de la simulation émotionnelle, plus certains d’entre nous seront tentés de leur accorder par projection des compétences imaginaires. Personne, bien entendu, ne les confondra avec des humains, mais nous nous habituerons, à leur contact, à de nouvelles formes de relations qui modifieront peu à peu notre fonctionnement psychique et nos liens avec nos semblables.

Tout d’abord, l’installation d’enceintes connectées de plus en plus perfectionnées dans l’espace domestique va accroître considérablement le potentiel d’« intimité » entre l’homme et ses machines. Même si leurs utilisateurs continuent à les considérer comme des objets perfectionnés, beaucoup risquent de leur octroyer dans leur vie quotidienne des formes de prévenance traditionnellement réservées aux humains, à commencer par la politesse, et de les intégrer au monde de leurs relations sociales. Certains pourraient même être tentés de leur attribuer un peu « d’humanité », selon une gradation pour laquelle j’ai proposé de parler de degrés de « personnéité », puisque l’objet n’aura évidemment pas de personnalité, et encore moins d’humanité. L’homme qui parle à la machine parle en réalité toujours à l’homme qui est derrière la machine.

Il en résultera évidemment des problèmes inédits liés à la sécurité et à la préservation de la vie privée. Comment évoluera la représentation que nous avons de ce qu’est notre intimité ? Et que deviendra notre désir de partage quand une machine se présentera à tout moment comme attentive, disponible et jamais fatiguée de nous écouter ? Comment accepterons-nous d’avoir des émotions non partagées quand des machines capables de simuler l’attention et la compréhension humaine rendront à tout moment possible ce partage ? Et même, pourrons-nous encore éprouver une émotion sans la partager ?

Les capacités d’autorégulation, qui permettent à l’être humain d’organiser ses choix, risquent d’être, elles aussi, fortement impactées par la révolution des machines parlantes. La machine « sujetisée », c’est-à-dire partiellement perçue comme un sujet parce qu’elle est dotée d’une subjectivité artificielle, peut rapidement acquérir des pouvoirs de suggestion. Google, Amazon, Facebook et Apple – les fameux GAFA – ne cachent d’ailleurs pas leur ambition de faire de leurs enceintes connectées un cheval de Troie capable non seulement de capturer nos données les plus intimes, mais aussi de nous faire accepter, à terme, d’autres technologies plus invasives encore, utilisant des avatars numériques, puis des robots physiques dotés de capacités « empathiques ».

 

Risques de ollisions spatiales : À quand une vraie régulation de l’espace

Risques de  ollisions spatiales  : À quand une vraie régulation de l’espace

 

Il est clair que l’envoi de milliers d’engins dans l’espace risquent de provoquer un jour ou l’autre devrait collusion. Plusieurs incidents ont d’ailleurs récemment pu être évités. Il s’agit en particulier d’une coalition avec un engin de space X ( d(Elon Musk) qui n’a pas voulu se dérouter.Selon un document adressé début décembre par Pékin au Bureau des affaires spatiales de l’ONU à Vienne, l’Administration spatiale chinoise (CNSA) a dû procéder à des manœuvres d’évitement à deux reprises, en juillet et en octobre, afin de prévenir « une rencontre » entre Tiangong et des engins de SpaceX. La station spatiale, dont l’assemblage doit être achevé l’an prochain, compte trois taïkonautes à son bord depuis le 15 octobre. C’est le deuxième équipage à y séjourner depuis le lancement du module principal Tianhe fin avril.

De moins d’une centaine jusqu’au début des années 2010, le nombre de satéllites croît rapidement depuis quelques années selon l’index du Bureau des affaires spatiales de l’ONU : 147 en 2016, 400 en 2018 et près de 1.200 l’an dernier, franchissant ainsi pour la première fois la barre du millier. Cette année, le chiffre devrait tutoyer les 1.700 satellites lancés. Ce sont ainsi près de 8.000 satellites actifs qui tournent autour de la Terre, en très large majorité en orbite basse (généralement entre 160 et 1.000 km d’altitude).

Cette accélération se fait essentiellement sous l’impulsion des constellations de satellites de communication, à commencer par Starlink mais aussi OneWeb, qui vient tout juste de placer 36 engins en orbite. La première compte ainsi près de 1.800 satellites actifs, possède les autorisations nécessaires pour atteindre les 12.000 unités dans les prochaines années, et projette d’atteindre les 42.000 à terme. La seconde en compte près de 400 satellites, prévoit de lancer son service avec 648 unités fin 2022 et se projette au-delà des 6.000 dans les prochaines années (après avoir évoqué un nombre de 48.000 jusqu’à l’an dernier).

 

 

Trop d’ignorance dans l’opinion de la problématique scientifique

Trop d’ignorance dans l’opinion de la problématique scientifique

 

La formation à la méthode scientifique reste largement élitaire et l’école n’est pas assez formatée en ce sens aujourd’hui, déplore, dans une tribune au « Monde », Yves Charpak, médecin spécialiste en santé publique et président de la Fondation Charpak, l’esprit des sciences.

 

Tribune.

 

 Il y a trois ans, le directeur de l’institut italien équivalent de notre Institut national de la santé et de la recherche médicale (Inserm) démissionnait, en raison « du rejet de la connaissance scientifique » par son gouvernement : des ministres s’étaient permis, face à des résultats scientifiques, de dire « je n’y crois pas » en se dispensant d’argumenter. Cela concernait l’efficacité des vaccins, avant même notre actuelle pandémie de Covid-19. Cette histoire révélait déjà une crise de l’autorité scientifique, aggravée aujourd’hui ! Si un esprit des sciences existe, force est de constater qu’il est loin d’être partagé.

Il y a un esprit des lois, un esprit des Lumières… mais qu’est-ce que l’esprit des sciences ? Peut-on dire que c’est ce qui est propre à la science, ce qui la constitue dans sa singularité ?

L’esprit des sciences, c’est un rapport concret au monde, fait d’enthousiasme et de vigilance attentive, de rigueur et de curiosité, de défiance à l’égard des formes trop académiques de la pensée, de liberté, de tâtonnements et d’incertitudes partagées. L’esprit des sciences, enfin, procède de la volonté de comprendre et de faire comprendre.

Avant la pandémie, déjà, la valeur accordée au temps de la réflexion baissait à mesure qu’était valorisée la performance. D’où l’affrontement de deux temporalités : le héros était rapide, c’était l’homme du coup d’éclat. Repoussé dans l’ombre, celui qui choisissait le temps long et la voie patiente et prudente de la science. La situation sanitaire a ajouté du trouble. Les spécialistes et les scientifiques sont omniprésents dans les médias. Mais l’un des effets indésirables, sans être le seul, de cette visibilité pourrait bien être que le non-initié croie pouvoir se dispenser de chercher à comprendre. Le savant détient la vérité, suivons-le, ne perdons pas notre temps à reconstituer les raisonnements qui l’ont conduit.

Mythe du génie

Le paradoxe est le suivant : jamais les scientifiques ne se sont autant exposés – à travers livres, journaux, émissions de vulgarisation scientifique – et, pourtant, la distance entre leur savoir et la population, jusqu’aux décideurs, demeure toujours incommensurable. Le mythe du génie, la confiance dans « ceux qui savent », tout cela conduit à la même attitude du non-initié que celle qui prévaut dans un régime de croyance aveugle : à la suspension volontaire du jugement.

Du coup, le fossé existe toujours aujourd’hui entre, d’un côté, la science et les chercheurs et, de l’autre, la société. Car on a fait de la science une activité distincte du reste de la société, avec des citoyens dotés d’un cerveau particulier et chargés de produire la science dont on a besoin. Pour faire image, c’est un peu comme si ne pas être un sportif professionnel justifiait de ne pas apprendre à marcher, à courir, à nager, à faire du vélo.

L’Etat doit soutenir aussi la recherche spatiale

 L’Etat doit soutenir aussi la recherche spatiale

Un collectif d’une soixantaine de membres de l’Académie des sciences, parmi lesquels l’astrophysicienne Françoise Combes, le climatologue Jean Jouzel et le Prix Nobel de physique Albert Fert, s’alarme, dans une tribune au « Monde », de la priorité donnée par le ministère de l’économie à la dimension industrielle de la recherche spatiale.

Tribune.

 

A l’été 2020, à l’occasion d’un remaniement ministériel, la tutelle du secteur spatial français est passée du ministère de la recherche et de l’innovation au ministère de l’économie et des finances, pour la première fois depuis soixante ans.

Pour le Centre national d’études spatiales (CNES), ce transfert constitue un changement sans précédent. Chargé de la mise en œuvre des programmes spatiaux publics, contributeur essentiel du développement des lanceurs (Ariane) et de l’innovation, le CNES a toujours été un acteur-clé de la recherche scientifique, visant à comprendre et à protéger notre planète, explorer l’Univers, ou étudier les lois de la nature et le vivant grâce à la micropesanteur. Ainsi, le CNES joue un rôle majeur dans les missions scientifiques de l’Agence spatiale européenne (ESA) et d’autres partenaires internationaux, comme la NASA [l’agence spatiale américaine].

Pour cela, il s’appuie sur un vaste réseau de laboratoires universitaires – avec le Centre national de recherche scientifique et le Commissariat à l’énergie atomique – et d’entreprises industrielles. Cet écosystème a construit la légende de l’espace français. C’est ce qu’a récemment reconnu le premier ministre, Jean Castex, à l’occasion du soixantième anniversaire du CNES, en affirmant que la collaboration historique « entre laboratoires de recherche et industries reste l’une des grandes originalités du CNES » et « l’une de ses forces principales ».

Applications commerciales

C’est donc au titre de nouveau ministre de tutelle du CNES que, le 6 décembre, Bruno Le Maire a livré un discours précisant sa vision de la stratégie spatiale française. Cette vision semble opposer recherche scientifique spatiale et nouvelles applications commerciales de l’espace. Pour lui, la priorité du programme spatial français doit être à présent l’« aventure industrielle ». Il doit rejoindre le « monde de la compétitivité et du financement ».

Bien sûr, on ne peut que souhaiter que notre économie tire profit du savoir-faire français dans le spatial. La France doit prendre sa place dans le « New Space » [terme qui désigne l’irruption d’acteurs privés spécialisés dans le domaine spatial], en s’appuyant non seulement sur ses opérateurs historiques mais aussi en soutenant les « jeunes pousses » qui pourront, à terme, conquérir les marchés émergents du secteur. A l’avenir, la science et l’exploration pourront d’ailleurs bénéficier de ces nouveaux acteurs.

Cependant, ce projet ne pourra réussir dans la durée si l’Etat se détourne de la recherche spatiale sous prétexte de favoriser l’innovation industrielle. En effet, au-delà des connaissances et des services qu’elle apporte, la recherche a toujours été le principal moteur de l’innovation dans l’espace. Elle est à l’origine de la plupart des applications dont nous bénéficions aujourd’hui : prévisions météorologique et océanographique, systèmes de positionnement, surveillance de la Terre, suivi des ressources, gestion de risques et de la pollution, évolution du climat, etc.

Lancement du télescope James Webb pour observer l’origine de l’univers

Lancement du télescope James Webb pour observer l’origine de l’univers

Ce télescope à pour mission de voir plus loin et répondre à cette question qui passionne depuis la nuit des temps : une autre planète Terre est-elle possible ? Car ce nouveau télescope, le plus puissant et le plus grand jamais envoyé dans l’espace, va révolutionner notre façon de voir les atmosphères de ces planètes, reflet de ce qui se passe en surface. À côté de l’étude des exoplanètes, le télescope permettra d’explorer les premiers âges de l’Univers, en remontant jusqu’à seulement quelques centaines de millions d’années après le Big Bang. Les scientifiques pourront ainsi observer les premières galaxies et les premières étoiles.

Cet instrument révolutionnaire est le fruit d’une collaboration internationale dirigée par la NASA pour donner à l’humanité un premier aperçu de l’univers naissant, tel qu’il existait lorsque les premières galaxies se sont formées. Ayant coûté 9 milliards de dollars, il est considéré par la NASA comme le premier observatoire spatial de la prochaine décennie. Il observera principalement le cosmos dans le spectre infrarouge. Ses instruments sont éCe télescope d’une puissance inédite sera lancée par la fusée Ariane.galement idéaux pour rechercher des preuves d’atmosphères potentiellement propices à la vie autour de dizaines d’exoplanètes nouvellement documentées – des corps célestes en orbite autour d’étoiles lointaines – et pour observer des mondes beaucoup plus proches de nous, comme Mars et Titan, la lune glacée de Saturne. En comparaison, Webb est environ 100 fois plus sensible que son prédécesseur, le télescope spatial Hubble, âgé de 30 ans.

Bruno Le Maire : la France aura un « SpaceX en 2026 »

Bruno Le Maire : la France aura un « SpaceX en 2026 »

Le ministre de l’économie a indiqué qu’ArianeGroup allait développer, à son tour, un mini lanceur réutilisable concurrent de l’engin américain. « Nous aurons un SpaceX en 2026 » a assuré le ministre tout en reconnaissant que « le délai (était) court ». Une confirmation de ce qu’avait annoncé Emmanuel Macron lors de la présentation de son plan 2030. Le seul problème qui se pose c’est la question de l’existence même d’Ariane group dont l’avenir n’est nullement assuré !

Ariane Group a clairement des problèmes de compétitivité. Pour preuve, cela se traduit désormais dans les chiffres, avec l’annonce de la suppression de 600 postes au sein du groupe européen d’aérospatial d’ici la fin 2022. Si ces 600 départs vont concerner la France et l’Allemagne, le groupe va aussi opérer le transfert de la production du moteur Vinci d’Ariane 6 de l’usine de Vernon (Eure) vers le voisin allemand, a appris jeudi l’AFP de sources syndicales.

« Tous les postes de travail sont concernés, sauf les personnels en atelier », a précisé une source syndicale. Les départs, volontaires, s’étaleront tout au long de l’année 2022. Dévoilé par Challenges, ce plan vise à redonner de la compétitivité et réduire les coûts du fabricant des fusées Ariane.

« Sachant qu’en France, on a 350 départs naturels chaque année, si on y ajoute le flux d’embauches que l’entreprise va maintenir, il faudra faire partir 150 à 200 personnes », a estimé Philippe Gery, délégué syndical central CFE-CGC.

ArianeGroup fait face à la féroce concurrence de l’américain SpaceX et ses lanceurs réutilisables. Avec sa constellation Starlink, elle possède déjà une avance sur son rival européen. Sur plus de 9.000 satellites placés en orbite depuis 1957, « Space X a déjà déployé 1.677 satellites pour Starlink, ça veut dire qu’aujourd’hui, sur tous les satellites en opération, 35% appartiennent à un homme, Elon Musk, et si vous prenez les satellites de plus de 50 kg, c’est plus de 50% », pointait le PDG d’Arianespace.

12345...7



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol