Archive pour le Tag 'science'

Politique et Conseil présidentiel de la science : Encore un gadget pour déstabiliser les institutions du régime

Politique et Conseil présidentiel de la science : Encore un gadget pour déstabiliser les institutions du régime

Pour anodine que puisse paraître la mise en place d’un groupe de scientifiques destiné à éclairer le chef de l’Etat, cette initiative augmente le nombre des intermédiaires dans la prise de décision, en marge de la Constitution, relève, dans une tribune au « Monde », le juriste Thibaud Mulier.

Ce jeudi 7 décembre, le président de la République, Emmanuel Macron, a annoncé la création d’un conseil présidentiel de la science composé de douze membres qui ont été installés en dehors de la logique collégiale de nomination par les pairs caractéristique des milieux scientifiques. Un de plus. Conseil présidentiel pour l’Afrique, des villes, du développement… et pour finir, de la science. Il faut dire que le chef de l’Etat apprécie ces instances ad hoc à l’appareil gouvernemental, déclinées à l’envi et créées ex nihilo, pour l’« aider dans l’orientation, l’alerte et le suivi des décisions prises ».

Un autre choix aurait pu être fait pour gouverner avec les savoirs existants, comme celui de créer une autorité administrative indépendante en la matière, ou bien de nommer un conseiller scientifique auprès du gouvernement. Pour autant, quiconque s’intéresse à ces questions ne s’étonnera pas vraiment de ce choix. Depuis longtemps, nous sommes habitués à l’interventionnisme présidentiel tous azimuts. Les déclinaisons des conseils de défense écologique, sanitaire ou énergétique le rappellent sans ambages.

Pour le chercheur, ce choix nourrit, au mieux, un certain scepticisme devant une telle marque d’intérêt pour son activité, alors que le conseil stratégique de la recherche (créé en 2013 et placé auprès du premier ministre) n’a pas été réuni une seule fois depuis l’accession au pouvoir du président Macron ; au pire, de l’indifférence, tant la souffrance du milieu de l’enseignement supérieur et de la recherche est documentée de longue date. Pour le constitutionnaliste, en revanche, la création de cet énième conseil présidentiel a de quoi interpeller, pour ne pas dire inquiéter.

Elle interpelle dans la mesure où le président Macron poursuit la pratique du « gouvernement par conseil » qui s’inscrit dans le temps long de l’histoire. Sous la monarchie, il était question de polysynodie, souvent attachée à la période de régence, mais qui constituait aussi un système de gouvernement par conseil, la plupart du temps intermittent, doté d’attributions diverses en fonction de sa déclinaison. La politiste Delphine Dulong a mis en évidence que la pratique des « conseils restreints » a été privilégiée pendant les premières décennies de la Ve République, afin de faciliter, justement, l’immixtion du président de la République dans le travail gouvernemental.

Science et Société-La fin de homme face à l’intelligence artificielle ?

Science et Société-La fin de homme face à l’intelligence artificielle ?

Le développement de l’IA représente une menace de taille pour l’espèce humaine, analyse l’auteur de La Guerre des intelligences (voir résumé) à l’heure de ChatGPT *. Il est urgent, explique-t-il dans le Figaro, de réfléchir à ses conséquences politiques et aux moyens de cohabiter avec elle.

L’arrivée de ChatGPT a relancé le débat sur l’intelligence artificielle générale : de quoi s’agit-il ?

Laurent ALEXANDRE. – Il existe deux types d’IA qui préoccupent les chercheurs. D’abord, l’intelligence artificielle générale, qui serait légèrement supérieure à l’homme dans tous les domaines cognitifs. Ensuite, la super-intelligence artificielle, l’ASI en anglais, qui pourrait être des milliers, voire des millions, de fois supérieure à la totalité des cerveaux sur ­terre.

Faut-il croire à son émergence ou s’agit-il en réalité d’un fantasme ?

Sam Altman, le patron de ChatGPT, a écrit le mois dernier qu’il est convaincu que la super-intelligence artificielle sera là avant 2030. Il n’y a pas de certitude que nous y parviendrons, mais je constate qu’il y a de plus en plus de chercheurs, une grande majorité, même, qui sont aujourd’hui convaincus que l’IA nous dépassera dans tous les domaines.

La Guerre des intelligences -résumé ( de likedin)

Les inégalités de QI sont majoritairement génétiques (de naissance) et globalement héréditaires même si le mode de vie (malbouffe, sous-stimulation…) accentue cet état de fait. De fait, les inégalités de QI se creusent.

Après une période d’augmentation générale du QI (due à une meilleure hygiène de vie), l’effet Flynn s’est tari en occident, entrainant une baisse du QI moyen, car les personnes au meilleur QI font moins d’enfants et les personnes de faibles QI en font plus et les stimulent moins.

En Asie, l’effet Flynn bat son plein : le QI connaît une forte augmentation pour des raisons environnementales (fin de la malnutrition, éducation…).

L’Afrique devrait connaître à son tour une explosion du QI dans les prochaines décennies.

L’éducation est clef : on en est encore à l’âge de pierre. Il n’y a pas d’évaluation des méthodes (cf les débats stériles entre méthode globale et syllabique alors qu’aucune étude sérieuse n’a jamais été menée sur le sujet), process de transmission inchangé depuis des siècles/millénaires (cours magistral de groupe). Grâce aux neurosciences on va vraiment comprendre comment le cerveau apprend / les cerveaux apprennent.

On pourra alors vraiment faire de la pédagogie efficace et individualisée.

Après le QI, le QCIA

Mais au-delà du QI, le vrai enjeu va être le QCIA (quotient de compatibilité avec l’IA) car l’IA arrive à grands pas.

Aujourd’hui, on n’en est qu’aux balbutiements (l’IA est encore faible, il n’existe pas encore d’IA « forte », consciente d’elle-même) mais les développements sont extrêmement rapides.

Les nouvelles IA sont auto-apprenantes (deep-learning) et deviennent des boîtes noires. On ne sait pas vraiment comment elles fonctionnent car elles évoluent d’elles-mêmes en apprenant. Cela les différentie fondamentalement des algorithmes qui sont pré-programmés par quelqu’un, donc auditables.

Les IA apprennent grâce à la masse des données (textes, vidéos, photos, données de navigation…) dont on les nourrit.

Ce n’est pas un hasard si Google et FB sont des créateurs d’IA : avec les datas dont ils disposent, ils peuvent nourrir les IA.

L’Europe en protégeant les données utilisateurs fait prendre un retard à l’IA européenne vs la Chine ou les US.

Les IA vont rapidement remplacer le travail intellectuel (avocat, médecin…) car la masse de données qu’elles possèdent est phénoménale (ex : des millions de clichés radiologiques, des milliards de datas de santé…) et cela permet de réaliser des corrélations impossibles à un humain.

Paradoxalement, les métiers manuels diversifiés seront les derniers remplacés car un robot multitâche coûte plus cher qu’un programme informatique (le radiologue sera remplacé avant l’aide-soignante).

La fin du travail est annoncée par beaucoup, mais cette peur méconnait l’inventivité humaine : de nouveaux métiers vont apparaître autour de l’IA (comme les datascientistes, les développeurs web ou les spécialistes du retargeting n’existaient pas il y a 20 ans). Par nature, on ne peut pas prévoir ce que seront ces jobs, mais ils existeront comme après chaque révolution industrielle. Ce qu’on peut imaginer et que ces futurs emplois seront étroitement liés à l’IA, il est donc essentiel que notre intelligence soit compatible, d’où l’importance du QCIA.

L’IA est pour le court terme une formidable opportunité (elle va résoudre de nombreux problèmes bien mieux que les humains, surtout dans la santé). Le problème est qu’on ne sait pas comment elle va évoluer. Une IA forte (ie avec conscience) peut devenir dangereuse pour l’homme et comme elle sera dupliquée / répartie (via Internet) dans tous les objets connectés, elle sera difficile à tuer en cas de besoin.

Comment l’IA avec conscience se comportera-t-elle avec nous ? Cela est très difficile à prévoir.

Quel avenir pour l’humanité ?

Assez vite, l’homme va être dépassé par l’IA, alors comment rester dans la course et ne pas être asservi ?

- l’eugénisme : les humains mieux sélectionnés in-vitro seront plus intelligents et en meilleure santé (cf Bienvenue à Gattaca). Cela pose évidemment de nombreux problèmes éthiques mais les réponses à ces problèmes seront différentes selon les pays et la Chine et les US sont plus permissifs. Cependant, cette évolution sera lente alors que l’IA évolue en permanence : les humains risquent de rester à la traîne de l’IA. Enfin, maîtriser la conception des enfants doit interroger sur la capacité de survie de l’espèce humaine en tant que telle. Le hasard de la génétique (mutations non prévues) est en effet le moyen trouvé par la vie pour s’adapter, sur le long terme, à un environnement lui-même en évolution permanente (principe de l’évolution).

- l’hybridation : cette solution prônée par Elon Musk consiste à se mettre des implants cérébraux qui vont booster notre cerveau. Si l’idée est très enthousiasmante (maîtriser la connaissance sans effort ni délai), le vrai risque est la manipulation : qui produit les contenus ? seront-ils orientés ? quid du brain washing ? que se passe-t-il si nous sommes hackés ? Ces implants seraient-ils le cheval de Troie d’une véritable dictature de la pensée encore plus aboutie que 1984 ? En effet, si on peut injecter des informations directement dans notre cerveau, il sera possible également de lire nos pensées. Que reste-t-il de nous si nous n’avons même plus de refuge de notre cerveau pour penser en toute liberté ? Quel usage un gouvernement pourrait-il faire de ces informations, qui ne soit pas totalitaire ?

- projeter nos esprits dans des corps robots : la victoire ultime sur la mort. Sans corps, nous sommes immortels. Mais que restera-t-il de nous quand nous serons fusionnés avec l’IA et que la mortalité n’existera plus alors qu’elle est l’essence même de l’homme et vraisemblablement l’origine de son désir créatif ?

Le problème de toutes ces évolutions c’est qu’elles ont des effets bénéfiques individuels indéniables à court terme (moins de maladies, meilleur QI…), mais à la fois vont créer des inégalités temporaires (seuls les riches pourront au début s’offrir cela) et impliquent des changements pour l’humanité toute entière.

Dès lors que les effets bénéfiques sont importants, il sera impossible d’enrayer le développement des IA dans tous les aspects de nos vies. En effet, quel parent pourrait refuser de faire soigner son enfant par une IA plutôt qu’un médecin, si ses chances de survie sont décuplées ? Quel homme politique pourrait assumer de faire prendre à son pays un retard si énorme en terme de santé publique ?

Mais si les humains sont connectés à des implants, l’IA sera certainement dedans. Serons-nous encore des humains ? Comment ne pas être asservis par l’IA si celle-ci est déjà dans nos cerveaux ?

Les technobéats ne réfléchissent pas à plusieurs générations, trop enthousiastes de voir où leur création les mènera. Quant aux politiques ils sont complètement largués et ne comprennent rien à la technologie. De toute manière, ils ne savent pas penser à plus de deux ans.

Au final, l’IA se développe sans maîtrise, car personne ne pense ni ne parle pour l’humanité.

(A ce sujet, je recommande l’essai d’Edmund Burke « Réflexion sur la Révolution de France » qui explique sa pensée, le « conservatisme », et sa vision de la société comme un contrat entre les vivants, mais également entre les vivants, les morts et les futures générations. Il y a certainement des idées pour nourrir le débat.)

Dans tous les cas, la bataille sera gagnée par les tenants de l’hybridation (transhumanistes) car ceux qui s’hybrideront (et ils le feront même si la réglementation le leur interdit) deviendront super-intelligents et deviendront donc de-facto les leaders. Ceux qui refuseront l’hybridation seront à la traîne.

Face à une IA galopante et à l’hybridation, le rôle de l’école va changer. Notre valeur sera dans ce qui fait notre humanité puisque la connaissance sera injectable à la demande sans effort. Donc il faudra former davantage à l’esprit critique, la réflexion, la créativité. L’homme a cet avantage sur la machine de faire des erreurs et c’est des erreurs que viennent des découvertes.

Climat :Réinventer la science économique

Climat :Réinventer la science économique

Par Antoine Reverchon dans Le Monde


Les économistes, leurs concepts, leurs outils et leurs prescriptions semblent dépassés par la nature et l’ampleur de la crise climatique en cours. Encore trop centrée sur l’homme, la science économique peut-elle se refonder pour prendre en compte l’ensemble du vivant ?

« La destruction du commun semble irréversible, menaçant l’habitabilité de la terre et la biodiversité. Nous n’avons pas les institutions pour faire face à ce défi, et ne savons pas non plus quelle discipline scientifique peut faire de cet événement son objet (…). L’humanité, prise comme agent économique de l’anthropocène, ne sait pas comment agir, elle est tétanisée (…). Les prétentions de l’économie à fournir les instruments de mesure pour guider l’action individuelle et collective sont contestées. L’économie peut-elle encore nous instruire et nous guider face aux enjeux de l’anthropocène ? » Ces extraits d’un « appel à communication » pour le 6e colloque international de philosophie économique, qui se tiendra à Sciences Po Lille du 29 juin au 1er juillet 2023, témoigne du désarroi d’une profession.

Les économistes ont une certaine influence sur les décisions politiques et prétendent tenir le haut du pavé au sein des sciences humaines et sociales. Mais pour les plus critiques d’entre eux comme pour le commun des citoyens à la conscience écologique un tant soit peu attentive, non seulement ils ne sont plus capables de comprendre la « polycrise » économique, sociale et surtout environnementale qui frappe l’humanité, et a fortiori d’y remédier, mais ils en sont en grande partie responsables !

La critique de la science économique traçait jusqu’ici sa frontière à l’intérieur même de la profession, entre « orthodoxes » et « hétérodoxes ». La doxa, à défendre ou à pourfendre, selon les points de vue, c’était la théorie économique néoclassique, née dans les années 1870 (école autrichienne, Léon Walras, Alfred Marshall), qui s’est installée depuis le début des années 1980 aux manettes des facultés d’économie, des revues académiques, des jurys de nomination et des politiques économiques, assise sur trois piliers.

Science « approximative »: la retraite à 70 ou 80 ans à l’horizon 2070 ?

Science « approximative »: la retraite à 70 ou 80ans à l’horizon 2070 ?

Un curieux papier de la Tribune qui évoque la possibilité de pousser la retraite jusqu’à 72 ans voir 80 ans.

Un papier surtout fondé sur une approche comptable et qui fait abstraction de la problématique sociétale, une réflexion bâtie sur des fondements davantage scientistes que scientifiques. En effet, l’absence de maladie par exemple ne garantit pas forcément un état de bien-être physique, moral et social. NDLR

Alors que les débats font rage en France autour du relèvement de l’âge de départ à la retraite à 64 ans et sur l’allongement de la durée de cotisation, il existerait, du point de vue de la science, un tout autre scénario. « Si les recherches sur la lutte contre le vieillissement tiennent leurs promesses, en 2070, l’âge de départ à la retraite pourrait être porté à 72 ans », voire 80 ans pronostique ainsi dans une récente note le cabinet d’études Astérès. Celui-ci s’appuie sur les dernières recherches scientifiques qui anticipent un allongement de l’espérance de vie, jusqu’à +41%, suite à des tests menés sur des animaux en laboratoires. Ainsi, – selon une projection très optimiste du cabinet -, les maladies liées à la vieillesse (tumeurs, maladies endocriniennes, du système nerveux, cardio-vasculaires, ou de l’appareil digestif) disparaîtront ou, du moins, seront repoussées d’une trentaine d’années.

Dans ce scénario qui semble inspiré d’un film de science-fiction, il faudrait ainsi travailler jusqu’à 72 ans « pour que le ratio cotisants / retraités soit égal à celui anticipé par le scénario de référence », soit amené à 1,3, le ratio qui aurait été obtenu dans le scénario central de l’Insee avec un départ à la retraite à 64 ans, selon les calculs d’Asterès.

Cette hypothèse de la vieillesse tardive est d’autant plus incongrue qu’actuellement en France, à partir de 70 ans, l’employeur peut, s’il le souhaite, décider de mettre à la retraite d’office un salarié. Autre paradoxe, si partout en Europe la tendance est à l’allongement de la vie de salarié, en 2070, la moyenne européenne demeure toutefois à 67 ans, selon un rapport de la Commission européenne. Dans les deux cas, on est donc encore loin d’envisager 72 ans et plus.

Une certitude toutefois, l’Europe vieillit à vitesse grand V. En 1950, pour une personne âgée de 65 ans, il y avait 11,7 travailleurs actifs. Or, en 2022, ce ratio est tombé à 7 en moyenne dans le monde. Pire, des pays « super âgés » tels que l’Italie, le Japon, la Corée du Sud, vont connaître un fossé « dramatique », prévient une autre étude de McKinsey. Résultat, « le nombre de centenaires en 2070 serait multiplié par 10, déséquilibrant le régime des retraites (…) Pour conserver le ratio actuel, soit 1,722, il faudrait porter l’âge de départ à la retraite à 78 ans. Ce ratio serait amené à baisser à mesure que la population vieillit », justifie Asterès.

Mais la théorie du vivre longtemps est-elle toujours aussi crédible ? En France, en dehors des effets de la crise Covid, l’espérance de vie est en effet en pleine stagnation, selon l’Insee début 2023. Les hommes gagnent en effet seulement 0,1 an d’espérance de vie et celle des femmes ne progresse pas et baisse de 0,4 an par rapport à 2019, année de référence avec la pandémie.

Face à ces tensions sur l’équilibre des comptes des caisses de retraite, une solution émerge pour faire accepter potentiellement de travailler plus longtemps. Selon Asterès, la science prouve en effet qu’il sera possible de « réinitialiser » à multiples reprises l’âge du corps.

« Maladies cardio-neurovasculaires, cancers, maladies neurologiques, diabète de type 2 ou arthrose (…) certains scientifiques pensent pouvoir s’attaquer simultanément à toutes ces maladies et améliorer significativement l’espérance de vie en bonne santé », justifie le cabinet.

« Asterès fait l’hypothèse que ces expériences (menées sur des animaux) sont transposables aux êtres humains et qu’un traitement anti-vieillesse sûr sera disponible », assume ce cabinet privé qui a notamment indiqué avoir compilé plusieurs publications scientifiques d’un professeur de génétique de Harvard.

Mais si on estime que le nombre de seniors (âgés de 65 ans et plus) va doubler pour atteindre 1,6 milliard d’individus d’ici 2050, selon les Nations Unies, il n’est pour autant pas certain que tous le soit en parfaite santé. D’autres publications montrent en effet que la vie peut être certes allongée bien au-delà de 80 ans, mais pas forcément en bonne santé; note une étude du cabinet McKinsey de novembre 2022.

Aussi, seuls 9% des hommes nés aujourd’hui et 16% des femmes peuvent espérer atteindre l’âge de la retraite en bonne santé, selon un étude britannique de The Institute for Public Policy Research (IPPR) de 2022. Outre-Manche, l’âge de départ à la retraite a été repoussé à 67 ans en 2028.

En creux, se pose enfin la question de la pénibilité d’un emploi. En France le débat s’enflamme depuis que le gouvernement a refusé de réintégrer dans sa réforme les trois facteurs de pénibilité dits « ergonomiques » (ports de charges lourdes, postures pénibles, vibrations mécaniques) exclus du compte en 2017. Ces critères sont « extrêmement difficiles à mesurer individuellement », a fait valoir le ministre du Travail, Olivier Dussopt.

A cela s’ajoute en plus la catégorie dite des « carrières longues » caractérisées par un une entrée très précoce dans la vie active pour un salarié. Le gouvernement tente là aussi de prendre en compte un individu qui aurait sollicité ses capacités jeunes, plutôt qu’un autre qui aurait commencé plus tardivement. Là dessus, la science devra aussi répondre au cas par cas. Face au travail, la ligne de vie d’un actif en bonne santé semble encore aléatoire.

Les débats sur l’âge de départ à la retraite en Europe soulèvent de nouveaux débats autour du « bien vieillir ». Dans une étude publiée en novembre 2022, la branche santé du cabinet de conseil McKinsey (The McKinsey Health Institute) a identifié six changements pour « permettre aux gouvernements, aux entreprises de tous les secteurs, aux organismes sans but lucratif, aux intervenants en santé et en bien-être et aux particuliers d’améliorer le vieillissement en santé ».

D’abord, il faut « investir dans la promotion d’un vieillissement sain ». Par exemple, les pays européens investissent, en moyenne, 2,8 % de leur budget de santé dans la prévention. Si le chemin vers un vieillissement sain commence à l’âge adulte, il y a beaucoup à faire pour les personnes âgées. Il convient de concentrer davantage d’efforts de prévention sur les pathologies liées à l’âge, telles que la démence et les déficiences sensorielles, précise McKinsey. Les cinq autres leviers du bien vieillir sont :« améliorer les mesures de la santé et obtenir de meilleures données, étendre les interventions dont il est prouvé qu’elles favorisent le vieillissement en bonne santé, accélérer l’innovation dans l’écosystème du vieillissement en bonne santé, libérer le potentiel de toutes les industries pour favoriser le vieillissement en santé, et enfin, donner aux personnes âgées les moyens et la motivation nécessaires pour vivre pleinement leur potentiel. »

Science- Comment le cerveau construit sa réalité

Science- Comment le cerveau construit sa réalité

Contrairement à ce qu’on a longtemps supposé, notre représentation du monde n’est pas le fruit de l’empreinte que laisseraient les stimuli extérieurs sur l’activité de nos neurones. Ceux-ci sont en fait le siège d’activités spontanées, construisant une représentation interne du monde, sans cesse comparée à nos actions et perceptions.

Lorsque j’étais professeur, j’enseignais à mes étudiants comment notre cerveau perçoit le monde et contrôle le corps. Le message en substance était que lorsque nous regardons quelque chose ou que nous entendons un son, les stimuli visuels et auditifs sont convertis en signaux électriques, puis transmis au cortex sensoriel qui traite ces entrées et donne lieu à des perceptions. Pour déclencher un mouvement, les neurones du cortex moteur envoient des instructions à des neurones intermédiaires, situés dans la moelle épinière, ce qui se traduit par une contraction musculaire.

J’ai commencé mes recherches sans véritablement me demander si cette manière très simple de considérer les liens entre le cerveau et le monde extérieur était fondée. Cependant, malgré la succession des grandes découvertes qui ont donné naissance, à partir des années 1960, au domaine des « neurosciences », j’ai régulièrement dû faire face à la difficulté d’expliquer des mécanismes qu’au fond je ne comprenais pas – comme répondre à la question « où, exactement, dans le cerveau, a lieu l’acte de percevoir ? ». C’est pour répondre à ce genre d’interrogations que j’ai peu à peu développé une autre vision de la façon dont le cerveau interagit avec le monde extérieur.

Le plus grand défi des neurosciences consiste essentiellement à répondre à une question vertigineuse : qu’est-ce que l’esprit ? Du temps d’Aristote, les penseurs supposaient que l’esprit naissait vierge et se formait à partir des seules expériences de la vie. Un peu à l’image d’un tableau noir dépourvu d’inscriptions (que l’on appela tabula rasa, ou « table rase »), sur lequel nos expériences se graveraient peu à peu.

Ce cadre théorique, qualifié de modèle outside-in (les informations de l’extérieur modèlent le cerveau), a non seulement imprégné les philosophies chrétienne et perse, l’empirisme britannique et la doctrine marxiste mais également la psychologie et les sciences cognitives. Il est réputé aujourd’hui encore d’expliquer comment notre cerveau nous donne accès à la réalité.

Mais il existe un autre point de vue – celui qui a guidé mes recherches – qui affirme que les réseaux cérébraux entretiennent leur propre dynamique interne et produisent continuellement une myriade de motifs d’activité neuronale a priori dépourvus de sens. L’accès à la réalité est alors tout à fait différent : c’est parce qu’un comportement – a priori aléatoire – se révèle présenter un avantage pour la survie de l’organisme que le schéma neuronal ayant conduit à cette action prend alors du sens. Par exemple, lorsqu’un nourrisson prononce le mot « te-te » et que ses parents lui tendent un ours en peluche, le son « te-te » acquiert la signification « ours en peluche » [teddy bear, ndlr]. Ce cadre théorique inversé, « inside-out », qui part du principe que le cerveau n’est pas une table rase, est désormais étayé par de nombreux résultats de recherche.

Cela n’empêche pas le cadre « outside-in » d’avoir inspiré des expériences remarquables, comme les découvertes des scientifiques David Hubel et Torsten Wiesel. Ceux-ci sont parvenus, dans les années 1960, à enregistrer l’activité de neurones individuels impliqués dans le système visuel, ce qui leur a valu le prix Nobel de physiologie en 1981. Dans leurs plus célèbres expériences, ils ont enregistré l’activité neuronale d’animaux auxquels ils montraient des images. Les lignes, les bords, les zones claires ou sombres provoquaient des décharges dans différents groupes de neurones. Cela a conduit les chercheurs à penser que les signaux extérieurs amènent les neurones à produire des schémas d’activité simples, dont la combinaison, formant des modèles plus complexes, aboutit à la représentation d’un objet. Aucune participation active n’est nécessaire. Le cerveau effectue automatiquement cet exercice.

Le cadre théorique « outside-in » suppose ici que la fonction fondamentale du cerveau est de percevoir les « signaux » du monde extérieur et de les interpréter correctement. Sauf que si cette hypothèse est vraie, une opération supplémentaire est nécessaire pour que le cerveau réponde aux signaux en questions. En effet, entre les entrées perceptuelles et ce qu’en fait le sujet, il faut supposer l’existence d’une sorte de processeur central, qui reçoit les représentations sensorielles de l’environnement et en extrait les décisions orientant les actions appropriées.

Mais quelle est la nature de ce processeur central ? On le désigne sous de multiples termes : libre arbitre, homoncule, décideur, fonction exécutive, variables intervenantes ou tout simplement « boîte noire ». Cependant, la terminologie utilisée dépend à la fois de l’inclination philosophique de l’expérimentateur et de ce qui abrite ce « processeur ».

Science- Comment le cerveau construit sa réalité dans actu-économie politique

Taxinomie verte: science et-ou politique ?

Taxinomie verte: science et-ou  politique

Mercredi, le Parlement européen a approuvé l’intégration du gaz et du nucléaire dans la taxonomie verte européenne, qui permet notamment d’avoir accès à certains financements. Les eurodéputés ont considéré ces deux sources d’énergie comme nécessaires pour lutter contre le changement climatique. Néanmoins, il est dommageable que le vote se soit fait sur des considérations plus politiques et partisanes que scientifiques alors même que plusieurs études ont été menées pour éclairer le législateur. Par François-Marie Bréon, physicien-climatologue, président de l’Association Française pour l’Information Scientifique (*).( dans la Tribune)

Un article pour montrer le côté stérile de l’affrontement entre l’orthodoxie des partisans de la croissance zéro et l’irresponsabilité des soutiens du développement sans limite NDLR

 

La « taxonomie verte » est un mécanisme mis en place par l’Union européenne (UE) pour définir les activités qui contribuent à la défense de l’environnement en général et la lutte contre le changement climatique en particulier.  Dans son cadre, une activité peut être considérée « durable » si elle contribue substantiellement à l’un des six objectifs environnementaux, sans causer de préjudice important à l’un des cinq autres objectifs. Ces six objectifs de développement durable définis par l’Union portent sur l’atténuation du changement climatique ou l’adaptation à ce changement, l’utilisation des ressources aquatiques et marines, l’économie circulaire, la pollution et la biodiversité et les écosystèmes. Être reconnu dans cette taxonomie est stratégique pour de nombreuses activités car cela permet un accès facilité à des financements.

Concernant l’énergie, l’inclusion ou non du gaz et du nucléaire ont été au cœur des débats.

Si l’utilisation de gaz fossile pour produire de l’électricité contribue fortement aux émissions de gaz à effet de serre, les émissions associées sont bien moindres que celles dues à l’utilisation du charbon. De plus, le gaz est souvent vu comme un complément indispensable pour compenser la variabilité de la production des énergies renouvelables et peut donc apparaître comme nécessaire à leur développement.  Plusieurs pays souhaitent donc voir le gaz inclus dans la taxonomie comme une « énergie de transition ».

Le nucléaire est incontestablement une source d’électricité bas-carbone, mais certaines spécificités de cette industrie font l’objet de discussions sur son respect du critère « sans causer de préjudice important » évoqué plus haut. C’est en particulier le cas de la gestion des déchets et du risque d’accident.

Les discussions européennes autour de cette taxonomie durent depuis plus de deux ans et donnent lieu à de virulentes controverses. Initialement, le gaz et le nucléaire n’ont pas été inclus dans la taxonomie et la discussion a été renvoyée dans celle d’un « acte délégué ». Notons que c’est là un enjeu crucial pour le développement du nucléaire en Europe du fait de son caractère très capitalistique : le financement initial pour la construction est très important et ne peut être rentabilisé que sur plusieurs décennies.  L’accès à un financement à taux réduit est donc nécessaire pour que le cout au MWh produit reste compétitif.

Dans un premier temps, la Commission européenne avait indiqué que la décision de l’inclusion du nucléaire se ferait sur des critères purement scientifiques. Elle avait donc demandé à son centre de recherche, le Joint Research Center (JRC) basé à Ispra en Italie, de faire une évaluation scientifique de cette question. Le rapport[1], publié en mars 2021, a conclu qu’« il n’existe aucune preuve scientifique que l’énergie nucléaire est plus dommageable pour la santé humaine ou l’environnement que d’autres technologies de production d’électricité déjà incluses dans la taxonomie de l’UE en tant qu’activités contribuant à atténuer le changement climatique ». La question des déchets, des accidents potentiels ou de l’impact sur la température des eaux a bien sûr été analysé en détail.

À la demande de la Commission européenne, ce rapport a ensuite été évalué de manière indépendante par deux groupes d’experts. Le « Groupe d’experts visé à l’article 31 du traité Euratom » a validé le 28 juin 2021 la méthodologie et les conclusions du rapport du JRC[2]. De son côté, le Comité scientifique de la santé, de l’environnement et des risques émergents de la Commission européenne (SCHEER) a rendu ses conclusions le 29 juin 2021[3]. Pour lui, les conclusions et les recommandations du rapport du JRC « concernant les impacts non radiologiques sont dans l’ensemble complètes » mais émet des réserves d’ordre méthodologique (insuffisance d’une approche comparative avec d’autres technologies, limite du cadre réglementaire européen comme référence pour la partie du cycle hors Europe) et appelle à une analyse plus poussée pour l’impact thermique des rejets « dans les zones côtières peu profondes et les écosystèmes vulnérables ».

Depuis, il semble que tout se passe comme si l’analyse scientifique n’avait jamais été faite. On est retombé dans les oppositions classiques entre les pays et organisations qui soutiennent le nucléaire et ceux qui s’y opposent. Les deux poids lourds de l’Europe, Allemagne et France, ont poussé l’un pour le gaz et l’autre pour le nucléaire. Les tractations et négociations ont conduit à proposer un acte délégué dans lequel nucléaire et gaz naturel seraient inclus dans la taxonomie comme énergie de transition mais avec des conditions très restrictives, en particulier pour le gaz. Ainsi les installations financées devraient conduire à des émissions de CO2 inférieures à un certain seuil et, surtout, le gaz utilisé au-delà de 2035 devra être d’origine renouvelable et non fossile.

C’est donc cet acte délégué à la taxonomie, qui a été débattu puis voté au parlement européen. Une première évaluation par les Commissions environnement et économie du Parlement européen avait conduit à un rejet du projet. Il a à nouveau été débattu en session plénière au parlement à Strasbourg les 5 et 6 juillet 2022 en parallèle à une forte mobilisation, aussi bien des antis que des pro-nucléaires.

Le vote portait sur le rejet de l’inclusion de l’acte délégué dans la taxonomie. Il n’a recueilli que 278 votes alors qu’il en aurait fallu 353 pour être effectivement rejeté. La répartition des votes est essentiellement partisane : les élus de Renew (centre), du PPE (droite), de CRE (droite eurosceptique) et de ID (extrême droite) ont voté contre. Les Verts et La Gauche (extrême gauche) ont voté pour le rejet de l’acte délégué. C’est aussi d’une majorité des socialistes du S&D, bien qu’une vingtaine d’élus, principalement issus d’Europe de l’Est, n’aient pas suivi cette majorité.

La Commission européenne peut encore mettre un droit de véto sur l’acte délégué, mais cette hypothèse apparaît peu probable compte tenu de la position des différents pays et du vote du parlement.  Néanmoins, l’Autriche et le Luxembourg, de même que plusieurs ONG telles que Greenpeace et le WWF, ont annoncé vouloir saisir la Cour de justice de l’UE.

Ce débat va avoir lieu sur fond de crise énergétique en Europe. En France, presque la moitié des réacteurs nucléaires sont à l’arrêt, une partie pour maintenance traditionnellement concentrée sur l’été lorsque la consommation est faible, mais surtout du fait de défauts constatés sur des canalisations prévues pour apporter de l’eau en situation accidentelle. Dans le reste de l’Europe, c’est le conflit avec la Russie qui entraîne une limitation des importations de gaz et autres combustibles fossiles (charbon et pétrole).

Ce contexte conduit à un recours accru aux centrales à charbon, ce qui est particulièrement délétère au regard des émissions de CO2. En Allemagne, l’échéance de 2023 pour la fermeture des trois dernières centrales nucléaires en activité a été confirmée et, dans le même temps, le nombre de centrales à houille, lignite et fioul en réserve qui seront activées est augmenté. En France, la centrale au charbon de Saint-Avold, d’une puissance de 600 MW, va être remise en activité. Cette situation va donc éloigner plusieurs pays européens de l’accomplissement de leurs objectifs climatiques.

Par ailleurs, si la consommation électrique est relativement faible en été et les moyens disponibles suffisants pour faire face à la demande, les perspectives pour l’hiver prochain sont plus sombres. Mais pour l’heure, plutôt que de chercher des solutions pragmatiques, l’Europe se divise sur des questions partisanes.

_____

[1] JRC Science for Policy report: Technical assessment of nuclear energy with respect to the ‘do no significant harm’ criteria of Regulation (EU) 2020/852 (‘Taxonomy Regulation’). 2021.

https://snetp.eu/2021/04/07/jrc-concludes-nuclear-does-not-cause-significant-harm/

[2]  »Opinion of the Group of Experts referred to in Article 31 of the Euratom Treaty on the Joint Research Centre’s Report Technical assessment of nuclear energy with respect to the ‘do no significant harm’ criteria of Regulation (EU) 2020/852 (‘Taxonomy Regulation’) », 28 juin 2021.

https://ec.europa.eu/info/sites/default/files/business_economy_euro/banking_and_finance/documents/210630-nuclear-energy-jrc-review-article-31-report_en.pdf

[3]

https://ec.europa.eu/info/sites/default/files/business_economy_euro/banking_and_finance/documents/210629-nuclear-energy-jrc-review-scheer-report_en.pdf

_______

(*) Site de l’Association Française pour l’Information Scientifique : Afis.

L’incompatibilité entre science et démocratie ?

L’incompatibilité entre  science et démocratie ?

 

L’ancien délégué interministériel au ­développement durable Christian Brodhag plaide, dans une tribune au « Monde », en faveur d’institutions associant les citoyens à la construction de politiques basées sur une connaissance scientifique acceptée.

 

Tribune.

 

 L’offre politique et le débat de la campagne présidentielle semblent, pour l’instant, se réduire à un marketing politique qui conduit les candidats à formuler des propositions visant spécifiquement chacun des segments de la population.

Or, la somme des intérêts particuliers n’est pas l’intérêt collectif. Faire société dépasse les échelles catégorielle et individuelle. En société, la liberté individuelle repose aussi sur des règles collectives et des institutions qui organisent les droits et les devoirs des citoyens. Faire société au niveau de la nation repose sur la confiance dans les institutions et sur l’usage de règles collectives acceptées.

Le débat sur les institutions est aujourd’hui dominé, au mieux, par des revendications de participation plus démocratique, au pire par la dévalorisation des élus et de la démocratie représentative elle-même. L’insoumission et la contestation du « système » rallient les électeurs vers les partis extrêmes.

L’économiste et sociologue allemand Max Weber (1864-1920) distinguait, il y a un siècle, trois sources de légitimité : deux modèles archaïques, les pouvoirs traditionnel et charismatique, remplacés historiquement par le modèle rationnel légal, qui appuie l’élaboration du droit sur les institutions sociales et politiques.

Or, les deux modèles archaïques reviennent en force. Le pouvoir traditionnel prend aujourd’hui la forme de revendications religieuses solidement installées dans les Etats religieux. Le pouvoir charismatique prend la forme de leaders tribuniciens en prise directe avec le peuple, via notamment les réseaux sociaux. Les « démocratures » tiennent lieu de modèles alternatifs, au niveau mondial.

En s’incarnant dans la bureaucratie et la technocratie, le modèle « rationnel légal » n’a pas tenu ses promesses. En s’éloignant du peuple, il a perdu sa légitimité. L’Etat n’est plus ce Léviathan qui possède et contrôle toutes les informations. L’information et les connaissances sont désormais partagées. Le numérique et les réseaux sociaux contribuent à la décrédibilisation des institutions, et même de la réalité au profit de vérités alternatives.

Il est donc aujourd’hui nécessaire d’actualiser et de dépasser le modèle rationnel légal, si l’on veut sauver la démocratie. Les transitions écologique et numérique sont des défis nouveaux pour les institutions et les règles sociales, parce qu’elles les transforment en profondeur. En effet, elles ne touchent pas directement les règles elles-mêmes, mais les connaissances qui fondent ces règles, et celles qui orientent les comportements des acteurs et des institutions.

Société: Le divorce science et démocratie

Société: Le divorce science et démocratie

 

L’ancien délégué interministériel au ­développement durable Christian Brodhag plaide, dans une tribune au « Monde », en faveur d’institutions associant les citoyens à la construction de politiques basées sur une connaissance scientifique acceptée.

 

Tribune.

 

 L’offre politique et le débat de la campagne présidentielle semblent, pour l’instant, se réduire à un marketing politique qui conduit les candidats à formuler des propositions visant spécifiquement chacun des segments de la population.

Or, la somme des intérêts particuliers n’est pas l’intérêt collectif. Faire société dépasse les échelles catégorielle et individuelle. En société, la liberté individuelle repose aussi sur des règles collectives et des institutions qui organisent les droits et les devoirs des citoyens. Faire société au niveau de la nation repose sur la confiance dans les institutions et sur l’usage de règles collectives acceptées.

Le débat sur les institutions est aujourd’hui dominé, au mieux, par des revendications de participation plus démocratique, au pire par la dévalorisation des élus et de la démocratie représentative elle-même. L’insoumission et la contestation du « système » rallient les électeurs vers les partis extrêmes.

L’économiste et sociologue allemand Max Weber (1864-1920) distinguait, il y a un siècle, trois sources de légitimité : deux modèles archaïques, les pouvoirs traditionnel et charismatique, remplacés historiquement par le modèle rationnel légal, qui appuie l’élaboration du droit sur les institutions sociales et politiques.

Or, les deux modèles archaïques reviennent en force. Le pouvoir traditionnel prend aujourd’hui la forme de revendications religieuses solidement installées dans les Etats religieux. Le pouvoir charismatique prend la forme de leaders tribuniciens en prise directe avec le peuple, via notamment les réseaux sociaux. Les « démocratures » tiennent lieu de modèles alternatifs, au niveau mondial.

En s’incarnant dans la bureaucratie et la technocratie, le modèle « rationnel légal » n’a pas tenu ses promesses. En s’éloignant du peuple, il a perdu sa légitimité. L’Etat n’est plus ce Léviathan qui possède et contrôle toutes les informations. L’information et les connaissances sont désormais partagées. Le numérique et les réseaux sociaux contribuent à la décrédibilisation des institutions, et même de la réalité au profit de vérités alternatives.

Il est donc aujourd’hui nécessaire d’actualiser et de dépasser le modèle rationnel légal, si l’on veut sauver la démocratie. Les transitions écologique et numérique sont des défis nouveaux pour les institutions et les règles sociales, parce qu’elles les transforment en profondeur. En effet, elles ne touchent pas directement les règles elles-mêmes, mais les connaissances qui fondent ces règles, et celles qui orientent les comportements des acteurs et des institutions.

Le divorce science et démocratie

Le divorce science et démocratie

 

L’ancien délégué interministériel au ­développement durable Christian Brodhag plaide, dans une tribune au « Monde », en faveur d’institutions associant les citoyens à la construction de politiques basées sur une connaissance scientifique acceptée.

 

Tribune.

 

 L’offre politique et le débat de la campagne présidentielle semblent, pour l’instant, se réduire à un marketing politique qui conduit les candidats à formuler des propositions visant spécifiquement chacun des segments de la population.

Or, la somme des intérêts particuliers n’est pas l’intérêt collectif. Faire société dépasse les échelles catégorielle et individuelle. En société, la liberté individuelle repose aussi sur des règles collectives et des institutions qui organisent les droits et les devoirs des citoyens. Faire société au niveau de la nation repose sur la confiance dans les institutions et sur l’usage de règles collectives acceptées.

Le débat sur les institutions est aujourd’hui dominé, au mieux, par des revendications de participation plus démocratique, au pire par la dévalorisation des élus et de la démocratie représentative elle-même. L’insoumission et la contestation du « système » rallient les électeurs vers les partis extrêmes.

L’économiste et sociologue allemand Max Weber (1864-1920) distinguait, il y a un siècle, trois sources de légitimité : deux modèles archaïques, les pouvoirs traditionnel et charismatique, remplacés historiquement par le modèle rationnel légal, qui appuie l’élaboration du droit sur les institutions sociales et politiques.

Or, les deux modèles archaïques reviennent en force. Le pouvoir traditionnel prend aujourd’hui la forme de revendications religieuses solidement installées dans les Etats religieux. Le pouvoir charismatique prend la forme de leaders tribuniciens en prise directe avec le peuple, via notamment les réseaux sociaux. Les « démocratures » tiennent lieu de modèles alternatifs, au niveau mondial.

En s’incarnant dans la bureaucratie et la technocratie, le modèle « rationnel légal » n’a pas tenu ses promesses. En s’éloignant du peuple, il a perdu sa légitimité. L’Etat n’est plus ce Léviathan qui possède et contrôle toutes les informations. L’information et les connaissances sont désormais partagées. Le numérique et les réseaux sociaux contribuent à la décrédibilisation des institutions, et même de la réalité au profit de vérités alternatives.

Il est donc aujourd’hui nécessaire d’actualiser et de dépasser le modèle rationnel légal, si l’on veut sauver la démocratie. Les transitions écologique et numérique sont des défis nouveaux pour les institutions et les règles sociales, parce qu’elles les transforment en profondeur. En effet, elles ne touchent pas directement les règles elles-mêmes, mais les connaissances qui fondent ces règles, et celles qui orientent les comportements des acteurs et des institutions.

Science et humanité: la place de l’homme face à l’intelligence artificielle (Eric Salobir)

Science et humanité: la  place  de l’homme face à l’intelligence artificielle (Eric Salobir)

(Cet article est issu de T La Revue de La Tribune – N°7 Décembre 2021)

 

Eric Salobir est président de Human Technology Foundation

Depuis quelques années, les observateurs remarquent une défiance accrue de la société civile vis-à-vis du progrès ; une certaine crainte même envers la science et les nouvelles technologies. Comment expliquer que nous en sommes arrivés là ?

Éric Salobir Ce dont on a peur, c’est de la nouveauté quand elle est disruptive, c’est-à-dire quand elle n’est pas incrémentale et que l’on voit doucement s’améliorer les choses. Or nous sommes en train de vivre un point de bascule. Depuis 20 ans, avec l’arrivée du numérique, de l’Internet et maintenant de l’intelligence artificielle, nous faisons face à ce qui est de l’ordre d’une révolution. Selon le World Economic Forum, cette phase de notre histoire s’apparente à une quatrième révolution industrielle. Selon moi, il s’agit avant tout d’une révolution épistémologique, j’entends par là que ce qui a profondément changé c’est notre rapport à la connaissance et notre rapport au monde. Cette révolution nous fait perdre et gagner des choses tout à la fois. Or, comme bien souvent, on voit vite ce que l’on perd mais pas tout de suite ce que l’on gagne. Nous sommes à une pliure de l’histoire. Tout se passe de l’autre côté du versant qui n’est pas forcément vu par tous. C’est ce voile qui est facteur d’inquiétude pour beaucoup de gens. Cela dit, je me souviens d’une très belle conversation que j’ai eue avec Michel Serres quelques mois avant son décès ; il était beaucoup plus optimiste que moi qui le suis pourtant déjà ! Il m’a rappelé que Socrate était contre l’utilisation de l’écriture car ce dernier était convaincu que la pensée allait être accessible à tout le monde y compris à des gens à qui elle n’était pas destinée et à qui elle ne serait pas expliquée. Pour Socrate, la pensée naît de la rencontre, du dialogue ; à partir du moment où l’on ne peut pas poser de questions, on ne peut pas débattre et donc il n’y a pas de pensée. Aujourd’hui on sait comment l’écriture a contribué au progrès de l’humanité et il est impensable de la remettre en question. Cela a été également le cas avec l’invention des caractères mobiles d’imprimerie qui ont permis de généraliser l’utilisation de l’écrit longtemps réservé aux plus riches. La crainte d’alors était que les textes soient transformés… c’étaient les fake news de l’époque. Mais encore une fois, on s’en est très bien sortis. Le monde s’est transformé. Michel Serres me faisait d’ailleurs remarquer qu’avec la génération de l’écrit, l’homme a beaucoup perdu de ses capacités de mémoire. Les civilisations de l’oral sont des civilisations de la mémoire, qui connaissaient par cœur des récits entiers. Il y avait d’ailleurs une formule latine qui était assez péjorative : « Doctus cum libro », que l’on peut traduire par « est savant quand il a ses livres ». Maintenant c’est « Doctus cum Google ». Tout le monde est savant dès qu’il a accès à des bases de données. Mais ce n’est plus péjoratif.

Surgit peut-être une nouvelle crainte : celle de voir l’humanité régresser intellectuellement, voire même de perdre en intelligence. À force d’être assisté par les outils numériques, l’homme aurait-il tendance à ne plus faire d’effort ? À trop utiliser le GPS par exemple, ne perd-il pas le sens de la lecture d’une carte ? Pour autant cette vision ne suggère-t-elle pas que le côté obscur de ce que l’on perd sans considérer ce que le numérique peut offrir culturellement parlant par exemple ?

É.S. La réponse est double. C’est-à-dire que d’un côté effectivement on perd des choses, il a été prouvé que les personnes utilisant tout le temps le GPS perdent le sens de l’orientation. Donc se repèrent moins bien dans l’espace en trois dimensions. Cela change notre appréhension du monde, c’est vrai. Mais, en même temps, une certaine forme de polychronie est apparue dans notre vie sociale. Nous explorons aujourd’hui des formes d’intelligence collaboratives qui n’existaient pas il y a 50 ans. On est plus multitâches, on travaille plus facilement en réseau, on crée de l’intelligence ensemble.

En revanche, je ne suis pas du tout naïf sur le fait que certains mésusages ou usages abusifs en termes de quantité de certaines technologies, de certains médias, finissent par induire des déséquilibres. Quand le patron d’une grande plateforme de streaming dit « mon concurrent principal c’est le sommeil », c’est extrêmement inquiétant car c’est la santé des personnes qui est en danger. Cela dit, on n’a pas attendu le numérique pour cela. Le président d’une grande chaîne de télévision française affirmait il y a quelques années « vendre du temps de cerveau disponible ». Finalement, le numérique n’est venu qu’à la suite d’un fonctionnement qui existait déjà. Ce que j’observe en revanche, c’est l’accroissement de nouvelles formes de fractures numériques.

C’est-à-dire ?

É.S. Les premières fractures se sont placées entre ceux qui n’avaient pas d’ordinateur ou ne savaient pas s’en servir, ceux qui étaient dans les zones blanches, et les autres. Maintenant la fracture se situe entre ceux qui sont capables de soulever le voile et de comprendre ce qui se passe derrière. C’est là le nouvel enjeu : faire en sorte qu’il n’y ait pas qu’une minorité de gens qui connaissent le fonctionnement des outils digitaux à l’instar des réseaux sociaux. Avoir conscience que les photos de comptes d’influenceurs sont souvent retouchées et donc ne reflètent pas la réalité ; apprendre à recouper l’information, à vérifier les sources. Car pour une immense majorité, l’influence du numérique peut conduire à la déprime et à la manipulation. Est-ce vraiment cela le progrès ? Non, je ne pense pas.

Justement, comment définiriez-vous le progrès ?

É.S. Je suis persuadé que le progrès ne vaut que s’il est partagé par tous. Célèbre allocution d’Aristote reprise comme slogan d’une compagnie de chemin de fer en son temps ! Mais je pense que c’est extrêmement vrai. Cela s’est confirmé notamment avec la pandémie. Il n’y a pas si longtemps, certains mouvements dits transhumanistes encourageaient l’investissement technologique dans l’amélioration significative de la vie d’une petite quantité de gens.

Certains se targuaient même de prendre des pilules à 1 000 dollars en espérant que cela allait rallonger leur vie. Depuis la pandémie, il est clair qu’en termes de santé, ce qui compte de manière essentielle c’est qu’il y ait des lits d’urgence pour tout le monde à l’hôpital quand il y a une épidémie. Cette situation a recentré le débat. En termes d’investissement, on est passé de chercher la pilule qui rendrait les milliardaires immortels à chercher un vaccin qui sauverait toute la planète. C’est un recentrage positif.

Cela dit, la crainte envers les vaccins n’a pas tardé à ressurgir, et cela de manière violente.

É.S. C’est vrai. Cette crainte est l’aboutissement d’une tendance que nous avions vue éclore il y a déjà quelques années. Nous avons d’ailleurs organisé un colloque il y a deux ans dont le but était de recréer la confiance dans les technologies, alors même que les gens de la Silicon Valley apparaissaient encore en couverture des magazines. Nous sentions pourtant qu’une certaine défiance était en train de naître. La vraie question c’est contre quoi et contre qui se tourne cette défiance ? Plusieurs éléments entrent en jeu. D’abord, on confond parfois science et progrès et malheureusement la crise pandémique aura sans doute fait tomber le dernier bastion de la parole qui existait : celui de la parole scientifique. Cela faisait longtemps que le public mettait en doute la parole des politiques, la parole des médias, même la parole des sphères économiques, mais pas la parole scientifique. C’était une parole qui était restée pure. Et ce bastion est tombé lorsqu’on a demandé à des scientifiques de se positionner sur des sujets sur lesquels ils n’avaient pas encore l’information. Est-ce la faute des médias qui les ont poussés à le faire ? Est-ce la faute des scientifiques qui ont cédé à cela ? Et puis, est arrivé le moment où l’on a demandé à tout le monde de parler de tout. Or, en dehors de sa discipline, un expert manque terriblement de discipline justement. Cela a contribué à l’émergence du mouvement antivax, dans lequel beaucoup ne croient plus les scientifiques. La parole des scientifiques semble abîmée.

Il y a là un transfert d’inquiétude. Prenons l’exemple des technologies numériques. Beaucoup accusent les algorithmes des pires maux, comme s’ils étaient capables de penser et d’agir. Mais c’est ce que l’homme fait des algorithmes qui est à remettre en cause, et plus largement la manière dont il utilise toutes ces nouvelles technologies. La défiance ne serait-elle pas à replacer vis-à-vis de l’humain tout simplement ?

É.S. La défiance vis-à-vis des scientifiques c’est une défiance vis-à-vis de l’humain. Et la difficulté avec l’algorithmique notamment c’est justement de savoir ce que l’on fait avec les algorithmes. Je me souviens d’une plateforme de recrutement en ligne qui avait mis en place un algorithme pour sélectionner les CV ; les dirigeants ne voulaient pas que ce soit basé sur un critère de genre mais en même temps il fallait bien mettre des critères et parmi eux il y avait la rapidité de réponse ; or il se trouve que les hommes réagissent souvent beaucoup plus vite que les femmes quand ils reçoivent une annonce car ils y voient une opportunité immédiate et beaucoup d’entre eux se sentent tout à fait confiants pour répondre. Alors qu’une femme va s’interroger sur ses compétences, se demander si le poste est bien pour elle et donc elle ne va pas répondre tout de suite. De fait, ce critère-là a induit indirectement un biais de genre. Heureusement la plateforme s’en est aperçue et ils ont mis en place un algorithme qui vérifie que la sélection comporte un pourcentage de femmes qui correspond à celui du marché. Cet exemple prouve que l’on n’a pas toujours toutes les clés et qu’à partir du moment où l’algorithme est apprenant il y a un risque de biais.

En tout état de cause, ce qu’il faut retenir de cette histoire, c’est que ce sont les humains qui sont en jeu. Dans le cadre d’un recrutement, d’une entrée à l’université, dans le cadre d’un crédit pour acheter une maison, c’est notre vie qui est en jeu et c’est là qu’il faut avoir une prudence particulière. Face à cela, mon but n’est pas de rassurer les gens mais de les aider pour qu’ensemble on éclaire le chemin. Les aider à voir les vrais dangers afin de déboulonner les fausses peurs qui, par essence sont mauvaises conseillères. Ces peurs risquent de freiner certaines populations dans l’adoption des technologiques alors que d’autres ne vont pas se freiner ; ce qui, de fait, va accroître la fracture que j’évoquais. Et l’une des difficultés que l’on voit c’est que cette fracture numérique existe aussi sur le marché du travail. Prenons l’exemple des livreurs, une application leur indique le chemin à utiliser et ils n’ont pas le droit d’en dévier. Au fond, ils travaillent pour une IA. Certaines plateformes de livraison en ligne calculent aussi les temps de pauses, la rapidité des gestes et n’hésitent pas à désigner ceux qui ne sont pas très performants. Et parfois même les remercier.

On est face à l’émergence d’un prolétariat numérique. Il y a ceux qui sont enchaînés à la machine et ceux qui sont remplacés par la machine. Aujourd’hui, il existe des algorithmes qui sont capables d’établir la base de contrats ou de vérifier des comptes. Or avant de devenir expert, que l’on soit comptable ou avocat, il faut passer par la case junior. Si l’algorithme fait le travail à la place d’un débutant, comment allons-nous former des experts chevronnés ? Il faut donc reconnaître que nous avons quelques défis à relever. Notre société va devoir s’adapter et il faut s’assurer que la façon dont elle s’adapte ne met pas en danger l’humain.

Comment faire pour redonner confiance au progrès ? Quelles actions avez-vous mises en œuvre ?

É.S. Human Technology Foundation, que je préside, est née de la rencontre d’un certain nombre de gens qui venaient du secteur privé technologique qui se sont aperçus que les lieux de dialogue fécond étaient quand même assez rares. Et qu’il fallait pouvoir se parler loin de la fureur, des micros, se parler calmement, penser, élaborer des solutions. Je n’ai été qu’un catalyseur de ce réseau, autour des autorités de l’Église catholique, des grandes entreprises mais aussi des start-ups, des universitaires, d’un certain nombre de représentants des régulateurs et de la société civile. Au départ, notre but était de dialoguer. Nous considérions que chacun avait un bout du puzzle, une vision propre. Et si nous voulions une vision à 360° il fallait s’asseoir autour d’une table. Dépassant le cadre d’une éthique conséquentialiste, largement répandue outre-Atlantique, nous tentons une approche plurielle, notamment fondée sur une éthique kantienne : la question n’est pas de savoir si vous ne faites de mal à personne mais de savoir si le principe de votre action est bon. Est-ce que je souhaite que tout le monde fasse ainsi ? Ne pas être néfaste ne suffit plus. Il faut un impact positif. Mais, paradoxalement, on l’atteint mieux en se focalisant non sur les conséquences mais sur les principes. C’est ce questionnement qui bouscule les choses, et qui plaît dans la Silicon Valley. Ce sont l’intention et la raison d’être qui sont questionnées. D’où l’émergence des entreprises à mission. Tout le travail qui a été fait en France avec la Loi Pacte va dans ce sens. Puis, nous nous sommes rendu compte que se parler entre nous n’allait pas suffire. Et qu’il fallait faire des études un peu plus approfondies. Nous avons alors travaillé sur la gouvernance des technologies en situation de crise. En ce moment, nous travaillons sur l’investissement responsable dans la technologie : nous souhaitons donner des métriques pour les investisseurs, des indicateurs extra-financiers pour les aider à vérifier que leurs investissements dans la technologie ont bien un impact positif.

Je suis ainsi partisan de l’autorégulation, car comme le dit l’un de nos partenaires de la Silicon Valley « les bad guys trouveront toujours un moyen de contourner la règle ». Pourtant, je suis aussi persuadé qu’il faut baliser le terrain pour éviter les débordements. Nous voulons donc également accompagner les acteurs des politiques publiques. Ils ont un rôle-clé.

Si la régulation ne suffit pas, que faut-il faire ? Avez-vous mis au point des méthodes spécifiques pour aider à redonner confiance dans le progrès ?

É.S. Il est nécessaire de mettre en place au sein des entreprises une culture de l’éthique, des bonnes pratiques. C’est déterminant. Et pour cela, nous avons créé un certain nombre d’outils. Nous avons par exemple élaboré une méthode d’évaluation éthique des technologies qui permet de vérifier l’impact d’un projet développé par une entreprise. Elle est très utile quand on aborde des technologies sensibles comme celle de la reconnaissance faciale. Cette méthode permet aux entreprises qui veulent bien faire, et il y en a un certain nombre, d’avoir les moyens de vérifier qu’elles font bien. Car l’éthique, en réalité, c’est assez complexe. Si je vous demande : « La reconnaissance faciale c’est bien ou pas bien ? » La question n’a pas de sens : l’identification des terroristes à la volée dans un aéroport, par le scan de tous les visages, n’a rien à voir avec le système d’authentification qui déverrouille votre téléphone. Ce sont deux approches très différentes. Notre méthode aide l’entreprise à se positionner au carrefour entre la technologie, le marché (le public cible qui peut être plus ou moins vulnérable) et le produit ; et l’aider à voir si ce qu’elle fait correspond bien à ses valeurs. Nous avons testé cette méthode au sein du groupe La Poste, qui a élaboré une charte éthique de l’IA et souhaite vérifier que ses projets technologiques sont en accord avec les valeurs exprimées dans ce document. La préoccupation forte était ici de s’assurer de l’adéquation entre les actions et les affirmations. Je trouve cela très sain. C’est une très belle démarche de prendre le temps de réfléchir aux principes que l’on veut appliquer. Et de se doter d’outils pour vérifier que cela ne reste pas lettre morte accrochée à un mur comme une espèce de mantra auquel on se réfère de temps en temps.

En tant qu’homme d’Église, pourquoi avoir choisi de travailler avec les entreprises ?

É.S. En fait, ce ne serait pas respectueux de travailler sur les nouvelles technologies sans dialoguer avec leurs développeurs. J’ai énormément de respect pour les dirigeants d’entreprises qui sont systématiquement stigmatisés quand quelque chose ne va pas mais à qui on ne dira pas forcément merci s’ils développent des process qui fonctionnent bien. Or, c’est un rôle difficile en ce moment. Il n’y a pas si longtemps, il suffisait d’avoir quelques bonnes intentions et de les afficher. Maintenant beaucoup d’entreprises approfondissent leurs projets pour vérifier que tout ce qui est fait, corresponde bien à ce qui est dit ; et ça c’est extrêmement compliqué. J’ai beaucoup de respect pour tous ceux qui innovent et tous ceux qui entreprennent et je pense qu’il faut s’asseoir à leurs côtés pour les aider à prendre la bonne direction. Parfois il faut les éclairer, les pousser du coude et leur dire quand cela pose problème, parfois il faut juste les aider à éclairer le chemin et à trouver des solutions.

Quand le changement de prisme se formalise, ne peut-on pas considérer cela aussi comme une innovation ?

É.S. On fait preuve d’innovation chaque fois que l’on déplace l’angle de vue et là, effectivement, le fait de penser autrement y contribue. Ce qui est une forme d’innovation c’est de penser aussi des nouveaux cadres, je prêche en ce sens. Ce n’est pas seulement d’inventer de nouvelles techniques : il existe aussi une innovation sociale. Par exemple, mettre en place un nouveau cadre pour la valorisation de la donnée en Europe c’est une forme d’innovation sociétale et technologique. Et là où l’innovation devient un progrès c’est effectivement au moment où l’innovation a un impact positif sur le plus grand nombre. C’est un point extrêmement important pour nous. Au sein de la Human Technology Foundation, nous défendons la technologie au service de l’humain. Mais l’humain, cela veut dire « tous les humains » !

Votre confiance en l’humain semble d’ailleurs inébranlable. Pour autant, l’air du temps est particulièrement anxiogène. Avez-vous un regard positif sur l’avenir ? Comment voyez-vous le monde en 2050 ?

É.S. Nous sommes dans une situation de recomposition du monde aussi bien économique que sociétale, avec des nouvelles lignes de fractures, même au niveau militaire où l’on voit l’émergence de nouvelles guerres froides, donc effectivement cette situation est assez anxiogène. Par ailleurs, sur un certain nombre de sujets, nous arrivons à la fin d’un cycle. Je pense que notre démocratie connaît des difficultés. Il existe peut-être un peu le fantasme d’une démocratie directe, où l’on gouvernerait directement par la rue, où l’on se rassemblerait sur les réseaux. Le danger c’est que les fins de cycle passent souvent par des ruptures qui sont plus ou moins violentes. Ce qui m’inquiète c’est qu’elles sont souvent violentes pour les mêmes. Ceux qui sont exposés, qui sont vulnérables.

Les crises que nous traversons et que nous allons traverser – la crise pandémique en est une, la crise climatique sera beaucoup plus importante – vont surtout marquer les plus vulnérables : ceux qui ont le moins de prise sur l’évolution du monde risquent d’en pâtir le plus. La violence de certaines de ces ruptures est inquiétante, on l’a vu avec des contestations très fortes, comme celles des antivax. On voit, en France, un groupe quasiment à l’affût d’une bonne raison de descendre dans la rue. C’est inquiétant.

Ce n’est pas très optimiste…

É.S. Oui, à court terme. Mais, à long terme, je partage la vision de Michel Serres que j’évoquais. L’humain s’est toujours tiré par le haut de toutes les révolutions épistémologiques. Je vous citais les caractères d’imprimerie mais chaque fois qu’une invention a bouleversé le quotidien, la résilience et l’inventivité de l’humain ont toujours pris le dessus. J’ai une grande confiance dans l’humain pour sa capacité à trouver des nouveaux modèles et nouveaux équilibres à moyen et long terme.

Plutôt que de croire au progrès - d’ailleurs peut-on croire au progrès ? On a la foi dans une religion, mais peut-on l’avoir dans le progrès, dans la science ? - aujourd’hui l’enjeu n’est-il pas de retrouver la foi en l’être humain ?

É.S. Un certain nombre de scientifiques vous diront que la foi dans la science existe car lorsque vous êtes scientifique, vous êtes obligé de croire ce que vous disent vos confrères. Car tout le monde ne refait pas toutes les démonstrations. Et d’une discipline à l’autre, les scientifiques s’appuient aussi sur des choses qui ont été découvertes par d’autres dans des domaines qu’ils ne sont pas du tout capables de comprendre. En effet, la foi est liée à la confiance. Et à un moment, il faut avoir confiance. Or, aujourd’hui, la parole scientifique est mise à mal, donc la foi dans la science est mise à mal également. En revanche, l’humain ne se départit pas d’une forme de pensée magique, chamanique presque. Et je pense que cette pensée-là, on l’a quand même beaucoup investie dans des moyens technologiques, c’est un peu le principe du totem.

C’est-à-dire ?

É.S. Je pense aux enceintes connectées. Elles sont un peu à l’image des dieux Lares que l’on plaçait dans l’atrium pour protéger le foyer, dans la Rome antique. Aujourd’hui, elles sont dans la cuisine ou dans le salon, ce sont des petits objets qui sont censés eux aussi protéger le foyer sauf que les dieux Lares étaient des statuettes, et qu’il fallait vraiment y croire. Les auteurs de psaumes se moquaient ainsi des faux dieux : « Ils ont une bouche mais ne parlent pas, ils ont des oreilles mais n’entendent pas ». Mais si vous dites « Alexa, Siri ou Google, commande-moi une pizza », ils le font. Ces enceintes sont connectées au système d’alarme, aux téléphones des enfants et vous envoient un bip pour vous rassurer quand ils rentrent le soir, elles sont connectées au système de chauffage et le baissent si vous oubliez de le couper en partant. Finalement, oui, elles prennent soin du foyer. Et elles fonctionnent un peu sur le principe des dieux car elles sont aussi une porte ouverte sur la connaissance et sur l’extérieur. Quand vous leur posez une question et qu’elles vous répondent, ne peut-on pas les comparer à la voix de la Pythie ?

Tout cela est de l’ordre du totem. On les admire, les vénère, on ne sait pas bien comment elles fonctionnent et on attend d’elles une forme de protection. Le problème c’est que le totem par définition, c’est l’aliénation. Vous remettez une partie de vous-même, de votre liberté. Vous l’aurez compris, je n’en veux pas à la technologie, en revanche je m’inquiète pour l’humain. J’ai foi en Dieu et confiance dans l’humain. En tant que chrétien, je le dirais conçu à l’image de Dieu créateur ; que l’on soit inventif ce n’est pas un hasard. En même temps, j’ai bien conscience aussi que le vivant ne survit que par économie d’énergie. Le danger est donc que notre esprit cède petit à petit à cette forme de paresse qui consiste à laisser la machine choisir pour lui. L’humain assisté ne risque-t-il pas d’être un peu moins humain ? Je suis profondément persuadé que les technologies sont des productions de la société aux deux sens du génitif, c’est-à-dire que d’un côté nous les produisons, collectivement, ce sont des technologies qui ressemblent à nos sociétés, et d’un autre côté, à mesure qu’on les utilise elles nous façonnent, elles nous transforment. À un moment, est-ce que cette production fait de nous des gens plus humains, ça nous humanise ou ça nous déshumanise ? Nous sommes arrivés à une ligne de fracture, à nous de choisir la bonne direction. Il faut peut-être réinventer la façon dont on est humain à l’âge de l’intelligence artificielle.

…………………………………….

Éric Salobir est l’auteur de Dieu et la Silicon Valley aux Éditions Buchet-Chastel, 2020.

Science et société:Les économistes manquent cruellement de culture et de vision généraliste

Les économistes manquent cruellement de culture et de vision généraliste ( Robert Boyer, économiste)

L’économiste Robert Boyer pointe dans son dernier ouvrage « Une discipline sans réflexivité peut-elle être une science ? Epistémologie de l’économie » (Ed. La Sorbonne) les nombreuses failles de la science économique dominante à expliquer les grande crises économique et sanitaire récentes. Figure de l’école de la régulation en France avec l’économiste Michel Aglietta, l’économiste Robert Boyer  plaide pour la création d’agora géante qui pourrait « être le terreau d’une bifurcation de la discipline économique, en particulier de sa réinsertion tant dans les sciences de la nature que dans celles de la société ».

Robert Boyer est une figure de l’école de la régulation en France avec l’économiste Michel Aglietta. Anciennement directeur de recherche au CNRS et directeur d’études à l’EHESS, ce polytechnicien collabore à l’institut des Amériques et anime l’association Recherche et régulation. 

LA TRIBUNE- Pourquoi avez-vous décidé de vous attaquer à ce sujet dans votre dernier ouvrage ?

ROBERT BOYER- J’ai commencé à travailler comme économiste en 1967. A cette époque, je pensais qu’une discipline économique était en voie de constitution et j’espérais y participer. Elle était rigoureuse et permettait d’éclairer de façon assez précise les choix de politique économique. Rétrospectivement le keynésianisme était en effet relativement adapté à la prise en compte des compromis sociaux de l’après Seconde guerre mondiale. Ce n’est plus le cas lorsqu’apparait en 1973 le phénomène de la stagflation, soit une forte inflation malgré la chute de l’activité économique. C’était l’indice de l’entrée dans une nouvelle époque du capitalisme, hypothèse fondatrice de la théorie de la régulation, que je n’ai cessé depuis lors de travailler. De son côté la majorité des économistes a interprété cet échec comme la conséquence directe de l’absence de bases microéconomiques de la théorie générale de Keynes.

S’est imposée l’idée qu’il fallait refonder la macroéconomie sur la microéconomie. Ce n’était pas forcément une mauvaise idée, mais très vite plusieurs problèmes ont surgi tel le recours à la notion d’agent représentatif, d’anticipations rationnelles, d’équilibre structurellement stable, autant d’hypothèses intenables. Ce programme qui était au début scientifique a été utilisé, au fil du temps, comme justification des stratégies de déréglementation et de libéralisation. Pendant 30 ans, la macroéconomie s’est enfoncée dans l’exploration de prémices totalement faux. Les Etats-Unis étaient réduits à un ensemble de producteurs et de consommateurs, sans prise en compte aucune du rôle des banques, des marchés financiers, et de toutes les organisations et institutions encadrant l’activité économique.

J’ai vu avec étonnement la discipline évoluer et perdre beaucoup de sa pertinence. Pour cerner les raisons de cette dérive, je l’ai resituée par rapport à l’histoire des grands courants de la pensée. Au fil des décennies, j’ai accumulé suffisamment de matériaux pour montrer que la profession d’économiste a beaucoup changé. A grands traits elle est animée par de virtuoses techniciens qui rendent des services aux acteurs mais de moins en moins par de grands économistes dont la visée serait d’analyser les enjeux du monde contemporain. La crise de la macroéconomie est beaucoup plus profonde que l’on ne pense. Le livre soutient que ce sont les bases de la discipline qui sont en cause et non pas quelques erreurs mineures. La crise de 2008 a fait éclater au grand jour la crise de cette nouvelle macroéconomie classique.

Vous affirmez que l’institutionnalisation de la profession d’économiste a conduit à produire des spécialistes de la modélisation mais peu de chercheurs capables de conceptualiser les bases de la discipline. Que voulez-vous dire par là ?

R.B- Dans les années 30, les Etats-Unis comptaient quelques milliers d’économistes. Aujourd’hui, ce pays en recense des centaines de milliers. A l’époque, de grands économistes, de Joseph Schumpeter à Frederick von Hayek, dialoguaient entre eux dans la recherche d’explications à la crise de 1929. C’est l’éclatement du métier qui prévaut : certains sont économistes de banque, d’autres sont économètres, d’autres encore travaillent dans des think tank visant à influencer la politique des gouvernements. Le métier s’est considérablement diversifié en une myriade d’approches, de techniques appliquées aux différents secteurs de l’économie. On note aussi un éclatement des demandes à l’égard des économistes. Leur spécialisation est tellement poussée qu’elle débouche sur une anomie de la division du travail, telle que conceptualisée par le sociologue Emile Durkheim. Sur une même question – par exemple les marchés financiers sont-ils efficients ? – les diverses branches de la discipline livrent des réponses contradictoires.

La structuration du champ académique (hiérarchie des revues, modalités de recrutement des enseignants) crée un système formant essentiellement des techniciens affirmez-vous. Comment faire pour accorder plus de reconnaissance aux intellectuels en économie ?

R.B- On peut distinguer trois phases dans la structuration du champ académique. La première avait pour projet de fonder la discipline sur la théorie de l’équilibre général. Les chercheurs allaient pouvoir produire une formalisation d’une économie de marché justifiant l’image de la main invisible d’Adam Smith, à savoir la possibilité et l’optimalité d’une économie décentralisée où chacun ne poursuit que son intérêt. En fait les mathématiciens finissent par conclure que ce n’est le cas que sous des hypothèses très restrictives, non satisfaites dans les économies contemporaines du fait de l’existence du crédit, de rendements d’échelle, de pouvoir de monopole. Ainsi loin d’être un fait scientifique, la main invisible devient une croyance.

Une deuxième phase enregistre une succession de modélisations macroéconomiques qui entendent remplacer celles inspirées par Keynes. C’est d’abord la théorie monétariste de Milton Friedman qui s’impose comme explicative de l’inflation. Mais elle périclite lorsque se multiplient les innovations qui assurent la liquidité de nombreux actifs financiers, puis quand l’aisance monétaire ne débouche pas sur une accélération de l’inflation, mesurée par les prix à la consommation. Ce sont ensuite des modèles qui modernisent la théorie classique sous l’hypothèse d’auto-équilibration des marchés, transitoirement perturbés par des « chocs » réels ou monétaires. Les Banques Centrales usent de ces modèles mais ils montrent leurs limites lors de la crise de 2008.

Aussi dans une troisième étape, passe-t-on des grandes théories à l’économétrie et de l’économétrie à la « métrie », c’est-à-dire l’application des avancées des techniques statistiques à toutes les données disponibles, bien au-delà des phénomènes économiques.

D’un côté, avec les masses de données produites en temps réel par la finance, une nouvelle discipline, fondée sur les mathématiques financières, prend son essor, sans trop se préoccuper des conséquences macroéconomiques des nouveaux instruments qu’elle invente. Avec l’économie de l’information, apparaît ensuite le besoin d’analyser ces données grâce à l’intelligence artificielle.

De l’autre côté, les recherches en macroéconomie sont presque complètement désertées. Rares sont les jeunes et talentueux chercheurs qui osent se lancer dans un domaine aussi difficile. Or, les dernières crises ont fait apparaître le besoin d’une analyse des économies et des relations qu’elles entretiennent dans un système international en crise. Lorsque la crise financière de 2008 éclate, la macroéconomie se rappelle au bon souvenir des gouvernements et des économistes. L’irruption de la pandémie appelle des réponses, en matière de politique monétaire et budgétaire, soit des questions que la microéconomie ne peut traiter.

Vous évoquez notamment une crise de la macroéconomie. Quels sont les facteurs qui ont pu contribuer à affaiblir cette discipline ?

R.B- D’abord trop souvent le chercheur ne distingue pas entre vision, théorie, modèle, mécanisme, alors que ce sont des concepts bien différents. Une série de modèles, au demeurant fragiles dès qu’on les utilise pour prévoir, ne fondent pas une science car ce ne sont souvent que des éclairages partiels ou des aides à la décision. Ensuite chacun a tendance à se focaliser sur un mécanisme parmi beaucoup d’autres or le propre de la macroéconomie est de prendre en compte et d’articuler l’ensemble des mécanismes pertinents. Enfin, la clôture du champ de la macroéconomie sur lui-même lui interdit de reconnaître sa dépendance vis-à-vis du pouvoir politique. Plus encore, son accent sur le court terme n’est guère favorable à la reconnaissance des enjeux que sont devenus l’écologie, les pandémies, l’inégalité tant domestique qu’internationale.

Il est sans doute illusoire d’attendre la venue d’un nouveau Keynes. De nos jours, la formation universitaire des économistes ne livre pas une formation suffisamment généraliste permettant de formuler des questions pertinentes et les éclairer. Keynes considérait que « l’économiste doit posséder une rare combinaison de dons…D’une certaine façon, il doit être mathématicien, historien, homme d’État, philosophe… Aucune partie de la nature de l’homme ou de ses institutions ne devrait être entièrement hors de sa considération. » Bref un grand intellectuel !

Pourquoi les grands courants économiques dominants ont échoué à rendre compte des grandes crises du 20ème siècle et du 21ème siècle ?

R-B- Les macro-économistes ont pris beaucoup de retard par rapport aux considérables transformations du capitalisme. La plupart ont exclu de leurs modèles la possibilité même de crises. Par définition, l’économie perturbée par des chocs externes revient automatiquement vers l’équilibre de long terme. Or tel n’est pas le cas car la nature des processus économiques est beaucoup plus complexe et changeante dans le temps.

Dans un tel contexte d’incertitude sur les mécanismes à l’œuvre, chaque école de pensée tend à privilégier son interprétation. Ainsi les enjeux s’en trouvent simplifiés, ce qui polarise les conseils adressés aux gouvernements. On observe alors une inversion des relations entre le prince et le conseiller. En théorie, le conseiller estime qu’il est porteur de science et le prince pense qu’il trouve ainsi une justification « objective » de sa politique. En pratique, ce dernier va chercher dans les théories économiques en concurrence celles qui lui sont favorables. Par exemple, la nouvelle théorie monétaire américaine vient à point nommé réhabiliter la politique budgétaire face aux limites que rencontrent la Banque Centrale. Cette apparente révolution intellectuelle vient appuyer le fait que la dépense publique doit être à nouveau un outil puissant pour les Etats-Unis.

Pourtant, ils sont encore très écoutés par les élites et le pouvoir. Comment expliquez-vous ce paradoxe ?

R.B- Se reproduit aujourd’hui un phénomène déjà observé à propos des instituts de prévision lors de la fin des trente glorieuses. Plus mauvaise était la qualité de leurs prévisions, plus ils se multipliaient car tour à tour ils avaient raison puis se trompaient. Aucun ne parvenait à percer la grande incertitude liée à un changement d’époque. De nos jours, la même configuration prévaut concernant l’expertise économique : le politique demande d’autant plus d’avis aux économistes qu’il doute de leur expertise ! Il en est de même concernant l’explosion des sondages d’opinion censés éclairer les élections. Comment devrait progresser la connaissance économique ? Par la reconnaissance des erreurs et leur correction, phénomène trop rare. Par ailleurs, il faut savoir avouer que l’on ne sait pas.

La pandémie pourrait-elle permettre de renouveler la vision des économistes dans les pays riches ?

R.B- Les pays riches étaient sûrs que la sophistication de leur système de santé et la vigueur de la recherche pharmaceutique et biologique allaient leur permettre d’éviter le retour des épidémies. Lorsque la Covid-19 est apparue à Wuhan, beaucoup de gouvernements des pays riches pensaient que ce virus allait concerner seulement les pays pauvres. En fait, beaucoup d’Etats ont découvert un bien commun passé jusque-là inaperçu : la sécurité sanitaire mondiale.

Les pays africains qui étaient supposés plus vulnérables ont résisté car leur population était beaucoup plus jeune et les responsables avaient appris des épidémies précédentes, telle Ebola. De même certains Etats asiatiques avaient conservé des stratégies de prévention pour affronter collectivement des nouvelles pandémies. Voilà qui devrait renouveler l’intérêt des économistes pour le rôle parfois déterminant du système de santé : au-delà du contrôle de la croissance des coûts s’impose la prise en considération de sa résilience face à l’imprévu. De même, une série de décisions de court terme peut déboucher sur une crise majeure, comme le montre la situation présente des hôpitaux.

 

Quel(s) rôle(s) les Etats ont-ils pu jouer depuis les dernières crises économiques et sanitaires ?

R.B- Après 2008 et la pandémie, l’Etat est redevenu le maître des horloges. Il socialise les anticipations, ce qui permet aux acteurs de se repérer face à une incertitude qui leur échappe. C’est à l’Etat de fixer le cap en matière de stratégie sanitaire. La pandémie a également rappelé que la monnaie est créée en fonction des besoins de la société. La Banque Centrale Européenne a pu refinancer sur le marché secondaire les dettes publiques associées au Covid-19 et non plus seulement des crédits privés.

Le déficit public est redevenu un outil essentiel pour passer les périodes difficiles. Certains voulaient interdire dans la constitution tout déficit public. On a redécouvert que la solidarité nationale s’exprime grâce à l’Etat. Les années Covid-19 resteront comme une grande césure dans l’histoire. Il est peu probable que l’on retourne vers un passé marqué par de nombreux problèmes structurels non résolus.

Quelles sont les leçons de la crise sanitaire en matière d’inégalités ?

R.B- Sur le plan des inégalités, la pandémie a rappelé qu’au sein des sociétés la privation de l’accès aux services publics, aux hôpitaux, aux médecins accentue les disparités entre les riches et les pauvres. Les plus précaires obligés de travailler habitent dans des zones bien moins desservies sur le plan médical. On redécouvre des inégalités dans le pronostic vital et l’espérance de vie. La pandémie a reformulé la question à partir de la capacité des personnes à mener une vie en bonne santé.

Le système de santé, miné par la volonté de réduire les coûts, a tenu grâce aux initiatives et au dévouement du personnel, situation qui n’est pas tenable à long terme. La médecine de ville et les hôpitaux publics et privés n’ont pas été réorganisés. En 2000, la France avait le meilleur système de santé d’après l’OMS. Il a dégringolé depuis et est devenu inégalitaire et inefficient.

Sur le plan international, la pandémie risque de laisser des traces durables dans nombre de pays pauvres. L’illettrisme dans les pays pauvres s’y est développé, ce qui augure mal des possibilités de développement humain et économique. Dans tous les pays, la pandémie a attisé les tensions sociales.

Les institutions internationales ont-elles joué leur rôle ces dernières années ?

R.B- L’organisation mondiale du commerce (OMC) est bloquée et le FMI n’apparaît qu’au moment des crises les plus graves, comme c’est encore le cas en Argentine. Sur le front international, font défaut les institutions nécessaires. Il faudrait créer une agence pour le climat qui soit aussi forte que le FMI ou la Banque mondiale à une certaine époque. Un institut international de la migration ne serait pas inutile car avec le changement climatique, les vagues migratoires pourraient être considérables.

Enfin, l’organisation mondiale de la santé (OMS) devrait avoir le pouvoir d’organiser la sécurité sanitaire mondiale mais aussi de piloter l’innovation médicale pour répondre par des dispositifs de prévention à des pandémies. Ce avec un budget conséquent et des moyens pour vacciner à l’échelle mondiale. Les institutions de Brettons Woods ont vieilli et de nouvelles peinent à émerger. La crise va durer en fonction de l’incapacité à engendrer ces institutions. Nous vivons donc une période charnière et historique mais lourde de risques.

Dans votre ouvrage, Les capitalismes à l’épreuve de la pandémie, vous avez travaillé sur plusieurs scénarios de sortie de crise. Plus de deux années après le début de la pandémie, sur quel type de capitalisme cette crise pourrait-elle déboucher ?

R.B- Nous avons échappé au scénario de la dystopie d’un repliement nationaliste général, qui serait intervenu avec une seconde victoire de Donald Trump. Joe Biden a provisoirement enrayé ce scénario. Cette crise a cependant révélé un très grand retard dans la coopération internationale. On enregistre certes quelques avancées sur la fiscalité des multinationales, ou encore l’initiative COVAX pour les vaccins. L’Europe a pour la première fois émis des titres de dette européens. Un pas a été franchi mais d’autres seront nécessaires. Prise entre les Etats-Unis et la Russie, l’Europe est un partenaire sans grand pouvoir géopolitique. Dans la crise de l’Ukraine, le multilatéralisme est loin de s’affirmer. L’économie mondiale est à nouveau proche de conflits ouverts impliquant les Etats-Unis, la Chine et la Russie.

La crise de 2008 et la pandémie ont révélé beaucoup de structures cachées. La finance était aux yeux de beaucoup un facteur de stabilisation. Ce n’était pas le cas puisqu’elle peut durablement enrayer la croissance de certains pays, ce dont l’Argentine donne un cruel exemple. Le monde a-t-il raison de continuer la financiarisation ?

La mondialisation a été beaucoup critiquée ces dernières décennies. Dans quelle direction la globalisation pourrait-elle évoluer dans les prochaines années ?

R.B- La globalisation a certes permis à la Chine de se développer mais elle a induit beaucoup de problèmes qui ne sont pas résolus. La mondialisation a été heureuse pour quelques-uns et moins bonne pour beaucoup d’autres. La pandémie a redistribué la carte du monde, en accélérant le déplacement de son centre de gravité en direction de l’Asie. Partout les failles de la globalisation ont favorisé le retour du principe de souveraineté nationale qui est aussi une menace pour l’Union Européenne qui se trouve sans doute à la croisée des chemins.

Nous vivons une période charnière. Les Etats-Unis attendaient l’effondrement de la Chine, à l’image de celle de l’URSS. Or la Chine ne va pas rejoindre l’idéal occidental. Elle vient de signer le plus grand traité régional de libre-échange sur la planète. L’Europe ne peut plus affirmer qu’elle est la plus vaste zone de libre-échange. Taïwan, la Corée du Sud et d’autres pays du Sud ont réussi à bien mieux s’en sortir que d’autres pays. Le monde a changé mais l’Europe est à la traîne.

Quel regard portez-vous sur la polarisation à l’intérieur des sociétés ?

R.B- Dans beaucoup de pays, deux fractions de la société aux conceptions opposées s’affrontent sur toutes les questions : l’ouverture à l’international, l’immigration, l’organisation des services collectifs ou encore la fiscalité. Le Brexit est à ce titre emblématique car il a mis en exergue la profondeur de cette division. Les différents sondages et enquêtes ont montré que les ruraux, peu diplômés et âgés ont voté en faveur du Brexit. A l’inverse, les jeunes urbains diplômés ont voté pour l’Europe. Les gouvernements doivent faire face à de redoutables difficultés d’intermédiation car ils ne peuvent trouver une solution médiane tant les attentes sont contradictoires.

Auparavant, les Etats compensaient les perdants par des transferts monétaires. Comme cette solution traditionnelle est inopérante car le conflit porte sur les valeurs, les gouvernements sont tentés par l’autoritarisme. La démocratie représentative est en crise, ce qui appelle une refondation. Dans beaucoup de pays, la polarisation s’avère insurmontable. Ainsi Joe Biden s’est retrouvé coincé entre la gauche des démocrates et les trumpistes du parti républicain qui entendent gagner les élections de mi-mandat. Alors même que son expérience de négociateur est reconnue, les marges de manœuvre se sont vite rétrécies, car il y a peu de compromis possibles. La question de la reconstruction du lien social est posée et les solutions sont à trouver.

Covid et réhabilitation de la place du doute en science

Covid et réhabilitation de la  place du doute en science 

 

La complexité des phénomènes sur lesquels les experts ont à se prononcer est telle qu’il n’est souvent pas possible de produire des faits indiscutables, expliquent les philosophes Bernadette Bensaude-Vincent et Gabriel Dorthe dans une tribune au « Monde ».

 

Tribune. 

 

Alerte générale dans les milieux académiques, éducatifs et politiques qui en appellent à un contrôle de l’information afin d’éclairer le public, victime de la désinformation, manipulé par les algorithmes des réseaux sociaux et prisonnier de ses biais cognitifs. En septembre, Emmanuel Macron confie au sociologue des croyances Gérald Bronner la présidence d’une commission « Les Lumières à l’ère du numérique », chargée d’enquêter sur les « fake news », et dont le rapport est attendu ces jours-ci.

Il s’agit de sauver la science et la rationalité, fondements de la démocratie contemporaine, que les algorithmes des réseaux sociaux mettraient en péril. D’où la mobilisation contre le « populisme scientifique » ou l’« infodémie », à grand renfort de sondages alarmistes.

Hésitation vaccinale, refus de la 5G ou déferlante de complotisme, on ne compte plus les lamentations face à la montée de l’irrationalité dans le public, et la perte de confiance d’un nombre croissant de citoyens dans les experts légitimes. Nous serions entrés dans une époque qui se moque du vrai et du faux, qui confond faits et valeurs, et s’égare dans la « post-vérité ». Un monde fracturé qui ne se retrouve plus sur une perception commune de la réalité, où l’espace public se fragmente en silos partisans sur les réseaux sociaux.

Sans prendre parti pour les uns ou les autres, nous tentons, dans nos recherches en cours, de construire une position difficile mais ferme qui échappe à cette prise en tenaille. Elle passe par une enquête sur le statut des énoncés scientifiques dans les technosciences actuelles et par une écoute attentive de la manière dont lesdits « complotistes » construisent leurs discours et leurs revendications.

La division du monde en deux camps bien tranchés, arbitrés par un rapport à la vérité univoque, est problématique à plusieurs égards. D’abord, elle ne résiste pas à un examen rigoureux. Si elle séduit par son simplisme en partageant la société contemporaine entre les crédules et les sages, les fous et les détenteurs de la raison, cette vision est régulièrement démentie par les sondages d’opinion qui laissent voir des positions plus nuancées du public, en particulier durant la pandémie (voir la 8e enquête « Les Français et la science », dirigée par le sociologue Michel Dubois). Toutes les institutions ne bénéficient pas du même degré de confiance.

En rapportant la défiance du public à l’égard des sciences et des vaccins à un problème de communication ou d’éducation, on considère implicitement qu’il existe une vérité unique, certaine et immuable, qui fonde le monde commun où nous vivons, et que toute contestation est une contre-vérité. Cette épistémologie de tribunal se retrouve de part et d’autre du champ de bataille, puisque les opposants aux mesures sanitaires ou au vaccin se revendiquent autant de courbes, de chiffres et d’une vérité que seule l’idiotie ou la malveillance empêcheraient de voir.

La science française: La grande oubliée des enjeux du pays

La science française: La grande oubliée des enjeux du pays 

ÉDITORIAL

Jérôme Fenoglio, Directeur du « Monde » pousea un cri d’alarme vis-à-vis d’une recherche relativement marginalisée dans les débats actuels.( extrait)

 

 

Dans le débat public, la  recherche figure, certes, comme un passage obligé des programmes de tous les partis. Pour autant, elle n’apparaît que très marginalement dans les confrontations d’idées et d’arguments. L’esquisse de campagne présidentielle qui se dessine ces jours-ci en fournit une illustration confondante.

Un polémiste d’extrême droite, candidat non déclaré, y réécrit sans vergogne le passé ; démonstration par l’obscène de la nécessité d’une science historique qui puisse être opposée aux falsificateurs. D’autres y font régulièrement état de leur angoisse devant les travaux intersectionnels dans quelques facultés de sciences humaines ; signe que leur échelle des périls qui pèsent sur l’enseignement supérieur, et obèrent son avenir, est singulièrement faussée. Certains s’y montrent obsédés par les étrangers qui arrivent, mais beaucoup moins tourmentés par les Français qui partent, comme ces jeunes titulaires d’un doctorat qui finissent par s’expatrier par lassitude d’attendre un poste, ou des moyens à la hauteur de leurs capacités – la Prix Nobel de chimie 2020, Emmanuelle Charpentier, en a fourni un exemple récent.

Globalement, les débats tournent en boucle autour des thèmes, certes non dénués d’enjeux, de la sécurité et de l’identité, à rebours de ce qui vient d’arriver lors des législatives allemandes, où les Verts et les libéraux ont accru leur audience en inscrivant notamment la recherche comme un dossier central de leur campagne. En France, les sciences sont même parfois délibérément écartées de la scène pour que le thème de la laïcité puisse y jouer seul le rôle que les sciences ont pourtant rempli sans faillir depuis leur entrée dans l’ère moderne, il y a plus de trois siècles : opposer l’esprit des Lumières, et la vigueur de leur universalisme, à tous les obscurantismes.

Cet effacement est d’autant plus dommageable que, au-delà de son inscription dans le récit national, la recherche scientifique fournit des éléments essentiels à la vie démocratique. Sa méthode, tant qu’elle est tenue à l’écart des conflits d’intérêts, s’oppose aux fantasmes et aux manipulations. Son expertise donne la mesure des dangers, tels ceux d’une crise climatique qui ne cesse de s’aggraver, ou de la pandémie de Covid qui vient de nous frapper. Son besoin de collaborations larges, souvent internationales, s’oppose aux enfermements locaux. Elle détient ainsi la clé des délibérations qui doivent conduire les citoyens à choisir entre tous les avenirs possibles.

 

Pour lui permettre de remplir durablement cette mission, encore faut-il lui accorder une protection, des moyens et de la considération. C’est très exactement ce qui est en train de se perdre, en France, si une prise de conscience générale n’impose pas la relance et la sanctuarisation de la recherche comme des objectifs essentiels du prochain quinquennat.

Les recherches “décoloniales”: science ou idéologie ?

 Les recherches “décoloniales”: science ou idéologie ?
Pour le philosophe Philippe d’Iribarne  le mouvement “décolonial” relève davantage d’une démarche idéologique que de la science. (Tribune dans le Figaro, extrait)

La place tenue par le courant dit décolonial au sein des universités est l’objet d’intenses polémiques: cette approche relève-t-elle de la science ou plutôt d’une démarche militante parée des oripeaux de la science? Le fait social sur lequel ce courant se penche n’est pas en cause. Il est vrai que, dans les pays occidentaux, les membres de certains groupes sociaux originaires de pays extra-européens ont statistiquement un sort moins favorable que la population majoritaire. Le point d’achoppement est autre.

Ces travaux mettent en œuvre une démarche intellectuelle qui n’est pas celle de la science. Ils délimitent le champ d’application des théories auxquelles ils font appel en fonction de critères strictement idéologiques. De plus leurs tenants refusent de soumettre ce qu’ils présentent comme leurs résultats de recherche à une confrontation rigoureuse avec les faits, dès lors que ces derniers sont de nature à mettre en cause leurs convictions.

Les limites de la science économique

Les limites de la science économique 

L’anthropologue, sociologue et médecin Didier Fassin plaide, dans une tribune au « Monde », pour une ouverture d’une discipline économique trop « monolithique » et normative aux autres sciences sociales et à de nouveaux paradigmes.

 

 

Didier Fassin enseigne à Princeton à l’Institut d’études avancées, haut lieu de « fertilisation croisée » entre les différentes disciplines des sciences humaines. Le texte ci-dessous est issu du discours qu’il a prononcé lundi 31 mai dans le grand amphithéâtre du « Monde » , à l’occasion de la remise du Prix du meilleur jeune économiste 2021, décerné chaque année par le Cercle des économistes et « Le Monde ». 

Tribune. 

 

N’appartenant pas moi-même à la discipline ainsi célébrée, je ne peux certainement pas me réclamer d’une compétence particulière, mais seulement d’une curiosité et d’un intérêt pour l’économie, et tout autant pour les économistes. A cet égard, deux circonstances singulières m’ont rendu attentif à l’évolution de la discipline et à l’activité de celles et ceux qui la pratiquent.

D’abord, animant l’Ecole de science sociale de l’Institute for Advanced Study de Princeton, qui se veut ouverte à tous les savoirs, j’ai tenu à ce que l’économie soit toujours représentée parmi les vingt-cinq chercheurs qui viennent y passer un an pour écrire leur livre ou leurs articles, ayant même en 2020 choisi comme thème fédérateur le très wébérien « Economie et société ».

Ensuite, dans la mesure où notre école est traditionnellement composée de quatre postes de professeur, en anthropologie, sociologie, science politique et économie, j’ai été chargé de conduire le recrutement sur ce dernier poste, ce qui m’a donné l’obligation de lire les travaux de nombre d’économistes, étant fort heureusement aidé dans cette tâche par un comité de véritables experts. Mon propos sera donc celui d’un observateur extérieur, naïf en quelque sorte, qui, à ce titre, osera des commentaires parfois étonnés.

L’extension du domaine de l’économie

Découvrir les recherches conduites par les économistes sélectionnés pour le Prix du meilleur jeune économiste a été pour moi un plaisir, d’autant qu’elles manifestent un engagement sur des enjeux importants de société, qu’il s’agisse de justice pénale, de démocratie représentative, de santé publique ou d’innovation scientifique – cette liste n’étant pas exhaustive.

Un tel éclectisme est significatif d’une évolution majeure à l’œuvre depuis plusieurs décennies : l’investissement des économistes sur des sujets paraissant éloignés de leur objet initial, à savoir les questions proprement économiques – ce que certains chercheurs, dans les disciplines ainsi visitées, voient même comme une colonisation. Cette extension du domaine de l’économie témoigne assurément du dynamisme et de la créativité de celles et ceux qui la pratiquent. Elle peut cependant trouver ses limites de deux façons : par défaut de critique épistémologique et par manque d’échange scientifique.

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol