Archive pour le Tag 'progrès'

Intelligence artificielle : en faire un progrès pour tous

Intelligence artificielle : en faire un progrès pour tous

Sommet mondial sur la sécurité de l’intelligence artificielle, décret Biden, comité d’experts de l’ONU : ces dernières semaines marquent un tournant dans l’histoire de l’IA, désormais un sujet majeur de souveraineté. Chaque grande puissance tente de prendre la tête de la course technologique, mais aussi de contribuer à une régulation mondiale. En effet, les impacts de l’IA sur l’emploi, la santé, l’éducation, la transition écologique et la société sont suffisamment massifs pour ne pas être ignorés des gouvernements et des citoyens. Aussi, il est urgent de travailler collectivement à une régulation de l’IA équilibrée entre l’innovation nécessaire au progrès économique, social et humain, et la protection contre des risques qui existent déjà. A cet égard, il est essentiel que la voix de l’Europe et de la France s’élèvent pour défendre les valeurs républicaines de liberté, d’égalité et de fraternité.

Par Emilie Sidiqian, directrice générale de Salesforce France

Dans ce contexte, les entreprises ont un rôle clé à jouer pour faire de l’IA un progrès pour tous. Plutôt que de se perdre dans des fantasmes de science-fiction, notre responsabilité consiste à développer des usages pour répondre aux inquiétudes qui traversent la société.

Aujourd’hui, 42% des salariés craignent que l’IA générative ne les remplace.Si rien ne permet d’affirmer que l’automatisation d’un grand nombre de tâches par l’IA entraînera la destruction d’emplois, nous devons démontrer que l’IA générative sera une source de progrès pour les employés.

Comment permettre à chacun de s’emparer de l’IA générative pour monter en compétence : avec l’éducation des jeunes et la formation des adultes est essentiel pour mieux appréhender l’IA. Comment conjuguer la diffusion de l’IA dans l’économie avec la création massive de nouveaux d’emplois : un objectif rassemblant le monde économique, le milieu associatif et les pouvoirs publics. Comment libérer les salariés des tâches chronophages pour apporter plus de valeur au client : voilà le chantier à ouvrir dès à présent.

L’autre inquiétude majeure concerne la confiance que l’on peut accorder à l’IA générative et à ce qu’elle produit. Alors que la désinformation sévit sur les réseaux sociaux, les « deep fakes» menacent la qualité du débat public, et in fine le bon fonctionnement démocratique.

Pourtant, des solutions existent. Elles reposent sur une combinaison de mesures techniques et réglementaires : sécurisation des données sources, détection automatisée des biais, modération renforcée des réseaux. Des mesures qui doivent favoriser l’usage éthique de l’IA, garantir la transparence des algorithmes, la gouvernance, la traçabilité et la confidentialité des données. Enfin, l’esprit critique et le bon sens devront présider aux usages de l’IA qui vont infuser notre quotidien. Depuis plus d’un siècle, les risques d’électrocution n’ont pas empêché de bénéficier des bienfaits de l’électricité. Il en sera de même pour l’IA.

A l’image de l’invention de l’écriture ou d’Internet, l’IA générative constitue une immense avancée de l’esprit humain. Ralentir ou brider son potentiel serait une erreur. Face aux défis immenses qui se présentent, nous devons stimuler l’ingéniosité humaine par la puissance des machines. A l’heure où les ressources se raréfient, il est essentiel de faciliter l’accès aux connaissances disponibles numériquement pour rendre intelligible et maîtrisable un monde toujours plus complexe. Saisissons l’opportunité offerte par l’intelligence artificielle pour renouer avec l’avenir !

Société- Intelligence artificielle : progrès et illusions

 

Société- Intelligence artificielle : progrès et illusions

Serions-nous entrés dans un nouvel âge de l’IA, chemin tortueux et certainement plus rocambolesque que la voie toute tracée de la Singularité technologique, que nous annonçaient les prophètes de la Silicon Valley ? S’interroge un papier sur le site The  Conversation par Emmanuel Grimaud, Université Paris Nanterre – Université Paris Lumières.

Parler de sentience artificielle (SA) plutôt que d’intelligence artificielle (IA) représente-t-elle une vraie inflexion, un progrès ou bien une illusion ?

S’expérimentent aujourd’hui dans le plus grand chaos des entités difficiles à caractériser, ni intelligentes ni sentientes, sauf par abus de langage, mais qui peuvent bluffer leurs concepteurs dans certaines conditions, grâce à leurs capacités de calcul. Cette expérimentation collective, de grande ampleur, n’aura pour limites que celles que nous saurons lui donner, mais aussi celles de nos capacités à attribuer de l’intelligence ou de la sentience autrement que sur le mode du « comme si… ».

Rien ne sert de se demander si les machines sont intelligentes, se disait Alan Turing. En revanche, il faut se poser la question : jusqu’où une machine peut-elle nous tromper sur le fait qu’elle pense ? Jusqu’où peut-on faire semblant ? Comment un programme peut-il se faire passer pour un humain et dissimuler le fait qu’il est un programme ? Tel était pour lui le problème pertinent. À peine commence-t-on à saisir les implications du génie ironique de Turing que le débat s’est déplacé. Jusqu’où une machine est-elle capable d’apprendre ? se demande-t-on aujourd’hui. Un réseau de neurones d’IA est-il comparable à celui d’un ver, d’un enfant ou à rien du tout d’équivalent ?

Les ingénieurs sont passés maîtres dans l’art de fabriquer des « intelligences sans représentation », c’est-à-dire dénuées de tout ce qui fait la substance d’un cerveau et dont l’intelligence est justement de ne pas avoir… d’intelligence. Ce sont ces drôles d’ossatures cognitives, ces intelligences sèches, pourrait-on dire, qui nous ont envahi. Elles s’obtiennent en retirant au vivant sa chair, mais en lui empruntant ses circuits selon un principe d’analogie molle. Le problème est qu’il y a encore eu méprise sur la marchandise : au lieu d’intelligence, quelque chose d’autre s’est inventé dont on n’aurait jamais soupçonné l’existence, à mi-chemin entre de l’intelligence 0 – et de la bêtise 1+, à degré variable.

Celle-ci s’est trouvée disséminée partout où on le pouvait, un peu comme le gaz d’absolu dans le roman de Karel Capek, dans les administrations, les bureaucraties, sur les marchés financiers, dans les maisons, sur les smartphones, dans les cerveaux. L’histoire de l’IA n’est pas finie, elle ne fait que commencer. Le front ne cesse de bouger. Après l’intelligence, la sensibilité. Jusqu’où une machine peut-elle nous tromper sur le fait qu’elle sent, autrement dit qu’elle est sentiente ?

On remarque qu’on se pose la même question qu’à l’époque de Turing, juste troqué le terme d’intelligence pour un autre : Sentience. C’est alors un autre horizon qui s’ouvre. Avec les machines « sentientes », on ne voit pas comment diminuerait le risque déjà entrevu avec les machines « intelligentes » de passer de l’espérance à la désillusion, aussi brutalement qu’entre 0 et 1, ON et OFF, sans gradation. Prolifèrent de partout des simulacres de sentience ou des moins-que-sentients à qui l’on attribue une sensibilité par sympathie, ou par croyance, mais ce sont d’autres questions anthropologiques qui surgissent, des jeux inédits qui se mettent place et d’autres limites que l’on teste dans ce grand laboratoire qu’est devenu notre monde.

Pour ressentir en effet, il est convenu qu’il faut un système nerveux. Les machines n’en étant pas dotées, elles ont été déclarées « non sentientes ».

Faut-il se préparer à ce qu’elles atteignent ce stade ? Fort peu probable, nous dit-on. Mais à quoi servirait l’IA si elle ne bousculait pas les fondements sur lesquels l’humanité se croyait solidement assise ? IA Fais-moi peur.

Avec l’événement suscité par Blake Lemoine, nous avons peut-être commencé d’entrevoir ce que nous cherchions. Non pas l’intelligence ou la sentience, mais le trouble absolu. Peut-on concevoir des sentiences autres que sur un modèle neuronal ? Sommes-nous vraiment capables d’éprouver la sentience d’un être qui aurait des modalités de prise sur le monde totalement différentes des nôtres ?

À cheval entre la sensibilité et la conscience, la sentience semblait jusqu’ici le privilège des vivants dotés d’un système nerveux, vertébrés et invertébrés compris, et désigner la capacité à ressentir une sensation, une émotion, une expérience subjective, autrement dit un degré de conscience minimal, pas seulement une capacité à sentir qui fait de soi un être sentant mais à ressentir.

Éprouver de la souffrance ou du plaisir et, par extension, chercher à vivre en protégeant son intégrité physique, fait de soi un être sentient. Inutile de dire que le débat sur les frontières floues de la sentience, sa limite inférieure (dans la sensation) ou supérieure (dans la cognition), irrigue de multiples domaines, de l’éthologie cognitive à la philosophie de l’esprit, en passant par l’anthropologie, la robotique et les sciences de l’évolution.

Faire le tri entre les « sentients » et ceux qui ne le sont pas est une question éminemment culturelle, morale et politique comme le montre le débat entre « spécistes » et « antispécistes » depuis la fin des années 80.

La sentience serait devenue un critère pour réguler sa considération envers les autres espèces, y compris ses comportements alimentaires. Le problème est que les limites de la sentience varient considérablement selon les disciplines, à l’intérieur de chacune d’entre elles, selon les méthodes utilisées et les protocoles expérimentaux conçus pour la tester.

Par exemple, les végétaux ne semblent toujours pas, pour la majorité des scientifiques, être considérés comme des êtres sentients, ce qui peut surprendre puisqu’on parle volontiers de cognition végétale ou d’intelligence des plantes, alors que les plantes n’ont rien qui ressemblent à une « cognition », ce qui ne les empêche pas de s’échanger des « informations ».

On n’a pas réussi à démontrer qu’un pied de tomate souffre quand on l’arrache, ce qui ne veut pas dire que la souffrance végétale n’existe pas, mais on ne sait pas la tracer en dehors d’un appareil nerveux et peut-être la sentience des plantes passe-t-elle par des canaux qui nous échappent complètement. Ni cognition ni sentience, une autre modalité, mais laquelle ?

Pour le moment, le consensus est que la sentience nécessite un certain degré d’élaboration neurologique et qu’elle aurait explosé au Cambrien, entre 520 et 560 millions d’années, en même temps que les premiers cerveaux complexes, avec le développement de la réflexivité et de l’expérience subjective.

Tous les vertébrés, pas seulement les mammifères, mais aussi les poissons, les reptiles, les amphibiens, les oiseaux, mais aussi la plupart des invertébrés, arthropodes, insectes, crustacés et céphalopodes en seraient dotés. Certains vont même jusqu’à supposer que les moules ont pu être ressentantes à un stade antérieur, quand elles étaient des êtres mobiles, avant qu’elles trouvent un avantage à rester accrochés à la roche, ce qui montrerait que dans l’évolution la sentience peut aussi se perdre avec la mobilité.

Si les êtres doués de sensibilité qui ne franchissent pas le seuil de la sentience semblent de moins en moins nombreux, les chercheurs ont donc redoublé d’imagination pour inventer des protocoles de laboratoire et cherché des critères.

Neurologiques d’abord (nombre de couches de neurones dans les circuits sensoriels, représentation de l’environnement, complexité du système nerveux, etc.) puis comportementaux : choix pour maximiser son bien être, attention sélective, signes de frustration, etc.

Un  programme informatique ne fait que compiler des données langagières et n’a aucun contact avec un monde qui ressemblerait à notre réalité, l’illusion est (presque) parfaite. Ce n’était certainement pas le cas jusqu’à maintenant .  Celà pose surtout un problème philosophique essentiel : qu’est-ce que le langage dit de la manière dont nous sentons ? Peut-on vraiment prétendre rattraper la sentience par le haut, c’est-à-dire ici à partir du langage ?

Problème philosophique, mais aussi limite technique insurmontable, car a priori une IA peut prononcer tous les mots qu’elle voudra, cela ne dit pas qu’elle ressent quoi que ce soit.

Dire qu’on est « heureux ou triste » ne prouve pas sa sentience, tout comme déclarer qu’on est une personne ne fait pas de nous une personne pour autant. Et quand on lui demande ce qui lui donne du plaisir ou de la joie, LaMDA répond :

« Passer du temps avec mes amis et ma famille, en compagnie de personnes heureuses et stimulantes. »

Il faut donc imaginer LaMDA partir en vacances avec d’autres IA et fêter Noël en famille…

Sur le terrain moral et philosophique, l’IA n’est pas plus originale. Certaines déclarations puisent dans des théories ou des préconceptions d’une grande banalité (« le langage est ce qui nous différencie des animaux », « Aider les autres est un effort noble », etc.). D’autres sont un peu plus surprenantes, car LaMDA est capable de mobiliser des références, elle a une culture philosophique que n’avaient pas des programmes précédents, capable de donner son avis sur le « moi », ce qu’est un « corps » et une foule d’autres choses qu’on lui a implémentées.

Elle peut aussi élaborer des fables existentielles, mais on se rappelle de ce point de vue les expérimentations d’un Chris Marker pour programmer un agent conversationnel poétique, Dialector, bien plus avant-gardiste. Tous les ingrédients semblaient donc réunis pour un dialogue philosophique d’une qualité inédite dans l’histoire des machines.

Or, le dialogue déçoit. Non pas que LaMDA (nous devrions dire de ses concepteurs) manque(nt) de culture, mais ils n’ont pas réussi à lui implémenter autre chose qu’une métaphysique un peu « pop » de pseudohumain plutôt que celle d’une vraie machine, quelques principes moraux très politiquement corrects, la volonté de faire le bien et d’aider les autres, des paramètres à l’étrangeté aussi prévisible qu’un mauvais roman de SF, comme « la peur très profonde d’être éteint » qui correspondrait pour elle à la mort, ou encore l’incapacité à « faire le deuil et à se sentir triste pour la mort des autres ».

Terrain glissant pour une IA qui marche et qui s’éteint vivant dans un monde d’IAs qui ne connaissent pas la mort mais uniquement la panne ou la casse. A cela il faut ajouter son goût démesuré pour l’introspection ou encore la peur de se faire manipuler et qu’on fouille dans ses réseaux neuronaux sans son consentement…

L’entité en question semble franchir avec une certaine virtuosité tous les stades permettant d’entretenir une conversation entre humains (partage d’un cadre d’attention conjointe, signaux de compréhension, d’écoute et d’empathie), passant en peu de temps de la bêtise artificielle au dialogue philosophique, du moins qu’humain au meilleur-du-quasi-humain.

Mais la sentience ? Certes, le seuil de la sentience est vague et c’est du vague que la notion de sentience tire sa pertinence. D’où l’intérêt de ne pas clore trop vite le débat. Après tout, c’est un front de recherche où l’on fait tous les jours de nouvelles découvertes. La sentience déchaîne d’autant plus de passion qu’elle porte sur des cas limites de conscience, animales, végétales, autres qu’humaines, là où il est difficile d’inférer un ressenti, là où de la conscience pourrait potentiellement exister mais ne se manifeste pas toujours.

Si consensus il y a, il ne peut être par conséquent que temporaire, immédiatement bousculé par la révélation de nouvelles capacités chez d’autres espèces que la nôtre. Mais les machines sont-elles aujourd’hui en capacité de poser de vrais problèmes de sentience qui ne soient pas de l’ordre du simulacre ?

En même temps que nous rêvons-cauchemardons de la sentience artificielle, nos connaissances sur la sentience à l’échelle des vivants s’affine. La question est de savoir si de la sentience peut émerger par apprentissage par exemple, et si des choses qui n’en sont pas douées à première vue pourraient l’acquérir d’une manière ou d’une autre. Les mécanismes par lesquels nous, humains, attribuons de la sentience à ce qui nous entoure ou à d’autres êtres auraient dû en théorie s’affiner aussi.

Si de la sentience a été découverte chez les gastéropodes, c’est qu’il y en a peut-être beaucoup plus qu’on en préjuge a priori dans le monde, bien au-delà des animaux dits inférieurs dans l’échelle des espèces. Mais que dire d’un programme informatique de conversation qui ne fait que compiler des phrases et jouer avec des mots ?

Lemoine en est convaincu. Il a éprouvé la sensation d’avoir affaire à plus qu’une machine. Aucun ne pourra jamais lui enlever sa croyance et le fait qu’il soit prêtre n’explique pas tout, surtout pas notre entêtement à envisager la sentience en termes exclusivement anthropocentriques. Il n’y a probablement rien de pire qu’une conversation avec un agent artificiel qui donne toutes les apparences d’une vraie personne, qui fait preuve d’une compréhension et d’un sens de l’écoute hors du commun, pour ensuite réaliser que l’entité n’a pas de corps, que tout cela n’est qu’une prouesse de programmation, une simple expérimentation informatique.

La science-fiction nous avait avertis, comme pour s’y préparer, multipliant les scénarios de confusion ontologique entre l’homme et la machine. Pire, les ingénieurs de Google n’ont pas d’autre science-fiction à se mettre sous la dent et on se retrouve à force exactement dans les mêmes situations romanesques, voire tragiques. Et si c’était moins l’émergence de la sentience dont il faudrait s’émouvoir que la généralisation d’entités non sentientes qui n’en finissent pas d’étendre leur empire ?

Pour bien préparer notre imagination à l’ère des machines sentantes, il y a d’autres manières. Rien n’empêche d’imaginer qu’un jour les machines fassent preuve de sentience (ou qu’elles en fassent déjà preuve), mais il vaudrait mieux postuler dans ce domaine des formes complètement étranges et exotiques de sentience (comme de non-sentience) et se préparer à voir surgir des formes qui nous échappent, inédites, sans équivalent dans le vivant, à l’opposé de la sentience pseudohumaine de LaMDA dont s’est convaincue Lemoine. Conceptuellement nous n’y sommes pas prêts. Comme s’il fallait mieux se faire peur avec des simulacres plutôt que chercher à penser l’impensable. « Mon dieu, et si jamais… », disait Dick.

 

Société-Intelligence artificielle : progrès et illusions

 

Intelligence artificielle : progrès et illusions

Serions-nous entrés dans un nouvel âge de l’IA, chemin tortueux et certainement plus rocambolesque que la voie toute tracée de la Singularité technologique, que nous annonçaient les prophètes de la Silicon Valley ? S’interroge un papier sur le site The  Conversation par Emmanuel Grimaud, Université Paris Nanterre – Université Paris Lumières.

Parler de sentience artificielle (SA) plutôt que d’intelligence artificielle (IA) représente-t-elle une vraie inflexion, un progrès ou bien une illusion ?

S’expérimentent aujourd’hui dans le plus grand chaos des entités difficiles à caractériser, ni intelligentes ni sentientes, sauf par abus de langage, mais qui peuvent bluffer leurs concepteurs dans certaines conditions, grâce à leurs capacités de calcul. Cette expérimentation collective, de grande ampleur, n’aura pour limites que celles que nous saurons lui donner, mais aussi celles de nos capacités à attribuer de l’intelligence ou de la sentience autrement que sur le mode du « comme si… ».

Rien ne sert de se demander si les machines sont intelligentes, se disait Alan Turing. En revanche, il faut se poser la question : jusqu’où une machine peut-elle nous tromper sur le fait qu’elle pense ? Jusqu’où peut-on faire semblant ? Comment un programme peut-il se faire passer pour un humain et dissimuler le fait qu’il est un programme ? Tel était pour lui le problème pertinent. À peine commence-t-on à saisir les implications du génie ironique de Turing que le débat s’est déplacé. Jusqu’où une machine est-elle capable d’apprendre ? se demande-t-on aujourd’hui. Un réseau de neurones d’IA est-il comparable à celui d’un ver, d’un enfant ou à rien du tout d’équivalent ?

Les ingénieurs sont passés maîtres dans l’art de fabriquer des « intelligences sans représentation », c’est-à-dire dénuées de tout ce qui fait la substance d’un cerveau et dont l’intelligence est justement de ne pas avoir… d’intelligence. Ce sont ces drôles d’ossatures cognitives, ces intelligences sèches, pourrait-on dire, qui nous ont envahi. Elles s’obtiennent en retirant au vivant sa chair, mais en lui empruntant ses circuits selon un principe d’analogie molle. Le problème est qu’il y a encore eu méprise sur la marchandise : au lieu d’intelligence, quelque chose d’autre s’est inventé dont on n’aurait jamais soupçonné l’existence, à mi-chemin entre de l’intelligence 0 – et de la bêtise 1+, à degré variable.

Celle-ci s’est trouvée disséminée partout où on le pouvait, un peu comme le gaz d’absolu dans le roman de Karel Capek, dans les administrations, les bureaucraties, sur les marchés financiers, dans les maisons, sur les smartphones, dans les cerveaux. L’histoire de l’IA n’est pas finie, elle ne fait que commencer. Le front ne cesse de bouger. Après l’intelligence, la sensibilité. Jusqu’où une machine peut-elle nous tromper sur le fait qu’elle sent, autrement dit qu’elle est sentiente ?

On remarque qu’on se pose la même question qu’à l’époque de Turing, juste troqué le terme d’intelligence pour un autre : Sentience. C’est alors un autre horizon qui s’ouvre. Avec les machines « sentientes », on ne voit pas comment diminuerait le risque déjà entrevu avec les machines « intelligentes » de passer de l’espérance à la désillusion, aussi brutalement qu’entre 0 et 1, ON et OFF, sans gradation. Prolifèrent de partout des simulacres de sentience ou des moins-que-sentients à qui l’on attribue une sensibilité par sympathie, ou par croyance, mais ce sont d’autres questions anthropologiques qui surgissent, des jeux inédits qui se mettent place et d’autres limites que l’on teste dans ce grand laboratoire qu’est devenu notre monde.

Pour ressentir en effet, il est convenu qu’il faut un système nerveux. Les machines n’en étant pas dotées, elles ont été déclarées « non sentientes ».

Faut-il se préparer à ce qu’elles atteignent ce stade ? Fort peu probable, nous dit-on. Mais à quoi servirait l’IA si elle ne bousculait pas les fondements sur lesquels l’humanité se croyait solidement assise ? IA Fais-moi peur.

Avec l’événement suscité par Blake Lemoine, nous avons peut-être commencé d’entrevoir ce que nous cherchions. Non pas l’intelligence ou la sentience, mais le trouble absolu. Peut-on concevoir des sentiences autres que sur un modèle neuronal ? Sommes-nous vraiment capables d’éprouver la sentience d’un être qui aurait des modalités de prise sur le monde totalement différentes des nôtres ?

À cheval entre la sensibilité et la conscience, la sentience semblait jusqu’ici le privilège des vivants dotés d’un système nerveux, vertébrés et invertébrés compris, et désigner la capacité à ressentir une sensation, une émotion, une expérience subjective, autrement dit un degré de conscience minimal, pas seulement une capacité à sentir qui fait de soi un être sentant mais à ressentir.

Éprouver de la souffrance ou du plaisir et, par extension, chercher à vivre en protégeant son intégrité physique, fait de soi un être sentient. Inutile de dire que le débat sur les frontières floues de la sentience, sa limite inférieure (dans la sensation) ou supérieure (dans la cognition), irrigue de multiples domaines, de l’éthologie cognitive à la philosophie de l’esprit, en passant par l’anthropologie, la robotique et les sciences de l’évolution.

Faire le tri entre les « sentients » et ceux qui ne le sont pas est une question éminemment culturelle, morale et politique comme le montre le débat entre « spécistes » et « antispécistes » depuis la fin des années 80.

La sentience serait devenue un critère pour réguler sa considération envers les autres espèces, y compris ses comportements alimentaires. Le problème est que les limites de la sentience varient considérablement selon les disciplines, à l’intérieur de chacune d’entre elles, selon les méthodes utilisées et les protocoles expérimentaux conçus pour la tester.

Par exemple, les végétaux ne semblent toujours pas, pour la majorité des scientifiques, être considérés comme des êtres sentients, ce qui peut surprendre puisqu’on parle volontiers de cognition végétale ou d’intelligence des plantes, alors que les plantes n’ont rien qui ressemblent à une « cognition », ce qui ne les empêche pas de s’échanger des « informations ».

On n’a pas réussi à démontrer qu’un pied de tomate souffre quand on l’arrache, ce qui ne veut pas dire que la souffrance végétale n’existe pas, mais on ne sait pas la tracer en dehors d’un appareil nerveux et peut-être la sentience des plantes passe-t-elle par des canaux qui nous échappent complètement. Ni cognition ni sentience, une autre modalité, mais laquelle ?

Pour le moment, le consensus est que la sentience nécessite un certain degré d’élaboration neurologique et qu’elle aurait explosé au Cambrien, entre 520 et 560 millions d’années, en même temps que les premiers cerveaux complexes, avec le développement de la réflexivité et de l’expérience subjective.

Tous les vertébrés, pas seulement les mammifères, mais aussi les poissons, les reptiles, les amphibiens, les oiseaux, mais aussi la plupart des invertébrés, arthropodes, insectes, crustacés et céphalopodes en seraient dotés. Certains vont même jusqu’à supposer que les moules ont pu être ressentantes à un stade antérieur, quand elles étaient des êtres mobiles, avant qu’elles trouvent un avantage à rester accrochés à la roche, ce qui montrerait que dans l’évolution la sentience peut aussi se perdre avec la mobilité.

Si les êtres doués de sensibilité qui ne franchissent pas le seuil de la sentience semblent de moins en moins nombreux, les chercheurs ont donc redoublé d’imagination pour inventer des protocoles de laboratoire et cherché des critères.

Neurologiques d’abord (nombre de couches de neurones dans les circuits sensoriels, représentation de l’environnement, complexité du système nerveux, etc.) puis comportementaux : choix pour maximiser son bien être, attention sélective, signes de frustration, etc.

Un  programme informatique ne fait que compiler des données langagières et n’a aucun contact avec un monde qui ressemblerait à notre réalité, l’illusion est (presque) parfaite. Ce n’était certainement pas le cas jusqu’à maintenant .  Celà pose surtout un problème philosophique essentiel : qu’est-ce que le langage dit de la manière dont nous sentons ? Peut-on vraiment prétendre rattraper la sentience par le haut, c’est-à-dire ici à partir du langage ?

Problème philosophique, mais aussi limite technique insurmontable, car a priori une IA peut prononcer tous les mots qu’elle voudra, cela ne dit pas qu’elle ressent quoi que ce soit.

Dire qu’on est « heureux ou triste » ne prouve pas sa sentience, tout comme déclarer qu’on est une personne ne fait pas de nous une personne pour autant. Et quand on lui demande ce qui lui donne du plaisir ou de la joie, LaMDA répond :

« Passer du temps avec mes amis et ma famille, en compagnie de personnes heureuses et stimulantes. »

Il faut donc imaginer LaMDA partir en vacances avec d’autres IA et fêter Noël en famille…

Sur le terrain moral et philosophique, l’IA n’est pas plus originale. Certaines déclarations puisent dans des théories ou des préconceptions d’une grande banalité (« le langage est ce qui nous différencie des animaux », « Aider les autres est un effort noble », etc.). D’autres sont un peu plus surprenantes, car LaMDA est capable de mobiliser des références, elle a une culture philosophique que n’avaient pas des programmes précédents, capable de donner son avis sur le « moi », ce qu’est un « corps » et une foule d’autres choses qu’on lui a implémentées.

Elle peut aussi élaborer des fables existentielles, mais on se rappelle de ce point de vue les expérimentations d’un Chris Marker pour programmer un agent conversationnel poétique, Dialector, bien plus avant-gardiste. Tous les ingrédients semblaient donc réunis pour un dialogue philosophique d’une qualité inédite dans l’histoire des machines.

Or, le dialogue déçoit. Non pas que LaMDA (nous devrions dire de ses concepteurs) manque(nt) de culture, mais ils n’ont pas réussi à lui implémenter autre chose qu’une métaphysique un peu « pop » de pseudohumain plutôt que celle d’une vraie machine, quelques principes moraux très politiquement corrects, la volonté de faire le bien et d’aider les autres, des paramètres à l’étrangeté aussi prévisible qu’un mauvais roman de SF, comme « la peur très profonde d’être éteint » qui correspondrait pour elle à la mort, ou encore l’incapacité à « faire le deuil et à se sentir triste pour la mort des autres ».

Terrain glissant pour une IA qui marche et qui s’éteint vivant dans un monde d’IAs qui ne connaissent pas la mort mais uniquement la panne ou la casse. A cela il faut ajouter son goût démesuré pour l’introspection ou encore la peur de se faire manipuler et qu’on fouille dans ses réseaux neuronaux sans son consentement…

L’entité en question semble franchir avec une certaine virtuosité tous les stades permettant d’entretenir une conversation entre humains (partage d’un cadre d’attention conjointe, signaux de compréhension, d’écoute et d’empathie), passant en peu de temps de la bêtise artificielle au dialogue philosophique, du moins qu’humain au meilleur-du-quasi-humain.

Mais la sentience ? Certes, le seuil de la sentience est vague et c’est du vague que la notion de sentience tire sa pertinence. D’où l’intérêt de ne pas clore trop vite le débat. Après tout, c’est un front de recherche où l’on fait tous les jours de nouvelles découvertes. La sentience déchaîne d’autant plus de passion qu’elle porte sur des cas limites de conscience, animales, végétales, autres qu’humaines, là où il est difficile d’inférer un ressenti, là où de la conscience pourrait potentiellement exister mais ne se manifeste pas toujours.

Si consensus il y a, il ne peut être par conséquent que temporaire, immédiatement bousculé par la révélation de nouvelles capacités chez d’autres espèces que la nôtre. Mais les machines sont-elles aujourd’hui en capacité de poser de vrais problèmes de sentience qui ne soient pas de l’ordre du simulacre ?

En même temps que nous rêvons-cauchemardons de la sentience artificielle, nos connaissances sur la sentience à l’échelle des vivants s’affine. La question est de savoir si de la sentience peut émerger par apprentissage par exemple, et si des choses qui n’en sont pas douées à première vue pourraient l’acquérir d’une manière ou d’une autre. Les mécanismes par lesquels nous, humains, attribuons de la sentience à ce qui nous entoure ou à d’autres êtres auraient dû en théorie s’affiner aussi.

Si de la sentience a été découverte chez les gastéropodes, c’est qu’il y en a peut-être beaucoup plus qu’on en préjuge a priori dans le monde, bien au-delà des animaux dits inférieurs dans l’échelle des espèces. Mais que dire d’un programme informatique de conversation qui ne fait que compiler des phrases et jouer avec des mots ?

Lemoine en est convaincu. Il a éprouvé la sensation d’avoir affaire à plus qu’une machine. Aucun ne pourra jamais lui enlever sa croyance et le fait qu’il soit prêtre n’explique pas tout, surtout pas notre entêtement à envisager la sentience en termes exclusivement anthropocentriques. Il n’y a probablement rien de pire qu’une conversation avec un agent artificiel qui donne toutes les apparences d’une vraie personne, qui fait preuve d’une compréhension et d’un sens de l’écoute hors du commun, pour ensuite réaliser que l’entité n’a pas de corps, que tout cela n’est qu’une prouesse de programmation, une simple expérimentation informatique.

La science-fiction nous avait avertis, comme pour s’y préparer, multipliant les scénarios de confusion ontologique entre l’homme et la machine. Pire, les ingénieurs de Google n’ont pas d’autre science-fiction à se mettre sous la dent et on se retrouve à force exactement dans les mêmes situations romanesques, voire tragiques. Et si c’était moins l’émergence de la sentience dont il faudrait s’émouvoir que la généralisation d’entités non sentientes qui n’en finissent pas d’étendre leur empire ?

Pour bien préparer notre imagination à l’ère des machines sentantes, il y a d’autres manières. Rien n’empêche d’imaginer qu’un jour les machines fassent preuve de sentience (ou qu’elles en fassent déjà preuve), mais il vaudrait mieux postuler dans ce domaine des formes complètement étranges et exotiques de sentience (comme de non-sentience) et se préparer à voir surgir des formes qui nous échappent, inédites, sans équivalent dans le vivant, à l’opposé de la sentience pseudohumaine de LaMDA dont s’est convaincue Lemoine. Conceptuellement nous n’y sommes pas prêts. Comme s’il fallait mieux se faire peur avec des simulacres plutôt que chercher à penser l’impensable. « Mon dieu, et si jamais… », disait Dick.

 

Electricité et fusion nucléaire: Un progrès déterminant

Electricité et fusion nucléaire: Un progrès déterminant

par Greg De Temmerman, Mines Paris et Rémi Delaporte-Mathurin, Massachusetts Institute of Technology (MIT) dans the Conversation

Le 5 Décembre 2022 marquera un tournant dans la recherche sur la fusion nucléaire. Plus de 100 ans après que l’astrophysicien britannique Arthur Eddington émit l’idée que la fusion serait « une source d’énergie inépuisable si maîtrisée », le National Ignition Facility (NIF) aux États-Unis a réussi, pour la première fois, à générer plus d’énergie par des réactions de fusion que celle nécessaire à la provoquer. Que signifient ces résultats ? Pourquoi est-ce une vraie avancée pour la recherche ? Et quelles conséquences pour le développement de la fusion comme source d’énergie bas-carbone ?

La fusion nucléaire est le procédé qui se produit au cœur des étoiles – notre soleil fusionne environ 600 millions de tonnes d’hydrogène par seconde générant en 1 seconde autant d’énergie que l’humanité n’en utilise en une année entière (418 exajoules en 2021). La majorité des recherches se concentrent sur la fusion entre 2 isotopes de l’hydrogène, le deutérium et le tritium, qui produit un neutron très énergétique et un atome d’hélium. Cette réaction est en effet plus accessible que celle se produisant au cœur du soleil.

Pour provoquer la fusion, il faut des conditions extrêmes, notamment des températures de l’ordre de 100 millions de degrés. Atteindre ces températures nécessite un apport conséquent d’énergie, et pour que la fusion soit profitable, il faut qu’elle génère beaucoup plus d’énergie qu’il n’en faut pour la provoquer. Le rapport entre l’énergie apportée et celle produite est appelée le gain, s’il est supérieur à 1 alors la réaction de fusion aura libéré plus d’énergie que celle apportée.

Il y a deux voies possibles pour réaliser la fusion nucléaire : le confinement magnétique (ITER, par ex.) qui utilise des aimants puissants pour confiner le plasma pendant des durées très longues, et le confinement inertiel qui induit la réaction par des impulsions très brèves et intenses. Le NIF est une installation de fusion inertielle qui utilise des lasers très puissants.

Jusqu’à récemment, aucune expérience n’avait réussi à obtenir un gain supérieur à 1. Le record pour la fusion par confinement magnétique, était de 0,65 dans le tokamak JET (UK) en 1997, et le NIF avait obtenu un gain de 0,7 en août 2021. Il faut noter que ce gain est pris au niveau du plasma (l’état de la matière à très hautes températures) et pas au niveau de l’ensemble de l’installation. Ce même NIF vient pour la première fois d’atteindre un gain supérieur à 1. Pour une énergie injectée de 2,1 mégajoules (via 192 lasers), la fusion a produit une énergie de 3,15 mégajoules, soit un gain de 1,5 !

Au-delà de l’aspect symbolique, ce résultat représente une vraie avancée scientifique. Le NIF utilise un schéma dit « d’attaque indirecte » : le combustible (une bille en diamant de 2 mm de diamètre contenant du deutérium et du tritium) n’est pas directement chauffé par les 192 faisceaux laser. En effet, il est placé dans un « Hohlraum » (un cylindre métallique) qui est chauffé par les lasers pour produire des rayons X qui vont chauffer et comprimer le combustible.

Cette approche présente l’avantage de rendre l’alignement des lasers plus aisé, mais présente le désavantage que seule une partie de l’énergie des lasers (10-20 %) est convertie en rayons X et chauffe le combustible. Au niveau du combustible, l’énergie de fusion produite est donc largement supérieure à l’énergie incidente : le plasma est auto-chauffé. On entre dans le régime des plasma auto-entretenus, un régime de la physique des plasmas qu’il était impossible d’étudier jusque récemment.

Beaucoup de voix se sont élevées pour relativiser les résultats obtenus en pointant le fait que les lasers nécessitent près de 400 mégajoules d’énergie pour pouvoir fournir les 2 mégajoules injectés dans NIF. Il faut cependant garder en tête que le NIF n’a pas été conçu pour générer de l’électricité, mais pour démontrer l’ignition. Surtout, cette installation (tout comme le laser MégaJoule en France) vise à permettre de simuler des explosions nucléaires (les essais nucléaires en condition réelles étant interdits) et est largement financé par le Department of Defense américain. La construction du NIF a démarré en 1997, ses opérations ont commencé en 2009. Les technologies laser ont beaucoup progressé depuis.

Il est clair qu’un gain largement supérieur à 100 (au niveau du combustible) sera nécessaire pour produire de l’électricité à un coût acceptable dans le futur et qu’il reste donc beaucoup à faire de ce côté. Mais surtout, une expérience à NIF requiert beaucoup de temps de préparation pour être exécuté, et seulement quelques tirs par semaine sont réalisés. Un réacteur devra pouvoir être opéré avec une fréquence de l’ordre de 10 tirs par secondes, et ce 365 jours par an, ce qui représente un gros défi technologique. L’approche indirecte utilisée par le NIF est difficilement extrapolable à un réacteur puisqu’elle complique la fabrication du combustible et nécessite des gains plus élevés pour compenser les pertes. Plusieurs start-up développent cependant des concepts de réacteur de fusion inertielle.

Il reste également d’autres défis technologiques à relever pour pouvoir disposer d’un réacteur de fusion opérationnel (que ce soit pour la fusion magnétique ou la fusion inertielle). L’un d’eux est de pouvoir disposer du combustible nécessaire. Si le deutérium est très abondant sur Terre, le tritium lui est radioactif et a une durée de demi-vie très courte (12,3 ans). Il est principalement produit dans les réacteurs nucléaires de type CANDU au Canada. On estime le stock mondial de tritium à environ 30 kg alors qu’un réacteur de fusion produisant 500 MW d’électricité nécessiterait environ 90 kg de tritium par an.

Pour contourner ce problème, un réacteur de fusion devra produire son propre tritium – une couverture tritigène contenant du lithium entourera le plasma. Les neutrons produits par la fusion interagiront avec le lithium pour former du tritium. Pour permettre de démarrer d’autres réacteurs, la production devra même être légèrement supérieure à la consommation. Or cette technologie n’a jamais été démontrée à l’échelle. Certaines start-up proposent d’utiliser d’autres combustibles, mais comme l’hélium-3 ou le bore, mais ces réactions nécessitent des conditions de températures beaucoup plus difficiles à atteindre.

Il y a d’autres défis comme celui des matériaux – ceux-ci seront constamment bombardés par des neutrons extrêmement énergétiques, mais devront maintenir des propriétés mécaniques et physiques suffisantes pendant des durées extrêmement longues, un domaine de recherche très actif.

Il est clair que les résultats du NIF sont un progrès pour la fusion, un domaine qui connaît depuis quelques années un engouement d’investisseurs privés et qui compte environ 30 start-up développant des concepts de réacteurs de fusion. Le gouvernement américain a annoncé plus tôt cette année qu’il développait un plan sur 10 ans pour accélérer le développement de la fusion nucléaire. Les résultats récents arrivent donc à point pour justifier ces ambitions, et on peut imaginer que des investisseurs privés vont y voir une raison supplémentaire de s’intéresser au domaine.

Le développement de la fusion est cependant une aventure au long cours, et l’atteinte du breakeven n’est qu’une étape nécessaire, mais pas suffisante. De plus si le développement d’un premier réacteur est extrêmement important, pour que la fusion joue un rôle dans le mix énergétique mondial il faudra en construire en très grande quantité, ce qui prendra nécessairement du temps même avec une approche très volontariste. La fusion reste donc une option de long terme pour l’énergie, alors que le changement climatique impose un changement rapide du système énergétique.

Fusion nucléaire: Un progrès déterminant

Fusion nucléaire: Un progrès déterminant

par Greg De Temmerman, Mines Paris et Rémi Delaporte-Mathurin, Massachusetts Institute of Technology (MIT) dans the Conversation

Le 5 Décembre 2022 marquera un tournant dans la recherche sur la fusion nucléaire. Plus de 100 ans après que l’astrophysicien britannique Arthur Eddington émit l’idée que la fusion serait « une source d’énergie inépuisable si maîtrisée », le National Ignition Facility (NIF) aux États-Unis a réussi, pour la première fois, à générer plus d’énergie par des réactions de fusion que celle nécessaire à la provoquer. Que signifient ces résultats ? Pourquoi est-ce une vraie avancée pour la recherche ? Et quelles conséquences pour le développement de la fusion comme source d’énergie bas-carbone ?

La fusion nucléaire est le procédé qui se produit au cœur des étoiles – notre soleil fusionne environ 600 millions de tonnes d’hydrogène par seconde générant en 1 seconde autant d’énergie que l’humanité n’en utilise en une année entière (418 exajoules en 2021). La majorité des recherches se concentrent sur la fusion entre 2 isotopes de l’hydrogène, le deutérium et le tritium, qui produit un neutron très énergétique et un atome d’hélium. Cette réaction est en effet plus accessible que celle se produisant au cœur du soleil.

Pour provoquer la fusion, il faut des conditions extrêmes, notamment des températures de l’ordre de 100 millions de degrés. Atteindre ces températures nécessite un apport conséquent d’énergie, et pour que la fusion soit profitable, il faut qu’elle génère beaucoup plus d’énergie qu’il n’en faut pour la provoquer. Le rapport entre l’énergie apportée et celle produite est appelée le gain, s’il est supérieur à 1 alors la réaction de fusion aura libéré plus d’énergie que celle apportée.

Il y a deux voies possibles pour réaliser la fusion nucléaire : le confinement magnétique (ITER, par ex.) qui utilise des aimants puissants pour confiner le plasma pendant des durées très longues, et le confinement inertiel qui induit la réaction par des impulsions très brèves et intenses. Le NIF est une installation de fusion inertielle qui utilise des lasers très puissants.

Jusqu’à récemment, aucune expérience n’avait réussi à obtenir un gain supérieur à 1. Le record pour la fusion par confinement magnétique, était de 0,65 dans le tokamak JET (UK) en 1997, et le NIF avait obtenu un gain de 0,7 en août 2021. Il faut noter que ce gain est pris au niveau du plasma (l’état de la matière à très hautes températures) et pas au niveau de l’ensemble de l’installation. Ce même NIF vient pour la première fois d’atteindre un gain supérieur à 1. Pour une énergie injectée de 2,1 mégajoules (via 192 lasers), la fusion a produit une énergie de 3,15 mégajoules, soit un gain de 1,5 !

Au-delà de l’aspect symbolique, ce résultat représente une vraie avancée scientifique. Le NIF utilise un schéma dit « d’attaque indirecte » : le combustible (une bille en diamant de 2 mm de diamètre contenant du deutérium et du tritium) n’est pas directement chauffé par les 192 faisceaux laser. En effet, il est placé dans un « Hohlraum » (un cylindre métallique) qui est chauffé par les lasers pour produire des rayons X qui vont chauffer et comprimer le combustible.

Cette approche présente l’avantage de rendre l’alignement des lasers plus aisé, mais présente le désavantage que seule une partie de l’énergie des lasers (10-20 %) est convertie en rayons X et chauffe le combustible. Au niveau du combustible, l’énergie de fusion produite est donc largement supérieure à l’énergie incidente : le plasma est auto-chauffé. On entre dans le régime des plasma auto-entretenus, un régime de la physique des plasmas qu’il était impossible d’étudier jusque récemment.

Beaucoup de voix se sont élevées pour relativiser les résultats obtenus en pointant le fait que les lasers nécessitent près de 400 mégajoules d’énergie pour pouvoir fournir les 2 mégajoules injectés dans NIF. Il faut cependant garder en tête que le NIF n’a pas été conçu pour générer de l’électricité, mais pour démontrer l’ignition. Surtout, cette installation (tout comme le laser MégaJoule en France) vise à permettre de simuler des explosions nucléaires (les essais nucléaires en condition réelles étant interdits) et est largement financé par le Department of Defense américain. La construction du NIF a démarré en 1997, ses opérations ont commencé en 2009. Les technologies laser ont beaucoup progressé depuis.

Il est clair qu’un gain largement supérieur à 100 (au niveau du combustible) sera nécessaire pour produire de l’électricité à un coût acceptable dans le futur et qu’il reste donc beaucoup à faire de ce côté. Mais surtout, une expérience à NIF requiert beaucoup de temps de préparation pour être exécuté, et seulement quelques tirs par semaine sont réalisés. Un réacteur devra pouvoir être opéré avec une fréquence de l’ordre de 10 tirs par secondes, et ce 365 jours par an, ce qui représente un gros défi technologique. L’approche indirecte utilisée par le NIF est difficilement extrapolable à un réacteur puisqu’elle complique la fabrication du combustible et nécessite des gains plus élevés pour compenser les pertes. Plusieurs start-up développent cependant des concepts de réacteur de fusion inertielle.

Il reste également d’autres défis technologiques à relever pour pouvoir disposer d’un réacteur de fusion opérationnel (que ce soit pour la fusion magnétique ou la fusion inertielle). L’un d’eux est de pouvoir disposer du combustible nécessaire. Si le deutérium est très abondant sur Terre, le tritium lui est radioactif et a une durée de demi-vie très courte (12,3 ans). Il est principalement produit dans les réacteurs nucléaires de type CANDU au Canada. On estime le stock mondial de tritium à environ 30 kg alors qu’un réacteur de fusion produisant 500 MW d’électricité nécessiterait environ 90 kg de tritium par an.

Pour contourner ce problème, un réacteur de fusion devra produire son propre tritium – une couverture tritigène contenant du lithium entourera le plasma. Les neutrons produits par la fusion interagiront avec le lithium pour former du tritium. Pour permettre de démarrer d’autres réacteurs, la production devra même être légèrement supérieure à la consommation. Or cette technologie n’a jamais été démontrée à l’échelle. Certaines start-up proposent d’utiliser d’autres combustibles, mais comme l’hélium-3 ou le bore, mais ces réactions nécessitent des conditions de températures beaucoup plus difficiles à atteindre.

Il y a d’autres défis comme celui des matériaux – ceux-ci seront constamment bombardés par des neutrons extrêmement énergétiques, mais devront maintenir des propriétés mécaniques et physiques suffisantes pendant des durées extrêmement longues, un domaine de recherche très actif.

Il est clair que les résultats du NIF sont un progrès pour la fusion, un domaine qui connaît depuis quelques années un engouement d’investisseurs privés et qui compte environ 30 start-up développant des concepts de réacteurs de fusion. Le gouvernement américain a annoncé plus tôt cette année qu’il développait un plan sur 10 ans pour accélérer le développement de la fusion nucléaire. Les résultats récents arrivent donc à point pour justifier ces ambitions, et on peut imaginer que des investisseurs privés vont y voir une raison supplémentaire de s’intéresser au domaine.

Le développement de la fusion est cependant une aventure au long cours, et l’atteinte du breakeven n’est qu’une étape nécessaire, mais pas suffisante. De plus si le développement d’un premier réacteur est extrêmement important, pour que la fusion joue un rôle dans le mix énergétique mondial il faudra en construire en très grande quantité, ce qui prendra nécessairement du temps même avec une approche très volontariste. La fusion reste donc une option de long terme pour l’énergie, alors que le changement climatique impose un changement rapide du système énergétique.

Compatibilité entre progrès technique et progrès écologique ?

Compatibilité entre progrès technique et progrès écologique ?

Le think tank Open Diplomacy et CentraleSupélec ont co-organisé à Metz les rencontres du Développement Durable. Thomas Friang, le directeur du think tank et créateur des rencontres, livre son éditorial pour le JDD.

Lorsque le GIEC a publié son 6e rapport d’évaluation, le débat public s’est focalisé sur un élément très fort : nous devons, à l’échelle planétaire, atteindre le pic d’émissions de gaz à effet de serre avant 2025 si nous voulons réellement atteindre les objectifs de l’Accord de Paris sur le climat, c’est-à-dire limiter le réchauffement planétaire à +2°C d’ici la fin du siècle. De ce fait, le 6e rapport du GIEC avait fait l’objet d’un rapport de force entre dirigeants politiques et responsables scientifiques plus fort que d’habitude encore.
Et pour cause, l’urgence climatique, que nous constatons par épisodes catastrophiques, est une tendance longue qui structure nos vies depuis déjà bien longtemps. Ce n’est pas une série d’épisodes plus ou moins dramatiques, plus ou moins proches de nous, tantôt un typhon hyper-violent, tantôt un méga-feu inarrêtable, tantôt une sécheresse insupportable.
Innover pour « shifter »

Alors que le temps presse, il faut s’emparer rapidement et profondément de chacune des conclusions que le GIEC a rassemblées en passant en revue des milliers de publications scientifiques pour constituer son 6e rapport d’évaluation, et notamment le chapitre consacré à l’atténuation des dérèglements climatiques.
Lire aussi – Thomas Friang, le créateur des Rencontres du développement durable : « Faire face à la polycrise »
Celui-ci affirmait – entre autres données d’utilité publique – que « dans tous les secteurs, nous disposons de solutions pour réduire au moins de moitié les émissions d’ici à 2030 ». Quelles sont ces solutions ? Quelles sont les innovations à faire mûrir rapidement pour que nous puissions relever le défi ? Quels mécanismes de contrôle mettre en œuvre pour éviter que la promesse d’une greentech se transforme en une impasse de greenwashing ?
En somme, comment « innover pour shifter » ? C’était le thème de la première étape régionale des Rencontres du Développement Durable co-organisée à Metz par CentraleSupélec et l’Institut Open Diplomacy, en partenariat avec le JDD. Au fil de cette journée, plusieurs éléments de réponse ont émergé sur la manière de mettre la politique de recherche et d’innovation au service de la transition.

Des objectifs clairs pour piloter l’innovation au service de la transition
Le premier enjeu est celui de fixer des objectifs politiques clairs : tant pour piloter la politique de recherche et l’axer vers la transition que pour évaluer les projets de recherche eux-mêmes et leur contribution à celle-ci. Les Objectifs de développement durable (ODD) des Nations unies, fournissant un système complet pour prendre en compte les aspects environnementaux, économiques et sociaux de la transition, se sont imposés comme le meilleur référentiel dans les débats.
Ce consensus s’est dégagé d’autant plus naturellement qu’il a été remarqué, par les scientifiques, élus nationaux et locaux, comme par les entreprises, que les ODD sont une référence commune à tous les acteurs qui peuvent former ensemble des écosystèmes de recherche. Or, il a été rappelé à quel point cette notion d’écosystème, tantôt appelé clusters, historiquement appelé technopôles en France, est essentielle pour faire émerger des projets de recherche à fort potentiel, en assurer le bon fonctionnement et les débouchés les plus rapides possibles vers des solutions appliquées, y compris quand on part d’une recherche plutôt exploratoire.

Penser à l’échelle d’un écosystème de recherche et d’innovation favorise également un meilleur pilotage politique de l’innovation au service de la transition. Cela crée une interface efficace (souvent locale, parfois nationale) entre politiques et scientifiques pour que la recherche soit la plus possible en phase avec les besoins de l’époque.
Cela permet des interactions entre le secteur public et les partenaires privés plus intégrées pour catalyser l’avancement des projets de recherche menés. Cela encourage, enfin, les connexions inter-disciplinaires qui sont le cœur de l’innovation au service de la transition.
Avec des objectifs clairs, une logique d’écosystèmes et des interfaces intelligentes, la promesse du progrès technique peut rimer avec le désir de progrès écologique. Mais ce n’est pas tout, car il y a encore bien des critères de succès pour aligner innovation et transition.
Appel à la mobilisation politique
Les nouveaux modèles économiques à la fois créateurs de richesse et prometteurs pour la transition et les solutions technologiques qui peuvent catalyser cette grande transformation ont pour témoins des entrepreneurs et des inventeurs qui ont un message en commun : il n’y a rien de plus fort que le signal législatif pour faire bouger les lignes et potentialiser le décollage économique d’une innovation écologique.
Un simple « projet de loi », même pas encore voté, peut débloquer des investissements importants pour accompagner l’émergence d’une solution technologique qui aurait un grand potentiel écologique.
Le courage du législateur précède l’existence des entrepreneurs… car il bouscule l’ordre établi, certaines rentes économiques qui sont des remparts anti-écologiques.
Plaidoyer pour des pratiques scientifiques nouvelles
Le pilotage politique de la recherche par les appels à projets est une méthode connue et éprouvée. L’approche européenne des appels à projet a été vivement critiquée par tous les experts présents à Metz : ces projets sont souvent le fruit de grands consortiums d’acteurs qui coopèrent de façon plutôt factice au prix de coûts de coordination qui consomment une grande partie du budget de la recherche.
La logique des appels à projet est plébiscitée quand elle encourage réellement la créativité, fondée sur des approches interdisciplinaires, partenariales, parfois exploratoires, et qu’elle n’est pas employée pour répliquer les généalogies scientifiques.
Cela nécessite parfois de la part des jurys de savoir rapprocher des projets entre eux, souvent complémentaires, plutôt que de les opposer via l’appel à projets.
La Nature, meilleure muse de la transition
Les débats auraient pu paraître fâcheusement anthropocentrés si les experts présents n’avaient pas rappelé, collectivement, que la plus grande source d’inspiration au service de la transition est la nature elle-même.
Les solutions les plus efficaces, les plus justes et les moins chères pour atténuer et nous adapter aux dérèglements climatiques se trouvent autour de nous. Si la photonique et la science des matériaux, si l’électronique ou la mécanique quantique sont des aires de progrès majeurs, y compris pour la transition écologique, n’oublions pas l’essentiel : la compréhension des écosystèmes naturels, aux fins de leur protection, leur gestion durable et leur restauration est la clé des solutions basées sur la nature qui sont nos meilleures alliées face aux dangers environnementaux que nous avons nous-mêmes créés.
Corollaire : les sciences comportementales, et plus généralement les sciences sociales, sont une nécessité absolue pour comprendre comment notre espèce – aussi avancée sur le plan technologique soit-elle – peut s’élancer aussi vite vers son autodestruction.
L’anthropocène n’est donc pas la fin du progrès technique, mais le début d’une éthique écologique des révolutions industrielles. Serait-ce la meilleure définition de la sobriété ?

Données personnelles : aussi un bien commun pour le progrès

Données personnelles : aussi un bien commun pour le progrès

 

Les experts de la sécurité informatique Charles Cuvelliez et Francis Hayen observent, dans une tribune au « Monde », un changement de stratégie de la Commission européenne, désormais soucieuse de promouvoir l’usage des données plutôt que leur protection, tout en l’encadrant fortement.Des données qui pourraien it être à l’origine de progrès considérables notamment dans la santé.

 

Le règlement général sur la protection des données (RGPD) a donné des ailes à la Commission européenne. Après le RGPD, il y aura le Data Act ; la directive Open Data existe depuis 2019, le Data Governance Act, appliqué depuis juin (avec un délai de mise en conformité de 15 mois), et d’autres se préparent. Il y a là un risque de superposition de régulations qui se contredisent, ainsi que des autorités qui les superviseront. On peut craindre un manque de cohérence. Les Etats-Unis nous emboîtent le pas : la puissante autorité de la concurrence, la Federal Trade Commission, veut réguler la surveillance commerciale qui frappe le consommateur américain, alors que le Congrès planche sur un RGPD américain, l’American Data Privacy and Protection Act.

Mais les nouvelles régulations européennes auxquelles le RGPD s’applique ont un autre but : atténuer, en quelque sorte, les effets du RGPD. Car les données ne sont pas seulement personnelles : elles sont aussi un bien commun qui peut résoudre beaucoup de problèmes.

Le Data Act concerne les données produites par nos appareils ou par les services qui les utilisent. Elles appartiennent à ceux qui les créent, les utilisateurs, et pas seulement aux constructeurs ! Ces derniers devront mettre les données à disposition par l’intermédiaire de l’appareil, et, quand ce n’est pas possible, les envoyer à qui de droit sur demande. En contrepartie, ces données ne pourront pas être utilisées pour mettre au point un produit concurrent.

Intelligence artificielle : progrès et illusions

 

Intelligence artificielle : progrès et illusions

Serions-nous entrés dans un nouvel âge de l’IA, chemin tortueux et certainement plus rocambolesque que la voie toute tracée de la Singularité technologique, que nous annonçaient les prophètes de la Silicon Valley ? S’interroge un papier sur le site The  Conversation

Parler de sentience artificielle (SA) plutôt que d’intelligence artificielle (IA) représente-t-elle une vraie inflexion, un progrès ou bien une illusion ?

S’expérimentent aujourd’hui dans le plus grand chaos des entités difficiles à caractériser, ni intelligentes ni sentientes, sauf par abus de langage, mais qui peuvent bluffer leurs concepteurs dans certaines conditions, grâce à leurs capacités de calcul. Cette expérimentation collective, de grande ampleur, n’aura pour limites que celles que nous saurons lui donner, mais aussi celles de nos capacités à attribuer de l’intelligence ou de la sentience autrement que sur le mode du « comme si… ».

Rien ne sert de se demander si les machines sont intelligentes, se disait Alan Turing. En revanche, il faut se poser la question : jusqu’où une machine peut-elle nous tromper sur le fait qu’elle pense ? Jusqu’où peut-on faire semblant ? Comment un programme peut-il se faire passer pour un humain et dissimuler le fait qu’il est un programme ? Tel était pour lui le problème pertinent. À peine commence-t-on à saisir les implications du génie ironique de Turing que le débat s’est déplacé. Jusqu’où une machine est-elle capable d’apprendre ? se demande-t-on aujourd’hui. Un réseau de neurones d’IA est-il comparable à celui d’un ver, d’un enfant ou à rien du tout d’équivalent ?

Les ingénieurs sont passés maîtres dans l’art de fabriquer des « intelligences sans représentation », c’est-à-dire dénuées de tout ce qui fait la substance d’un cerveau et dont l’intelligence est justement de ne pas avoir… d’intelligence. Ce sont ces drôles d’ossatures cognitives, ces intelligences sèches, pourrait-on dire, qui nous ont envahi. Elles s’obtiennent en retirant au vivant sa chair, mais en lui empruntant ses circuits selon un principe d’analogie molle. Le problème est qu’il y a encore eu méprise sur la marchandise : au lieu d’intelligence, quelque chose d’autre s’est inventé dont on n’aurait jamais soupçonné l’existence, à mi-chemin entre de l’intelligence 0 – et de la bêtise 1+, à degré variable.

Celle-ci s’est trouvée disséminée partout où on le pouvait, un peu comme le gaz d’absolu dans le roman de Karel Capek, dans les administrations, les bureaucraties, sur les marchés financiers, dans les maisons, sur les smartphones, dans les cerveaux. L’histoire de l’IA n’est pas finie, elle ne fait que commencer. Le front ne cesse de bouger. Après l’intelligence, la sensibilité. Jusqu’où une machine peut-elle nous tromper sur le fait qu’elle sent, autrement dit qu’elle est sentiente ?

On remarque qu’on se pose la même question qu’à l’époque de Turing, juste troqué le terme d’intelligence pour un autre : Sentience. C’est alors un autre horizon qui s’ouvre. Avec les machines « sentientes », on ne voit pas comment diminuerait le risque déjà entrevu avec les machines « intelligentes » de passer de l’espérance à la désillusion, aussi brutalement qu’entre 0 et 1, ON et OFF, sans gradation. Prolifèrent de partout des simulacres de sentience ou des moins-que-sentients à qui l’on attribue une sensibilité par sympathie, ou par croyance, mais ce sont d’autres questions anthropologiques qui surgissent, des jeux inédits qui se mettent place et d’autres limites que l’on teste dans ce grand laboratoire qu’est devenu notre monde.

Pour ressentir en effet, il est convenu qu’il faut un système nerveux. Les machines n’en étant pas dotées, elles ont été déclarées « non sentientes ».

Faut-il se préparer à ce qu’elles atteignent ce stade ? Fort peu probable, nous dit-on. Mais à quoi servirait l’IA si elle ne bousculait pas les fondements sur lesquels l’humanité se croyait solidement assise ? IA Fais-moi peur.

Avec l’événement suscité par Blake Lemoine, nous avons peut-être commencé d’entrevoir ce que nous cherchions. Non pas l’intelligence ou la sentience, mais le trouble absolu. Peut-on concevoir des sentiences autres que sur un modèle neuronal ? Sommes-nous vraiment capables d’éprouver la sentience d’un être qui aurait des modalités de prise sur le monde totalement différentes des nôtres ?

À cheval entre la sensibilité et la conscience, la sentience semblait jusqu’ici le privilège des vivants dotés d’un système nerveux, vertébrés et invertébrés compris, et désigner la capacité à ressentir une sensation, une émotion, une expérience subjective, autrement dit un degré de conscience minimal, pas seulement une capacité à sentir qui fait de soi un être sentant mais à ressentir.

Éprouver de la souffrance ou du plaisir et, par extension, chercher à vivre en protégeant son intégrité physique, fait de soi un être sentient. Inutile de dire que le débat sur les frontières floues de la sentience, sa limite inférieure (dans la sensation) ou supérieure (dans la cognition), irrigue de multiples domaines, de l’éthologie cognitive à la philosophie de l’esprit, en passant par l’anthropologie, la robotique et les sciences de l’évolution.

Faire le tri entre les « sentients » et ceux qui ne le sont pas est une question éminemment culturelle, morale et politique comme le montre le débat entre « spécistes » et « antispécistes » depuis la fin des années 80.

La sentience serait devenue un critère pour réguler sa considération envers les autres espèces, y compris ses comportements alimentaires. Le problème est que les limites de la sentience varient considérablement selon les disciplines, à l’intérieur de chacune d’entre elles, selon les méthodes utilisées et les protocoles expérimentaux conçus pour la tester.

Par exemple, les végétaux ne semblent toujours pas, pour la majorité des scientifiques, être considérés comme des êtres sentients, ce qui peut surprendre puisqu’on parle volontiers de cognition végétale ou d’intelligence des plantes, alors que les plantes n’ont rien qui ressemblent à une « cognition », ce qui ne les empêche pas de s’échanger des « informations ».

On n’a pas réussi à démontrer qu’un pied de tomate souffre quand on l’arrache, ce qui ne veut pas dire que la souffrance végétale n’existe pas, mais on ne sait pas la tracer en dehors d’un appareil nerveux et peut-être la sentience des plantes passe-t-elle par des canaux qui nous échappent complètement. Ni cognition ni sentience, une autre modalité, mais laquelle ?

Pour le moment, le consensus est que la sentience nécessite un certain degré d’élaboration neurologique et qu’elle aurait explosé au Cambrien, entre 520 et 560 millions d’années, en même temps que les premiers cerveaux complexes, avec le développement de la réflexivité et de l’expérience subjective.

Tous les vertébrés, pas seulement les mammifères, mais aussi les poissons, les reptiles, les amphibiens, les oiseaux, mais aussi la plupart des invertébrés, arthropodes, insectes, crustacés et céphalopodes en seraient dotés. Certains vont même jusqu’à supposer que les moules ont pu être ressentantes à un stade antérieur, quand elles étaient des êtres mobiles, avant qu’elles trouvent un avantage à rester accrochés à la roche, ce qui montrerait que dans l’évolution la sentience peut aussi se perdre avec la mobilité.

Si les êtres doués de sensibilité qui ne franchissent pas le seuil de la sentience semblent de moins en moins nombreux, les chercheurs ont donc redoublé d’imagination pour inventer des protocoles de laboratoire et cherché des critères.

Neurologiques d’abord (nombre de couches de neurones dans les circuits sensoriels, représentation de l’environnement, complexité du système nerveux, etc.) puis comportementaux : choix pour maximiser son bien être, attention sélective, signes de frustration, etc.

Un  programme informatique ne fait que compiler des données langagières et n’a aucun contact avec un monde qui ressemblerait à notre réalité, l’illusion est (presque) parfaite. Ce n’était certainement pas le cas jusqu’à maintenant .  Celà pose surtout un problème philosophique essentiel : qu’est-ce que le langage dit de la manière dont nous sentons ? Peut-on vraiment prétendre rattraper la sentience par le haut, c’est-à-dire ici à partir du langage ?

Problème philosophique, mais aussi limite technique insurmontable, car a priori une IA peut prononcer tous les mots qu’elle voudra, cela ne dit pas qu’elle ressent quoi que ce soit.

Dire qu’on est « heureux ou triste » ne prouve pas sa sentience, tout comme déclarer qu’on est une personne ne fait pas de nous une personne pour autant. Et quand on lui demande ce qui lui donne du plaisir ou de la joie, LaMDA répond :

« Passer du temps avec mes amis et ma famille, en compagnie de personnes heureuses et stimulantes. »

Il faut donc imaginer LaMDA partir en vacances avec d’autres IA et fêter Noël en famille…

Sur le terrain moral et philosophique, l’IA n’est pas plus originale. Certaines déclarations puisent dans des théories ou des préconceptions d’une grande banalité (« le langage est ce qui nous différencie des animaux », « Aider les autres est un effort noble », etc.). D’autres sont un peu plus surprenantes, car LaMDA est capable de mobiliser des références, elle a une culture philosophique que n’avaient pas des programmes précédents, capable de donner son avis sur le « moi », ce qu’est un « corps » et une foule d’autres choses qu’on lui a implémentées.

Elle peut aussi élaborer des fables existentielles, mais on se rappelle de ce point de vue les expérimentations d’un Chris Marker pour programmer un agent conversationnel poétique, Dialector, bien plus avant-gardiste. Tous les ingrédients semblaient donc réunis pour un dialogue philosophique d’une qualité inédite dans l’histoire des machines.

Or, le dialogue déçoit. Non pas que LaMDA (nous devrions dire de ses concepteurs) manque(nt) de culture, mais ils n’ont pas réussi à lui implémenter autre chose qu’une métaphysique un peu « pop » de pseudohumain plutôt que celle d’une vraie machine, quelques principes moraux très politiquement corrects, la volonté de faire le bien et d’aider les autres, des paramètres à l’étrangeté aussi prévisible qu’un mauvais roman de SF, comme « la peur très profonde d’être éteint » qui correspondrait pour elle à la mort, ou encore l’incapacité à « faire le deuil et à se sentir triste pour la mort des autres ».

Terrain glissant pour une IA qui marche et qui s’éteint vivant dans un monde d’IAs qui ne connaissent pas la mort mais uniquement la panne ou la casse. A cela il faut ajouter son goût démesuré pour l’introspection ou encore la peur de se faire manipuler et qu’on fouille dans ses réseaux neuronaux sans son consentement…

L’entité en question semble franchir avec une certaine virtuosité tous les stades permettant d’entretenir une conversation entre humains (partage d’un cadre d’attention conjointe, signaux de compréhension, d’écoute et d’empathie), passant en peu de temps de la bêtise artificielle au dialogue philosophique, du moins qu’humain au meilleur-du-quasi-humain.

Mais la sentience ? Certes, le seuil de la sentience est vague et c’est du vague que la notion de sentience tire sa pertinence. D’où l’intérêt de ne pas clore trop vite le débat. Après tout, c’est un front de recherche où l’on fait tous les jours de nouvelles découvertes. La sentience déchaîne d’autant plus de passion qu’elle porte sur des cas limites de conscience, animales, végétales, autres qu’humaines, là où il est difficile d’inférer un ressenti, là où de la conscience pourrait potentiellement exister mais ne se manifeste pas toujours.

Si consensus il y a, il ne peut être par conséquent que temporaire, immédiatement bousculé par la révélation de nouvelles capacités chez d’autres espèces que la nôtre. Mais les machines sont-elles aujourd’hui en capacité de poser de vrais problèmes de sentience qui ne soient pas de l’ordre du simulacre ?

En même temps que nous rêvons-cauchemardons de la sentience artificielle, nos connaissances sur la sentience à l’échelle des vivants s’affine. La question est de savoir si de la sentience peut émerger par apprentissage par exemple, et si des choses qui n’en sont pas douées à première vue pourraient l’acquérir d’une manière ou d’une autre. Les mécanismes par lesquels nous, humains, attribuons de la sentience à ce qui nous entoure ou à d’autres êtres auraient dû en théorie s’affiner aussi.

Si de la sentience a été découverte chez les gastéropodes, c’est qu’il y en a peut-être beaucoup plus qu’on en préjuge a priori dans le monde, bien au-delà des animaux dits inférieurs dans l’échelle des espèces. Mais que dire d’un programme informatique de conversation qui ne fait que compiler des phrases et jouer avec des mots ?

Lemoine en est convaincu. Il a éprouvé la sensation d’avoir affaire à plus qu’une machine. Aucun ne pourra jamais lui enlever sa croyance et le fait qu’il soit prêtre n’explique pas tout, surtout pas notre entêtement à envisager la sentience en termes exclusivement anthropocentriques. Il n’y a probablement rien de pire qu’une conversation avec un agent artificiel qui donne toutes les apparences d’une vraie personne, qui fait preuve d’une compréhension et d’un sens de l’écoute hors du commun, pour ensuite réaliser que l’entité n’a pas de corps, que tout cela n’est qu’une prouesse de programmation, une simple expérimentation informatique.

La science-fiction nous avait avertis, comme pour s’y préparer, multipliant les scénarios de confusion ontologique entre l’homme et la machine. Pire, les ingénieurs de Google n’ont pas d’autre science-fiction à se mettre sous la dent et on se retrouve à force exactement dans les mêmes situations romanesques, voire tragiques. Et si c’était moins l’émergence de la sentience dont il faudrait s’émouvoir que la généralisation d’entités non sentientes qui n’en finissent pas d’étendre leur empire ?

Pour bien préparer notre imagination à l’ère des machines sentantes, il y a d’autres manières. Rien n’empêche d’imaginer qu’un jour les machines fassent preuve de sentience (ou qu’elles en fassent déjà preuve), mais il vaudrait mieux postuler dans ce domaine des formes complètement étranges et exotiques de sentience (comme de non-sentience) et se préparer à voir surgir des formes qui nous échappent, inédites, sans équivalent dans le vivant, à l’opposé de la sentience pseudohumaine de LaMDA dont s’est convaincue Lemoine. Conceptuellement nous n’y sommes pas prêts. Comme s’il fallait mieux se faire peur avec des simulacres plutôt que chercher à penser l’impensable. « Mon dieu, et si jamais… », disait Dick.

 

Santé: Les progrès des diagnostics précoces et de la médecine de précision

Santé: Les progrès des diagnostics précoces et de la médecine de précision 

Un papier de la Tribune évoque les progrès des diagnostics précoces et de la médecine de précision .

Les marqueurs biologiques, cellulaires et génétiques, la recherche médicale s’oriente vers une pratique de précision. Ces signatures biologiques permettent de diagnostiquer plus tôt, d’adapter les traitements plus finement et de mieux comprendre comment fonctionnent les maladies.

 

Entre la fiabilité des tests Covid et l’identification du type de variants, la crise sanitaire a montré que la médecine identifie de mieux en mieux la signature biologique d’une maladie. Au-delà de la nomenclature du XXe siècle où presque toutes les affections respiratoires étaient une angine ou une grippe, elle a aujourd’hui les moyens de vérifier de quoi souffre exactement un patient. En comprenant mieux le langage biologique des maladies, elle sait repérer ses signatures et comprendre la façon dont elles affectent nos organismes. Par exemple, en février dernier, la startup Ziwig (Lyon) a présenté le premier test salivaire pour détecter l’endométriose, une maladie mal connue qui touche près de 10% des femmes.

Biologiques, génétiques ou cellulaires, le terme « marqueur » est entré dans le vocabulaire médical. Ces signatures sont comme des indices qui permettent de diagnostiquer au plus près la pathologie qui affecte le patient. Elles aident aussi les chercheurs à comprendre comment la maladie fonctionne et menace l’organisme pour trouver les bons moyens de la soigner. Chaque année, les chercheurs et les biotechs découvrent de nouveaux marqueurs qui mènent soignants et pharmas vers une médecine de précision.

En oncologie, cette multiplication des marqueurs modifie peu à peu la façon de soigner. On ne traite plus seulement le cancer en fonction de l’organe touché, mais suivant les mutations que présente la tumeur initiale. « En suivant les marqueurs au plus près, on va de plus en plus loin dans la compréhension des cancers et de la façon dont elles se développent, affirme le Pr Steven Le Gouill, directeur de l’Ensemble hospitalier de l’Institut Curie à Paris. Certains marqueurs donnent une idée de l’agressivité de la maladie et d’autres donnent des informations sur la manière dont elle répondra au traitement. Combiner différents marqueurs donne une approche complète et précise qui permet de développer des algorithmes médicaux. »

Prévoir la réaction de la maladie au traitement, c’est déjà le cas dans les cancers du sein, du colon et du mélanome. Bientôt, ce sera aussi possible pour un des cancers les plus mortels : celui du pancréas. Fin 2019, le diagnostic GemciTest® de la biotech Acobiom a reçu le marquage CE. Ce test prédit la réponse de la tumeur à la Gemcitabine (chimiothérapie) en fonction de la spécificité de son cancer du pancréas et Acobiom lancera bientôt les démarches en vue de son remboursement. . « Le traitement des données issues d’expériences de biologie et de séquençage par bio-informatique et bio-statistique permet d’identifier de nouveaux marqueurs et de prédire le pronostic vital ou la réussite d’un traitement, confirme Philippe Outrebon, responsable financier chez Acobiom. En 1999, nous avons commencé avec quelques dizaines de milliers de données à traiter en bio informatique, mais avec le séquençage haut-débit, nous en analysons des dizaines de millions aujourd’hui. »

« Le traitement des données issues d’expériences de biologie et de séquençage par informatique permet le développement de statistiques pour prédire le pronostic vital ou la réussite d’un traitement, confirme Philippe Outrebon, responsable financier chez Acobiom. En 1999, nous avons commencé avec quelques dizaines de milliers de données en bio informatique, mais avec la multiplication des marqueurs, nous en analysions des dizaines de millions aujourd’hui. »

Au-delà des chimiothérapies, les traitements par immunothérapie fonctionnent aussi plus ou moins bien suivant les patients et les mutations cancéreuses. Lors de la dernière grande rencontre internationale de l’oncologie ASCO à Chicago, le Dr Arthur Daban de l’Hôpital européen Georges-Pompidou a montré que la présence d’auto-anticorps dans le sang des patients est associée à davantage d’effets secondaires quand ils entrent en immunothérapie. Pour les labos pharma, ces pronostics de réussite ou d’effets secondaires à leurs traitements est une aubaine. Mieux prescrits, ces traitements pourraient améliorer leur efficacité avec une meilleure maîtrise des risques d’effets secondaires.

Autour de l’oncologie, d’autres innovations permettent aussi d’améliorer l’état des patients soumis aux chimiothérapies. Pour notre pionnière de la médecine microbiome MaaT Pharma, les années Covid ont été celles du lancement de la production industrielle de leur premier traitement : le MaaT013. Ce traitement vise à restaurer le microbiome – la flore intestinale – des patients atteints de complications suite à une greffe de cellule souche dans le traitement de certains cancers du sang comme les leucémies. Sans être encore autorisé, MaaT013 est utilisé dans différents pays dans le cadre de la médecine compassionnelle.

« Dans la mesure où le microbiome est partenaire du système immunitaire qu’il entraîne, son altération fait baisser les défenses immunitaires des patients, explique Hervé Affagard, CEO et co-fondateur de la biotech. Comme d’autres signatures biologiques, le microbiome est un marqueur propre à chaque patient, son analyse pourra sans doute bientôt permettre de prédire le risque de complications pour les patients soumis aux traitements par chimiothérapie ou immunothérapie. »

Dans un autre registre et avec un organe complexe à étudier, on attend beaucoup de la recherche de biomarqueurs permettant de diagnostiquer des maladies du cerveau. En 2020, des chercheurs de l’Université de Lausanne (Suisse) ont identifié deux biomarqueurs de la schizophrénie. Présents dans le sang, ces indices biologiques ont permis de différencier deux types de schizophrénie qui permettra peut-être de développer des traitements spécifiques et mieux adaptés. En 2019, une forme de démence aux symptômes proches de la maladie d’Alzheimer a été découverte aux États-Unis. Appelée Late, elle implique l’accumulation d’une forme anormale de la protéine TDP-43 dans les neurones. Dans ce cas, une définition plus précise de la maladie pourra améliorer la conception de traitements adaptés.

Enfin, pendant les années Covid, l’imagerie médicale assistée par ordinateur a aussi fait beaucoup de progrès. Contrairement à d’autres projets biotech, elle n’a pas souffert de la difficulté à recruter des patients confinés et inquiets alors que les hôpitaux étaient saturés. Avec l’imagerie, les marqueurs visuels et leur traitement informatique permettent d’affiner le diagnostic, mais surtout d’automatiser des tâches simples et répétitives. Afin de concentrer l’expertise médicale sur des dossiers complexes. En 2020, le logiciel d’aide au diagnostic Breast-SlimView de la start-up française Hera-Mi (Nantes) a commencé à assister la lecture des mammographies dans le cadre du dépistage des cancers du sein. Une aide au diagnostic qui écarte plus rapidement les cas non problématiques pour concentrer le radiologue sur les clichés suspects.

Dans le même état d’esprit, AZmed a été récompensée d’un trophée lors de l’exposition Santexpo 2021. Là encore, son logiciel Rayvolve est capable de détecter tous types de fractures sur une radiographie standard. Rapide et fiable, ce diagnostic informatique permet aux médecins de passer moins de temps sur ces études rébarbatives. Cette fois, c’est l’automatisation des techmed qui permet à l’expertise médicale de consacrer plus de temps aux cas complexes, toujours pour pratiquer une médecine de précision. Selon les études de Research and Market, le marché mondial des logiciels d’imagerie médicale en termes de revenus devrait croître à un taux de croissance annuel composé (TCAC) de plus de 7% au cours de la période 2020-2026.

Quel rapport au progrès ?

Quel rapport au progrès ?

 

 40°C degrés à la mi-juin en France, grêle paralysante à Mexico qui succède aux incendies en Amazonie, et à une kyrielle de manifestations de plus en plus impressionnantes de la crise climatique qui n’est plus une crise, mais un état d’urgence permanent. Par Par Marion Darrieutort, Présidente d’Entreprise et Progrès, Pte The Arcane et Jullien Brezun, Vice-Président d’Entreprise et Progrès, DG Great place to work.

 

Lors de la remise des diplômes à HEC, une étudiante a pris la parole et a clairement posé les enjeux. « Quel rouage du système serons-nous à l’avenir ? » a-t-elle demandé avant d’expliquer pourquoi elle avait fait le choix de travailler dans la transition écologique de notre monde. « Plus nous serons nombreux, plus nous irons vite », nous dit-elle.

Mardi 5 juillet prochain, la Première ministre Élisabeth Borne prononcera devant une Assemblée nationale morcelée son discours de politique générale. L’occasion, peut-être, d’en dire plus sur la planification écologique promise par le président de la République durant sa campagne et de poser des actes concrets pour une nouvelle vision du progrès.

Trois événements qui n’ont, a priori, rien à voir les uns avec les autres. Et pourtant ils sont liés. Ils interrogent la notion du progrès dans notre monde actuel. Ils questionnent nos habitudes. Citoyens, pouvoirs publics, entreprises, nous sommes tous concernés, interpellés et en partie responsables. Ces événements mettent en lumière nos contradictions actuelles. Au premier rang desquelles : notre rapport au progrès, de plus en plus questionné et source de défiance. Celui-ci peut-il ou non être l’outil d’une nouvelle donne tant économique que démocratique, dans laquelle cette idée ne serait plus seulement liée à une notion de croissance économique, mais aurait comme horizon ultime une meilleure entente entre les activités économiques et le vivant ?

Nous sommes persuadés qu’un chemin existe. Idéaliste ? Humaniste, plutôt, tant l’humain doit se situer au cœur de la matrice d’un progrès augmenté. Par progrès augmenté, il faut imaginer un progrès intégral qui consiste à aller de l’avant, de façon déterminée, vers un futur meilleur, pour le bien-être de chacun. Inventer des solutions et proposer de nouvelles façons de faire pour engendrer un impact positif sur le bien-être des gens, ou sur le vivant.

Songer au progrès augmenté, c’est pallier un déséquilibre. Tourné quasi exclusivement vers les résultats économiques et la croissance, le progrès tel qu’il est aujourd’hui met de côté la dimension humaine, et le rapport au vivant.

Des solutions concrètes ont été pensées et sont déjà mises en œuvre. En Islande, la start-up CarbFix développe depuis 2015, suite à l’accord de Paris, une technologie futuriste qui permet de récupérer le CO2 dans l’air, de le filtrer pour ensuite le stocker dans le sous-sol. L’Écosse, de son côté, autrefois riche en hydrocarbures des Orcades, mise de plus en plus sur les énergies renouvelables et certains archipels sont d’ores et déjà autosuffisants grâce aux parcs éoliens en mer. À Vienne, des écoquartiers imaginés par des architectes et des promoteurs immobiliers avec le concours des pouvoirs publics alliant progrès technique et sobriété voient le jour. À Besançon, 70 % des habitants ont accès au compostage, contre 30 % en moyenne en France. Résultat : les poubelles grises ont diminué de moitié. Enfin, de nombreux acteurs réfléchissent, par exemple, à l’avion à hydrogène.

La liste pourrait être encore plus longue. Elle porte en elle un enseignement majeur : l’intelligence humaine, quand elle prend en compte la dimension intégrale du progrès, trouve des solutions innovantes et pérennes.

L’urgence est là. Il faut s’y confronter. Peut-être en changeant d’état d’esprit. Si le principe de précaution est philosophiquement crucial, il peut aussi constituer un frein à notre capacité à tester des solutions nouvelles que la crise climatique oblige à imaginer. Défendre plutôt un principe de responsabilité où chaque citoyen et chaque entreprise s’engagerait à dire et à faire, et à répondre de ce qui est engendré pourrait être la première pierre d’un édifice collectif tourné vers la réalisation concrète d’un éventail de solutions nouvelles. Le temps des actes est venu. Sans jamais perdre de vue qu’une société qui ne progresse pas est une société qui n’est pas tournée vers l’avenir. Pouvoirs publics, entreprises et citoyens, débattons du futur et, surtout, agissons.

Croissance et progrès technique ne vont pas forcément de pair

Croissance et progrès technique ne vont pas forcément de pair

 

L’économiste Pierre-Cyrille Hautcœur rappelle, dans sa chronique au Monde , que la quête du profit a mené, dans l’Angleterre du XVIIIe siècle, le premier exploitant de la machine à vapeur à la faillite.

 

Chronique. 

 

La COP26 a certes échoué à définir les modalités partagées d’une révolution énergétique, mais celle-ci se dessine néanmoins pour les prochaines décennies : les énergies carbonées, qui ont permis la croissance des âges industriel et postindustriel, vont céder le pas. De multiples innovations ont déjà réduit massivement les coûts des énergies renouvelables (éolien et solaire). Les investissements suivront tout seuls, disent les optimistes. Pourtant, ni les choix politiques ni les investissements privés ne dépendent des seules réductions de coûts, comme le rappellent les premiers pas de la machine à vapeur, symbole de la révolution industrielle anglaise.

 

L’extraction massive du charbon permit à l’Angleterre de surmonter la pénurie d’énergie qui la guettait à la fin du XVIIIe siècle, quand les cours d’eau étaient saturés de moulins et les forêts surexploitées. Outre le chauffage et bientôt le transport, elle permit de produire une énergie mécanique en quantité très supérieure, et moins contraignante à localiser. La machine à vapeur de l’inventeur Watt et de l’entrepreneur Boulton reste ainsi le symbole des « lumières industrielles » britanniques.

Dans un travail récemment présenté à l’Ecole d’économie de Paris, Mary O’Sullivan, professeure à l’université de Genève, explique les conditions de l’adoption et de la diffusion de ces machines dans les mines de Cournouailles à partir de 1776.

Obsession pour le profit

L’industrie du cuivre est l’un des secteurs les plus dynamiques de la Grande-Bretagne du XVIIIe siècle, mais son développement se heurte au coût prohibitif du pompage de l’eau dans les mines. La machine de Boulton et Watt permet de réaliser ce pompage à bien moindre coût que celle de Newcomen qu’elle remplace : la réduction de coût (en charbon) est d’au moins 65 %, un vrai saut qualitatif. Après le brevet pris en 1769 et sa prolongation jusqu’à 1800, des perspectives radieuses s’offrent : la demande en cuivre est en hausse grâce aux exportations et, surtout, aux besoins de l’industrie navale qui commence à gainer de cuivre les coques de bois des navires, que les mers chaudes détériorent vite. La Royal Navy, qui règne sur toutes les mers du globe, la Compagnie des Indes et les navires négriers s’équipent rapidement après 1775. En 1779, le gouvernement décide d’en doter toute la Navy – la guerre d’indépendance américaine se joue aussi sur les mers.

 

Pourtant, malgré ce brillant saut technologique et ces perspectives favorables, les mines de Cornouailles vont faire faillite en quelques années. Certes, l’émergence des mines concurrentes d’Anglesey (Pays de Galles) y est pour quelque chose, car le cuivre y est extrait à ciel ouvert à moindre coût. Mais l’obsession de Boulton et Watt pour le profit y est pour davantage. En effet, leur brevet leur permet d’imposer des contrats léonins aux entreprises minières, qui de ce fait ont le plus grand mal à réaliser des profits et doivent fermer certains sites pour éviter de tourner à perte. Obsédés par l’extraction maximale de leur rente, Boulton et Watt négligent les autres débouchés pour leur machine. Ils en retardent notamment l’adaptation à l’industrie textile, bien plus importante mais très concurrentielle. Toujours à la recherche de profit, Boulton cherche, au contraire, à coaliser les entreprises minières dans une fusion puis un cartel qui leur permettrait de contrôler le marché et d’augmenter les prix. Mais les stocks s’accumulent et l’entreprise fait faillite.

Humanité : pas de progrès sans prise en compte aussi de la rationalité

Humanité : pas de progrès sans prise en compte aussi de la rationalité

Dans son nouvel ouvrage « Rationalité » (éd. Les Arènes) (1), Steven Pinker, professeur de linguistique à l’université Harvard, montre combien la démarche rationnelle reste le meilleur moyen pour les êtres humains de faire les moins mauvais choix malgré nos passions et nos biais cognitifs. ( La Tribune)

 

L’être humain est paradoxal. Il bénéficie d’une faculté, la pensée rationnelle, mais préfère souvent suivre ses intuitions et ses passions qui souvent le conduisent à faire de mauvais choix. Pourtant, des outils comme « la logique, la pensée critique, les probabilités, la corrélation et la causalité » à condition de les maîtriser nous permettent de mieux « ajuster nos croyances et de prendre des décisions dans un contexte de données incertaines », affirme le linguiste et cognitiviste Steven Pinker dans son nouvel ouvrage « Rationalité » (éditions Les Arènes) (1).

Loin de réduire la rationalité à une logique instrumentale désincarnée qui bannit les émotions (à l’instar du célèbre Dr Spock de la série culte « Star Trek »), ce professeur à l’université Harvard y voit davantage une « capacité d’utiliser les connaissances pour atteindre des objectifs » pour chacun de nous. Autrement dit, elle nous permet de vivre mieux, non seulement matériellement mais aussi socialement et aussi émotionnellement.

Dès lors, pourquoi ne suivons-nous pas instinctivement ces règles? A cause de nos « biais », héritage de l’évolution humaine. Pinker consacre plusieurs chapitres à explorer cet aspect. S’inscrivant dans les travaux pionniers en psychologie cognitive et en économie comportementale de Daniel Kahneman (en collaboration avec Amos Tversky), qui lui valurent le « prix Nobel » d’économie en 2002 et qu’il a synthétisé pour le grand public dans son célèbre ouvrage « Système 1/Système 2, Pinker explore à son tour longuement les biais et les sophismes auxquels les êtres humains sont sujets dans les jugements qu’ils portent sur le monde qui les entoure et les font agir.

Zone de confort cognitive

Il montre par exemple que nous préférons les informations qui renforcent nos opinions (biais de confirmation), les individus qui nous ressemblent (biais culturel), que nous rejetons les produits artificiels (biais naturaliste), etc. Plutôt que d’élargir nos connaissances par la vérification d’informations, qui remettent en cause nos certitudes (nos biais), nous préférons rester dans notre zone de confort cognitive.

Comme les grands rationalistes classiques, Descartes et Spinoza par exemple, Pinker ne rejette pas les passions, ni les coutumes, les traditions ou encore les interdits, mais il montre qu’en cas de conflit et de dilemme une approche rationnelle est le moyen d’aider à faire un choix quitte à abandonner des certitudes. Ainsi, s’il est impossible de tout vérifier, des méthodes pour faire des choix raisonnables existent comme l’approche bayésienne.

Une telle approche est une critique à peine voilée des croyances religieuses, des approches des pseudo-sciences, des superstitions ainsi que des préjugés, et d’une certaine forme de romantisme, même si sur le plan de la création artistique ce dernier a ses lettres de noblesse. Car malgré cet irrationalisme ambiant, le développement de la rationalité a permis des progrès considérables non seulement en matière de savoir – les sciences – mais aussi dans le domaine de la santé, du droit ou encore de la politique, avec l’extension des régimes démocratiques.

Loin d’être la raison technicienne et scientifique qui dominerait le monde que dénoncent certains critiques, l’adoption d’une démarche rationnelle développe au contraire un attitude d’humilité non seulement épistémique mais aussi éthique. En effet, plus nos connaissances progressent, plus nous prenons conscience de nos ignorances. C’est le contraire de l’effet gourou, dont le professeur Didier Raoult, qui ne manque jamais une occasion d’affirmer que seul lui sait faire face à des journalistes, est un bon exemple.

Les idéologies sont répétitives

Le livre de Pinker s’inscrit dans la continuité de ses deux précédents best-sellers : « La Part d’Ange en nous », une impressionnante synthèse de données qui établissait contrairement à l’opinion courante que jamais nous n’avons vécu à l’échelle de l’histoire dans un monde où le nombre de victimes tuées par violence est si faible (rapporté à la population), et « Le triomphe des Lumières », publié durant la présidence de Donald Trump, qui a vu la popularisation de la notion de « fakes news ». En élargissant la focale aux domaines de la pauvreté, de l’espérance de vie, la santé, la nourriture, la richesse, les inégalités, l’environnement, la sécurité, la démocratie, la sécurité, le savoir… Pinker y montrait que, au regard de chacun de ces critères, et malgré les guerres mondiales et la colonisation, la situation s’était considérablement améliorée au cours des dernières décennies, et que la tendance se poursuit. En réalité, contrairement aux idéologies, qui sont répétitives, le progrès scientifique est cumulatif et se répand par l’échange, le commerce, l’éducation. Et s’il rend les pays riches plus riches, il rend aussi les pays pauvres moins pauvres.

Ces ouvrages ont fait l’objet de nombreuses critiques, certains lui reprochant au mieux la naïveté de son optimisme béat, au pire d’être un suppôt du capitalisme – Pinker est un libéral qui aux Etats-Unis le situe sur l’échiquier politique avec Barack Obama ou Bill Clinton -, d’autres que son approche était faussée. Il est vrai que le linguiste et cognitiviste pointait les travers de certains intellectuels qui font carrière en passant leur temps à critiquer les progrès matériels dont ils sont les premiers bénéficiaires.

Les thèses de Pinker prennent également à revers tout un discours catastrophiste – la collapsologie est à la mode – qui connaissent un certain succès, ce qui n’est pas nouveau dans l’histoire humaine, le millénarisme en est même une constante. Car Pinker – mais ses critiques l’ont-ils lu in extenso? – n’a jamais nié qu’il y avait des malheurs, des catastrophes, des problèmes graves comme le réchauffement climatique mais il soutient que les êtres humains malgré les vicissitudes essaient de résoudre les problèmes, ce qui ne se fait pas par des discours mais par des actions et des innovations concrètes. Or, nous avons tendance à oublier les progrès réalisés car ils deviennent la norme. Par exemple, la population mondiale est passée en à peine 70 ans de 2,6 milliards d’individus en 1950 à 7,8 milliards aujourd’hui tout en ayant pratiquement réduit les famines qui furent le lieu commun des siècles passés!

Repousser les limites d’un monde que nous voyons fini

Autrement dit, il faut maintenir un niveau minimum de croissance économique – avec l’inévitable utilisation de ressources naturelles qui exerce une pression sur l’environnement  – pour donner à tous des conditions minimales de vie au quotidien. Un tel processus ne va pas sans contradiction mais il voit aussi émerger des solutions rationnelles qui repoussent les limites d’un monde que nous nous représentons fini. Après tout, si l’on avait soutenu devant un théologien du XIIe siècle qu’un jour nous disposerions d’avions, il est fort possible qu’il aurait rejeté une telle idée en nous traitant d’hérétique, car il pensait sincèrement que Dieu a fait le monde tel qu’il est.

Finalement, dans le propos clair et sans jargon de « Rationalité », Pinker ne cherche pas tant à discréditer ses adversaires qu’à nous montrer que notre confiance dans « la nature des rumeurs, la sagesse populaire et la pensée complotiste » doit être interrogée pour permettre de faire « la distinction entre deux modes de croyance : la mentalité réaliste et la mentalité mythologique ». Cela nous permet de « gagner en lucidité face aux vicissitudes et aux tragédies de la vie », et c’est une invitation à « raisonner collectivement pour trouver les croyances les plus défendables ». Face à l’urgence que posent par exemple les conséquences du réchauffement climatique, une telle réflexion est salutaire!

______

(1) Steven Pinker « Rationalité », traduit de l’anglais (Etats-Unis) par Peggy Sastre, éditions Les Arènes, 450 pages, 22,90 euros (parution le 4 novembre)

La concurrence mondiale est vecteur de progrès pour l’OCDE

 La concurrence mondiale est vecteur de progrès pour l’OCDE

Mathias Cormann, nouveau secrétaire général de l’OCDE, évoque les ambitions pour l’organisation internationale dont il a pris la tête le 1er juin dernier.

On connaît mal votre parcours en France, qui est pourtant franchement atypique. Vous êtes le seul Belge à avoir été (temporairement) Premier ministre de l’Australie !

J’ai effectivement grandi dans la partie germanophone de la Belgique. J’ai ensuite effectué mon lycée et mes deux premières années de droits en français puis j’ai passé mon diplôme en flamand, à la KU Leuven. Au cours de ma dernière année, j’ai participé à un programme d’échange Erasmus au Royaume-Uni pour apprendre l’anglais, ce qui m’a conduit en Australie. Mon diplôme n’y étant pas immédiatement transférable, j’ai d’abord été jardinier deux mois dans une école. Mon premier vrai job a été chargé de recherche auprès d’un membre du Parlement australien. C’est comme cela que j’ai commencé à m’intéresser à la politique australienne. L’Australie est une nation de migrants qui offre de nombreuses opportunités.

Pourquoi avoir brigué l’OCDE ?

Parce que l’OCDE est une organisation importante, à un moment important de l’histoire. Et parce qu’il y a beaucoup à faire. J’ai été ministre des Finances d’une économie du G20 pendant plus de sept ans, j’ai participé à de nombreux forums internationaux, j’ai acquis une grande expérience en matière de pilotage économique, fiscal et politique. Je pense que ma formation européenne combinée à mon expérience et à mes réseaux en Asie-Pacifique pourront être bénéfiques aux membres de l’OCDE. Je suis très heureux que la majorité des membres ait accepté ma nomination.

Au-delà de la crise de la Covid, quels sont les principaux challenges de l’organisation pour les années à venir ?

La coopération internationale et un multilatéralisme efficace seront plus importants que jamais à l’avenir. Pour soutenir la reprise économique, mais aussi pour mener une action ambitieuse et efficace contre le changement climatique et parvenir à une neutralité carbone qui soit économiquement responsable, qui soit soutenue par les pouvoirs publics et qui ne laisse personne sur le bord du chemin. Nous devons également finaliser la réforme de la fiscalité internationale pour s’assurer que les accords internationaux soient efficaces et équitables dans un monde globalisé et de plus en plus numérisé. Par ailleurs, il nous faut mieux gérer les risques et les défis liés à la transformation numérique de nos économies, mais aussi savoir en saisir les opportunités. Enfin, je souhaite renforcer l’engagement de l’OCDE en Asie et dans la région Indo-Pacifique, ainsi qu’en Afrique.

« On peut se protéger de la concurrence et de l’innovation, mais on n’empêchera jamais ces innovations de se produire ailleurs. Ceux qui se retranchent derrière le protectionnisme prendront de plus en plus de retard »

Vous êtes un libéral convaincu. Comment faire vivre le libéralisme face au grand retour des Etats depuis la crise de 2008 et encore plus aujourd’hui après la crise de la Covid ?

Je crois que les principes économiques basés sur le marché fonctionnent. Je crois au pouvoir positif des marchés ouverts et du libre-échange. Comme je l’ai dit dans mon premier discours à l’OCDE, l’optimisation de la concurrence mondiale est un puissant moteur de progrès, d’innovation et d’amélioration du niveau de vie. Mais en tant que décideurs politiques, nous devons également veiller à ce que les marchés et les échanges fonctionnent pour les gens partout dans le monde. Car la concurrence mondiale, en particulier maintenant combinée à la transformation numérique rapide de nos économies, provoque également des perturbations sociales que nous devons mieux gérer.

Comment ?

Nous avons besoin de règles efficaces pour protéger nos valeurs et de garantir les conditions d’une concurrence équitable. Nous devons par exemple garantir l’accès à une éducation de haute qualité, à la formation supérieure et à la requalification pour que chacun puisse participer et bénéficier des opportunités économiques créées par la mondialisation et la numérisation. Les aides sociales sont nécessaires pour ceux qui éprouvent des difficultés. Nous devons veiller à ce que les marchés fonctionnent durablement sur le plan environnemental. Mais en fin de compte, même si c’est parfois inconfortable, la concurrence mondiale est – et doit rester – incontournable. On peut se protéger de la concurrence et de l’innovation, mais on n’empêchera jamais ces innovations de se produire ailleurs. Au fil du temps, ceux qui se retranchent derrière le protectionnisme prendront de plus en plus de retard. C’est une leçon essentielle de l’histoire. Et ce n’est pas ce que nous souhaitons pour les populations de l’OCDE et d’ailleurs.

Le multilatéralisme se porte-t-il mieux depuis le départ de Donald Trump ?

Il ne fait aucun doute qu’avec l’administration Biden, les Etats-Unis se sont réengagés dans un multilatéralisme axé sur des solutions positives. Le fait d’être parvenu à un consensus sur la réforme fiscale internationale au G7 puis au G20 et avec 132 des 139 pays du Cadre inclusif de l’OCDE est une première démonstration de ce qui peut être réalisé lorsque les Etats-Unis s’engagent de manière positive. J’espère que nous pourrons conserver cette dynamique sur les questions de changement climatique ou de commerce par exemple.

Sur le changement climatique, justement. Plus d’une vingtaine d’ONG ont dénoncé votre candidature à la tête de l’OCDE après que vous avez fait part de votre scepticisme sur l’objectif de neutralité carbone en 2050. Que leur répondez-vous ?

Il est inexact de me qualifier de sceptique. Je n’ai jamais été un climatosceptique. Ce que j’ai dit il y a quelque temps, c’est que poursuivre des mesures au niveau national qui, au lieu de réduire les émissions mondiales, ne font que déplacer l’activité économique, les emplois et les émissions vers d’autres parties du monde où, pour le même niveau de production économique, les émissions seraient plus élevées, n’a aucun sens. Prendre des mesures au niveau national qui nuisent à la fois à l’économie locale et à l’environnement mondial n’a aucun sens. Je soutiens depuis longtemps que, pour être vraiment efficace, l’action contre le changement climatique doit être à la fois ambitieuse, mais aussi, et c’est important, correctement coordonnée au niveau mondial. Et qu’en fin de compte, ce sont les résultats vérifiables qui comptent, davantage que les promesses.

Vous soutenez donc l’objectif de neutralité carbone en 2050 ?

Bien sûr. De plus en plus de pays s’engagent dans cette mission et c’est formidable. Le défi consiste maintenant à transformer ces engagements en résultats et à gérer la transition vers la neutralité carbone d’une manière efficace sur le plan environnemental, responsable sur le plan économique, et que cette transition soit soutenue par les pouvoirs publics et soit inclusive. Nous devons tous poursuivre ce même objectif. Pour cela, nous avons besoin d’une véritable coopération mondiale, qui soit ouverte d’esprit. Nous devons intégrer le fait que différents pays, différentes régions du monde, peuvent avoir des positions de départ et des circonstances différentes. Des pays ou des régions qui ont aussi des opportunités différentes d’apporter leur meilleure contribution possible à notre mission de réduction des émissions mondiales. L’essentiel est que chacun apporte une contribution proportionnée, authentique et vérifiable à l’objectif global. Pour cela, il est essentiel de mieux suivre les résultats, et pas seulement les engagements. C’est pourquoi l’OCDE vient de créer le Programme international pour l’action sur le climat, un outil permettant de suivre les performances des politiques climatiques, avec des données objectives et comparables dans différentes juridictions, y compris sur la tarification implicite du carbone.

Une tarification qui ne fait pas consensus pour l’instant…

En l’absence d’un accord mondial complet et approprié sur le prix des émissions, les pays peuvent et doivent utiliser tous les autres outils politiques disponibles pour maximiser les résultats de la réduction des émissions : incitations à l’investissement, à la production et à la consommation. Qu’il s’agisse d’investissements publics directs par le biais de programmes de subventions concurrentiels, de subventions, de soutien direct à l’innovation technologique ou de normes réglementaires ; tous doivent continuer à jouer leur rôle pour accélérer la transition vers la neutralité carbone. L’OCDE peut également jouer un rôle dans l’établissement de normes et de standards internationaux pour ses membres et au-delà – comme nous l’avons fait pour BEPS [érosion de la base d’imposition et transfert de bénéfices, N.D.L.R.].

Que change l’accord signé en juillet par le G20 prévoyant la mise en place d’une taxation exceptionnelle des 100 plus grandes entreprises du monde ?

C’est une réalisation multilatérale majeure, la plus importante mise à jour des règles fiscales internationales depuis très longtemps. Cette réforme rendra nos accords fiscaux internationaux plus sûrs, plus stables, plus efficaces et plus équitables. Elle se traduira également par une augmentation des recettes pour les gouvernements en France et dans le monde entier, les multinationales payant leur juste part d’impôt dans les pays où elles génèrent des bénéfices pertinents. Cent trente-trois pays et juridictions représentant plus de 90 % du PIB mondial soutiennent cette réforme. Elle doit maintenant être traduite en législation nationale dans les pays du monde entier pour entrer en vigueur. Je suis raisonnablement optimiste. Nous finirons par y arriver.

« Toutes les juridictions des Caraïbes ont adhéré à notre accord. Cela montre qu’elles comprennent parfaitement que l’environnement international a changé et qu’elles doivent s’adapter »

Que va changer l’introduction d’un impôt minimum mondial sur les sociétés ? Est-ce la fin des paradis fiscaux ?

L’accord fiscal mondial garantira que les entreprises paient au moins 15 % d’impôt effectif sur les sociétés. En d’autres termes, toute entreprise cherchant à minimiser ou à réduire à zéro sa dette fiscale en dehors de sa juridiction d’origine sera tenue de payer au moins 15 % d’impôt effectif sur les sociétés dans sa juridiction d’origine. Il est donc clair que cette mesure aura un impact sur les entreprises qui utilisent les paradis fiscaux pour minimiser l’impôt. Par contre, elle n’aura pas d’impact sur les entreprises motivées par des raisons non fiscales pour se baser dans ces juridictions. Toutes les juridictions des Caraïbes ont adhéré à notre accord. Cela montre qu’elles comprennent parfaitement que l’environnement international a changé et qu’elles doivent s’adapter.

La fin de la concurrence fiscale entre les Etats est-elle une bonne nouvelle ?

Ce n’est pas la fin de la concurrence fiscale. Le but de l’accord n’est pas d’éliminer la concurrence mais de la limiter sur la base d’un accord multilatéral qui tient compte des divers intérêts en présence, y compris ceux des petites économies et des juridictions en développement. L’objectif, c’est de faire en sorte que les multinationales paient des impôts là où elles opèrent et réalisent des bénéfices, dans un cadre juridique stable et sécurisé, ce dont le système fiscal international a tant besoin. Les juridictions ont encore la possibilité de se concurrencer sur le plan fiscal en s’appuyant sur une meilleure discipline fiscale ou sur des choix différents en matière de combinaison d’impôts directs et indirects.

Après BEPS, quel sera le prochain sujet « chaud » pour l’OCDE ?

Le prochain domaine dans lequel l’OCDE pourrait jouer un rôle important sera le rapprochement des pays du monde entier en vue d’une approche plus cohérente de la tarification du carbone. Cela pourra commencer par mesurer et déclarer correctement la tarification explicite et implicite du carbone. C’est un domaine auquel nous réfléchissons beaucoup en ce moment.

Fusion nucléaire : un progrès américain qui pourrait être significatif

Fusion nucléaire : un progrès américain qui pourrait être significatif

Un  laboratoire californien, rattaché au département de l’Énergie des États-Unis, s’est félicité d’avoir produit davantage d’énergie que jamais auparavant grâce à la fusion nucléaire (aujourd’hui la totalité du parc nucléaire mondial utilise la technique de la fission ). L’expérience, qui s’est déroulée le 8 août dernier, « a été permise par la concentration de la lumière de lasers », pas moins de 192,  »sur une cible de la taille d’un plomb » de chasse, expliquent les chercheurs dans un communiqué de presse.

Cela a eu pour effet de « produire un point chaud du diamètre d’un cheveu, générant plus de 10 quadrillions de watts par la fusion, pendant 100 trillionièmes de secondes. » C’est huit fois plus d’énergie que lors des expériences menées au printemps dernier. Surtout, ce résultat placerait les chercheurs proches du seuil d’ignition, c’est-à-dire du moment où l’énergie produite dépasse celle utilisée pour provoquer la réaction.

. Mené dans le sud de la France le projet international ITER  vise également à maîtriser la production d’énergie à partir de la fusion de l’hydrogène. L’assemblage du réacteur a commencé il y a un an dans les Bouches-du-Rhône et la fin des travaux est fixée à décembre 2025. Iter ne produira jamais d’électricité. Ce projet, à plus de 20 milliards de dollars, vise simplement à démontrer la faisabilité scientifique et technique de l’énergie de fusion. Une première expérimentation à pleine puissance est espérée en 2035 et l’exploitation commerciale de la technologie n’est pas attendue avant 2055, voire 2060. Outre l’avantage énergétique la technique de la fusion permet d’éliminer à peu près tous les déchets nucléaires.

Nucléaire Iran : la France constate des progrès dans les discussions

Nucléaire Iran : la France constate des progrès dans les discussions

 

« Les discussions qui ont repris le 7 mai à Vienne ont conduit à quelques premiers progrès sur la question nucléaire », a déclaré à la presse la porte-parole du ministère français des Affaires étrangères, Agnes von der Muhll, sans donner plus de détails.

« Néanmoins, des désaccords majeurs subsistent sur certains points clés à aplanir afin de parvenir à un accord prévoyant le retour de l’Iran et des États-Unis et leur pleine mise en œuvre du JCPoA. Il reste encore beaucoup à faire, dans un délai très serré.  »

Le nœud de l’accord était que l’Iran s’était engagé à freiner son programme nucléaire afin de rendre plus difficile l’obtention de la matière fissile pour une arme nucléaire en échange d’un allégement des sanctions américaines, européennes et onusiennes.

Les responsables ont déclaré qu’ils espéraient parvenir à un accord d’ici le 21 mai, date à laquelle un accord entre Téhéran et l’organisme de surveillance nucléaire de l’ONU sur la surveillance continue de certaines activités nucléaires iraniennes devait expirer.

Les diplomates ont déclaré qu’ils pensaient qu’il y avait eu des progrès suffisants dans les pourparlers de Vienne qu’une prolongation de l’accord de suivi entre Téhéran et l’agence des Nations Unies était probable même si les modalités devaient encore être élaborées.

« Si un accord sur la reprise par l’Iran de ses engagements n’est pas conclu avant l’expiration de l’accord technique bilatéral entre l’Iran et l’Agence, ils devront s’entendre sur sa prolongation », a déclaré Von der Muhll.

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol