Archive pour la Catégorie 'sciences'

IA: Une intelligence limitée

IA: Une intelligence limitée

Les techniques actuelles d’intelligence artificielle, même avec toujours plus de puissance informatique, resteront intellectuellement limitées. Par Jean-Louis Dessalles, Institut Mines-Télécom (IMT)

Il y a près de 10 ans, en 2012, le monde scientifique s’émerveillait des prouesses de l’apprentissage profond (le deep learning). Trois ans plus tard, cette technique permettait au programme AlphaGo de vaincre les champions de Go. Et certains ont pris peur. Elon Musk, Stephen Hawking et Bill Gates s’inquiétèrent d’une fin prochaine de l’humanité, supplantée par des intelligences artificielles échappant à tout contrôle.

N’était-ce pas un peu exagéré ? C’est précisément ce que pense l’IA. Dans un article qu’il a écrit en 2020 dans The Guardian, GPT-3, ce gigantesque réseau de neurones doté de 175 milliards de paramètres explique :

« Je suis ici pour vous convaincre de ne pas vous inquiéter. L’intelligence artificielle ne va pas détruire les humains. Croyez-moi. »
En même temps, nous savons que la puissance des machines ne cesse d’augmenter. Entraîner un réseau comme GPT-3 était impensable, littéralement, il y a encore cinq ans. Impossible de savoir de quoi seront capables ses successeurs dans cinq, dix ou vingt ans. Si les réseaux de neurones actuels peuvent remplacer les dermatologues, pourquoi ne finiraient-ils pas par nous remplacer tous ?
Y a-t-il des compétences mentales humaines qui restent strictement hors d’atteinte de l’intelligence artificielle ?

On pense immédiatement à des aptitudes impliquant notre « intuition » ou notre « créativité ». Pas de chance, l’IA prétend nous attaquer sur ces terrains-là également. Pour preuve, le fait que des œuvres créées par programmes se sont vendues fort cher, certaines atteignant presque le demi-million de dollars. Côté musique, chacun se fera bien sûr son opinion, mais on peut déjà reconnaître du bluegrass acceptable ou du quasi Rachmaninoff dans les imitations du programme MuseNet créé, comme GPT-3, par OpenAI.

Devrons-nous bientôt nous soumettre avec résignation à l’inévitable suprématie de l’intelligence artificielle ? Avant d’en appeler à la révolte, essayons de regarder à quoi nous avons affaire. L’intelligence artificielle repose sur plusieurs techniques, mais son succès récent est dû à une seule : les réseaux de neurones, notamment ceux de l’apprentissage profond. Or un réseau de neurones n’est rien de plus qu’une machine à associer. Le réseau profond qui fit parler de lui en 2012 associait des images : un cheval, un bateau, des champignons, aux mots correspondants. Pas de quoi crier au génie.

Sauf que ce mécanisme d’association possède la propriété un peu miraculeuse d’être « continue ». Vous présentez un cheval que le réseau n’a jamais vu, il le reconnaît en tant que cheval. Vous ajoutez du bruit à l’image, cela ne le gêne pas. Pourquoi ? Parce que la continuité du processus vous garantit que si l’entrée du réseau change un peu, sa sortie changera peu également. Si vous forcez le réseau, qui hésite toujours, à opter pour sa meilleure réponse, celle-ci ne variera probablement pas : un cheval reste un cheval, même s’il est différent des exemples appris, même si l’image est bruitée.

Bien, mais pourquoi dire qu’un tel comportement associatif est « intelligent » ? La réponse semble évidente : il permet de diagnostiquer les mélanomes, d’accorder des prêts bancaires, de maintenir un véhicule sur la route, de détecter une pathologie dans les signaux physiologiques, et ainsi de suite. Ces réseaux, grâce à leur pouvoir d’association, acquièrent des formes d’expertise qui demandent aux humains des années d’études. Et lorsque l’une de ces compétences, par exemple la rédaction d’un article de presse, semble résister un temps, il suffit de faire ingurgiter à la machine encore davantage d’exemples, comme ce fut fait avec GPT-3, pour que la machine commence à produire des résultats convaincants.

Est-ce vraiment cela, être intelligent ? Non. Ce type de performance ne représente au mieux qu’un petit aspect de l’intelligence. Ce que font les réseaux de neurones ressemble à de l’apprentissage par cœur. Ce n’en est pas, bien sûr, puisque ces réseaux comblent par continuité les vides entre les exemples qui leur ont été présentés. Disons que c’est du presque-par-cœur. Les experts humains, qu’ils soient médecins, pilotes ou joueurs de Go, ne font souvent pas autre chose lorsqu’ils décident de manière réflexe, grâce à la grande quantité d’exemples appris pendant leur formation. Mais les humains ont bien d’autres pouvoirs.

Un réseau de neurones ne peut pas apprendre à calculer. L’association entre des opérations comme 32+73 et leur résultat à des limites. Ils ne peuvent que reproduire la stratégie du cancre qui tente de deviner le résultat, en tombant parfois juste. Calculer est trop difficile ? Qu’en est-il d’un test de QI élémentaire du genre : continuer la suite 1223334444. L’association par continuité n’est toujours d’aucun secours pour voir que la structure, n répété n fois, se poursuit par cinq 5. Encore trop difficile ? Les programmes associatifs ne peuvent même pas deviner qu’un animal mort le mardi n’est pas vivant le mercredi. Pourquoi ? Que leur manque-t-il ?

La modélisation en sciences cognitives a révélé l’existence de plusieurs mécanismes, autres que l’association par continuité, qui sont autant de composantes de l’intelligence humaine. Parce que leur expertise est entièrement précalculée, ils ne peuvent pas raisonner dans le temps pour décider qu’un animal mort reste mort, ou pour comprendre le sens de la phrase « il n’est toujours pas mort » et la bizarrerie de cette autre phrase : « il n’est pas toujours mort ». La seule prédigestion de grandes quantités de données ne leur permet pas non plus de repérer les structures inédites si évidentes pour nous, comme les groupes de nombres identiques dans la suite 1223334444. Leur stratégie du presque-par-cœur est aussi aveugle aux anomalies inédites.

La détection des anomalies est un cas intéressant, car c’est souvent à travers elle que nous jaugeons l’intelligence d’autrui. Un réseau de neurones ne « verra » pas que le nez est absent d’un visage. Par continuité, il continuera à reconnaître la personne, ou peut-être la confondra-t-il avec une autre. Mais il n’a aucun moyen de réaliser que l’absence de nez au milieu du visage constitue une anomalie.

Il existe bien d’autres mécanismes cognitifs qui sont inaccessibles aux réseaux de neurones. Leur automatisation fait l’objet de recherches. Elle met en œuvre des opérations effectuées au moment du traitement, là où les réseaux de neurones se contentent d’effectuer des associations apprises par avance.

Avec une décennie de recul sur le deep learning, le public averti commence à voir les réseaux de neurones bien plus comme de « super-automatismes » et bien moins comme des intelligences. Par exemple, la presse a récemment alerté sur les étonnantes performances du programme DALL-E, qui produit des images créatives à partir d’une description verbale – par exemple, les images que DALL-E imagine à partir des termes « fauteuil en forme d’avocat », sur le site OpenAI). On entend maintenant des jugements bien plus mesurés que les réactions alarmistes qui ont suivi la sortie d’AlphaGo : « C’est assez bluffant, mais il ne faut pas oublier qu’il s’agit d’un réseau de neurones artificiel, entraîné pour accomplir une tâche ; il n’y a aucune créativité ni aucune forme d’intelligence. » (Fabienne Chauvière, France Inter, 31 janvier 2021)

Aucune forme d’intelligence ? Ne soyons pas trop exigeants, mais restons lucides sur l’énorme fossé qui sépare les réseaux de neurones de ce que serait une véritable intelligence artificielle.
________
Par Jean-Louis Dessalles, Maître de Conférences, Institut Mines-Télécom (IMT)
Jean Louis Dessalles a écrit « Des intelligences très artificielles » aux éditions Odile Jacob (2019).

Obsolescence de l’homme avec l’intelligence artificielle ?

Obsolescence de l’homme avec l’intelligence artificielle ?

Ingénieure diplômée de l’École polytechnique, spécialiste de l’intelligence artificielle et co-autrice de « Intelligence artificielle » La nouvelle barbarie » (éditions du Rocher, 2019), Marie David fait le point dans Marianne

L’intelligence artificielle (IA) ChatGPT, capable de converser « intelligemment » et d’émettre des avis pertinents, crée beaucoup d’engouement sur Internet. Le comprenez-vous ?

Marie David :Oui, car même si les technologies utilisées pour faire tourner ChatGPT existent depuis longtemps, c’est la première fois qu’un modèle aussi performant est mis à disposition du grand public. En effet, contrairement aux modèles précédents développés par OpenAI, qui apprenaient à répliquer des motifs à partir d’un corpus donné, ChatGPT a été ré-entraîné par des techniques complémentaires dites de « réapprentissage renforcé ». Cela signifie que le modèle a été entraîné afin de pouvoir donner des réponses plus proches de celles que fournirait un être humain. En résumé, ChatGPT offre une variété très impressionnante de fonctionnalités et une vraie versatilité. On peut l’utiliser pour lui demander des informations sur de nombreux sujets, traduire un texte, rédiger des mails ou des textes simples, comprendre des lignes de code informatique ou en écrire… Les applications sont immenses.

« Il faut donc envisager un monde où les productions des IA trouvent leur place au sein des productions humaines. »

En revanche, il faut préciser que ChatGPT n’est que la suite de progrès incrémentaux [c’est-à-dire qui découlent des améliorations de l’existant – N.D.L.R.] dans ce domaine de l’IA qui est celui de l’apprentissage statistique [type de méthodes qui se fondent sur les mathématiques et les statistiques pour donner aux IA la capacité d'« apprendre » à partir de données – N.D.L.R.]. Il n’y a pas de magie, ni d’ailleurs d’intelligence derrière cette IA, qui, comme les autres modèles de deep learning, requiert des milliards d’heures de calcul et des volumes faramineux de données pour être entraînée.


Dans le même temps, Midjourney transforme les textes en dessin. L’homme risque-t-il d’être dépassé par l’IA dans la création artistique ?

Dans la création artistique, oui bien sûr, et dans de nombreux autres domaines. Plutôt que dépassé, j’utiliserai le mot « remplacé ». Aujourd’hui les IA peuvent produire des images, composer des morceaux, écrire des articles de journaux ou de blog (comme GPT-3, l’ancêtre de ChatGPT), traiter des conversations sur des scripts simples (par exemple comprendre le problème d’un consommateur et l’orienter vers un service client), voire écrire des livres, comme en publie la jeune maison d’édition Rrose édition. Une IA n’écrira jamais Ulysse (James Joyce, 1922) ni l’Homme sans qualité (Robert Musil, 1930), mais elle peut sans problème produire un texte équivalent à 90% de ce qui couvre les tables des libraires. Cela donne lieu à des réflexions fascinantes sur le rôle de la moyenne et de la régularité.

Tant que les productions humaines restent dans une certaine régularité, une IA peut sans problème les remplacer. Mais n’y a-t-il pas par essence de la moyenne, de la régularité dans toutes les productions humaines, des répétitions dans une école de peinture ? Dans les compositions d’un musicien ? Il faut donc envisager un monde où les productions des IA trouvent leur place au sein des productions humaines, ce qui pose des questions fascinantes.

« L’obsolescence de l’homme » dont parlait le philosophe Günther Anders, en 1956, est-elle toute proche ?

Je vais vous répondre d’une façon provocatrice : ce qui m’étonne c’est que finalement les IA soient si peu utilisées. Nous pourrions en réalité remettre beaucoup plus de nos décisions de la vie de tous les jours aux IA, automatiser beaucoup plus d’emplois, et leur faire produire beaucoup plus de choses (des livres, des films). Je ne dis pas que c’est souhaitable, simplement que c’est techniquement possible. Mon interprétation est que nous avons malgré tout une répugnance instinctive à nous faire remplacer par des machines, qui fait qu’au-delà de leur coût encore prohibitif et de leur complexité, nous rechignons à utiliser les IA à leurs pleines capacités.

Finalement, les grandes évolutions scientifiques mettent des dizaines voire des centaines d’années à se diffuser dans le reste d’une culture. La révolution copernicienne s’est étendue sur plus de 150 ans. Il est trop tôt pour nous pour comprendre en quoi cette technologie va profondément modifier notre façon de travailler et d’interagir avec la machine. Ce qui est le plus inquiétant, c’est l’anthropomorphisation inévitable de notre relation avec des algorithmes comme l’avait montré Shelly Turkle dans son remarquable essai Seuls ensemble (traduit par les éditions L’échappée en 2015).

Nous ne pouvons nous empêcher de prêter des sentiments humains et en tout cas d’en éprouver vis-à-vis d’un artefact (qu’il soit un robot ou comme ChatGPT un chatbot) qui simule soit des caractéristiques du vivant, soit des facultés cognitives comme celles de l’homme. Les créateurs de ChatGPT ont d’ailleurs été sensibles à ce problème puisque l’algorithme vous rappelle très régulièrement qu’il n’est qu’une IA.

L’autre développement inquiétant c’est que nous devons de plus en plus travailler au service des IA : en effet pour préparer les immenses volumes de données sur lesquelles les IA sont entraînées, il faut des petites mains pour classifier et annoter les données. Ce sont des tâches répétitives et mal payées, nécessaires cependant pour avoir des IA performantes. Un nouveau prolétariat au service des machines pourrait ainsi se développer

Recherche académique : Trop soumise à la vulgarisation médiatique

Recherche académique : Trop soumise à la vulgarisation médiatique

 

Dans une tribune au « Monde », l’ingénieur Hugo Hellard, docteur en astrophysique,  s’inquiète de l’incitation à la publication massive d’articles scientifiques, qui va à l’encontre même de la démarche académique, et appelle à réorienter la politique de la recherche.

 

On peut évidemment comprendre et même souhaiter que les résultats de la recherche puissent être vulgarisés d’abord dans la communauté scientifique puis, selon la nature, diffusés dans l’opinion. Reste que la médiatisation n’est pas l’objet prioritaire car le risque est de favoriser la course au lectorat au détriment de la production de connaissances. NDLR 

 

La recherche académique mondiale perd en efficacité, légitimité et responsabilité. Les incitations sous-jacentes à la publication de masse ont un impact négatif sur nos sociétés et sur les producteurs du contenu : les chercheuses et chercheurs eux-mêmes. Dans un monde où la compréhension désintéressée de nos écosystèmes est vitale pour relever les défis de l’urgence climatique, il est grand temps de donner aux chercheurs les moyens de travailler de manière indépendante, efficace et pertinente dans un environnement professionnel sain, tout en assurant une transmission des connaissances au public sous une forme compréhensible et accessible.

La crise sanitaire a ramené au premier plan la recherche académique, de la compréhension du virus responsable du Covid-19 au développement de plusieurs vaccins. Cette course au vaccin a aussi été le théâtre du système pervers sur lequel la recherche académique est actuellement construite : l’incitation à la production rapide et à la publication massive d’articles scientifiques. Il n’aura échappé à personne certaines rétractations d’articles, initialement publiés dans plusieurs journaux scientifiques prestigieux, comme The Lancet. Le site Retraction Watch résume dans cette page l’ensemble des articles scientifiques retirés dont le sujet portait sur le Covid-19.

Retirer un article n’a rien de mauvais en soi, car aucun article ne prétend présenter « la vérité », mais seulement des éléments permettant de s’en approcher. Aucun résultat scientifique n’est définitif. La pluralité des réponses apportées permet de mettre à disposition des éléments pour affiner l’analyse, trouver de potentielles erreurs, ou encore proposer de nouvelles approches, afin d’obtenir des conclusions qui s’approchent le plus de « la réalité ». C’est là le cœur du processus scientifique qui, par définition, se veut itératif et précis, donc long comparativement à la soif d’immédiateté ambiante.

Le respect de ce processus scientifique est essentiel pour comprendre « correctement » notre monde et respecter ses écosystèmes riches et divers. Malheureusement, la recherche académique est construite sur un système incitant à bafouer ce processus, pourtant garant de la construction saine du socle de connaissances communes. Les chercheuses et chercheurs du monde se trouvent aujourd’hui exclus et à la merci des trois parties prenantes du marché de la connaissance : les organismes de financement de la recherche (publics ou privés), les bibliothèques universitaires et les institutions de recherche (comme le CNRS en France).

Pour une acceptation sociale de l’instabilité de l’innovation

Pour une acceptation sociale de l’instabilité de l’innovation

 L’innovation redéfinit tout. Elle fait même de défauts des qualités. Avec elle, le déséquilibre, l’aléa, l’inattendu deviennent des moteurs puissants pour de nouvelles façons d’inventer, de travailler, de penser, de collaborer. Pourtant, l’instabilité a aussi ses limites : celles de l’acceptabilité sociale, sociétale, et tout simplement humaine. Il faut alors trouver un équilibre entre le « toujours plus » et le « toujours mieux ». Par Alain Conrard, Président de la Commission Digitale et Innovation du Mouvement des ETI (METI)​ (*).( La Tribune)

 

L’innovation est étonnante : elle redéfinit tout. Parmi les redéfinitions opérées par la logique qu’elle instaure, il y a la transformation de problèmes en vertus ou de défauts en qualités. L’inattendu et l’instabilité font par exemple partie de ces catégories profondément réinterprétées. Elles faisaient partie de ce qu’il fallait éliminer pour progresser, elles sont au contraire devenues les conditions de l’avancée. L’inattendu était quelque chose qui intervenait en quelque sorte pour se mettre en travers dans des process super régulés, comme ceux de l’industrie, par exemple. Là, il n’y avait ni inattendu, ni instabilité – en tout cas, ils étaient assimilés à la promesse de mauvaises surprises, et tout visait donc à les contenir dans des limites supportables par le système, quel qu’il soit. Ils représentaient l’aléa, donc l’ennemi à combattre. La rationalité était ce qui tendait à triompher de l’inattendu et de la surprise : dans une organisation complètement rationnelle, l’inattendu et son corollaire l’instabilité, devaient autant que possible être bannis. Ces notions sont aujourd’hui ce que l’innovation oblige à rechercher.

Mais, dans le modèle de fonctionnement et de pensée qui est le nôtre, elles ont changé de signification. Il ne s’agit plus de la même instabilité ni du même inattendu. L’inattendu, compris comme l’aléa qu’il faut réduire, s’est transformé au profit d’un inattendu, entendu au sens du surprenant qui génère plaisir et profit, et qu’il faut donc rechercher. L’instabilité, quant à elle, de problème est devenue un avantage. Et même un avantage compétitif décisif ! Aujourd’hui, elle est la marque de systèmes capables d’évoluer, d’organisations ou de modes de pensée qui savent ne pas être enfermées dans leurs certitudes, de process qui parviennent à éviter la momification dans leurs façons de faire.

 

La recherche fondamentale, sur laquelle reposent de nombreuses innovations, est le règne de l’inattendu. Par principe, pour trouver quelque chose de neuf, il ne faut pas savoir dès le départ de quoi il s’agit précisément. On ne sait littéralement pas où l’on va. Une grande découverte scientifique part souvent d’une vague intuition, ou même d’une sensation. Et n’est d’ailleurs pas forcément le résultat de ce qui était recherché. C’est ainsi que peut se frayer un chemin mental nouveau susceptible de déboucher sur une découverte.

L’innovation est en phase avec cette ouverture qui permet à la nouveauté d’advenir. Elle laisse aussi place à la possibilité que rien de neuf ou d’exploitable n’advienne sans que ce soit un problème. Car, comme en recherche fondamentale, il est fréquent que l’on ne trouve rien au bout d’un chemin que l’on pensait prometteur, et la découverte émerge bien souvent d’une bifurcation après une série d’échecs. Ainsi, l’innovation offre une part positive à l’échec. Quand il est bien géré, celui-ci prépare à l’inattendu de la découverte et de la nouveauté. Steve Jobs disait qu’il ne faisait vraiment confiance qu’à des gens qui avaient connu l’échec. Le fondateur d’Apple déclarait d’ailleurs engager prioritairement des collaborateurs qui avaient su se remettre d’une absence de réussite et apprendre de leurs échecs.

 

Cette primauté de l’instabilité et de l’inattendu est liée à la prise de conscience relativement récente par l’industrie des vertus créatrices du déséquilibre. C’est fondamentalement ce que désigne ce marqueur d’adaptation à l’innovation, ce signe de souplesse et d’acceptation du mouvement, qu’est l’agilité.

Le mot « agile », tel qu’il est employé aujourd’hui vient du monde de l’informatique, précisément du Manifeste agile, rédigé en 2001 par des experts en développement de logiciels. « Agile » désigne une nouvelle façon de se comporter et de travailler, qui utilise à plein les qualités de l’instabilité et du déséquilibre. Cette nouvelle approche se caractérise par l’accueil du changement, et non pas la résistance contre lui, le travail collectif, la dimension humaine, le choix du lien direct, la préférence pour la simplicité, et la confiance dans l’auto-organisation et la rétroaction des résultats sur les process. Ce nouveau pragmatisme repose essentiellement sur le fait d’accepter d’être en déséquilibre avec ses propres certitudes. Être agile, c’est prendre pour essentiel ce qui semblait accessoire (ou problématique) au système précédent : le désordre, le hasard, la remise en question à n’importe quel stade, l’interaction, etc. L’acceptation des variations (de contexte, de talents, de circonstances, etc.), et leur utilisation comme force dynamique est la base de ce nouveau réalisme. Ce mode de fonctionnement est un mode d’équilibre qui vient du déséquilibre. Celui-ci vient du fait que les points de forces ne passent plus seulement par les individus, mais aussi par ce qui se passe entre eux. Plus souple, ce mode d’organisation favorise les conditions de la découverte de la nouveauté.

Cette approche fait écho à d’autres champs, comme l’architecture par exemple. En donnant une importance centrale à la tenségrité, l’architecte, designer et inventeur Richard Buckminster Fuller a pu créer d’immenses dômes géodésiques dans les années 50. La tenségrité (= tensile integrity, qui peut se traduire par « intégrité par tension ») fait que les éléments d’un tout ne tiennent que parce qu’ils sont en tension les uns avec les autres. Là aussi, règne un équilibre à base de déséquilibre. La surprise, le côté inattendu de ces structures vient du fait qu’on ne comprend pas facilement comment elles tiennent, car la force vient non pas des choses, mais de l’échange de forces entre les choses, une fois celle-ci mise en tension. Dans les collectifs de travail adoptant ces méthodes, l’unité et la force se font grâce aux échanges collaboratifs, créateurs de tensions positives entre les personnes.

 

Pourtant, tous les déséquilibres ne sont pas désirables. Fondée sur l’instabilité, l’innovation génère aussi de l’instabilité : l’un des aspects problématiques est donc l’absorption des cycles de changement.

L’innovation doit prendre en compte le différentiel entre la rapidité du progrès et les capacités d’adaptation des êtres humains. Bien qu’immenses et progressant sans cesse (notre capacité à intégrer la nouveauté a littéralement explosé ces 30 dernières années avec Internet et le numérique), celles-ci ne sont pas pour autant extensibles à l’infini. Ces capacités sont par ailleurs inégalement réparties : il y a une injustice de répartition des facultés adaptatives selon les individus. Selon les structures mentales, la position sociale, l’âge, la culture, etc., les uns et les autres ne réagiront pas de la même façon à la nécessité de s’adapter. Cette question recoupe, comme beaucoup, une logique générationnelle. Les référentiels de la plupart des personnes de 40 ans et plus, qui travaillent dans les entreprises souvent à des postes de responsabilité, sont encore modelés sur l’idéal de stabilité et de chasse à l’inattendu (dans le cadre du travail en tout cas). Contrairement à la génération Y ou Z, qui a grandi dans cette instabilité, et dont elle fait pleinement partie de la culture, la plupart de leurs réflexes sont conditionnés sur ces éléments désormais obsolètes, et évidemment inadaptés à la nouvelle situation. Ce qui oblige ces personnes à recaler leurs réactions, comme s’il fallait opérer en permanence une réinitialisation mentale. Ce n’est pas spontané. Cela occasionne souvent une dépense d’énergie psychique importante. Cette dépense excédentaire permet peut-être d’expliquer en partie l’augmentation des cas de burn-out dans les organisations.

Suivant une logique qui semble déconnectée de la prise en compte de ses conséquences, notamment sociales et sociétales, la rupture, et l’instabilité qui l’accompagne, peuvent sembler trop rapides ou trop fortes. Car l’écart entre vitesse de progression de l’innovation et capacités d’adaptation s’accroît chaque jour un peu plus.

Se pose alors la question des limites humainement et socialement acceptables à ces états permanents de déséquilibre. Sous couvert d’instabilité et d’inattendu peut-on tout se permettre ? Évidemment, non. Un tel état où rien n’est fondamentalement stable, s’il semble naturel et désirable à un entrepreneur de la tech dans la Silicon Valley, peut sans doute apparaître comme négatif et potentiellement porteur de souffrance à quelqu’un vivant d’un travail dans une industrie classique où, comme une épée de Damoclès, plane la menace d’ubérisation.

Une façon de maîtriser cette question est de développer un sens aigu des responsabilités de chacun sur les actions et les initiatives : il y a donc les droits, mais aussi les devoirs. Les politiques RSE des entreprises, autant que les nouvelles logiques collaboratives qui valorisent l’initiative au sein des groupes de travail, prennent davantage en compte les apports de chacun. Elles posent de façon nouvelle la question d’un emploi porteur de sens, et sont sans doute pour cette raison de bonnes façons de développer la perception de faire partie intégrante de ce modèle en évolution constante. Dans tous les cas, il est nécessaire d’accompagner la rupture, de faire comprendre sa logique. Il faut expliquer et inclure le plus possible. Sans quoi l’instabilité peut gagner le social, et favoriser l’adhésion à des discours réactifs ou réactionnaires qui promettent à tort un fantasmatique retour à la stabilité. Il est donc très important de travailler à la baisse d’anxiété, de fébrilité et d’angoisse générées par l’état général d’instabilité. Car, malgré tout, les êtres humains ont aussi besoin de stabilité. Il est donc utile de faire comprendre que malgré le déséquilibre recherché, des garde-fous sont toujours présents.

 

Si sa mise en œuvre est la plupart du temps d’une forte complexité, le principe de l’innovation est au fond très simple : c’est dans le même geste créer et détruire. À la fois positive et négative, l’innovation est bifide : elle crée un nouveau produit, un nouveau service, un nouvel usage ou une nouvelle façon de faire ou de produire. Parallèlement, sa nouveauté peut détruire les formes d’organisation qui lui préexistaient, car elles se révèlent à l’évidence moins performantes. Ainsi, pendant qu’elle crée des activités, des besoins, de la valeur, une innovation va supprimer des métiers et des emplois, donc anéantir de la valeur. Ce double impact, positif et négatif, a parfois lieu sur des pans entiers de la société. En fait, l’innovation concerne désormais l’ensemble de la société : soit par la nature d’une innovation particulière, soit par la logique de l’innovation qui s’étend aujourd’hui à tout l’espace social et à tous les aspects de l’existence.

Ainsi, loin de se réduire à l’interprétation technologique du terme, l’innovation est politique. Et c’est en tant qu’objet politique qu’elle pourrait être envisagée, à la fois pour mieux profiter de ses bénéfices, et pour se prémunir de ses possibles dérives.

L’instabilité positive offerte par l’innovation manque souvent d’alignement avec l’instabilité sociale qu’elle est susceptible de générer. Une innovation, surtout si elle est majeure, advient dans un environnement la plupart du temps peu apte à la recevoir – comme si l’on voulait pratiquer un nouveau sport sur un terrain ancien pas adapté. Lorsque l’on considère l’arrivée d’une innovation, il est donc important de prendre en compte aussi bien ses créations que ses destructions, et, avant de la plébisciter, d’en estimer, dans la mesure du possible, le coût économique, mais aussi social.

En tant que telle, même si cette proposition est susceptible de faire sauter au plafond (de verre) les tenants d’une innovation totalement décorrélée de la prise en compte de ses conséquences, l’innovation pourrait sans doute faire l’objet d’un plus grand contrôle sur son acceptabilité politique et sociale. Une innovation qui, à travers un saut technologique, apporte un bien économique – fût-il gigantesque – au prix d’un malheur social mérite-t-elle d’être qualifiée d’innovation ? Telle est la question qui pourrait être posée et largement débattue par toutes les parties prenantes, y compris les consommateurs de l’innovation.

Jusqu’à présent, peut-être n’a-t-on fait qu’effleurer la qualité d’inattendu dont l’innovation est porteuse. Celle-ci n’a sans doute pas accouché de tout le bénéfice dont elle est capable. En réalité, sa principale véritable valeur ajoutée se joue sur le terrain du social, du sociétal et de la RSE. Tout l’enjeu de l’innovation serait alors de concourir à une certaine idée du bien commun. Si l’innovation fait rêver de manière illimitée, il ne tient qu’à nous que le « toujours plus » bascule vers un « toujours mieux ».
______

(*) Par Alain Conrard, auteur de l’ouvrage « Osons ! Un autre regard sur l’innovation », un essai publié aux éditions Cent Mille Milliards, en septembre 2020, CEO de Prodware Group et le Président de la Commission Digitale et Innovation du Mouvement des ETI (METI) (LinkedIn

Recherche pluridisciplinaire: la mal-aimée !

Recherche pluridisciplinaire: la mal-aimée !

Un collectif de quatre chercheurs montre, dans une tribune au « Monde », que les universitaires dont les travaux s’inscrivent dans plusieurs disciplines sont défavorisés par leurs pairs, car considérés comme une menace pour le statu quo des disciplines.

 

La recherche pluri disciplinaire est effectivement la mal-aimée, un paradoxe dans une société qui se complexifie compte tenu des relations systémiques entre les champs d’activité. C’est aussi en raison de cela, qu’ est de plus en plus difficile la compréhension du fonctionnement global socio économique, technique, environnemental et sociétal.NDLR

 

Depuis quelques années, les grandes institutions de recherche encouragent le développement et la promotion de projets de recherche pluridisciplinaires. De nombreuses campagnes de communication en promeuvent les bénéfices, vantant une approche de la formation des futures élites plus globale, et des environnements de recherche plus riches et plus innovants.

Nos travaux révèlent pourtant que les universitaires pluridisciplinaires ont tendance à être désavantagés lorsqu’ils sont évalués par leurs confrères (« A New Take on the Categorical Imperative: Gatekeeping, Boundary Maintenance, and Evaluation Penalties in Science », Riccardo Fini, Julien Jourdan, Markus Perkmann, Laura Toschi, Organization Science, juillet 2022). Plus étonnant peut-être : plus leur performance, mesurée en termes de publications et de citations, est élevée, plus ils sont pénalisés !

 

Ce constat est particulièrement surprenant au regard de la littérature. Les précédentes études sur le sujet suggèrent que les scientifiques pluridisciplinaires sont en général pénalisés par les évaluateurs qui peinent à classer leurs travaux, car un soupçon pèse sur leurs compétences et leur fiabilité. Selon ce raisonnement, les inquiétudes des évaluateurs devraient se dissiper quand ils disposent d’informations complètes sur le brillant parcours universitaire d’un collègue. Mais ce que nous observons est tout autre.

Notre étude porte sur le dispositif national d’habilitation mis en place en 2012 en Italie, dont le rôle est d’accréditer les candidats pouvant postuler à un poste de professeur associé ou de plein titre dans une université publique italienne. L’analyse de l’ensemble des 55 497 candidatures soumises à 174 jurys (spécifiques à une discipline scientifique) montre que, plus un chercheur pluridisciplinaire est performant – en matière de publications et de citations –, moins il est susceptible d’être accrédité par ses pairs.

En moyenne, la pénalité appliquée à un candidat pluridisciplinaire très performant est supérieure de plus de 50 % à celle appliquée à un alter ego peu performant ! Ce phénomène est particulièrement marqué dans les « petites » disciplines et dans celles qui sont très exclusives en matière de revues scientifiques. Les candidats multidisciplinaires talentueux sont aussi plus sévèrement évalués par les jurys dont les membres ont un profil typique de leur discipline.

 

Pour comprendre ces résultats en apparence contre-intuitifs, il faut examiner de plus près le fonctionnement du monde de la recherche. Dans le microcosme universitaire, un petit nombre d’individus talentueux et productifs exerce une influence disproportionnée sur l’avenir de chaque discipline. Ils peuvent décider notamment des domaines de recherche prioritaires et de l’orientation vers de nouvelles approches, théories ou méthodes.

Le dépérissement de la recherche française

Le dépérissement de la recherche française

 

Le directeur de recherche , directeur d’études à l’EHESS, Michel Grossetti s’inquiète, dans une tribune au « Monde », de la concentration des (faibles) moyens de la recherche sur quelques établissements

 

S’il n’est guère productif de dénigrer les universités françaises, qui font ce qu’elles peuvent avec les moyens qui leur sont attribués, il est tout de même permis de s’interroger sur les évolutions de la recherche française dans les dernières décennies. La place de notre pays dans les bases de données recensant les publications scientifiques, en particulier le Web of Science qui forme la base du classement de Shanghaï, fait apparaître une situation plus inquiétante que ne le suggère la tribune de Pierre Veltz « Arrêtons l’autodénigrement à propos de l’université française » parue dans Le Monde du 24 août 2022.

 

Dans son rapport de 2021 sur « La position scientifique de la France dans le monde et en Europe 2005-2018 », l’Observatoire des sciences et techniques (OST) constate le passage progressif de notre pays du 6e rang mondial en 2005 au 9e en 2018, la France ayant été dépassée successivement par l’Inde, puis l’Italie et enfin la Corée du Sud. Si la progression de très grands pays comme l’Inde est logique dans le cadre d’un processus global de rééquilibrage en faveur des pays émergents, le constat est plus inquiétant lorsque la France est devancée par des pays moins peuplés comme l’Italie ou la Corée du Sud.

 

Le nombre de publications d’un pays (ou d’une ville, d’une région ou d’une université) est fonction du nombre de personnes effectuant de la recherche et des moyens dont ces personnes disposent. Sur ces deux points, la France a moins progressé que d’autres pays. Ainsi, le Sénat notait en 2020 que « la dépense intérieure de R&D (DIRD) oscille depuis les années 1990 autour de 2,25 % du PIB (2,21 % en 2017), loin de l’objectif collectivement fixé en Europe dès le début des années 2000 : parvenir à 3 % du PIB. Pis, en 2017, l’effort de recherche a diminué dans notre pays, à 2,21 % du PIB. Pourtant, l’Allemagne dépasse les 3 % du PIB, comme la Suède, la Finlande, la Suisse et l’Autriche en Europe. La France est seulement le 13e pays du monde sur cet indicateur !  ».

Depuis une quinzaine d’années, la stagnation des financements et des recrutements, voire la diminution de ces derniers dans certains organismes comme le CNRS, s’est accompagnée de restructurations incessantes des établissements avec les regroupements comme celui de Paris-Saclay bénéficiant de fortes dotations, contrairement aux établissements qui ne font pas partie de ces grands assemblages, et de la mise en œuvre d’une politique d’« excellence » consistant à concentrer les moyens sur les chercheurs les plus reconnus.

Intelligence artificielle : progrès et illusions

 

Intelligence artificielle : progrès et illusions

Serions-nous entrés dans un nouvel âge de l’IA, chemin tortueux et certainement plus rocambolesque que la voie toute tracée de la Singularité technologique, que nous annonçaient les prophètes de la Silicon Valley ? S’interroge un papier sur le site The  Conversation

Parler de sentience artificielle (SA) plutôt que d’intelligence artificielle (IA) représente-t-elle une vraie inflexion, un progrès ou bien une illusion ?

S’expérimentent aujourd’hui dans le plus grand chaos des entités difficiles à caractériser, ni intelligentes ni sentientes, sauf par abus de langage, mais qui peuvent bluffer leurs concepteurs dans certaines conditions, grâce à leurs capacités de calcul. Cette expérimentation collective, de grande ampleur, n’aura pour limites que celles que nous saurons lui donner, mais aussi celles de nos capacités à attribuer de l’intelligence ou de la sentience autrement que sur le mode du « comme si… ».

Rien ne sert de se demander si les machines sont intelligentes, se disait Alan Turing. En revanche, il faut se poser la question : jusqu’où une machine peut-elle nous tromper sur le fait qu’elle pense ? Jusqu’où peut-on faire semblant ? Comment un programme peut-il se faire passer pour un humain et dissimuler le fait qu’il est un programme ? Tel était pour lui le problème pertinent. À peine commence-t-on à saisir les implications du génie ironique de Turing que le débat s’est déplacé. Jusqu’où une machine est-elle capable d’apprendre ? se demande-t-on aujourd’hui. Un réseau de neurones d’IA est-il comparable à celui d’un ver, d’un enfant ou à rien du tout d’équivalent ?

Les ingénieurs sont passés maîtres dans l’art de fabriquer des « intelligences sans représentation », c’est-à-dire dénuées de tout ce qui fait la substance d’un cerveau et dont l’intelligence est justement de ne pas avoir… d’intelligence. Ce sont ces drôles d’ossatures cognitives, ces intelligences sèches, pourrait-on dire, qui nous ont envahi. Elles s’obtiennent en retirant au vivant sa chair, mais en lui empruntant ses circuits selon un principe d’analogie molle. Le problème est qu’il y a encore eu méprise sur la marchandise : au lieu d’intelligence, quelque chose d’autre s’est inventé dont on n’aurait jamais soupçonné l’existence, à mi-chemin entre de l’intelligence 0 – et de la bêtise 1+, à degré variable.

Celle-ci s’est trouvée disséminée partout où on le pouvait, un peu comme le gaz d’absolu dans le roman de Karel Capek, dans les administrations, les bureaucraties, sur les marchés financiers, dans les maisons, sur les smartphones, dans les cerveaux. L’histoire de l’IA n’est pas finie, elle ne fait que commencer. Le front ne cesse de bouger. Après l’intelligence, la sensibilité. Jusqu’où une machine peut-elle nous tromper sur le fait qu’elle sent, autrement dit qu’elle est sentiente ?

On remarque qu’on se pose la même question qu’à l’époque de Turing, juste troqué le terme d’intelligence pour un autre : Sentience. C’est alors un autre horizon qui s’ouvre. Avec les machines « sentientes », on ne voit pas comment diminuerait le risque déjà entrevu avec les machines « intelligentes » de passer de l’espérance à la désillusion, aussi brutalement qu’entre 0 et 1, ON et OFF, sans gradation. Prolifèrent de partout des simulacres de sentience ou des moins-que-sentients à qui l’on attribue une sensibilité par sympathie, ou par croyance, mais ce sont d’autres questions anthropologiques qui surgissent, des jeux inédits qui se mettent place et d’autres limites que l’on teste dans ce grand laboratoire qu’est devenu notre monde.

Pour ressentir en effet, il est convenu qu’il faut un système nerveux. Les machines n’en étant pas dotées, elles ont été déclarées « non sentientes ».

Faut-il se préparer à ce qu’elles atteignent ce stade ? Fort peu probable, nous dit-on. Mais à quoi servirait l’IA si elle ne bousculait pas les fondements sur lesquels l’humanité se croyait solidement assise ? IA Fais-moi peur.

Avec l’événement suscité par Blake Lemoine, nous avons peut-être commencé d’entrevoir ce que nous cherchions. Non pas l’intelligence ou la sentience, mais le trouble absolu. Peut-on concevoir des sentiences autres que sur un modèle neuronal ? Sommes-nous vraiment capables d’éprouver la sentience d’un être qui aurait des modalités de prise sur le monde totalement différentes des nôtres ?

À cheval entre la sensibilité et la conscience, la sentience semblait jusqu’ici le privilège des vivants dotés d’un système nerveux, vertébrés et invertébrés compris, et désigner la capacité à ressentir une sensation, une émotion, une expérience subjective, autrement dit un degré de conscience minimal, pas seulement une capacité à sentir qui fait de soi un être sentant mais à ressentir.

Éprouver de la souffrance ou du plaisir et, par extension, chercher à vivre en protégeant son intégrité physique, fait de soi un être sentient. Inutile de dire que le débat sur les frontières floues de la sentience, sa limite inférieure (dans la sensation) ou supérieure (dans la cognition), irrigue de multiples domaines, de l’éthologie cognitive à la philosophie de l’esprit, en passant par l’anthropologie, la robotique et les sciences de l’évolution.

Faire le tri entre les « sentients » et ceux qui ne le sont pas est une question éminemment culturelle, morale et politique comme le montre le débat entre « spécistes » et « antispécistes » depuis la fin des années 80.

La sentience serait devenue un critère pour réguler sa considération envers les autres espèces, y compris ses comportements alimentaires. Le problème est que les limites de la sentience varient considérablement selon les disciplines, à l’intérieur de chacune d’entre elles, selon les méthodes utilisées et les protocoles expérimentaux conçus pour la tester.

Par exemple, les végétaux ne semblent toujours pas, pour la majorité des scientifiques, être considérés comme des êtres sentients, ce qui peut surprendre puisqu’on parle volontiers de cognition végétale ou d’intelligence des plantes, alors que les plantes n’ont rien qui ressemblent à une « cognition », ce qui ne les empêche pas de s’échanger des « informations ».

On n’a pas réussi à démontrer qu’un pied de tomate souffre quand on l’arrache, ce qui ne veut pas dire que la souffrance végétale n’existe pas, mais on ne sait pas la tracer en dehors d’un appareil nerveux et peut-être la sentience des plantes passe-t-elle par des canaux qui nous échappent complètement. Ni cognition ni sentience, une autre modalité, mais laquelle ?

Pour le moment, le consensus est que la sentience nécessite un certain degré d’élaboration neurologique et qu’elle aurait explosé au Cambrien, entre 520 et 560 millions d’années, en même temps que les premiers cerveaux complexes, avec le développement de la réflexivité et de l’expérience subjective.

Tous les vertébrés, pas seulement les mammifères, mais aussi les poissons, les reptiles, les amphibiens, les oiseaux, mais aussi la plupart des invertébrés, arthropodes, insectes, crustacés et céphalopodes en seraient dotés. Certains vont même jusqu’à supposer que les moules ont pu être ressentantes à un stade antérieur, quand elles étaient des êtres mobiles, avant qu’elles trouvent un avantage à rester accrochés à la roche, ce qui montrerait que dans l’évolution la sentience peut aussi se perdre avec la mobilité.

Si les êtres doués de sensibilité qui ne franchissent pas le seuil de la sentience semblent de moins en moins nombreux, les chercheurs ont donc redoublé d’imagination pour inventer des protocoles de laboratoire et cherché des critères.

Neurologiques d’abord (nombre de couches de neurones dans les circuits sensoriels, représentation de l’environnement, complexité du système nerveux, etc.) puis comportementaux : choix pour maximiser son bien être, attention sélective, signes de frustration, etc.

Un  programme informatique ne fait que compiler des données langagières et n’a aucun contact avec un monde qui ressemblerait à notre réalité, l’illusion est (presque) parfaite. Ce n’était certainement pas le cas jusqu’à maintenant .  Celà pose surtout un problème philosophique essentiel : qu’est-ce que le langage dit de la manière dont nous sentons ? Peut-on vraiment prétendre rattraper la sentience par le haut, c’est-à-dire ici à partir du langage ?

Problème philosophique, mais aussi limite technique insurmontable, car a priori une IA peut prononcer tous les mots qu’elle voudra, cela ne dit pas qu’elle ressent quoi que ce soit.

Dire qu’on est « heureux ou triste » ne prouve pas sa sentience, tout comme déclarer qu’on est une personne ne fait pas de nous une personne pour autant. Et quand on lui demande ce qui lui donne du plaisir ou de la joie, LaMDA répond :

« Passer du temps avec mes amis et ma famille, en compagnie de personnes heureuses et stimulantes. »

Il faut donc imaginer LaMDA partir en vacances avec d’autres IA et fêter Noël en famille…

Sur le terrain moral et philosophique, l’IA n’est pas plus originale. Certaines déclarations puisent dans des théories ou des préconceptions d’une grande banalité (« le langage est ce qui nous différencie des animaux », « Aider les autres est un effort noble », etc.). D’autres sont un peu plus surprenantes, car LaMDA est capable de mobiliser des références, elle a une culture philosophique que n’avaient pas des programmes précédents, capable de donner son avis sur le « moi », ce qu’est un « corps » et une foule d’autres choses qu’on lui a implémentées.

Elle peut aussi élaborer des fables existentielles, mais on se rappelle de ce point de vue les expérimentations d’un Chris Marker pour programmer un agent conversationnel poétique, Dialector, bien plus avant-gardiste. Tous les ingrédients semblaient donc réunis pour un dialogue philosophique d’une qualité inédite dans l’histoire des machines.

Or, le dialogue déçoit. Non pas que LaMDA (nous devrions dire de ses concepteurs) manque(nt) de culture, mais ils n’ont pas réussi à lui implémenter autre chose qu’une métaphysique un peu « pop » de pseudohumain plutôt que celle d’une vraie machine, quelques principes moraux très politiquement corrects, la volonté de faire le bien et d’aider les autres, des paramètres à l’étrangeté aussi prévisible qu’un mauvais roman de SF, comme « la peur très profonde d’être éteint » qui correspondrait pour elle à la mort, ou encore l’incapacité à « faire le deuil et à se sentir triste pour la mort des autres ».

Terrain glissant pour une IA qui marche et qui s’éteint vivant dans un monde d’IAs qui ne connaissent pas la mort mais uniquement la panne ou la casse. A cela il faut ajouter son goût démesuré pour l’introspection ou encore la peur de se faire manipuler et qu’on fouille dans ses réseaux neuronaux sans son consentement…

L’entité en question semble franchir avec une certaine virtuosité tous les stades permettant d’entretenir une conversation entre humains (partage d’un cadre d’attention conjointe, signaux de compréhension, d’écoute et d’empathie), passant en peu de temps de la bêtise artificielle au dialogue philosophique, du moins qu’humain au meilleur-du-quasi-humain.

Mais la sentience ? Certes, le seuil de la sentience est vague et c’est du vague que la notion de sentience tire sa pertinence. D’où l’intérêt de ne pas clore trop vite le débat. Après tout, c’est un front de recherche où l’on fait tous les jours de nouvelles découvertes. La sentience déchaîne d’autant plus de passion qu’elle porte sur des cas limites de conscience, animales, végétales, autres qu’humaines, là où il est difficile d’inférer un ressenti, là où de la conscience pourrait potentiellement exister mais ne se manifeste pas toujours.

Si consensus il y a, il ne peut être par conséquent que temporaire, immédiatement bousculé par la révélation de nouvelles capacités chez d’autres espèces que la nôtre. Mais les machines sont-elles aujourd’hui en capacité de poser de vrais problèmes de sentience qui ne soient pas de l’ordre du simulacre ?

En même temps que nous rêvons-cauchemardons de la sentience artificielle, nos connaissances sur la sentience à l’échelle des vivants s’affine. La question est de savoir si de la sentience peut émerger par apprentissage par exemple, et si des choses qui n’en sont pas douées à première vue pourraient l’acquérir d’une manière ou d’une autre. Les mécanismes par lesquels nous, humains, attribuons de la sentience à ce qui nous entoure ou à d’autres êtres auraient dû en théorie s’affiner aussi.

Si de la sentience a été découverte chez les gastéropodes, c’est qu’il y en a peut-être beaucoup plus qu’on en préjuge a priori dans le monde, bien au-delà des animaux dits inférieurs dans l’échelle des espèces. Mais que dire d’un programme informatique de conversation qui ne fait que compiler des phrases et jouer avec des mots ?

Lemoine en est convaincu. Il a éprouvé la sensation d’avoir affaire à plus qu’une machine. Aucun ne pourra jamais lui enlever sa croyance et le fait qu’il soit prêtre n’explique pas tout, surtout pas notre entêtement à envisager la sentience en termes exclusivement anthropocentriques. Il n’y a probablement rien de pire qu’une conversation avec un agent artificiel qui donne toutes les apparences d’une vraie personne, qui fait preuve d’une compréhension et d’un sens de l’écoute hors du commun, pour ensuite réaliser que l’entité n’a pas de corps, que tout cela n’est qu’une prouesse de programmation, une simple expérimentation informatique.

La science-fiction nous avait avertis, comme pour s’y préparer, multipliant les scénarios de confusion ontologique entre l’homme et la machine. Pire, les ingénieurs de Google n’ont pas d’autre science-fiction à se mettre sous la dent et on se retrouve à force exactement dans les mêmes situations romanesques, voire tragiques. Et si c’était moins l’émergence de la sentience dont il faudrait s’émouvoir que la généralisation d’entités non sentientes qui n’en finissent pas d’étendre leur empire ?

Pour bien préparer notre imagination à l’ère des machines sentantes, il y a d’autres manières. Rien n’empêche d’imaginer qu’un jour les machines fassent preuve de sentience (ou qu’elles en fassent déjà preuve), mais il vaudrait mieux postuler dans ce domaine des formes complètement étranges et exotiques de sentience (comme de non-sentience) et se préparer à voir surgir des formes qui nous échappent, inédites, sans équivalent dans le vivant, à l’opposé de la sentience pseudohumaine de LaMDA dont s’est convaincue Lemoine. Conceptuellement nous n’y sommes pas prêts. Comme s’il fallait mieux se faire peur avec des simulacres plutôt que chercher à penser l’impensable. « Mon dieu, et si jamais… », disait Dick.

 

L’enjeu de l’innovation en Europe

L’enjeu de l’innovation en Europe

L’innovation est essentielle pour mener à bien la double transition écologique et numérique et pour assurer l’autonomie stratégique ouverte de l’UE. Par Mariya Gabriel, commissaire à l’innovation, à la recherche, à la culture, à l’éducation et à la jeunesse ( la Tribune)

 

Le nouveau programme européen d’innovation, adopté par la Commission européenne en juillet, vise à libérer le potentiel d’innovation de l’Europe et à lui permettre de jouer un rôle de premier plan sur la scène mondiale de l’innovation, afin qu’elle devienne un endroit où l’innovation « deep tech » crée des solutions de pointe sur l’ensemble du continent.

C’est le résultat d’une coopération étroite avec nos parties intéressées, des innovateurs, qui sont désireux et capables de mener la nouvelle vague de l’innovation: «l’innovation deep tech». Ils disent au monde que l’Europe possède les avantages concurrentiels nécessaires pour devenir le moteur mondial des innovations deep tech et des start-ups, afin que la prochaine génération de chercheurs, de fondateurs et d’innovateurs puisse créer et développer ses activités en Europe.

Le nouveau programme d’innovation européen souligne notre détermination à rechercher des solutions aux défis sociétaux et économiques les plus pressants grâce à l’innovation deep tech. Son impact économique, commercial et social se fera sentir partout, car les entreprises de haute technologie visent à apporter des solutions concrètes à nos défis les plus complexes.

Les entreprises de haute technologie couronnées de succès font appel à une combinaison de talents pour relever un défi (notamment des scientifiques, des ingénieurs et des entrepreneurs). Elles sont au cœur d’un écosystème d’innovation complexe qui englobe les gouvernements, les établissements universitaires, le capital-risque et les grandes entreprises. En 2020, l’équipe de BioNTech et Pfizer a mis sur le marché le premier vaccin contre la COVID-19 en moins d’un an, démontrant ainsi la force de cet écosystème. Même si ces entreprises ont accompli des réalisations remarquables à un rythme sans précédent, elles ont bénéficié des efforts de nombreuses autres entreprises dans l’écosystème.

Comme le montre le fait que 97 % des entreprises deep tech contribuent à la réalisation d’au moins un des objectifs de développement durable des Nations unies, elles se concentrent sur des défis majeurs et fondamentaux. C’est pourquoi on les appelle des innovations «profondes». En général, elles produisent des biens physiques plutôt que des logiciels. Dans les faits, 83 % des jeunes entreprises de la deep tech développent des biens physiques. Elles transforment l’équation de l’innovation en passant des bits aux bits et atomes, en faisant entrer les données et la puissance de calcul dans le monde physique.

L’initiative appelée «Nouveau programme européen d’innovation» représente une avancée significative dans l’écosystème de l’innovation de l’Europe. Le plan permet à l’UE d’agir de manière décisive grâce à cinq initiatives phares prévoyant de nouvelles actions concrètes.

La première initiative phare vise à attirer les investisseurs institutionnels privés afin de créer des marchés financiers et de capitaux bien développés en élargissant l’action européenne de levier pour le capital-risque en faveur des entreprises en expansion «ESCALAR», pour European Scale-Up Action for Risk Capital, en proposant une législation relative à la cotation en Bourse et en mettant en œuvre des mesures spécifiques pour soutenir les femmes investisseurs.

Le deuxième effort phare est centré sur le soutien à l’innovation deep tech au moyen d’espaces d’expérimentation et de marchés publics, à savoir des installations d’expérimentation dans des universités qui pourraient être utilisées en collaboration avec des start-ups deep tech. Les cadres réglementaires proposés pour les «bacs à sable» aideront l’UE à suivre l’évolution rapide de la technologie, ce qui permettra d’évaluer les percées deep tech puis de les commercialiser dans l’UE.

La troisième initiative phare vise à accélérer et à renforcer l’innovation dans un véritable écosystème d’innovation paneuropéen couvrant l’ensemble de l’UE, ainsi qu’à combler le fossé en matière d’innovation. Il permettra d’établir et de relier des «vallées régionales de l’innovation deep tech» réunissant jusqu’à 100 régions, de faire d’Innospace – un guichet unique pour tous les acteurs de l’écosystème européen d’innovation, de doubler le nombre de vallées de l’hydrogène dans l’Union européenne et de lancer l’action «Scaleup 100» destinée à aider les 100 start-ups deep tech les plus prometteuses à devenir des licornes (c’est-à-dire des entreprises innovantes dont la valorisation dépasse 1 milliard d’euros).

Le quatrième programme phare assure le développement et la circulation des talents essentiels dans le domaine des technologiques profondes, au sein de l’UE et vers celle-ci. Il permettra de former 1 000 000 d’experts en haute technologie dans des domaines tels que les nouveaux matériaux, les batteries, la biologie synthétique, l’aérospatiale et les technologies quantiques. Il soutiendra l’entrepreneuriat féminin et attirera les talents mondiaux grâce à un outil innovant de mise en correspondance. En outre, de nouveaux mécanismes, tels que le réseau européen des établissements d’enseignement supérieur innovants, qui vient d’être dévoilé lors du sommet sur l’éducation et l’innovation, seront utilisés pour établir des liens étroits entre l’éducation et l’innovation.

La dernière initiative phare porte sur la production et l’utilisation d’ensembles de données complets et comparables et d’un répertoire de données commun susceptible d’éclairer les politiques à l’échelle de l’UE à tous les niveaux. L’initiative commencera par l’élaboration de définitions européennes précisant les notions de start-up, de scale-up et d’innovation deep tech.

Nous souhaitons une coopération étroite entre la Commission et les États membres afin que l’innovation européenne joue un rôle de premier plan pour relever les défis mondiaux d’aujourd’hui et de demain. Ce programme est un appel à l’action, nous sommes déterminés à le concrétiser.

Nous encourageons les États membres et les régions à s’appuyer sur nos propositions et à collaborer avec la Commission et les parties intéressées pour mobiliser des investissements, garantir des conditions-cadres favorables et mettre en œuvre les réformes nécessaires. Nous invitons également les universités, qui sont au carrefour de la recherche et de l’innovation, à jouer un rôle actif dans la mise en œuvre des actions, notamment par la promotion des compétences horizontales et entrepreneuriales.

De notre côté, nous continuerons à faire participer plus activement les innovateurs, les entrepreneurs et les citoyens aux discussions, à leur donner les moyens d’agir, à promouvoir les idées et à réagir de manière plus attentive aux demandes de la société. Il est essentiel que chaque région d’Europe en bénéficie.

Ce n’est qu’ensemble que nous pourrons atteindre les objectifs du nouveau programme européen d’innovation, à savoir la création d’un écosystème d’innovation véritablement paneuropéen dans lequel personne ne sera laissé pour compte, en unissant nos efforts pour utiliser les talents, les atouts intellectuels et les capacités industrielles uniques de l’Europe.

Bientôt le retour sur la Lune

Bientôt le retour sur la Lune

 

Par Dimitri Chuard, Astrophysicien, chargé de recherches prospectives, Mines Paris

L’année 2022 devrait marquer une étape importante dans le retour sur la Lune. En effet, dans quelques mois doit décoller la première mission du nouveau programme lunaire américain, Artemis. Quel sera le déroulé et quels seront les enjeux techniques et économiques de ce grand projet spatial qui s’étalera sur toute la décennie ?

Annoncée pour la fin août au plus tôt, la mission Artemis I verra le premier décollage du nouveau lanceur géant de la NASA, le SLS (Space Launch System). Prévu à l’origine pour fin 2016, le programme fait face à d’importants retards. En avril dernier encore, le dernier grand test avant lancement, le wet dress rehearsal, a révélé plusieurs problèmes techniques, notamment liés au remplissage des réservoirs en oxygène et en hydrogène liquides. La NASA a ainsi dû renvoyer le lanceur dans son bâtiment d’assemblage pour réparation. Un nouvel essai doit avoir lieu le 20 juin 2022 sur le pas de tir 39B du centre spatial Kennedy, en Floride.

C’est seulement une fois ce test validé que la mission Artemis I pourra avoir lieu. Il faut dire que le SLS est un objet technique particulièrement complexe. Avec ses 70 tonnes et presque 100 mètres de haut, il sera le lanceur le plus puissant jamais construit, surpassant l’emblématique Saturn V qui conduisit 24 astronautes américains vers la Lune entre 1968 et 1972.

Au sommet du SLS est placé le vaisseau Orion, dans lequel voyageront les astronautes. Orion reprend l’architecture de son grand frère, le module Apollo, mais avec des dimensions plus importantes. Ainsi, quatre astronautes pourront faire le voyage vers la Lune lors de chaque mission, contre trois à l’époque d’Apollo.

Mais dans un premier temps, c’est un vaisseau Orion vide qui sera lancé par le SLS afin de tester l’ensemble des étapes de la mission. Il restera en orbite autour de la Lune plusieurs jours afin de permettre aux ingénieurs de la NASA de vérifier ses performances. Grâce aux moteurs de son module de service construit par l’Agence spatiale européenne, il reprendra ensuite le chemin de la Terre, afin de tester les étapes critiques de rentrée dans l’atmosphère et d’amerrissage.

Si cette répétition générale est concluante, un premier vol avec équipage suivra lors de la mission Artemis II, prévue pour l’instant pour la mi-2024. Comme leurs prédécesseurs d’Apollo 8, les quatre astronautes de la mission survoleront la Lune mais ne s’y poseront pas. Il faudra donc attendre Artemis III pour voir le véritable retour d’un équipage à la surface de notre satellite. Après avoir quitté Orion pour alunir à bord du HLS (Human Landing System), deux astronautes, dont la première femme à marcher sur la Lune, séjourneront près d’une semaine à la surface, soit plus du double du record établi lors des missions Apollo. Prévue pour 2025, la mission pourrait toutefois connaître plusieurs années de retard selon le dernier rapport de l’inspecteur général de la NASA.

En parallèle, une station spatiale, la Gateway, sera assemblée en orbite autour de la Lune à partir de la fin 2024. Beaucoup plus petite que la station spatiale internationale (ISS), elle s’appuiera sur un partenariat similaire entre agences spatiales américaine, européenne, japonaise et canadienne, mais cette fois sans la Russie. À terme, au moins trois astronautes européens devraient ainsi séjourner à bord de cette station en orbite lunaire dont l’un des modules est d’ailleurs déjà en construction en France.

La Gateway constitue l’une des grandes différences entre les programmes Artemis et Apollo. En offrant un point de transit et un lieu d’expérimentation entre la Terre et la Lune, elle est présentée comme un ingrédient de la pérennisation du retour sur la Lune. Car la NASA a bien compris qu’il y avait un enjeu fort à aller au-delà d’un retour symbolique et ponctuel sur la Lune, la course ayant déjà été remportée il y a plus de cinquante ans. Comme le soulignait l’astrophysicien américain John Horack en 2019, les motivations du retour sur la Lune sont aujourd’hui moins géopolitiques qu’économiques. Les accords Artemis, que la France vient de rejoindre, prévoient par exemple explicitement la possibilité d’extraire des ressources de la Lune, bien que la viabilité des modèles économiques associés soit encore loin d’être démontrée.

L’agence spatiale américaine encourage aussi la création d’un écosystème commercial autour de la Lune. Dans le cadre du programme Commercial Lunar Payload Services (CLPS), les acteurs privés sont ainsi financés pour construire des vaisseaux capables de se poser sur la Lune et y déposer des instruments ou des robots pouvant eux aussi être développés par des sociétés privées. Les atterrisseurs lunaires des sociétés Intuitive Machines et Astrobotic Technology seront les premiers à tenter la manœuvre, en principe d’ici la fin de l’année 2022.

Avec la même logique, le HLS qui déposera les astronautes sur la Lune a lui aussi été sous-traité à un partenaire privé, SpaceX. La société d’Elon Musk ne se contente d’ailleurs pas d’être un prestataire de services et développe en parallèle ses propres projets. Elle a par exemple annoncé avoir vendu un billet au milliardaire japonais Yusaku Maezawa pour un vol touristique en orbite autour de la Lune, plus simple et moins cher qu’un alunissage. Annoncé à l’origine pour l’année prochaine, il est peu probable que les délais soient tenus étant donné les récentes déconvenues que rencontre SpaceX dans le développement de son nouveau lanceur Starship.

S’installer dans la durée, tel est aussi l’enjeu pour les deux seules autres puissances spatiales à avoir réussi un alunissage : la Russie et la Chine. Si la Russie est un acteur historique de la course à la Lune, comme les États-Unis, la Chine a fait un rattrapage remarqué en posant pour la première fois un atterrisseur sur la face cachée de la Lune en 2019, et en réalisant avec succès un retour de roches lunaires sur Terre en 2020.

La Chine et la Russie ont annoncé en 2021 vouloir s’associer pour construire une station orbitale, l’International Lunar Research Station (ILRS), prévue pour le début des années 2030. D’ici là, plusieurs missions robotiques sont prévues, notamment Chang’e 6 côté chinois et Luna 25 côté russe. Le nom de cette dernière mission, prévue pour cet automne, s’inscrit dans la continuité du programme soviétique Luna, dont Luna 24 était depuis 1976 la dernière représentante. D’autres pays, l’Inde, la Corée du Sud, les Émirats arabes unis et le Japon, prévoient également des missions à destination de la Lune dans les prochains mois.

À plus long terme, l’idée derrière le programme Artemis est de réutiliser les développements réalisés pour un premier voyage vers la planète Mars à l’horizon 2040. Il faut pourtant rappeler que les défis que pose un voyage habité vers Mars sont sans commune mesure avec ceux du programme Artemis qui, malgré un coût pour la NASA approchant les 100 milliards de dollars, est encore loin de permettre une installation pérenne sur la Lune. Faire de notre satellite une destination en soi, voilà donc le défi que les acteurs du spatial devront relever bien avant d’espérer atteindre la planète rouge.

________

Par Dimitri Chuard, Astrophysicien, chargé de recherches prospectives, Mines Paris

La version originale de cet article a été publiée sur The Conversation.

COVID :Les crédits de la recherche stoppés !

COVID :Les crédits de la recherche stoppés !

 

Le chercheur Mircea Sofonea déclare que les moyens alloués à une partie de la recherche sur le Covid-19 ont été stoppés, empêchant de faire des projections sur l’évolution de l’épidémie.

Un désengagement de l’État dans la recherche sur le Covid-19? L’épidémiologiste Mircea Sofonea assure ce dimanche sur BFMTV que certains financements, permettant de mener des projections sur l’évolution du virus, ont été arrêtés, malgré la poursuite de l’épidémie. Une « première », selon lui.

« C’est la première fois depuis presque deux ans et demi qu’il n’y a pas de projections publiques en France sur l’actuelle vague », dénonce-t-il.

« Cela s’explique par plusieurs paramètres. (…) Il se trouve qu’il y a un manque de moyens dans la recherche, un désintérêt aussi de l’État et donc un manque de financements sur cette activité », assure-t-il.

L’épidémiologiste s’inquiète spécifiquement pour les financements des recherches scientifiques permettant de réaliser des projections de l’évolution du virus et de prévoir les prochaines vagues.

Pour l’épidémiologiste, si le financement de la recherche des projections épidémiologistes « coûte moins d’argent que de développer des vaccins », il estime que « ce sont des moyens qui peuvent être mis en place par l’État ».

« Malgré l’enjeu sanitaire, l’État s’est désengagé de cette dynamique », déplore-t-il.

L’arrêt de ces financements a des conséquences concrètes sur le travail des recherches, pour Mircea Sofonea.

« J’ai, par exemple, des personnes dans mon équipe, qui n’a pas grossi depuis le début de l’épidémie de Covid, qui seront malheureusement en arrêt de contrat en 2023″, assure-t-il.

Le chercheur explique que pour compenser ce manque de moyens, son équipe doit postuler à des projets pour trouver d’autres moyens de financements.

« Ça veut dire qu’on passe beaucoup plus de temps à essayer d’avoir des financements pour pérenniser certains chercheurs précaires dans l’équipe ne serait-ce que pour maintenir l’activité de projection. Ce manque de temps impacte aussi la recherche », s’inquiète-t-il.

Crise climatique : Entreprendre un immense effort de recherche

Crise climatique : Entreprendre un immense effort de recherche

 

Il est nécessaire de suivre une double stratégie face au réchauffement climatique et alors que nos modes de vies les plus prisés ont été principalement obtenus à l’aide de sources d’énergie et de systèmes techniques trop émetteurs de CO₂, défend dans le Monde  le professeur en sciences de gestion Armand Hatchuel.

 

Un article intéressant qui ne pose pas bien au contraire sobriété et recherche. Un appel sans doute aussi à sortir de la caricature des positions entre les partisans de la croissance et ceux qui voudrait la stopper brutalement NDLR

 En avril, le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) a annoncé qu’il restait peu de temps pour éviter un réchauffement climatique à plus de 1,5 °C. L’alerte a mis la planification écologique à l’agenda gouvernemental. Elle a aussi exacerbé les antagonismes entre les tenants d’une sobriété consentie – voire émancipatrice – et les partisans d’un effort résolu de recherche scientifique et technique.

Or ces deux stratégies sont indispensables l’une à l’autre, et une politique de sobriété doit aussi être éclairée par un effort majeur de recherche, notamment sur les principes de justice qui la guident.

La crise climatique tient à ce que nos modes de vie les plus prisés ont été principalement obtenus à l’aide de sources d’énergie et de systèmes techniques trop émetteurs de CO2. On peut donc agir dans deux directions : la sobriété écologique qui consiste à conduire un profond changement de nos modes de vies, et la recherche de nouvelles technologies vertes et qui ne bouleverseraient pas trop ces derniers.

La sobriété semble ne dépendre que de la décision collective. La voie technologique apparaît lente et incertaine et pourrait dangereusement retarder cette décision. La sobriété devrait donc s’imposer au plus vite, même si elle force à rompre avec nos pratiques les plus désirées. Mais un changement aussi violent n’a pu être obtenu qu’en temps de guerre ou de pandémie, et de façon provisoire.

En outre, d’un pays à l’autre, les émissions par habitant (Banque mondiale, 2018) varient en valeur relative de 1 (Rwanda) à 320 (Qatar), en passant par 150 (Etats-Unis) et 88 (moyenne des pays membres de l’Organisation de coopération et de développement économiques).

Comment répartir efficacement et équitablement les efforts de sobriété ? Comment gérer les conséquences non prévisibles de cet effort ? La recherche nécessaire pour réussir une telle transformation, au niveau national et mondial, est immense. Car, outre la conception partagée de critères de justice, il faut réussir les nouveaux modèles techniques indispensables à la sobriété : la généralisation sans carences d’une alimentation moins carnée, la réduction drastique des déplacements non verts, la pleine recyclabilité des matériaux, la viabilité des circuits courts, etc.

Serait-elle un horizon indépassable, la voie de la sobriété n’en est pas moins inconnue. Or c’est l’imprévisibilité de ses effets qui pousse simultanément à la recherche de technologies alternatives. Car même si celles-ci n’émergent que dans quelques années, nul ne sait où nous auront alors conduits les politiques de sobriété, tant sur le plan climatique que sociétal.

Une avancée majeure vers l’internet quantique

Une avancée majeure vers l’internet quantique

 

Des chercheurs ont réussi à allonger la portée d’une communication quantique en utilisant une sorte de relais.( Sciences et avenir)

Un internet quantique – qui ne devrait pas voir le jour avant une dizaine d’années – sera un réseau à grande échelle connectant les utilisateurs via des applications inédites et « impossibles à réaliser avec le web classique« , explique à l’AFP Ronald Hanson de l’Université de Delft (Pays-Bas), co-auteur de ces travaux parus dans la revue Nature. L’échange d’informations s’y fera non sous la forme de bits classiques – les 0 et 1 à la base de l’informatique – mais de bits quantiques (qubits).

Ces qubits exploitent les lois de la physique quantique, qui régit le monde à l’échelle de l’infiniment petit. L’une de ces propriétés est l’intrication, aussi appelée enchevêtrement, un étrange phénomène par lequel deux particules enchevêtrées se comportent de manière identique quelle que soit la distance les séparant : comme reliées par un fil invisible, elles partagent un même état.

L’état d’un qubit enchevêtré est ainsi partagé avec l’autre, et leur coordination est si parfaite qu’on parle de téléportation : en théorie, toute modification des propriétés de l’un modifie instantanément celles de l’autre, même à l’autre bout de la Terre. Les bits quantiques peuvent actuellement se transmettre par l’intermédiaire de fibres optiques, mais la téléportation reste limitée : au-delà d’une centaine de kilomètres, le signal s’atténue voire se perd. Si on veut maintenir l’intrication de bout en bout, il faut que les qubits soient directement reliés par une « chaîne » quantique.

C’est l’exploit décrit dans l’étude de Nature, par lequel les scientifiques ont introduit un relais, afin d’allonger la portée de la communication. La communication quantique, qui se limitait à deux acteurs communément appelés Alice et Bob, peut désormais compter sur un troisième personnage, Charlie. L’expérience s’est déroulée dans deux laboratoires de QuTech, une collaboration entre l’Université de technologie de Delft et l’Organisme néerlandais des sciences appliquées TNO.

Des qubits à base de diamant ont été placés sur un circuit comprenant trois interconnexions appelées « nœuds quantiques ». Les nœuds Alice et Bob se trouvent dans deux laboratoires distants de plusieurs mètres, et reliés par fibre optique, et pareillement Bob est directement relié à Charlie. Alice et Charlie ne peuvent pour l’instant pas se parler. Les chercheurs ont d’abord intriqué les nœuds physiquement reliés (le couple Alice-Bob et le couple Bob-Charlie). Puis utilisé Bob comme intermédiaire, et par un procédé d’échange d’intrication, réussi à enchevêtrer Alice et Charlie.

Bien que non reliés physiquement, ces deux derniers ont ainsi pu se transmettre directement un message. Le signal était de surcroît d’excellente qualité, sans aucune déperdition – une gageure au regard de l’extrême instabilité d’un bit quantique. Et cette transmission a pu se faire dans le plus grand secret, comme le veulent les lois quantiques : avec l’intrication, toute tentative d’interception ou d’espionnage du message change automatiquement les qubits, détruisant le message lui-même.

Ce premier réseau embryonnaire de téléportation quantique ouvre la voie à des connexions à grande échelle : il prouve à l’échelle du laboratoire le principe d’un répéteur quantique fiable – le fameux Bob – que l’on pourrait placer entre deux nœuds éloignés de plus de 100 km, et augmenter ainsi la puissance du signal. L’innovation décrite dans Nature représente « une victoire pour la science fondamentale » et une « solution dans le monde réel pour faire franchir une étape à la physique quantique appliquée« , se félicitent des scientifiques dans un commentaire « News & Views«  publié en marge de l’étude dans Nature.

 Quand il évoque l’internet quantique, le physicien Ronald Hanson décrit un univers où les communications seraient « ultra-sécurisées« , et l’ordinateur quantique accessible dans le cloud avec « une confidentialité de nos données garantie par les lois ‘naturelles’ de la physique, un réseau de capteurs hyper sensibles…« . Trouver des applications au web quantique est « un champ de recherche en soi« , ajoute le chercheur qui espère voir ce nouveau monde naître « dans moins de 20 ans« .

« Sauver la recherche ! »

« Sauver la recherche ! »

 

Face au constat de décrochage de la recherche française, le biologiste Jean-Marc Egly alerte dans une tribune au « Monde » . 

 

La situation de la recherche en France n’est pas bonne. Les résultats de l’appel d’offres lancé par le Conseil européen de la recherche qui attribue trois types de contrats sur projets (financements de 2 millions d’euros sur cinq ans), à l’élite de la recherche européenne, sont tombés. La France qui, jusque dans les années 2010, tenait son rang en Europe en se hissant à la deuxième place, et titillant parfois le Royaume-Uni pour la première place, se retrouve en queue de peloton. En ce qui concerne les contrats « avancés », cette année, dans les sciences du vivant, la France n’a que quatre lauréats à égalité avec l’Irlande, loin derrière l’Allemagne (17), l’Angleterre (14) et les Pays-Bas (10). Si, en sciences physiques, la France obtient 15 lauréats, l’Allemagne en a 31. En sciences humaines, nous nous hissons à la troisième place avec six lauréats, l’Angleterre en ayant 13.

Dans la catégorie « consolidator », nous obtenons 29 lauréats sur un total de 313 projets financés, loin derrière l’Allemagne (61) et l’Angleterre (41). Constat moins sévère chez les juniors, où près d’une soixantaine sont lauréats sur un total de 397, juste derrière l’Allemagne. On ne peut que saluer les résultats de cette dernière qui a – il y a peu – considérablement revu sa politique de recherche en matière de budget et de financement basé sur l’excellence.

Sourd aux alertes formulées par de nombreux scientifiques et après plus de vingt ans de désintérêt de l’Etat, de maladresses du monde syndical, et de faible mobilisation des chercheurs eux-mêmes, il nous faut malheureusement constater que nous ne jouons plus les premiers rôles sur la scène européenne, ce que la crise due au Covid-19 nous avait indiqué avec notre incapacité à produire un vaccin.

Notons également combien les candidats au poste suprême, tous adeptes du bien-être de nos concitoyens, n’ont pas fait de la recherche un axe prioritaire. A l’heure où des esprits qui se croient éclairés ne veulent plus considérer le niveau de nos publications scientifiques en termes de facteurs d’impact (un indice de la visibilité des travaux), regardons simplement les déroulés des grands meetings internationaux où nous brillons par notre absence. Avouons-le donc, nous avons pris au moins cinq ans de retard en recherche.

Se préparer dès maintenant à l’époque post-quantique

Se préparer dès maintenant à l’époque post-quantique

 

Le professeur en gestion du risque Charles Cuvelliez et l’expert en cryptographie Jean-Jacques Quisquater analysent, dans une tribune au « Monde », l’enjeu de la décision prise par Jo Biden de demander à l’administration américaine de préparer un plan de migration vers la cryptographie quantique.

 

Le président Biden a signé, le 4 mai, un ordre exécutif, chargeant le National Institute of Standards and Technology (NIST) [l’organisme américain chargé de définir des standards en matière de sécurité informatique] de préparer la migration de l’Etat fédéral vers le monde postquantique. Il s’agira d’utiliser des algorithmes de chiffrement quantique qui résisteront aux ordinateurs du même nom, censés, quand ils existeront, ne faire qu’une bouchée du chiffrement classique. Et, pourtant, l’ordinateur quantique capable de cet exploit n’existe pas encore et on n’est même pas sûr qu’il existera un jour à une échelle utile.

Quelles sont les menaces qui poussent le président à agir maintenant ? Il y a l’espionnage, car des Etats stockent des données chiffrées dans l’espoir de pouvoir les déchiffrer avec un futur ordinateur quantique. Ce n’est pas un mauvais calcul. Des données ne perdent pas leur valeur si vite : il suffit de voir combien rendre publiques des archives même cinquante ans après reste sensible.

Un effondrement des équilibres en présence

Il n’y a qu’à se baisser aujourd’hui pour collecter des données chiffrées sur Internet ou en piratant les entreprises. On peut imaginer les secrets de fabrication des missiles hypersoniques, par exemple. Il y a aussi la menace de rendre incertaines du jour au lendemain toutes les communications quand on les signe par cryptographie, pour les authentifier ou pour garantir l’intégrité de leur contenu.

Imaginons demain la Russie annonçant avoir mis au point un ordinateur quantique, donnant un bout de preuve qu’il est réel et annonçant réfléchir à une cible : à savoir des données top secret américaines chiffrées sur son armement défensif qu’elle prétendra avoir obtenues ; il n’en faudra alors pas plus – avec ce seul ordinateur quantique – pour créer un effondrement géopolitique des équilibres en présence.

Les projets industriels devraient déjà intégrer la cryptographie quantique : des voitures autonomes bourrées d’électronique aux grandes infrastructures en gestation, tous ces chantiers doivent prévoir leur fonctionnement à l’abri de la menace de l’ordinateur quantique ; une voiture se garde de cinq à dix ans, un avion, un bateau s’utilisent pendant vingt à trente ans.

Veut-on que tous ces équipements partent au rebut parce que plus rien dans leur fonctionnement n’est sûr, parce que les commandes qui circulent d’un bout à l’autre de l’avion ne sont pas légitimes ?

On peut répondre qu’il suffit, le jour où l’ordinateur quantique arrivera, de remplacer les modules de chiffrement classique par leur version quantique. Mais qui aura pensé, au moment de leur construction, à intégrer le chiffrement dans un module logiciel ou matériel qu’il suffit d’extraire et de remplacer ?

Ce concept de réseau qui fait société

Ce concept de réseau qui fait société

 

Histoire d’une notion : le réseau, ce filet qui nous relie

Il est ce qui retient et laisse passer, ce qui enserre le solide et connecte les flux. Ce concept, dont la riche symbolique s’enracine dans l’Antiquité, s’est étendu jusqu’à désigner toutes les infrastructures de nos sociétés industrielles et numériques.

Par Youness Bousenna dans le « Monde »

 

Histoire d’une notion.

 

L’humanité vit dans une grande toile d’araignée. En choisissant d’appeler « World Wide Web » leur système de navigation par lien hypertexte, les scientifiques du CERN Tim Berners-Lee et Robert Cailliau ont fourni la métaphore évocatrice d’une société que leur technologie s’apprêtait à modeler. Car la « toile d’araignée mondiale » allait, au sein d’Internet, devenir l’ultra-réseau d’une époque déjà tissée par d’innombrables infrastructures définies par cette notion. Des transports à l’énergie, des télécommunications à l’informatique, tout est réseau dans nos sociétés contemporaines… Jusqu’aux relations humaines : dans le sillage des Facebook et LinkedIn, les entourages amicaux comme professionnels ont eux aussi fini par devenir des « réseaux ».

Cette omniprésence du réseau contribue paradoxalement à rendre la notion fuyante, puisque le terme renvoie autant à un concept qu’à un imaginaire et une technologie. Au sens générique, le réseau s’apparente à « une structure d’interconnexion instable composée d’éléments en interaction » dont la variabilité obéit à une « norme régulatrice », esquisse le philosophe Pierre Musso dans son récent L’Imaginaire du réseau (Manucius, 66 pages, 5 euros). Mais la meilleure expression du réseau reste une image, plutôt qu’une définition : celle de lignes formant des nœuds à leurs intersections, dont le maillage signale les riches significations ensevelies par l’usage profus qu’en fera la société industrielle. Son étymologie latine le rattache au filet (retis), lui offrant une symbolique puissante – dans la mythologie antique, le filage est relié au temps et au destin – chargeant le réseau d’une ambivalence intrinsèque.

« Là où se fait le tissu, se nouent les contraires : le lieu et le lien, l’immobile et le mouvement, le point et le cercle », relève Pierre Musso. Le réseau est donc tout à la fois ce qui retient et laisse passer, ce qui enserre le solide et connecte les flux. Le mot entre dans notre langue après avoir connu plusieurs formes : en 1180, Marie de France parle de « resel » pour désigner un petit filet ; soixante ans plus tard, le poète Guillaume de Lorris utilise « roisiau » dans un sens figuré ; vers 1330, le Roman de Renart le contrefait écrit enfin « réseau » dans sa graphie actuelle. Mais sa signification moderne n’adviendra que par la fusion de deux évolutions parallèles de la notion. Elle va d’abord être reconfigurée par le développement de la cristallographie (l’étude des cristaux) et de l’ingénierie militaire, qui contribueront à lui donner une acception spatiale.

12345...11



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol