Archive pour le Tag 'scientifique'

Ecole- Sans culture linguistique, pas de culture scientifique

Ecole- Sans culture linguistique, pas de culture scientifique

Par
Jean-Marc Lévy-Leblond
Physicien, épistémologue, essayiste. Professeur de l’université de Nice, Université Côte d’Azur

Dans un récent manifeste, un collectif de personnalités en appelle au ministre de l’Éducation nationale pour développer à l’école « une véritable culture de la lecture et de l’écriture ». Parmi les signataires, des écrivains et écrivaines, des journalistes, des artistes. Mais pas de scientifiques, comme s’ils n’avaient ni compétence ni intérêt pour le langage et ses mots.

Cette dépréciation du rôle de la langue dans le travail de la science est banale. Même un sémiologue aussi averti que Roland Barthes écrivait :

« Pour la science, le langage n’est qu’un instrument, que l’on a intérêt à rendre aussi transparent, aussi neutre que possible, assujetti à la matière scientifique (opérations, hypothèses, résultats) qui, dit-on, existe en dehors de lui et le précède : il y a d’un côté et d’abord les contenus du message scientifique, qui sont tout, d’un autre côté et ensuite la forme verbale chargée d’exprimer ces contenus, qui n’est rien. »

Et le physicien que je suis se souvient avec un mélange d’hilarité et de consternation d’une scène d’un film de Hitchcock (pas l’un de ses meilleurs !), Le Rideau déchiré (1966), où deux savants s’affrontent devant un tableau noir, écrivant et effaçant tour à tour des formules cabalistiques, sans échanger aucun mot ou presque, topos que l’on retrouve dans le récent Oppenheimer.

Mais la science, à l’inverse de l’armée, n’a pas vocation à être une « grande muette », tant la production du savoir, y compris dans les sciences les plus formalisées, comme les mathématiques ou la physique, que son partage, par l’enseignement ou la médiation, à l’oral comme à l’écrit, ne peuvent se passer du recours à la langue.

Certains, reconnaissant cette nécessité, avancent qu’il s’agirait pour faciliter l’apprentissage des sciences, de développer celui d’un prétendu « langage scientifique ». Mais celui-ci n’existe tout simplement pas, et il s’agit bien ici de la langue commune, celle qui se pratique dans tout échange social. Car l’existence de terminologies spécialisées dans les diverses disciplines scientifiques, comme dans toute activité humaine, aussi bien en couture et en cuisine qu’en météorologie et en chimie, ne saurait occulter l’emploi obligatoire des règles syntaxiques et des classes grammaticales usuelles qui fondent une langue.

Reste que la science contemporaine manifeste une grande désinvolture dans le choix de son vocabulaire propre. Bien souvent, les termes qu’elle emploie et qu’elle diffuse relèvent plus de stratégies médiatiques, voire d’enjeux publicitaires, que d’un souci d’adéquation sémantique. Ainsi, des expressions comme trou noir, big bang, supercordes, énergie sombre, pour s’en tenir au registre de la cosmologie, aussi fascinantes soient-elles, ne rendent aucunement justice aux objets et phénomènes qu’elles concernent.

De fait, un « trou noir » n’est pas vide, ni vraiment noir, le « big bang » n’est pas une explosion instantanée et ne fait pas de bruit, etc. De telles expressions sont conçues par les scientifiques eux-mêmes pour séduire les profanes, mais les trompent au lieu de les éclairer.

Une bonne vulgarisation est nécessairement exigeante et ne peut faire l’impasse sur la difficulté et la spécificité des concepts scientifiques. Comme le disait déjà Euclide, « il n’y a pas de voie royale » pour accéder à la science. Le paradoxe est que ces facilités de langage finissent par avoir des effets régressifs sur les chercheurs eux-mêmes.

Nombre des problèmes conceptuels qui continuent à hanter la physique contemporaine (la question du déterminisme, ou celle de l’origine de l’univers) trouvent leur source dans la négligence des puissances de la langue et dans la désinvolture de son usage ; le montre la coexistence d’un consensus assez général sur les formalismes mathématiques et de désaccords sur leur interprétation : c’est bien que la formalisation ne suffit en rien à énoncer et maîtriser le savoir qu’elle sous-tend. Autrement dit, les équations ne parlent pas ou plutôt ne disent rien si elles ne s’insèrent pas dans un échange communicationnel nécessairement langagier qui seul peut leur donner sens.

Déjà Lavoisier, dans l’introduction de son Traité de chimie élémentaire, publié en 1789, écrivait : « Toute science est nécessairement formée de trois choses, la série des faits qui la constituent ; les idées qui les rappellent ; les mots qui les expriment. Il en résulte qu’on ne peut perfectionner le langage sans perfectionner la science, ni la science sans le langage, et que quels que certains que fussent les faits, quelles que justes que fussent les idées qu’ils auraient fait naître, ils ne transmettraient encore que des impressions fausses, si nous n’avions pas des expressions exactes pour les rendre. »

Une attitude à la fois plus respectueuse et plus critique à l’égard des mots utilisés pour rendre compte des signes et des formules est en mesure souvent d’éclairer, sinon de régler, ces problèmes épistémologiques.

À titre d’exemple, considérons le « principe d’incertitude » introduit en théorie quantique par W. Heisenberg en 1927 et qui a donné lieu à tant d’exégèses philosophiques, idéologiques, culturelles infondées. Or, près d’un siècle plus tard, il est devenu évident qu’il ne s’agit nullement d’un principe fondamental mais seulement d’une conséquence des notions quantiques de base et surtout que le terme d’ »incertitude » avec ses connotations psychologiques est totalement inapproprié. Aussi emploie-t-on désormais de plus en plus la terminologie plus sobre et plus neutre d’« inégalités de Heisenberg ».

Il ne serait pas difficile de montrer que la situation n’est guère différente dans bien d’autres domaines de la science actuelle, à commencer par la biologie et la génétique. Ainsi de la métaphore selon laquelle l’ADN est un « code génétique » qui constituerait un « grand livre de l’hérédité ».

Ajoutons que les problèmes évoqués ci-dessus sont considérablement aggravés par la domination, en tout cas dans les sciences de la nature, d’un anglais abâtardi (globish) comme lingua franca. Ce langage appauvri, dépourvu de son arrière-plan culturel et de ses connotations implicites, ne favorise évidemment pas une expression maîtrisée et une évaluation critique des néologismes qu’exige le développement scientifique.

Il est donc nécessaire de demander aux chercheurs scientifiques, mais aussi aux journalistes et médiateurs, une conscience plus aiguë de leur responsabilité linguistique et donc d’inclure cette thématique dans leur formation professionnelle.

Un remarquable apport à cette entreprise est fourni par le récent livre de l’éminent linguiste Sylvain Detey, Savons-nous vraiment parler ? Du contrat linguistique comme contrat social (Armand Colin, 2023). Bien que portant sur la question du langage en toute généralité, nombre de ses conclusions et propositions méritent d’être étudiées et méditées par quiconque est sensible aux rôles du langage dans la pratique des sciences.

Ainsi du premier chapitre, plaisamment intitulé « La communication : un handicap pour tous ? » qui met en évidence les illusions si répandues quant à l’efficacité supposée des modes de communication spontanés, dont les faiblesses, évidentes dès lors qu’il s’agit pour nous d’utiliser une langue étrangère, ne sont qu’à peine moindres dans notre langue native, où les malentendus sont d’autant plus pernicieux qu’ils sont moins perçus.

Particulièrement intéressant aussi, dans le présent contexte, est le chapitre 5, « Du monolingue au polyglotte », où Detey met en lumière les différences de perception et donc d’expression entre langues, et souligne l’intérêt d’une bonne maîtrise de langues étrangères (deux au moins affirme-t-il !) quant au développement d’une meilleure maîtrise de sa propre langue. Prendre conscience de la diversité linguistique qui se manifeste y compris dans des catégories fondamentales de la pensée permet une utile compréhension des singularités et des limites qui caractérisent nos usages langagiers les plus usuels.

Un exemple princeps est celui de la numération, où le japonais utilise des spécificateurs, c’est-à-dire des suffixes ajoutés aux noms des nombres et déterminés par la forme des objets comptés (selon qu’ils sont longs, ou plats, etc.) ou leur nature (voitures, poissons, livres, etc.), alors que les langues européennes ont des termes numéraux génériques.

On comprend dès lors, pour en revenir aux usages scientifiques de la langue, que la question est moins celle du recours à l’anglais, que celle de la qualité de cet anglais. Un exemple caricatural m’avait jadis été fourni par un ouvrage de géométrie élémentaire traduit de l’anglais, où l’énoncé d’un exercice commençait par cette phrase surprenante : « soit deux points dans un avion ». S’en était suivie une minute de sidération avant que je ne repère la confusion entre les deux sens possibles du mot « plane » en anglais (avion ou plan).

L’auteur conclut justement son livre en écrivant : « avant donc que d’écrire sur Internet, et de parler dans l’espace public, apprenons à penser, et à parler ou à écrire, en respectant la rationalité scientifique ». Je me permettrai seulement d’ajouter que ladite rationalité scientifique, en tant qu’elle est fondée dans le langage, a beaucoup à y gagner.

Formation – Sans culture linguistique, pas de culture scientifique

Formation – Sans culture linguistique, pas de culture scientifique

Par
Jean-Marc Lévy-Leblond
Physicien, épistémologue, essayiste. Professeur de l’université de Nice, Université Côte d’Azur

Dans un récent manifeste, un collectif de personnalités en appelle au ministre de l’Éducation nationale pour développer à l’école « une véritable culture de la lecture et de l’écriture ». Parmi les signataires, des écrivains et écrivaines, des journalistes, des artistes. Mais pas de scientifiques, comme s’ils n’avaient ni compétence ni intérêt pour le langage et ses mots.

Cette dépréciation du rôle de la langue dans le travail de la science est banale. Même un sémiologue aussi averti que Roland Barthes écrivait :

« Pour la science, le langage n’est qu’un instrument, que l’on a intérêt à rendre aussi transparent, aussi neutre que possible, assujetti à la matière scientifique (opérations, hypothèses, résultats) qui, dit-on, existe en dehors de lui et le précède : il y a d’un côté et d’abord les contenus du message scientifique, qui sont tout, d’un autre côté et ensuite la forme verbale chargée d’exprimer ces contenus, qui n’est rien. »

Et le physicien que je suis se souvient avec un mélange d’hilarité et de consternation d’une scène d’un film de Hitchcock (pas l’un de ses meilleurs !), Le Rideau déchiré (1966), où deux savants s’affrontent devant un tableau noir, écrivant et effaçant tour à tour des formules cabalistiques, sans échanger aucun mot ou presque, topos que l’on retrouve dans le récent Oppenheimer.

Mais la science, à l’inverse de l’armée, n’a pas vocation à être une « grande muette », tant la production du savoir, y compris dans les sciences les plus formalisées, comme les mathématiques ou la physique, que son partage, par l’enseignement ou la médiation, à l’oral comme à l’écrit, ne peuvent se passer du recours à la langue.

Certains, reconnaissant cette nécessité, avancent qu’il s’agirait pour faciliter l’apprentissage des sciences, de développer celui d’un prétendu « langage scientifique ». Mais celui-ci n’existe tout simplement pas, et il s’agit bien ici de la langue commune, celle qui se pratique dans tout échange social. Car l’existence de terminologies spécialisées dans les diverses disciplines scientifiques, comme dans toute activité humaine, aussi bien en couture et en cuisine qu’en météorologie et en chimie, ne saurait occulter l’emploi obligatoire des règles syntaxiques et des classes grammaticales usuelles qui fondent une langue.

Reste que la science contemporaine manifeste une grande désinvolture dans le choix de son vocabulaire propre. Bien souvent, les termes qu’elle emploie et qu’elle diffuse relèvent plus de stratégies médiatiques, voire d’enjeux publicitaires, que d’un souci d’adéquation sémantique. Ainsi, des expressions comme trou noir, big bang, supercordes, énergie sombre, pour s’en tenir au registre de la cosmologie, aussi fascinantes soient-elles, ne rendent aucunement justice aux objets et phénomènes qu’elles concernent.

De fait, un « trou noir » n’est pas vide, ni vraiment noir, le « big bang » n’est pas une explosion instantanée et ne fait pas de bruit, etc. De telles expressions sont conçues par les scientifiques eux-mêmes pour séduire les profanes, mais les trompent au lieu de les éclairer.

Une bonne vulgarisation est nécessairement exigeante et ne peut faire l’impasse sur la difficulté et la spécificité des concepts scientifiques. Comme le disait déjà Euclide, « il n’y a pas de voie royale » pour accéder à la science. Le paradoxe est que ces facilités de langage finissent par avoir des effets régressifs sur les chercheurs eux-mêmes.

Nombre des problèmes conceptuels qui continuent à hanter la physique contemporaine (la question du déterminisme, ou celle de l’origine de l’univers) trouvent leur source dans la négligence des puissances de la langue et dans la désinvolture de son usage ; le montre la coexistence d’un consensus assez général sur les formalismes mathématiques et de désaccords sur leur interprétation : c’est bien que la formalisation ne suffit en rien à énoncer et maîtriser le savoir qu’elle sous-tend. Autrement dit, les équations ne parlent pas ou plutôt ne disent rien si elles ne s’insèrent pas dans un échange communicationnel nécessairement langagier qui seul peut leur donner sens.

Déjà Lavoisier, dans l’introduction de son Traité de chimie élémentaire, publié en 1789, écrivait : « Toute science est nécessairement formée de trois choses, la série des faits qui la constituent ; les idées qui les rappellent ; les mots qui les expriment. Il en résulte qu’on ne peut perfectionner le langage sans perfectionner la science, ni la science sans le langage, et que quels que certains que fussent les faits, quelles que justes que fussent les idées qu’ils auraient fait naître, ils ne transmettraient encore que des impressions fausses, si nous n’avions pas des expressions exactes pour les rendre. »

Une attitude à la fois plus respectueuse et plus critique à l’égard des mots utilisés pour rendre compte des signes et des formules est en mesure souvent d’éclairer, sinon de régler, ces problèmes épistémologiques.

À titre d’exemple, considérons le « principe d’incertitude » introduit en théorie quantique par W. Heisenberg en 1927 et qui a donné lieu à tant d’exégèses philosophiques, idéologiques, culturelles infondées. Or, près d’un siècle plus tard, il est devenu évident qu’il ne s’agit nullement d’un principe fondamental mais seulement d’une conséquence des notions quantiques de base et surtout que le terme d’ »incertitude » avec ses connotations psychologiques est totalement inapproprié. Aussi emploie-t-on désormais de plus en plus la terminologie plus sobre et plus neutre d’« inégalités de Heisenberg ».

Il ne serait pas difficile de montrer que la situation n’est guère différente dans bien d’autres domaines de la science actuelle, à commencer par la biologie et la génétique. Ainsi de la métaphore selon laquelle l’ADN est un « code génétique » qui constituerait un « grand livre de l’hérédité ».

Ajoutons que les problèmes évoqués ci-dessus sont considérablement aggravés par la domination, en tout cas dans les sciences de la nature, d’un anglais abâtardi (globish) comme lingua franca. Ce langage appauvri, dépourvu de son arrière-plan culturel et de ses connotations implicites, ne favorise évidemment pas une expression maîtrisée et une évaluation critique des néologismes qu’exige le développement scientifique.

Il est donc nécessaire de demander aux chercheurs scientifiques, mais aussi aux journalistes et médiateurs, une conscience plus aiguë de leur responsabilité linguistique et donc d’inclure cette thématique dans leur formation professionnelle.

Un remarquable apport à cette entreprise est fourni par le récent livre de l’éminent linguiste Sylvain Detey, Savons-nous vraiment parler ? Du contrat linguistique comme contrat social (Armand Colin, 2023). Bien que portant sur la question du langage en toute généralité, nombre de ses conclusions et propositions méritent d’être étudiées et méditées par quiconque est sensible aux rôles du langage dans la pratique des sciences.

Ainsi du premier chapitre, plaisamment intitulé « La communication : un handicap pour tous ? » qui met en évidence les illusions si répandues quant à l’efficacité supposée des modes de communication spontanés, dont les faiblesses, évidentes dès lors qu’il s’agit pour nous d’utiliser une langue étrangère, ne sont qu’à peine moindres dans notre langue native, où les malentendus sont d’autant plus pernicieux qu’ils sont moins perçus.

Particulièrement intéressant aussi, dans le présent contexte, est le chapitre 5, « Du monolingue au polyglotte », où Detey met en lumière les différences de perception et donc d’expression entre langues, et souligne l’intérêt d’une bonne maîtrise de langues étrangères (deux au moins affirme-t-il !) quant au développement d’une meilleure maîtrise de sa propre langue. Prendre conscience de la diversité linguistique qui se manifeste y compris dans des catégories fondamentales de la pensée permet une utile compréhension des singularités et des limites qui caractérisent nos usages langagiers les plus usuels.

Un exemple princeps est celui de la numération, où le japonais utilise des spécificateurs, c’est-à-dire des suffixes ajoutés aux noms des nombres et déterminés par la forme des objets comptés (selon qu’ils sont longs, ou plats, etc.) ou leur nature (voitures, poissons, livres, etc.), alors que les langues européennes ont des termes numéraux génériques.

On comprend dès lors, pour en revenir aux usages scientifiques de la langue, que la question est moins celle du recours à l’anglais, que celle de la qualité de cet anglais. Un exemple caricatural m’avait jadis été fourni par un ouvrage de géométrie élémentaire traduit de l’anglais, où l’énoncé d’un exercice commençait par cette phrase surprenante : « soit deux points dans un avion ». S’en était suivie une minute de sidération avant que je ne repère la confusion entre les deux sens possibles du mot « plane » en anglais (avion ou plan).

L’auteur conclut justement son livre en écrivant : « avant donc que d’écrire sur Internet, et de parler dans l’espace public, apprenons à penser, et à parler ou à écrire, en respectant la rationalité scientifique ». Je me permettrai seulement d’ajouter que ladite rationalité scientifique, en tant qu’elle est fondée dans le langage, a beaucoup à y gagner.

Société- Sans culture linguistique, pas de culture scientifique

Société- Sans culture linguistique, pas de culture scientifique

Par
Jean-Marc Lévy-Leblond
Physicien, épistémologue, essayiste. Professeur de l’université de Nice, Université Côte d’Azur

Dans un récent manifeste, un collectif de personnalités en appelle au ministre de l’Éducation nationale pour développer à l’école « une véritable culture de la lecture et de l’écriture ». Parmi les signataires, des écrivains et écrivaines, des journalistes, des artistes. Mais pas de scientifiques, comme s’ils n’avaient ni compétence ni intérêt pour le langage et ses mots.

Cette dépréciation du rôle de la langue dans le travail de la science est banale. Même un sémiologue aussi averti que Roland Barthes écrivait :

« Pour la science, le langage n’est qu’un instrument, que l’on a intérêt à rendre aussi transparent, aussi neutre que possible, assujetti à la matière scientifique (opérations, hypothèses, résultats) qui, dit-on, existe en dehors de lui et le précède : il y a d’un côté et d’abord les contenus du message scientifique, qui sont tout, d’un autre côté et ensuite la forme verbale chargée d’exprimer ces contenus, qui n’est rien. »

Et le physicien que je suis se souvient avec un mélange d’hilarité et de consternation d’une scène d’un film de Hitchcock (pas l’un de ses meilleurs !), Le Rideau déchiré (1966), où deux savants s’affrontent devant un tableau noir, écrivant et effaçant tour à tour des formules cabalistiques, sans échanger aucun mot ou presque, topos que l’on retrouve dans le récent Oppenheimer.

Mais la science, à l’inverse de l’armée, n’a pas vocation à être une « grande muette », tant la production du savoir, y compris dans les sciences les plus formalisées, comme les mathématiques ou la physique, que son partage, par l’enseignement ou la médiation, à l’oral comme à l’écrit, ne peuvent se passer du recours à la langue.

Certains, reconnaissant cette nécessité, avancent qu’il s’agirait pour faciliter l’apprentissage des sciences, de développer celui d’un prétendu « langage scientifique ». Mais celui-ci n’existe tout simplement pas, et il s’agit bien ici de la langue commune, celle qui se pratique dans tout échange social. Car l’existence de terminologies spécialisées dans les diverses disciplines scientifiques, comme dans toute activité humaine, aussi bien en couture et en cuisine qu’en météorologie et en chimie, ne saurait occulter l’emploi obligatoire des règles syntaxiques et des classes grammaticales usuelles qui fondent une langue.

Reste que la science contemporaine manifeste une grande désinvolture dans le choix de son vocabulaire propre. Bien souvent, les termes qu’elle emploie et qu’elle diffuse relèvent plus de stratégies médiatiques, voire d’enjeux publicitaires, que d’un souci d’adéquation sémantique. Ainsi, des expressions comme trou noir, big bang, supercordes, énergie sombre, pour s’en tenir au registre de la cosmologie, aussi fascinantes soient-elles, ne rendent aucunement justice aux objets et phénomènes qu’elles concernent.

De fait, un « trou noir » n’est pas vide, ni vraiment noir, le « big bang » n’est pas une explosion instantanée et ne fait pas de bruit, etc. De telles expressions sont conçues par les scientifiques eux-mêmes pour séduire les profanes, mais les trompent au lieu de les éclairer.

Une bonne vulgarisation est nécessairement exigeante et ne peut faire l’impasse sur la difficulté et la spécificité des concepts scientifiques. Comme le disait déjà Euclide, « il n’y a pas de voie royale » pour accéder à la science. Le paradoxe est que ces facilités de langage finissent par avoir des effets régressifs sur les chercheurs eux-mêmes.

Nombre des problèmes conceptuels qui continuent à hanter la physique contemporaine (la question du déterminisme, ou celle de l’origine de l’univers) trouvent leur source dans la négligence des puissances de la langue et dans la désinvolture de son usage ; le montre la coexistence d’un consensus assez général sur les formalismes mathématiques et de désaccords sur leur interprétation : c’est bien que la formalisation ne suffit en rien à énoncer et maîtriser le savoir qu’elle sous-tend. Autrement dit, les équations ne parlent pas ou plutôt ne disent rien si elles ne s’insèrent pas dans un échange communicationnel nécessairement langagier qui seul peut leur donner sens.

Déjà Lavoisier, dans l’introduction de son Traité de chimie élémentaire, publié en 1789, écrivait : « Toute science est nécessairement formée de trois choses, la série des faits qui la constituent ; les idées qui les rappellent ; les mots qui les expriment. Il en résulte qu’on ne peut perfectionner le langage sans perfectionner la science, ni la science sans le langage, et que quels que certains que fussent les faits, quelles que justes que fussent les idées qu’ils auraient fait naître, ils ne transmettraient encore que des impressions fausses, si nous n’avions pas des expressions exactes pour les rendre. »

Une attitude à la fois plus respectueuse et plus critique à l’égard des mots utilisés pour rendre compte des signes et des formules est en mesure souvent d’éclairer, sinon de régler, ces problèmes épistémologiques.

À titre d’exemple, considérons le « principe d’incertitude » introduit en théorie quantique par W. Heisenberg en 1927 et qui a donné lieu à tant d’exégèses philosophiques, idéologiques, culturelles infondées. Or, près d’un siècle plus tard, il est devenu évident qu’il ne s’agit nullement d’un principe fondamental mais seulement d’une conséquence des notions quantiques de base et surtout que le terme d’ »incertitude » avec ses connotations psychologiques est totalement inapproprié. Aussi emploie-t-on désormais de plus en plus la terminologie plus sobre et plus neutre d’« inégalités de Heisenberg ».

Il ne serait pas difficile de montrer que la situation n’est guère différente dans bien d’autres domaines de la science actuelle, à commencer par la biologie et la génétique. Ainsi de la métaphore selon laquelle l’ADN est un « code génétique » qui constituerait un « grand livre de l’hérédité ».

Ajoutons que les problèmes évoqués ci-dessus sont considérablement aggravés par la domination, en tout cas dans les sciences de la nature, d’un anglais abâtardi (globish) comme lingua franca. Ce langage appauvri, dépourvu de son arrière-plan culturel et de ses connotations implicites, ne favorise évidemment pas une expression maîtrisée et une évaluation critique des néologismes qu’exige le développement scientifique.

Il est donc nécessaire de demander aux chercheurs scientifiques, mais aussi aux journalistes et médiateurs, une conscience plus aiguë de leur responsabilité linguistique et donc d’inclure cette thématique dans leur formation professionnelle.

Un remarquable apport à cette entreprise est fourni par le récent livre de l’éminent linguiste Sylvain Detey, Savons-nous vraiment parler ? Du contrat linguistique comme contrat social (Armand Colin, 2023). Bien que portant sur la question du langage en toute généralité, nombre de ses conclusions et propositions méritent d’être étudiées et méditées par quiconque est sensible aux rôles du langage dans la pratique des sciences.

Ainsi du premier chapitre, plaisamment intitulé « La communication : un handicap pour tous ? » qui met en évidence les illusions si répandues quant à l’efficacité supposée des modes de communication spontanés, dont les faiblesses, évidentes dès lors qu’il s’agit pour nous d’utiliser une langue étrangère, ne sont qu’à peine moindres dans notre langue native, où les malentendus sont d’autant plus pernicieux qu’ils sont moins perçus.

Particulièrement intéressant aussi, dans le présent contexte, est le chapitre 5, « Du monolingue au polyglotte », où Detey met en lumière les différences de perception et donc d’expression entre langues, et souligne l’intérêt d’une bonne maîtrise de langues étrangères (deux au moins affirme-t-il !) quant au développement d’une meilleure maîtrise de sa propre langue. Prendre conscience de la diversité linguistique qui se manifeste y compris dans des catégories fondamentales de la pensée permet une utile compréhension des singularités et des limites qui caractérisent nos usages langagiers les plus usuels.

Un exemple princeps est celui de la numération, où le japonais utilise des spécificateurs, c’est-à-dire des suffixes ajoutés aux noms des nombres et déterminés par la forme des objets comptés (selon qu’ils sont longs, ou plats, etc.) ou leur nature (voitures, poissons, livres, etc.), alors que les langues européennes ont des termes numéraux génériques.

On comprend dès lors, pour en revenir aux usages scientifiques de la langue, que la question est moins celle du recours à l’anglais, que celle de la qualité de cet anglais. Un exemple caricatural m’avait jadis été fourni par un ouvrage de géométrie élémentaire traduit de l’anglais, où l’énoncé d’un exercice commençait par cette phrase surprenante : « soit deux points dans un avion ». S’en était suivie une minute de sidération avant que je ne repère la confusion entre les deux sens possibles du mot « plane » en anglais (avion ou plan).

L’auteur conclut justement son livre en écrivant : « avant donc que d’écrire sur Internet, et de parler dans l’espace public, apprenons à penser, et à parler ou à écrire, en respectant la rationalité scientifique ». Je me permettrai seulement d’ajouter que ladite rationalité scientifique, en tant qu’elle est fondée dans le langage, a beaucoup à y gagner.

Enseignement- Sans culture linguistique, pas de culture scientifique

Enseignement- Sans culture linguistique, pas de culture scientifique

Par
Jean-Marc Lévy-Leblond
Physicien, épistémologue, essayiste. Professeur de l’université de Nice, Université Côte d’Azur

Dans un récent manifeste, un collectif de personnalités en appelle au ministre de l’Éducation nationale pour développer à l’école « une véritable culture de la lecture et de l’écriture ». Parmi les signataires, des écrivains et écrivaines, des journalistes, des artistes. Mais pas de scientifiques, comme s’ils n’avaient ni compétence ni intérêt pour le langage et ses mots.

Cette dépréciation du rôle de la langue dans le travail de la science est banale. Même un sémiologue aussi averti que Roland Barthes écrivait :

« Pour la science, le langage n’est qu’un instrument, que l’on a intérêt à rendre aussi transparent, aussi neutre que possible, assujetti à la matière scientifique (opérations, hypothèses, résultats) qui, dit-on, existe en dehors de lui et le précède : il y a d’un côté et d’abord les contenus du message scientifique, qui sont tout, d’un autre côté et ensuite la forme verbale chargée d’exprimer ces contenus, qui n’est rien. »

Et le physicien que je suis se souvient avec un mélange d’hilarité et de consternation d’une scène d’un film de Hitchcock (pas l’un de ses meilleurs !), Le Rideau déchiré (1966), où deux savants s’affrontent devant un tableau noir, écrivant et effaçant tour à tour des formules cabalistiques, sans échanger aucun mot ou presque, topos que l’on retrouve dans le récent Oppenheimer.

Mais la science, à l’inverse de l’armée, n’a pas vocation à être une « grande muette », tant la production du savoir, y compris dans les sciences les plus formalisées, comme les mathématiques ou la physique, que son partage, par l’enseignement ou la médiation, à l’oral comme à l’écrit, ne peuvent se passer du recours à la langue.

Certains, reconnaissant cette nécessité, avancent qu’il s’agirait pour faciliter l’apprentissage des sciences, de développer celui d’un prétendu « langage scientifique ». Mais celui-ci n’existe tout simplement pas, et il s’agit bien ici de la langue commune, celle qui se pratique dans tout échange social. Car l’existence de terminologies spécialisées dans les diverses disciplines scientifiques, comme dans toute activité humaine, aussi bien en couture et en cuisine qu’en météorologie et en chimie, ne saurait occulter l’emploi obligatoire des règles syntaxiques et des classes grammaticales usuelles qui fondent une langue.

Reste que la science contemporaine manifeste une grande désinvolture dans le choix de son vocabulaire propre. Bien souvent, les termes qu’elle emploie et qu’elle diffuse relèvent plus de stratégies médiatiques, voire d’enjeux publicitaires, que d’un souci d’adéquation sémantique. Ainsi, des expressions comme trou noir, big bang, supercordes, énergie sombre, pour s’en tenir au registre de la cosmologie, aussi fascinantes soient-elles, ne rendent aucunement justice aux objets et phénomènes qu’elles concernent.

De fait, un « trou noir » n’est pas vide, ni vraiment noir, le « big bang » n’est pas une explosion instantanée et ne fait pas de bruit, etc. De telles expressions sont conçues par les scientifiques eux-mêmes pour séduire les profanes, mais les trompent au lieu de les éclairer.

Une bonne vulgarisation est nécessairement exigeante et ne peut faire l’impasse sur la difficulté et la spécificité des concepts scientifiques. Comme le disait déjà Euclide, « il n’y a pas de voie royale » pour accéder à la science. Le paradoxe est que ces facilités de langage finissent par avoir des effets régressifs sur les chercheurs eux-mêmes.

Nombre des problèmes conceptuels qui continuent à hanter la physique contemporaine (la question du déterminisme, ou celle de l’origine de l’univers) trouvent leur source dans la négligence des puissances de la langue et dans la désinvolture de son usage ; le montre la coexistence d’un consensus assez général sur les formalismes mathématiques et de désaccords sur leur interprétation : c’est bien que la formalisation ne suffit en rien à énoncer et maîtriser le savoir qu’elle sous-tend. Autrement dit, les équations ne parlent pas ou plutôt ne disent rien si elles ne s’insèrent pas dans un échange communicationnel nécessairement langagier qui seul peut leur donner sens.

Déjà Lavoisier, dans l’introduction de son Traité de chimie élémentaire, publié en 1789, écrivait : « Toute science est nécessairement formée de trois choses, la série des faits qui la constituent ; les idées qui les rappellent ; les mots qui les expriment. Il en résulte qu’on ne peut perfectionner le langage sans perfectionner la science, ni la science sans le langage, et que quels que certains que fussent les faits, quelles que justes que fussent les idées qu’ils auraient fait naître, ils ne transmettraient encore que des impressions fausses, si nous n’avions pas des expressions exactes pour les rendre. »

Une attitude à la fois plus respectueuse et plus critique à l’égard des mots utilisés pour rendre compte des signes et des formules est en mesure souvent d’éclairer, sinon de régler, ces problèmes épistémologiques.

À titre d’exemple, considérons le « principe d’incertitude » introduit en théorie quantique par W. Heisenberg en 1927 et qui a donné lieu à tant d’exégèses philosophiques, idéologiques, culturelles infondées. Or, près d’un siècle plus tard, il est devenu évident qu’il ne s’agit nullement d’un principe fondamental mais seulement d’une conséquence des notions quantiques de base et surtout que le terme d’ »incertitude » avec ses connotations psychologiques est totalement inapproprié. Aussi emploie-t-on désormais de plus en plus la terminologie plus sobre et plus neutre d’« inégalités de Heisenberg ».

Il ne serait pas difficile de montrer que la situation n’est guère différente dans bien d’autres domaines de la science actuelle, à commencer par la biologie et la génétique. Ainsi de la métaphore selon laquelle l’ADN est un « code génétique » qui constituerait un « grand livre de l’hérédité ».

Ajoutons que les problèmes évoqués ci-dessus sont considérablement aggravés par la domination, en tout cas dans les sciences de la nature, d’un anglais abâtardi (globish) comme lingua franca. Ce langage appauvri, dépourvu de son arrière-plan culturel et de ses connotations implicites, ne favorise évidemment pas une expression maîtrisée et une évaluation critique des néologismes qu’exige le développement scientifique.

Il est donc nécessaire de demander aux chercheurs scientifiques, mais aussi aux journalistes et médiateurs, une conscience plus aiguë de leur responsabilité linguistique et donc d’inclure cette thématique dans leur formation professionnelle.

Un remarquable apport à cette entreprise est fourni par le récent livre de l’éminent linguiste Sylvain Detey, Savons-nous vraiment parler ? Du contrat linguistique comme contrat social (Armand Colin, 2023). Bien que portant sur la question du langage en toute généralité, nombre de ses conclusions et propositions méritent d’être étudiées et méditées par quiconque est sensible aux rôles du langage dans la pratique des sciences.

Ainsi du premier chapitre, plaisamment intitulé « La communication : un handicap pour tous ? » qui met en évidence les illusions si répandues quant à l’efficacité supposée des modes de communication spontanés, dont les faiblesses, évidentes dès lors qu’il s’agit pour nous d’utiliser une langue étrangère, ne sont qu’à peine moindres dans notre langue native, où les malentendus sont d’autant plus pernicieux qu’ils sont moins perçus.

Particulièrement intéressant aussi, dans le présent contexte, est le chapitre 5, « Du monolingue au polyglotte », où Detey met en lumière les différences de perception et donc d’expression entre langues, et souligne l’intérêt d’une bonne maîtrise de langues étrangères (deux au moins affirme-t-il !) quant au développement d’une meilleure maîtrise de sa propre langue. Prendre conscience de la diversité linguistique qui se manifeste y compris dans des catégories fondamentales de la pensée permet une utile compréhension des singularités et des limites qui caractérisent nos usages langagiers les plus usuels.

Un exemple princeps est celui de la numération, où le japonais utilise des spécificateurs, c’est-à-dire des suffixes ajoutés aux noms des nombres et déterminés par la forme des objets comptés (selon qu’ils sont longs, ou plats, etc.) ou leur nature (voitures, poissons, livres, etc.), alors que les langues européennes ont des termes numéraux génériques.

On comprend dès lors, pour en revenir aux usages scientifiques de la langue, que la question est moins celle du recours à l’anglais, que celle de la qualité de cet anglais. Un exemple caricatural m’avait jadis été fourni par un ouvrage de géométrie élémentaire traduit de l’anglais, où l’énoncé d’un exercice commençait par cette phrase surprenante : « soit deux points dans un avion ». S’en était suivie une minute de sidération avant que je ne repère la confusion entre les deux sens possibles du mot « plane » en anglais (avion ou plan).

L’auteur conclut justement son livre en écrivant : « avant donc que d’écrire sur Internet, et de parler dans l’espace public, apprenons à penser, et à parler ou à écrire, en respectant la rationalité scientifique ». Je me permettrai seulement d’ajouter que ladite rationalité scientifique, en tant qu’elle est fondée dans le langage, a beaucoup à y gagner.

Quel système pertinent de publication scientifique

Quel système pertinent de publication scientifique

Le système de publication scientifique est sous tension : l’accès aux publications doit être libre et gratuit, mais publier a un coût. Historiquement, ce coût revenait aux lecteurs. Désormais, il incombe souvent aux auteurs, permettant un accès gratuit aux lecteurs, avec en 2019 31 % de tous les articles scientifiques publiés qui étaient accessibles à tous. La note, souvent réglée avec de l’argent public, peut atteindre plus de 10 000 euros par article. Ce marché juteux, avec des marges bénéficiaires pouvant atteindre 40 %, a conduit nombre de scientifiques à ne plus accepter que des maisons d’édition profitent d’un travail intellectuel qu’elles ne financent et ne rémunèrent pas.

par
François Massol
Directeur de recherche en écologie, Université de Lille dans The Conversation

Simultanément, le système d’évaluation conventionnel des scientifiques, fondé notamment sur le nombre de publications en général et dans des périodiques à haut facteur d’impact (IF, correspondant au nombre moyen annuel de citations des articles d’un périodique parus les deux années précédentes) en particulier, est remis en question depuis la Déclaration sur l’évaluation de la recherche de San Francisco (DORA). DORA est une déclaration collective internationale, initialement élaborée lors d’une réunion annuelle de la Société américaine de biologie cellulaire en 2012, et qui a été progressivement ratifiée par nombre d’universités et d’organismes de recherche, par exemple en France le CNRS et le CEA.

La collision de ces deux changements débouche sur de nouveaux questionnements :

Quels impacts ces transformations ont-elles sur la qualité de la science ?

Des analyses de qualité et sans publicité, chaque jour dans vos mails.
Peut-on raisonner l’usage fait de l’argent public dans la publication académique ?

La transition actuelle du système lecteur-payeur vers le système auteur-payeur s’est accompagnée de l’émergence de maisons d’édition scientifique qualifiées « de prédatrices ». Développant des démarches commerciales agressives, notamment via quantité de numéros spéciaux, leur objectif principal étant de « faire du profit » en imposant des coûts de publication démesurés (article-processing charges ou APC), et non de promouvoir une science de qualité.

En effet, le processus d’évaluation des articles y est souvent médiocre (brefs délais d’évaluation, évaluateurs peu compétents), parfois inexistant, conduisant à une pollution massive de la littérature par des résultats mal, voire pas vérifiés. En 2015, déjà un cinquième de la production scientifique mondiale paraissait dans des maisons d’édition prédatrices.

Un effet secondaire est l’érosion de la confiance des scientifiques dans le processus d’évaluation par les pairs, pourtant robuste et éprouvé depuis plus d’un siècle.

À la racine du problème, un cercle vicieux : les chercheurs sont engagés dans une course frénétique à la publication et les évaluateurs disponibles, non rémunérés pour ce travail d’évaluation et devant eux-mêmes publier, deviennent une ressource limitante.

Quand des périodiques traditionnels s’échinent à dénicher des évaluateurs compétents et disponibles, les prédateurs se contentent d’évaluateurs peu compétents qui, contre des rabais sur des APC futurs, écriront de brefs rapports justifiant d’accepter au plus vite un article. Couper le robinet des évaluateurs et refuser d’y soumettre ses travaux, soit par décision personnelle, soit collectivement, permettrait de contrer l’émergence et le développement de ces maisons d’édition prédatrices.

Mais la volonté d’aller dans ce sens est-elle là ? Reconnaître les travers de ce système prédateur est nécessairement lent, en particulier lorsqu’on y a largement contribué.

Il est difficile de définir le caractère prédateur d’un éditeur et certaines revues vont donc se situer dans une zone grise, à la limite de la prédation. De plus, si l’objectif des revues prédatrices est avant tout le profit, le montant des APC n’est pas une condition suffisante pour qualifier un périodique de prédateur – les APC de revues liées à des sociétés savantes (à but non lucratif) sont parfois élevés, mais tout ou partie de ces APC leur sert à développer leur mission dont l’utilité sociale est avérée.

Couper les ailes de l’édition prédatrice passe aussi par une évaluation différente de l’activité des scientifiques, en s’écartant d’une évaluation actuellement trop quantitative, car largement fondée sur le nombre d’articles et sur l’IF des revues (une métrique mesurant leur audience et non leur qualité).

DORA et l’appel de Paris vont dans ce sens en proposant la fin de l’utilisation de l’IF, mais aussi du nombre de publications, comme métriques centrales de l’évaluation. Ainsi, des institutions françaises, dont le CNRS, INRAE, l’ANR et l’Hcéres, demandent non pas la liste exhaustive des productions, mais une sélection que la personne évaluée souhaite mettre en avant, avec une explication détaillant les qualités, la signification et la portée de cette sélection dans son projet. Ce changement d’évaluation, simple à mettre en œuvre, permet de limiter une course aux publications faciles et coûteuses. Ces initiatives de réforme du système d’évaluation académique fleurissent dans d’autres pays, par exemple aux Pays-Bas et au Canada, ou encore au niveau européen avec la coalition CoARA.

Bien entendu, il est peu probable que les chercheurs évaluateurs des dossiers ou des projets de collègues jettent les indicateurs aux orties, IF ou autres, surtout quand l’évaluation, qui prend un temps considérable lorsqu’elle est menée sérieusement, est si mal valorisée en tant qu’activité dans l’évaluation des chercheurs. Mais combiner évaluation quantitative et qualitative à d’autres critères tels le prix des APC, les profits et leurs usages, la durabilité numérique, la transparence des évaluations ou la reproductibilité des résultats publiés, est souhaitable.

Les comités d’évaluation des chercheurs, par exemple au niveau national le Conseil national des universités et au Comité national de la recherche scientifique, doivent se saisir de ces nouveaux critères, les expliciter et les rendre publics. Il serait aussi souhaitable qu’ils statuent sur les maisons d’édition prédatrices ou semi-prédatrices, ou à la manière de la conférence des Doyens des facultés de médecine, sur les maisons d’édition non prédatrices.

Ils doivent se saisir au plus vite de la question de l’articulation entre modèles de publication et évaluation des chercheurs, pour ne pas se faire devancer par les maisons d’édition susceptibles de proposer elles-mêmes des outils d’évaluation ou de faire changer les règles du jeu.

Dans le contexte actuel de pénurie d’évaluateurs, les périodiques à IF élevé et coûteux jouent sur le prestige supposé d’être évaluateur. Un levier permettant d’attaquer cette situation serait l’assurance que les « lignes de CV » concernant l’évaluation des manuscrits ne soient pas appréciées à l’aune du prestige de périodique coûteux par les comités d’évaluation de l’activité des chercheurs. De cette manière, un scientifique aurait a priori autant intérêt à évaluer pour tout périodique qu’il estime de qualité, et non pas prioritairement pour le peloton de tête de l’IF.

Ainsi, on tarirait l’offre en évaluateurs pour ces périodiques ; ces évaluateurs seraient alors plus disponibles pour des périodiques aussi sérieux, mais moins onéreux. De plus, un processus d’évaluation transparent (c’est-à-dire public) permettrait la valorisation des évaluations, et aux comités de jauger qualitativement l’implication des scientifiques dans ce processus.

Contre la monétarisation de la publication scientifique, il faut séparer l’impératif de l’accès libre et le système de publications en accès libre avec APC obligatoires : les scientifiques doivent rendre leurs publications accessibles, mais sans payer pour cela. L’utilisation de plates-formes de textes non évalués pour rendre accessibles les travaux est une option possible. Cela permettrait de piéger les éditeurs prédateurs au jeu de leur argument de choc (« rendre accessible une publication sans restriction »). Reste alors à imaginer des modèles alternatifs, tel que Peer Community In, proposant un système d’évaluation transparent, exigeant et gratuit à partir d’articles déposés sur des serveurs en accès libre.

Nos actions, via le choix d’un support de publication ou de notre modèle d’évaluation, s’inscrivent dans un contexte politique national et européen parfois contradictoire : certains établissements suggèrent aux chercheurs d’éviter les APC tout en prônant l’accès libre à toutes les publications sortant de leurs laboratoires. D’autres initiatives, comme la création de Open Research Europe par l’Union européenne, révèlent en creux le poids de certains lobbys puisque les projets européens pourront de ce fait publier en accès libre tous leurs résultats dans des périodiques ad hoc et financés par l’UE. L’injonction à une « science ouverte » devrait plutôt encourager à l’utilisation des plates-formes de textes non évalués. Elle ne doit pas être un argument pour justifier la publication dans des revues avec APC, souvent prédatrices. Autrement dit : ne sacrifions pas la qualité sur l’autel de l’accès libre, et les plates-formes de textes non évalués sont là pour ça.

À nous, chercheurs, de retourner le jugement d’Yves Gingras pour démontrer que nous sommes capables d’actions collectives. Avec quelques règles, de la pédagogie et un système de valorisation pluriel de la qualité des périodiques scientifiques, nous pouvons endiguer le phénomène des maisons prédatrices.

_Auteurs associés à cet article : Loïc Bollache (Université de Bourgogne), Denis Bourguet (INRAE), Antoine Branca (Université Paris-Saclay), Christopher Carcaillet (EPHE-PSL), Julie Crabot (Université Clermont-Auvergne), El Aziz Djoudi (Brandenburgische Technische Universität), Elisabeth Gross (Université de Lorraine), Philippe Jarne (CNRS & Université de Montpellier), Béatrice Lauga (Université de Pau et des Pays de l’Adour), Joël Meunier (CNRS & Université de Tours), Jérôme Moreau (Université de Bourgogne), Mathieu Sicard (Université de Montpellier), Julien Varaldi (Université Claude Bernard-Lyon 1) _

Société et santé-Le Conseil scientifique: trop liberticide ?

Société et santé-Le Conseil scientifique: trop liberticide ?


 

Un curieux papier du Figaro met en cause le caractère liberticide des orientations du conseil scientifique. Un conseil qu’on vient de remplacer par un autre car un peu trop gênant pour le pouvoir. Le papier du Figaro considère à juste titre bien sûr que le conseil scientifique n’avait pas de légitimité démocratique. Reste qu’une plus grande discipline en matière de précaution sanitaire ne porte pas forcément atteinte aux libertés fondamentales mais sert plutôt la solidarité face au danger collectif  de la maladie. La conception des libertés frôle parfois un certain concept d’anarchie en France.

Papier du Figaro:

C’est donc la fin d’un organisme qui aura joué un rôle décisif tout le long de la crise sanitaire, et il n’est pas inutile d’en tirer un premier bilan.

Peuplé de gens brillants et de nos meilleurs scientifiques, le Conseil scientifique aura été, malgré tous les talents qui le composent, l’un des principaux artisans de la débâcle démocratique de la crise sanitaire. Et s’il y a une leçon que l’on peut tirer de ce fiasco, c’est que la science ne doit jamais se substituer au politique et que la décision politique ne peut pas résulter de la simple expertise scientifique – au risque d’abîmer profondément notre démocratiLe Conseil scientifique a dirigé la France pendant presque deux ans. Les confinements, couvre feu, masques obligatoires et pass ont tous été recommandés par le Conseil scientifique avant d’être imposés par le pouvoir politique, qui a donc suivi aveuglément les avis de Jean-Francois Delfraissy et ses collègues. Les avis du Conseil scientifique fonctionnaient toujours ainsi: une analyse précise et rigoureuse de la situation sanitaire, puis une série de recommandations alternatives allant de la plus «légère» à la plus dure. Mais le Conseil scientifique ne se contentait pas d’exposer les mesures de précaution possibles: il exprimait également une préférence. Et systématiquement, il exprimait sa préférence pour la recommandation la plus dure et la plus liberticide. Et quasi systématiquement, le gouvernement suivait cette recommandation à la lettre – à l’exception de janvier 2021, quand Emmanuel Macron décide de ne pas reconfiner le pays contre l’avis du Conseil (mais il y a encore, à cette époque, un couvre-feu !).

Pour renforcer leur influence, certains membres du Conseil scientifique arpentaient les plateaux télé pour assurer le service après-vente de leurs recommandations. Et aux paroles anxiogènes s’est ajouté l’ethos de scientifiques et médecins qui se sont mis ) indiqué les règles qu’il fallait suivre dans sa vie familiale et sa vie privée, précisant de quelle manière il fallait voir ses amis, faire la fête, manger – et même… parler (l’Académie des sciences recommandant de ne pas parler dans les transports en commun…). La science s’est mise à régir nos vies et à décider, par son autorité indiscutable, de ce qu’il fallait faire et ne pas faire.

Ce Conseil scientifique était pourtant parfaitement légitime, et il fallait un organisme qui puisse éclairer le gouvernement du point de vue de la science. Il fallait un organisme pour avoir une lecture scientifique des chiffres de l’épidémie, pour comprendre la dynamique et les scenarii possibles de contamination, pour saisir la manière dont le vaccin fonctionne. Et si le Conseil s’en était tenu à ce type d’éclairages, alors il aurait été parfaitement dans son rôle. Nous avions besoin des médecins et scientifiques pour nous donner les clefs d’explication des contaminations, des variants, des gestes de protection et des vaccins. Et sur ce point-là, la parole des scientifiques a été précieuse.

Mais le problème est que les scientifiques se sont mis à faire de la politique. À recommander des mesures politiques aussi graves que le confinement ou le passe sanitaire. Or ces mesures ne peuvent être prises sur le fondement de considérations purement scientifiques ; elles mettent en jeu notre modèle démocratique, social, économique et revêtent des considérations éthiques gigantesques. Aucun scientifique n’est légitime pour déclarer qu’il faut confiner un pays tout entier. Seul le politique, après avoir pris en compte l’ensemble des enjeux et des problèmes, peut décider de mettre en place une telle mesure. Le pass consiste à interdire de vie sociale toute une partie de la population par le biais d’un QR code qui s’active et se réactive à mesure que l’on fait ses rappels de vaccin: comment une mesure aussi grave, qui pose des problèmes éthiques incommensurables, pourrait-elle être recommandée… par des médecins ?

Comment l’idée même de masque obligatoire dans la rue, qui met en cause la sociabilité du visage et donc la possibilité même de la vie en commun, peut-il résulter d’une simple recommandation scientifique ? Comment le scientifique pourrait-il recommander un couvre-feu, c’est-à-dire d’interdire de toute sortie un individu et de garantir cette interdiction par un dispositif policier répressif ? Et comment, enfin, laisser aux scientifiques le soin de dire s’il faut réintégrer ou non des soignants qui n’ont violé aucune clause de leur contrat de travail ? Rappelons que la politique «zéro covid» qui a été ouvertement prônée par plusieurs scientifiques de renom suppose de reconfiner l’ensemble de la population à la moindre recrudescence épidémique. C’est ni plus ni moins la politique qui a été menée la première année de la pandémie, et qui revient à s’affranchir totalement de l’État de droit et à défendre l’idée d’un état d’urgence sanitaire permanent. Et ce que certains scientifiques appelaient «mesures de freinage» étaient en réalité des mesures qui, dans une certaine mesure, portaient atteinte à l’Etat de droit.

Conseil scientifique : trop liberticide ?

 

Le Conseil scientifique: trop liberticide ?


 

 

Un curieux papier du Figaro met en cause le caractère liberticide des orientations du conseil scientifique. Un conseil qu’on vient de remplacer par un autre car un peu trop gênant pour le pouvoir. Le papier du Figaro considère à juste titre bien sûr que le conseil scientifique n’avait pas de légitimité démocratique. Reste qu’une plus grande discipline en matière de précaution sanitaire ne porte pas forcément atteinte aux libertés fondamentales mais sert plutôt la solidarité face au danger collectif  de la maladie. La conception des libertés frôle parfois un certain concept d’anarchie en France. Papier du Figaro:

C’est donc la fin d’un organisme qui aura joué un rôle décisif tout le long de la crise sanitaire, et il n’est pas inutile d’en tirer un premier bilan.

Peuplé de gens brillants et de nos meilleurs scientifiques, le Conseil scientifique aura été, malgré tous les talents qui le composent, l’un des principaux artisans de la débâcle démocratique de la crise sanitaire. Et s’il y a une leçon que l’on peut tirer de ce fiasco, c’est que la science ne doit jamais se substituer au politique et que la décision politique ne peut pas résulter de la simple expertise scientifique – au risque d’abîmer profondément notre démocratiLe Conseil scientifique a dirigé la France pendant presque deux ans. Les confinements, couvre feu, masques obligatoires et pass ont tous été recommandés par le Conseil scientifique avant d’être imposés par le pouvoir politique, qui a donc suivi aveuglément les avis de Jean-Francois Delfraissy et ses collègues. Les avis du Conseil scientifique fonctionnaient toujours ainsi: une analyse précise et rigoureuse de la situation sanitaire, puis une série de recommandations alternatives allant de la plus «légère» à la plus dure. Mais le Conseil scientifique ne se contentait pas d’exposer les mesures de précaution possibles: il exprimait également une préférence. Et systématiquement, il exprimait sa préférence pour la recommandation la plus dure et la plus liberticide. Et quasi systématiquement, le gouvernement suivait cette recommandation à la lettre – à l’exception de janvier 2021, quand Emmanuel Macron décide de ne pas reconfiner le pays contre l’avis du Conseil (mais il y a encore, à cette époque, un couvre-feu !).

Pour renforcer leur influence, certains membres du Conseil scientifique arpentaient les plateaux télé pour assurer le service après-vente de leurs recommandations. Et aux paroles anxiogènes s’est ajouté l’ethos de scientifiques et médecins qui se sont mis ) indiqué les règles qu’il fallait suivre dans sa vie familiale et sa vie privée, précisant de quelle manière il fallait voir ses amis, faire la fête, manger – et même… parler (l’Académie des sciences recommandant de ne pas parler dans les transports en commun…). La science s’est mise à régir nos vies et à décider, par son autorité indiscutable, de ce qu’il fallait faire et ne pas faire.

Ce Conseil scientifique était pourtant parfaitement légitime, et il fallait un organisme qui puisse éclairer le gouvernement du point de vue de la science. Il fallait un organisme pour avoir une lecture scientifique des chiffres de l’épidémie, pour comprendre la dynamique et les scenarii possibles de contamination, pour saisir la manière dont le vaccin fonctionne. Et si le Conseil s’en était tenu à ce type d’éclairages, alors il aurait été parfaitement dans son rôle. Nous avions besoin des médecins et scientifiques pour nous donner les clefs d’explication des contaminations, des variants, des gestes de protection et des vaccins. Et sur ce point-là, la parole des scientifiques a été précieuse.

Mais le problème est que les scientifiques se sont mis à faire de la politique. À recommander des mesures politiques aussi graves que le confinement ou le passe sanitaire. Or ces mesures ne peuvent être prises sur le fondement de considérations purement scientifiques ; elles mettent en jeu notre modèle démocratique, social, économique et revêtent des considérations éthiques gigantesques. Aucun scientifique n’est légitime pour déclarer qu’il faut confiner un pays tout entier. Seul le politique, après avoir pris en compte l’ensemble des enjeux et des problèmes, peut décider de mettre en place une telle mesure. Le pass consiste à interdire de vie sociale toute une partie de la population par le biais d’un QR code qui s’active et se réactive à mesure que l’on fait ses rappels de vaccin: comment une mesure aussi grave, qui pose des problèmes éthiques incommensurables, pourrait-elle être recommandée… par des médecins ?

Comment l’idée même de masque obligatoire dans la rue, qui met en cause la sociabilité du visage et donc la possibilité même de la vie en commun, peut-il résulter d’une simple recommandation scientifique ? Comment le scientifique pourrait-il recommander un couvre-feu, c’est-à-dire d’interdire de toute sortie un individu et de garantir cette interdiction par un dispositif policier répressif ? Et comment, enfin, laisser aux scientifiques le soin de dire s’il faut réintégrer ou non des soignants qui n’ont violé aucune clause de leur contrat de travail ? Rappelons que la politique «zéro covid» qui a été ouvertement prônée par plusieurs scientifiques de renom suppose de reconfiner l’ensemble de la population à la moindre recrudescence épidémique. C’est ni plus ni moins la politique qui a été menée la première année de la pandémie, et qui revient à s’affranchir totalement de l’État de droit et à défendre l’idée d’un état d’urgence sanitaire permanent. Et ce que certains scientifiques appelaient «mesures de freinage» étaient en réalité des mesures qui, dans une certaine mesure, portaient atteinte à l’Etat de droit.

Covid: Le gouvernement supprime le conseil scientifique trop gênant

Covid: Le gouvernement supprime le conseil scientifique trop gênant

Ce n’est un secret pour personne que le gouvernement apprécié de moins en moins les analyses et les déclarations du conseil scientifique concernant l’évolution de la situation sanitaire liée à la Covid. on reproche en particulier au conseil scientifique d’avoir fait des prévisions considérées comme trop alarmistes. Pourtant malheureusement, la pandémie est loin d’être terminée. On est encore sur une tendance de près de 100 000 contaminations par jour avec le risque d’une évolution de variants vers l’automne et la reprise de l’épidémie.

Après quasiment deux ans et demi d’activité, le Conseil scientifique doit être dissous à la fin du mois. La pandémie de Covid-19 n’est pas terminée mais la France sortira officiellement de l’état d’urgence sanitaire le 31 juillet, ce qui explique la disparition de ce comité.

Après le 31 juillet, un «comité de veille et d’anticipation des risques sanitaires», qui ne sera pas exclusivement dédié au Covid-19, prendra le relais du Conseil scientifique. Le ministre de la Santé, François Braun, a jugé «indispensable» de créer «un comité pérenne, constitué de diverses disciplines scientifiques».Une sorte de comité fourre tout qui fera nettement baisser le niveau moyen de compétence scientifique. En outre la reprise en main d’un comité pour limiter son expression publique

Puisque «les risques évoluent», «non seulement infectieux mais aussi liés à la qualité de l’air, de l’eau et de la terre, à l’impact du changement climatique», ce nouvel organe sera chargé de considérer ensemble «la santé humaine, animale, végétale dans un environnement sain».Bref une sorte d’auberge espagnole

 Lors d’une conférence de presse virtuelle aux airs d’au revoir, Jean-François Delfraissy, président de l’instance, a décrit «un groupe très uni» qui a «partagé beaucoup de défaites mais aussi de succès» et entretenu «des relations parfois complexes avec le politique». Selon lui, le Conseil scientifique a, au cours de cette pandémie, «progressivement appris a avoir de l’humilité et à dire, à certains moments, qu’on ne savait pas»

Trop d’ignorance dans l’opinion de la problématique scientifique

Trop d’ignorance dans l’opinion de la problématique scientifique

 

La formation à la méthode scientifique reste largement élitaire et l’école n’est pas assez formatée en ce sens aujourd’hui, déplore, dans une tribune au « Monde », Yves Charpak, médecin spécialiste en santé publique et président de la Fondation Charpak, l’esprit des sciences.

 

Tribune.

 

 Il y a trois ans, le directeur de l’institut italien équivalent de notre Institut national de la santé et de la recherche médicale (Inserm) démissionnait, en raison « du rejet de la connaissance scientifique » par son gouvernement : des ministres s’étaient permis, face à des résultats scientifiques, de dire « je n’y crois pas » en se dispensant d’argumenter. Cela concernait l’efficacité des vaccins, avant même notre actuelle pandémie de Covid-19. Cette histoire révélait déjà une crise de l’autorité scientifique, aggravée aujourd’hui ! Si un esprit des sciences existe, force est de constater qu’il est loin d’être partagé.

Il y a un esprit des lois, un esprit des Lumières… mais qu’est-ce que l’esprit des sciences ? Peut-on dire que c’est ce qui est propre à la science, ce qui la constitue dans sa singularité ?

L’esprit des sciences, c’est un rapport concret au monde, fait d’enthousiasme et de vigilance attentive, de rigueur et de curiosité, de défiance à l’égard des formes trop académiques de la pensée, de liberté, de tâtonnements et d’incertitudes partagées. L’esprit des sciences, enfin, procède de la volonté de comprendre et de faire comprendre.

Avant la pandémie, déjà, la valeur accordée au temps de la réflexion baissait à mesure qu’était valorisée la performance. D’où l’affrontement de deux temporalités : le héros était rapide, c’était l’homme du coup d’éclat. Repoussé dans l’ombre, celui qui choisissait le temps long et la voie patiente et prudente de la science. La situation sanitaire a ajouté du trouble. Les spécialistes et les scientifiques sont omniprésents dans les médias. Mais l’un des effets indésirables, sans être le seul, de cette visibilité pourrait bien être que le non-initié croie pouvoir se dispenser de chercher à comprendre. Le savant détient la vérité, suivons-le, ne perdons pas notre temps à reconstituer les raisonnements qui l’ont conduit.

Mythe du génie

Le paradoxe est le suivant : jamais les scientifiques ne se sont autant exposés – à travers livres, journaux, émissions de vulgarisation scientifique – et, pourtant, la distance entre leur savoir et la population, jusqu’aux décideurs, demeure toujours incommensurable. Le mythe du génie, la confiance dans « ceux qui savent », tout cela conduit à la même attitude du non-initié que celle qui prévaut dans un régime de croyance aveugle : à la suspension volontaire du jugement.

Du coup, le fossé existe toujours aujourd’hui entre, d’un côté, la science et les chercheurs et, de l’autre, la société. Car on a fait de la science une activité distincte du reste de la société, avec des citoyens dotés d’un cerveau particulier et chargés de produire la science dont on a besoin. Pour faire image, c’est un peu comme si ne pas être un sportif professionnel justifiait de ne pas apprendre à marcher, à courir, à nager, à faire du vélo.

Covid-19 : fêtes de fin d’année au ralenti (conseil scientifique)

Covid-19 :  fêtes de fin d’année au ralenti (conseil scientifique)

Pour faire simple conseil scientifique recommande de ne pas organiser de repas collectifs. En effet, les festivités risquent d’être l’occasion d’un nouveau grand brassage des populations et d’une nouvelle flambée des contaminations comme des cas graves. À l’approche des fêtes de fin d’année, le Conseil scientifique détaille donc , dans un avis daté du 8 décembre et publié par le ministère de la Santé lundi 13 décembre, une série de mesures à appliquer dans la sphère privée face à l’épidémie de Covid-19.

Pour les « réunions familiales de type repas de Noël », le Conseil scientifique recommande notamment de « limiter le nombre de participants, de s’assurer que les personnes fragiles ont bien reçu leur dose de rappel, d’aérer régulièrement les locaux et de pratiquer un autotest le jour même, ou un test antigénique la veille ou le jour même de l’événement ».

Les autorités de santé s’attendent à une  »augmentation des admissions hospitalières de patients », en lien avec la cinquième vague causée par le variant Delta. Un pic d’admissions supérieur à 2 000 par jour est attendu, soit un niveau proche de celui observé lors de la deuxième vague à l’automne 2020. À cela s’ajoute l’émergence du variant Omicron, qui « se répand extrêmement rapidement ».

Face à cette  »double menace », le Conseil scientifique conseille de diminuer ses contacts et de ne pas sortir si on est symptomatique. Il recommande également de « renoncer immédiatement à tout rassemblement collectif en lieu clos où le port du masque n’est pas possible ou approprié au format, en particulier tous les rassemblements avec consommation de boisson et de nourriture. »

 

Un nouveau concept : le populisme scientifique

Un nouveau concept : le populisme scientifique

 

Après avoir ouvert un dialogue nécessaire avec la communauté scientifique dans les années 2000, le mouvement pour une science « participative », plus démocratique, a évolué vers l’anti-élitisme, au risque de l’irrationalité, explique Stéphane Van Damme  (Professeur d’histoire des sciences à l’Ecole normale supérieure -Paris) Dans le Monde (extrait)

 

L’expression « populisme scientifique » est couramment utilisée pour dénoncer différents activistes scientifiques omniprésents dans l’espace public, comme Didier Raoult. En Italie, par exemple, il désigne aussi bien les antivaccins, comme le biologiste Stefano Montanari, que les défenseurs de la science, comme le professeur de virologie Roberto Burioni. Ce dernier a fait l’objet d’une étude approfondie de Pamela Pietrucci, chercheuse à l’université de Copenhague, dirigée par David Gruber et Lynda Olman dans le Routledge Handbook for Language and Science, en 2019.

Très actif sur Twitter et Facebook, Roberto Burioni y mène une guérilla contre les discours antivaccins, et ce dès juin 2018, à l’occasion des mesures prises par le gouvernement. Burioni y défend l’éthique du citoyen-scientifique. Son combat aurait même persuadé Beppe Grillo (idéologue du Mouvement 5 étoiles) de signer son « pacte proscience » lancé en janvier 2019 pour soutenir cette éthique dans les politiques publiques nationales. Cette action témoigne de l’évolution des scientifiques dans ces débats, qui sont passés d’une position de figure morale, comme Langevin, Poincaré ou Einstein, à celle de lanceur d’alerte, mobilisés contre les antisciences.

La popularité de Burioni en Italie tient à la fois à un contexte politique polarisé par la montée des extrêmes et aux formes de sa communication, utilisant de violentes saillies polémiques, connues sur le Web italien sous le terme blastata : un commentaire acerbe et sarcastique attirant des milliers de réponses et visant à démonter les fausses informations. Convaincu que les scientifiques doivent sortir de leur réserve, Burioni n’hésite pas à emprunter la rhétorique forte de ses opposants.

Plus largement, si l’expression polémique de « populisme scientifique » s’est imposée pour qualifier les mouvements antivaccins ou antipasse, elle n’a pas encore été véritablement pensée. Dans Le Siècle du populisme. Histoire, théorie, critique (Seuil, 2020), Pierre Rosanvallon présente le populisme comme une « idéologie cohérente qui offre une vision puissante et attractive de la démocratie, de la société et de l’économie ». Plus qu’un symptôme des radicalisations d’aujourd’hui, cette critique de la modernité démocratique est récurrente dans le temps long de l’histoire des démocraties occidentales.

Du côté de l’histoire des sciences, certains travaux s’inspirent des mêmes constats pour explorer ce phénomène qui hante les rapports entre sciences et démocratie. Niels Mede et Mike Schäfer, de l’université de Zurich, en proposent une analyse riche dans un article paru dans la revue Public Understanding of Science en 2020. Pour eux, ce populisme relié aux sciences émerge dans le sillage du tournant « participatif » des années 2000, qui a vu la revalorisation du rôle des amateurs de science et l’association de citoyens à la prise de décision technique aux côtés d’experts.

Un manque majeur de culture scientifique

Un manque majeur de culture scientifique 

 

L’anthropologue Katia Andreetti et le député (MoDem) Philippe Berta préconisent, dans une tribune au « Monde , extrait», le lancement d’« états généraux de la culture scientifique et technique », pour mieux lutter contre le complotisme et mettre la science à portée de tous.

 

Tribune

 

Collective, intersectorielle et intergénérationnelle, la crise sanitaire a marqué de son sceau l’histoire mondiale. Science, santé et technologie se sont imposées comme pierres angulaires de la protection des populations et des équilibres démocratiques. Matière à penser, à conceptualiser et à rationaliser le futur, l’ébullition scientifique générée par le Covid est une avancée majeure que les pouvoirs publics doivent accompagner afin d’en faire l’une des matrices de nos politiques publiques de demain.

Le lancement d’un plan d’investissement de près de 7 milliards d’euros par le président de la République en marque les prémices. La capacité de notre recherche biomédicale, la souveraineté industrielle et sanitaire, l’investissement renforcé, l’équité d’accès aux soins, l’impulsion stratégique de l’innovation en santé confirment que d’innovantes trajectoires se dessinent. Il est temps que nos politiques en prennent conscience !

Anticiper les situations futures

Les sciences sont plurielles et mobilisent des méthodologies spécifiques et interdépendantes, des technologies de pointe, des professionnels qualifiés, des écosystèmes de recherche et exigent des investissements stratégiques audacieux. Face à la célérité de la recherche et des mutations sociales, un grand nombre de nos lois sont, de facto, juridiquement caduques, en témoigne la révision de la loi de bioéthique qui, pour ses aspects scientifiques, est loin du tempo imposé par le rythme des découvertes scientifiques. A contrario, si les avancées entrevues par la loi de programmation pluriannuelle de la recherche sont une première esquisse, elles impliquent d’aller plus loin. Politique et science doivent coordonner leurs temporalités dans des réalités sociétales : un défi pour les décideurs politiques, une nécessité pour renforcer la connaissance scientifique de tous.

 

Instructifs sont les maux imposés par la crise aux mondes scientifique, médical et socio-politique. Leurs analyses tant qualitatives que quantitatives sont, plus que jamais, déterminantes afin d’anticiper les situations futures et la vie post-Covid. Quant aux mécanismes opérationnels, ils représentent de fertiles laboratoires d’idées, des pôles d’excellence pour l’élaboration de projets ambitieux. L’acculturation scientifique en est un. La pandémie le démontre : notre société française souffre d’un déficit d’acculturation scientifique majeur. Mus par des raisons qui leur appartiennent, on a vu des politiques et des médecins parler science, la multiplication d’infox, le défilé « d’experts » sur les chaînes d’information en continu, le tout faisant perdre à la science ce qui fait son essence : son indépendance. Une belle affaire pour les complotistes, les extrémistes et les populistes.

France : un manque majeur de culture scientifique

France : un manque majeur de culture scientifique 

 

L’anthropologue Katia Andreetti et le député (MoDem) Philippe Berta préconisent, dans une tribune au « Monde , extrait», le lancement d’« états généraux de la culture scientifique et technique », pour mieux lutter contre le complotisme et mettre la science à portée de tous.

 

Tribune

 

Collective, intersectorielle et intergénérationnelle, la crise sanitaire a marqué de son sceau l’histoire mondiale. Science, santé et technologie se sont imposées comme pierres angulaires de la protection des populations et des équilibres démocratiques. Matière à penser, à conceptualiser et à rationaliser le futur, l’ébullition scientifique générée par le Covid est une avancée majeure que les pouvoirs publics doivent accompagner afin d’en faire l’une des matrices de nos politiques publiques de demain.

Le lancement d’un plan d’investissement de près de 7 milliards d’euros par le président de la République en marque les prémices. La capacité de notre recherche biomédicale, la souveraineté industrielle et sanitaire, l’investissement renforcé, l’équité d’accès aux soins, l’impulsion stratégique de l’innovation en santé confirment que d’innovantes trajectoires se dessinent. Il est temps que nos politiques en prennent conscience !

Anticiper les situations futures

Les sciences sont plurielles et mobilisent des méthodologies spécifiques et interdépendantes, des technologies de pointe, des professionnels qualifiés, des écosystèmes de recherche et exigent des investissements stratégiques audacieux. Face à la célérité de la recherche et des mutations sociales, un grand nombre de nos lois sont, de facto, juridiquement caduques, en témoigne la révision de la loi de bioéthique qui, pour ses aspects scientifiques, est loin du tempo imposé par le rythme des découvertes scientifiques. A contrario, si les avancées entrevues par la loi de programmation pluriannuelle de la recherche sont une première esquisse, elles impliquent d’aller plus loin. Politique et science doivent coordonner leurs temporalités dans des réalités sociétales : un défi pour les décideurs politiques, une nécessité pour renforcer la connaissance scientifique de tous.

 

Instructifs sont les maux imposés par la crise aux mondes scientifique, médical et socio-politique. Leurs analyses tant qualitatives que quantitatives sont, plus que jamais, déterminantes afin d’anticiper les situations futures et la vie post-Covid. Quant aux mécanismes opérationnels, ils représentent de fertiles laboratoires d’idées, des pôles d’excellence pour l’élaboration de projets ambitieux. L’acculturation scientifique en est un. La pandémie le démontre : notre société française souffre d’un déficit d’acculturation scientifique majeur. Mus par des raisons qui leur appartiennent, on a vu des politiques et des médecins parler science, la multiplication d’infox, le défilé « d’experts » sur les chaînes d’information en continu, le tout faisant perdre à la science ce qui fait son essence : son indépendance. Une belle affaire pour les complotistes, les extrémistes et les populistes.

Les mesures barrières ont volé en éclats avec la levée des restrictions ( conseil scientifique)

 

  • Les mesures barrières ont volé en éclats avec  la levée des restrictions ( conseil scientifique)

     

     

    Jean-François Delfraissy, entendu au Sénat, considère que la levée des restrictions ont fait voler en éclats les mesures barrières et son l’un des facteurs explicatifs de l’accélération des contaminations

    « La réponse à la quatrième vague, elle va s’appuyer sur une augmentation de la vaccination et elle va s’appuyer sur l’utilisation du pass sanitaire, mais elle va s’appuyer aussi sur ‘où est-ce qu’on se contamine?’, sur revenir aux gestes barrières simples, individuels, qui ont totalement explosé », a déclaré le président du Conseil scientifique devant des sénateurs.

    « Dans les semaines qui viennent, notre capacité non pas à arrêter la vague mais à limiter l’impact sur le système de soins, il est entre les mains de nos concitoyens. Et ce n’est pas seulement de dire ‘c’est le pass sanitaire c’est le vaccin’, c’est aussi les petites mesures! »

     « On a affaire à un variant qui a une capacité de transmission qui change la donne [...] on va avoir à vivre avec le variant Delta pendant plusieurs mois. »

Recherche scientifique : la France en retard

Recherche scientifique : la France en retard

 

Prix Nobel de physique , Serge Haroche souligne le retard scientifique de la France dans une interview des échos.

 

Pourquoi parle-t-on tant actuellement de « deuxième révolution » quantique ?

Il y a environ un siècle, l’arrivée de la théorie quantique a conduit au développement d’un très grand nombre d’instruments que l’on utilise aujourd’hui dans notre vie quotidienne : les lasers, les ordinateurs, les horloges atomiques dans le GPS ou encore la résonance magnétique nucléaire, qui a conduit à l’IRM. C’est ce que l’on peut appeler le résultat de la première révolution quantique.

Depuis une trentaine d’années, grâce au développement de la technologie, on est capable de manipuler des atomes et des photons isolés, les faire interagir les uns avec les autres de façon contrôlée. C’est cette deuxième étape que certains appellent « la deuxième révolution quantique ».

Que peut-on espérer de cette deuxième révolution ?

Je n’aime pas promettre ou survendre ce qui pourrait se passer à l’avenir. Disons que cette seconde révolution vise à domestiquer les particules quantiques individuelles pour faire des choses plus précises, développer des sondes plus sensibles, ou éventuellement calculer de façon plus efficace. On cherche à utiliser de nouvelles propriétés du quantique, comme la superposition et l’intrication – qui sont très contre-intuitives pour nos esprits habitués au monde classique – pour en faire des choses utiles.

Microsoft, IBM, Google et autres géants de la tech investissent des sommes importantes dans l’ordinateur quantique. En quoi cette machine du futur exploitera ces propriétés ?

Pour rappel, l’ordinateur actuel est un système qui couple des bits entre eux. Ce sont de petits transistors qui peuvent se trouver dans deux états : 0 ou 1. Dans un ordinateur quantique, il s’ajouterait une dimension qui est la superposition d’état : les bits pourraient être non pas simplement des 0 et des 1 mais des superpositions de 0 et de 1. On parle alors de bits quantiques, ou qubits, qui pourraient être intriqués entre eux, s’influer mutuellement en des endroits différents de la machine, ce qui fait que si on mesure l’un des qubits, cela aura une répercussion immédiate sur l’état de l’autre. Ce principe de superposition massive sur un très grand nombre de bits permet, au moins théoriquement, de résoudre des problèmes difficiles que les ordinateurs actuels mettraient un temps quasiment infini à calculer.

Qu’est-ce qui nous empêche de passer de la théorie à la pratique ?

Le plus gros obstacle est la fragilité de l’information quantique. Il faut parvenir à contrôler les bits et leur cohérence, faire en sorte que leurs états de superposition ne soient pas détruits par l’interaction avec leur environnement. Aujourd’hui, ce que l’on sait faire, ce sont de petits prototypes, en quelque sorte des jouets, qui permettent de démontrer que les opérations individuelles marchent sur de petits ensembles de particules. Mais pour avoir un système utile, qui batte en puissance de calcul les machines actuelles, il faut remplacer ces quelques dizaines de bits par des dizaines de millions de bits, corriger de façon massive les erreurs. Ca, pour l’instant personne ne sait le faire.

Donc ce n’est pas pour demain…

Ca fait vingt-cinq ans que l’on nous annonce l’ordinateur quantique ! Mais la réalisation d’une machine battant les performances des ordinateurs classiques actuels reste un but lointain dont personne ne peut dire s’il sera vraiment atteint. Il y a une compétition, largement du domaine des relations publiques, entre les grands groupes – Google, Microsoft et IBM – qui inventent des critères particuliers pour dire que leur machine expérimentale est plus performante qu’une autre… Mais ça reste très loin des applications pratiques.

La cryptographie quantique est au contraire un domaine plus avancé de cette « deuxième révolution », non ?

Oui, la cryptographie quantique n’exige pas d’intrication massive. Elle consiste à coder et décoder des messages secrets à l’aide de clés formées de succession de bits quantiques, et donc protégées de l’espionnage. Si quelqu’un intercepte les clés, des corrélations quantiques vont être altérées et il y aura un moyen très simple de s’en rendre compte et interrompre la communication.

Avec elle, on peut rêver d’un Internet mondial quantique, hautement sécurisé ?

Dans les protocoles de communication quantique, les clés sont portées par des photons se propageant dans des fibres optiques. Mais au bout de quelques dizaines de kilomètres, la cohérence quantique de la lumière se perd. Il faut utiliser ce que l’on appelle des répéteurs, qui remettent en l’état la cohérence. Ces répéteurs quantiques sont très délicats à mettre en oeuvre. Donc un grand internet quantique à l’échelle de la planète, ce n’est pas pour tout de suite. Mais des circuits de communication par fibre entre banques, entre pays, ont été déjà mis en place sous forme de démonstration. Tout ça fait partie d’un domaine de recherche très riche, théorique et expérimental.

Les futures horloges quantiques ne varieront même pas d’une seconde en 15 milliards d’années, soit plus que l’âge estimé de l’univers. A quoi peut servir une telle précision ?

A ce niveau, on peut mesurer des différences de champ de gravitation infimes, vérifier des théories de la relativité générale et on pourra peut-être un jour mettre au point de nouveaux détecteurs d’ondes gravitationnelles. Dans le champ de la métrologie quantique, qui est certainement le plus mûr de tous, on peut aussi citer les interféromètres quantiques, permettant de mesurer de petits champs électriques ou magnétiques ou de petites variations de l’accélération de la pesanteur. De tels instruments sont mis sur le marché pour faire des recherches géologiques, trouver des minerais et peut-être bientôt pour prévoir les éruptions volcaniques et les tremblements de terre. Il y a aussi les accéléromètres quantiques : même dans un sous-marin, sans accès au GPS, ils permettent de savoir où vous êtes avec précision.

La métrologie quantique pourra-t-elle aussi bouleverser la médecine ?

Oui, certaines sondes quantiques permettent de mesurer localement un champ magnétique, et de faire en quelque sorte de l’IRM au niveau microscopique. Vous allez pouvoir étudier de petits systèmes formés de seulement quelques cellules biologiques, ce qui peut avoir des applications extrêmement importantes pour la recherche en biologie et la médecine : détecter des cancers, des lésions…

La France a une longue tradition dans le quantique, avec notamment trois prix Nobel, dont le vôtre, mais attire-t-elle les nouveaux talents ?

La France a pris du retard ! L’effort sur la science a été considérablement ralenti au cours des trente dernières années, surtout si on la compare à certains autres pays. Seul 2,2 % du PIB est consacré à la recherche publique et privée, alors que le pays s’était engagé en 2000 à atteindre les 3 %. On a aussi du retard sur la formation. Les petits Français sont parmi les moins bons en maths. Et surtout, les conditions de travail des chercheurs ne sont pas attirantes : il y a très peu de postes ouverts au CNRS et les jeunes chercheurs qui y entrent gagnent un salaire de misère. Ils sont accablés de tâches administratives et passent une grande partie de leur temps à remplir des dossiers pour pouvoir obtenir des contrats finançant leurs recherches… Les plus brillants se voient offrir des postes à l’étranger, et on ne peut les blâmer de les accepter.

Emmanuel Macron a quand même annoncé un plan quantique de 1,8 milliard d’euros…

Au-delà du quantique, je pense à la recherche en général, à laquelle il faut appliquer le « quoi qu’il en coûte » ! Il faut y investir beaucoup plus de moyens que ceux promis par la nouvelle loi. Cela restera moins que le coût de quelques jours de confinement. Or, notre personnel politique manque de formation scientifique. Difficile de les sensibiliser à l’importance de soutenir la recherche en général, au-delà de quelques domaines appliqués. ​Si on leur dit que l’ordinateur quantique sera peut-être là dans cinquante ans, ça ne les motive pas tellement.

Pourtant, les problèmes qui se posent à nous en tant que civilisation, en tant qu’habitants de la Terre, ne peuvent être résolus que par une science ouverte, s’appuyant sur une recherche fondamentale au long cours, libre et dynamique. La mise au point rapide des vaccins contre le Covid en est un exemple éclatant. Elle n’a été possible que parce que précédée par des décennies de recherche non finalisée sur les coronavirus et l’ARN messager

123



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol