Archive pour la Catégorie 'sciences'

Page 2 sur 5

Intelligence artificielle : l’Europe en retard

 Intelligence artificielle : l’Europe en retard

D’après l’étude annuelle de la Fondation pour les technologies de l’information (Information Technology and Innovation Foundation), parue lundi 25 janvier, les États-Unis mènent la course au développement et à l’utilisation de l’intelligence artificielle (IA), tandis que la Chine progresse rapidement au point de « challenger la domination américaine« , et que l’Union européenne est… à la traîne.

Domaines de l’intelligence artificielle d’après http://www.intelligenceartificielle.fr/:

 

Systèmes experts :

soit un logiciel capable de simuler le comportement d’un humain effectuant une tâche très précise. C’est un domaine où l’intelligence artificielle est incontestablement un succès, dû au caractère très précis de l’activité demandée à simuler.

Calcul formel (opposé au calcul numérique) :

traiter les expressions symboliques. Des logiciels sur le marché, comme Mathematica, Maple, etc., effectuent tous des calculs formels.

Représentation des connaissances :

on entend la représentation symbolique de la connaissance pour que le logiciel soit capable de la manipuler. Un des secteurs de recherche en intelligence artificielle qui est le plus important.

Simulation du raisonnement humain :

tenter de mettre au point des logiques qui formalisent le mode de raisonnement (logiques modales, floues, temporelles, etc.).

Traitement du langage naturel :

c’est la compréhension qui reste le problème majeur à la traduction ou au résumé d’un texte dans une autre langue. De grands progrès ont été faits pour obtenir une représentation sous une forme indépendante de la langue dans laquelle l’original est écrit. Certains traducteurs orientés dans des domaines spécialisés donnent de meilleurs résultats grâce à leurs spécificités.

Résolution de problèmes :

représentation, analyse et résolution de problèmes concrets. C’est le cas des jeux de réflexion tels que les échecs, le backgammon ou les dames. Dans le cas du backgammon le champion du monde est un programme. Ils restent quelques jeux qui résistent aux efforts des programmeurs.

Reconnaissance de la parole :

beaucoup de progrès ont été effectués. Un logiciel comme Naturaly Speaking permet la dictée. Cependant, la compréhension d’un mot ou d’une phrase requiert une grande quantité d’informations extralangagières (contexte, connaissance du sujet, etc.).

Reconnaissance de l’écriture :

la reconnaissance de l’écriture dactylographiée n’est pas facile (malgré des logiciels assez performants sur le marché), mais l’écriture manuscrite pose des problèmes beaucoup plus complexes. Cela n’est pas étonnant dans la mesure où cette tâche peut nous poser à nous aussi des problèmes insolubles. Certains chercheurs essaient de reconstituer à partir du texte le mouvement de la main afin de comprendre ce qui est écrit.

Reconnaissance des visages :

considérée de longue date comme un des problèmes de l’intelligence artificielle le plus difficile, les résultats récents deviennent intéressants avec les réseaux neuronaux.

Robotique :

la robotique dans les usines est déjà fortement répendue. La première génération est capable d’exécuter une série de mouvements préenregistrés, la deuxième génération est dotée de capteurs de perception permettant de prendre certaines décisions et la troisième génération possède une plus grande autonomie, elle peut se déplacer dans un environnement.

L’apprentissage :

un logiciel devrait avoir des capacités d’apprentissage autonome pour pouvoir être véritablement qualifié d’intelligent. Douglas Lenat travaille actuellement à la constitution d’une gigantesque base de données censée contenir toutes les connaissances partagées par les humains d’un même groupe pour leur communication. Il souhaite adjoindre un module d’apprentissage à sa base de données lui permettant de travailler seule pour collecter des informations nouvelles et réorganiser l’architecture de ses connaissances.

Réseaux neuronaux :

un réseau de neurones formels est un modèle rudimentaire du cerveau humain. Une cellule neuronale possède une sortie et des entrées reliées à d’autres neurones. Ces réseaux partagent des propriétés importantes avec le cerveau humain. Cela requiert une programmation non explicite et la répartition de l’information sur l’ensemble du réseau.

Systèmes complexes adaptatifs :

le regroupement des algorithmes génétiques et des modèles de vie artificielle. En résumé succint, l’étude des convergences vers des formes organisées des populations soumises à des lois simples et naturelles.

Sciences technologies – Un ordinateur quantique ?

Sciences technologies – Un ordinateur quantique ?

Passer de l’ordinateur classique à l’ordinateur quantique , c’est se donner une puissance de calcul dont il est difficile de prendre l’ampleur. Un peu comme si on comparaît le boulier à l’ordinateur actuel. Les champs d’application du calcul quantique concerneraient énormément  de domaines par exemple la médecine, la logistique, la finance, l’intelligence artificielle ou la traduction des langues.

 

« Dans un entretien de vulgarisation avec Etienne KleinThierry Breton schématise le fonctionnement d’un calcul quantique comme un avis de recherche : si l’on cherche dans une salle de mille personnes quelqu’un mesurant plus de 1,80 m et parlant anglais, il compare l’informatique classique à l’interrogation de chaque participant un par un en posant les questions « Mesurez-vous plus de 1,80 m ? » et « Parlez-vous anglais ? » et en notant les numéros de ceux qui répondent « oui » aux deux questions, ce qui va prendre un certain temps. En calcul quantique, tout se passe comme si on lançait un appel général : « Les personnes mesurant plus de 1,80 m et parlant anglais peuvent-elles lever la main ? » et on a la réponse quasi instantanément. Thierry Breton parle de calcul holistique et non plus séquentiel. Reste à mettre au point des langages traitant globalement un ensemble de valeurs possibles comme une seule. Pour le moment, Atos travaille sur une sorte d’assembleur approprié, nommé AQAL (Atos Quantum Assembly Language). Le nom d’ »assembleur » peut induire en erreur, puisqu’il s’agit d’un langage de description de traitements qui est au contraire indépendant de la machine utilisée (contrairement à un assembleur au sens classique, donc) à condition qu’elle respecte quelques grandes lignes d’une sorte de machine virtuelle. » (Wikipédia)

Un pas important pourrait avoir été franchi ces jours-ci. Un mois après avoir fait fuiter l’information par erreur, Google a annoncé mercredi avoir atteint la suprématie quantique. Dans un communiqué publié le 23 octobre, la firme de Mountain View prétend avoir « démontré sa capacité à calculer en quelques secondes ce qui prendrait des milliers d’années aux supercalculateurs les plus grands et avancés, atteignant ainsi une étape majeure connue comme la suprématie quantique« .

Mais il y a loin la théorie à la réalité d’après un papier du Monde

« . Dompter les lois de la physique à l’échelle de l’infiniment petit pour créer un appareil avec une puissance de calcul sans équivalent avec les machines actuelles capable de résoudre les problèmes les plus complexes. Après l’espace dans les années 50, la communauté scientifique et technologique s’emploie aujourd’hui à conquérir une nouvelle frontière, celle de l’informatique quantique, un horizon de plus en plus convoité depuis les années 80.

Aux avant-postes de cette course technologique mondiale, on retrouve les Etats-Unis et la Chine, dont les grands industriels investissent massivement en R&D pour ne pas rester à quai de la révolution annoncée. Côté américain, Google, IBM et Microsoft sont convaincus de pouvoir réaliser des calculs quantiques totalement inaccessibles aux ordinateurs traditionnels dans les prochaines années.

Un pas important pourrait avoir été franchi ces jours-ci. Un mois après avoir fait fuiter l’information par erreur, Google a annoncé mercredi avoir atteint la suprématie quantique. Dans un communiqué publié le 23 octobre, la firme de Mountain View prétend avoir « démontré sa capacité à calculer en quelques secondes ce qui prendrait des milliers d’années aux supercalculateurs les plus grands et avancés, atteignant ainsi une étape majeure connue comme la suprématie quantique« .

La suprématie quantique est un concept né dans les années 80. Elle désigne le moment où est démontrée la supériorité d’un ordinateur quantique sur un ordinateur classique sur une tâche particulière. Les ingénieurs de Google, aidés par la Nasa et le laboratoire national d’Oak Ridge, affirment avoir réussi à créer un processeur capable de réaliser un calcul en 200 secondes quand le plus avancé des ordinateurs actuels aurait besoin de 10.000 ans. »

Biais cognitifs: la relation machine et cerveaux

 

Le sociologue poursuit ses travaux sur les biais intellectuels et les croyances. Mais il leur donne une ampleur nouvelle dans « Apocalypse cognitive », réflexion sur les risques cruciaux que nous font courir nos intuitions erronées.( Analyse dans le Monde, extraits )

Contraintes sanitaires obligent, la rencontre s’est faite sur écran, en « distanciel » comme dit la novlangue. Situation banale qui, avec Gérald Bronner, cesse de l’être. Elle se révèle, en réalité, particulièrement pertinente. Car l’entretien à distance crée une combinaison curieuse de proximité et d’éloignement, or ces éléments se tiennent, de plusieurs manières, au cœur de sa réflexion.

En effet, Apocalypse cognitive, son treizième ouvrage, accorde une place centrale aux écrans, à l’attraction des images et de l’immédiat. Le sociologue en scrute méfaits et bienfaits, cherche ce qu’ils révèlent de notre humanité, de notre fonctionnement cérébral, pour le pire comme le meilleur, aussi lucidement que possible. Soucieux de rendre ce constat utile, même par sa face sombre, il examine également les moyens de mettre au point, pour l’avenir, un bon usage de nos machines et de nos neurones, afin de voir advenir, plutôt qu’une régression, un nouvel essor de la civilisation.

La proximité de l’apparence, la distance de l’arrière-plan concernent aussi le parcours personnel de ce chercheur, professeur de sociologie à l’université de Paris (anciennement Denis-Diderot), de plus en plus présent, d’année en année, dans les médias, les librairies et les débats publics, depuis que La Démocratie des crédules (PUF, 2013), couronné par cinq prix, l’a fait connaître bien au-delà des cercles universitaires.

Un « transclasse »

A l’écran, donc, l’image d’un quinquagénaire souriant, presque juvénile. Sa simplicité fait vite oublier qu’il est couvert de titres et de fonctions académiques et que la liste de ses contributions savantes dans les revues de recherche occupe des pages. Et pourtant, ce n’est pas un « héritier ». Rien, à distance, ne le prédisposait à devenir ce qu’il est aujourd’hui.

Né dans une famille modeste de la banlieue de Nancy, le sociologue remarque aujourd’hui qu’il « coche toutes les cases » de ce qui définit un « transclasse ». Toutes, sauf celles, pourtant habituelles, du dolorisme et de la honte. Avoir vécu d’abord sans livres, sans musique, sans église, sans syndicat ne lui inspire aucune gêne. Il y voit au contraire une forme de chance, la clé d’un « nomadisme social » qui lui donne aujourd’hui le sentiment, en n’étant jamais nulle part tout à fait à sa place, de pouvoir observer partout le jeu social avec « une distance amusée ».

Difficile de savoir dans quelle mesure cette trajectoire personnelle a conduit Gérald Bronner à se défier du déterminisme social, façon Bourdieu, et à privilégier la marge de décision et de responsabilité des acteurs, dans le sillage de son maître, le philosophe et sociologue Raymond Boudon (1934-2013). En tout cas, il reconnaît volontiers un lien direct entre sa biographie et son champ de recherche, délimité par nos erreurs dues aux biais cognitifs, et nos croyances déraisonnables, dues à notre difficulté à endurer l’incertitude. « J’ai été mon premier laboratoire », confie-t-il.

 

Pour un écosystème français des technologies quantiques

Pour un écosystème français des technologies quantiques 

Quatre expert(e) s de l’innovation technologique et de son financement appellent, dans une tribune au « Monde », les entreprises françaises à ne pas passer à côté du quantique, prochaine révolution dans le domaine de l’informatique et des communications (extraits)

Tribune.

 

Nous sommes à l’aube d’une révolution technologique. Issue des découvertes de la physique quantique, la possibilité de manipuler des particules élémentaires (électrons, ions, atomes, photons) ouvre la voie à des ruptures dans des domaines tels que l’informatique, les communications, la métrologie ou la cybersécurité. Le cabinet de conseil en stratégie BCG a identifié une trentaine de cas d’usage, et une création de valeur comprise entre 25 et 50 milliards d’euros à horizon 2030.

Les géants du numérique, Google et IBM en tête, mettent au point des prototypes de calculateurs quantiques de plus en plus puissants. Cette course aux technologies quantiques mobilise aussi les gouvernements, à commencer par ceux de la Chine et des Etats-Unis. Le Royaume-Uni et l’Allemagne ont initié une stratégie nationale il y a déjà plusieurs années.


Et la France ? L’année 2020 a débuté par la remise du rapport de la députée Paula Forteza (Français de l’étranger, ex-LRM), et aurait dû s’achever par l’annonce d’un plan stratégique (« Quantique : le virage technologique que la France ne ratera pas »). La crise sanitaire a retardé son lancement, désormais attendu pour les premiers mois de 2021. Il y a pourtant urgence, car sans un engagement fort et rapide de l’Etat pour affirmer ses ambitions académiques, industrielles et économiques, la France ne pourra pas rattraper son retard.

Exception

Au-delà de ce plan, notre pays doit absolument construire un écosystème des technologies quantiques. Nous en possédons déjà plusieurs briques indispensables. Une recherche de très haut niveau, tout d’abord, autour de trois pôles situés à Paris, Saclay et Grenoble. Un portefeuille de start-up de grande qualité, ensuite, comme Pasqal, Qubit Pharmaceuticals, Alice & Bob, C12, Quandela, Cryptonext ou VeriQloud.

Des structures d’investissement, enfin, qu’elles soient publiques, avec le plan Deeptech de Bpifrance, ou privées, avec Quantonation, pionnier dans le financement en amorçage de ces technologies. Cet écosystème naissant commence à se structurer, notamment autour du think tank Le Lab quantique, créé en 2018 pour associer start-up, industriels, PME et ETI. La région Ile-de-France soutient à travers lui une approche originale, le « Pack quantique », pour développer les cas d’usage.

Mais le tableau est encore incomplet. Un point doit concentrer toutes les attentions : la plupart de nos grandes entreprises n’ont pas pris conscience de cette révolution. Une poignée de groupes industriels de premier plan ont commencé à se mobiliser, à l’image d’Atos, Thales, Orange, Air Liquide ou Airbus, mais ils demeurent l’exception quand ils devraient être la règle.

Sciences- Un ordinateur quantique : Pour quand ?

Sciences- Un ordinateur quantique : Pour quand ?

Passer de l’ordinateur classique à l’ordinateur quantique , c’est se donner une puissance de calcul dont il est difficile de prendre l’ampleur. Un peu comme si on comparaît le boulier à l’ordinateur actuel. Les champs d’application du calcul quantique concerneraient énormément  de domaines par exemple la médecine, la logistique, la finance, l’intelligence artificielle ou la traduction des langues.

 

« Dans un entretien de vulgarisation avec Etienne KleinThierry Breton schématise le fonctionnement d’un calcul quantique comme un avis de recherche : si l’on cherche dans une salle de mille personnes quelqu’un mesurant plus de 1,80 m et parlant anglais, il compare l’informatique classique à l’interrogation de chaque participant un par un en posant les questions « Mesurez-vous plus de 1,80 m ? » et « Parlez-vous anglais ? » et en notant les numéros de ceux qui répondent « oui » aux deux questions, ce qui va prendre un certain temps. En calcul quantique, tout se passe comme si on lançait un appel général : « Les personnes mesurant plus de 1,80 m et parlant anglais peuvent-elles lever la main ? » et on a la réponse quasi instantanément. Thierry Breton parle de calcul holistique et non plus séquentiel. Reste à mettre au point des langages traitant globalement un ensemble de valeurs possibles comme une seule. Pour le moment, Atos travaille sur une sorte d’assembleur approprié, nommé AQAL (Atos Quantum Assembly Language). Le nom d’ »assembleur » peut induire en erreur, puisqu’il s’agit d’un langage de description de traitements qui est au contraire indépendant de la machine utilisée (contrairement à un assembleur au sens classique, donc) à condition qu’elle respecte quelques grandes lignes d’une sorte de machine virtuelle. » (Wikipédia)

Un pas important pourrait avoir été franchi ces jours-ci. Un mois après avoir fait fuiter l’information par erreur, Google a annoncé mercredi avoir atteint la suprématie quantique. Dans un communiqué publié le 23 octobre, la firme de Mountain View prétend avoir « démontré sa capacité à calculer en quelques secondes ce qui prendrait des milliers d’années aux supercalculateurs les plus grands et avancés, atteignant ainsi une étape majeure connue comme la suprématie quantique« .

Mais il y a loin la théorie à la réalité d’après un papier du Monde

« . Dompter les lois de la physique à l’échelle de l’infiniment petit pour créer un appareil avec une puissance de calcul sans équivalent avec les machines actuelles capable de résoudre les problèmes les plus complexes. Après l’espace dans les années 50, la communauté scientifique et technologique s’emploie aujourd’hui à conquérir une nouvelle frontière, celle de l’informatique quantique, un horizon de plus en plus convoité depuis les années 80.

Aux avant-postes de cette course technologique mondiale, on retrouve les Etats-Unis et la Chine, dont les grands industriels investissent massivement en R&D pour ne pas rester à quai de la révolution annoncée. Côté américain, Google, IBM et Microsoft sont convaincus de pouvoir réaliser des calculs quantiques totalement inaccessibles aux ordinateurs traditionnels dans les prochaines années.

Un pas important pourrait avoir été franchi ces jours-ci. Un mois après avoir fait fuiter l’information par erreur, Google a annoncé mercredi avoir atteint la suprématie quantique. Dans un communiqué publié le 23 octobre, la firme de Mountain View prétend avoir « démontré sa capacité à calculer en quelques secondes ce qui prendrait des milliers d’années aux supercalculateurs les plus grands et avancés, atteignant ainsi une étape majeure connue comme la suprématie quantique« .

La suprématie quantique est un concept né dans les années 80. Elle désigne le moment où est démontrée la supériorité d’un ordinateur quantique sur un ordinateur classique sur une tâche particulière. Les ingénieurs de Google, aidés par la Nasa et le laboratoire national d’Oak Ridge, affirment avoir réussi à créer un processeur capable de réaliser un calcul en 200 secondes quand le plus avancé des ordinateurs actuels aurait besoin de 10.000 ans. »

Sciences-Un plan quantique de 1,8 milliard

Sciences-Un plan quantique de 1,8 milliard

La France fixe un objectif très ambitieux de mettre au point le premier ordinateur quantique. Doté de 1,8 milliard d’euros sur cinq ans dont 1 milliard directement financé par l’Etat,. Des chiffres qui dépassent les attentes

. « J’ai rarement vu une stratégie d’Etat sur une technologie aussi précise, complète, bien ficelée et bien financée. Honnêtement, je suis aux anges« , confie à La Tribune Elie Girard, le directeur général du groupe d’informatique Atos, l’un des pionniers mondiaux du quantique.

En exploitant les propriétés de la matière à l’échelle de l’infiniment petit (atome, ion, photon, électron…), les technologies quantiques portent la promesse d’ordinateurs qui ridiculiseront les plus puissants des supercalculateurs actuels. Cela signifie que le quantique est promis à briser de nombreux verrous et devrait permettre de s’attaquer enfin à des défis aujourd’hui insolubles.

« Evolution, écologie et pandémies »

« Evolution, écologie et pandémies »

 

Le biologiste Samuel Alizon déploie ses talents de pédagogue dans son  livre pour mettre en lumière l’apport de l’évolution des populations, des hôtes comme des virus ou bactéries, dans la compréhension des épidémies.

 

Analyse du Monde (extrait)

 

Le Seuil a eu la bonne idée de ressortir en poche un livre paru en 2016, précieux en ces temps de pandémie. La parution s’accompagne d’un nouveau chapitre et surtout d’une postface incisive où l’auteur, Samuel Alizon, biologiste très impliqué dans l’analyse des génomes viraux et la modélisation de l’épidémie, livre ses pensées à chaud sur la crise en cours. Il y est notamment question des faiblesses françaises de la politique sanitaire, qui privilégierait le soin plutôt que la prévention, et de la politique de recherche, qualifiée d’« utilitariste ». A l’appui de ces critiques, l’auteur rappelle que le Covid-19 est arrivé alors qu’il y avait des protestations des personnels à l’hôpital et des manifestations de chercheurs opposés à une loi de programmation budgétaire.

Surtout, il déploie dans le cœur du livre ses talents de pédagogue sur le fonctionnement des parasites avec une approche très darwinienne, qui revendique la prise en compte de l’évolution des populations, des hôtes comme des virus ou bactéries. Le biologiste commence par rappeler les trois concepts-clé de l’évolution – la variabilité, l’héritabilité et la sélectivité –, pour expliquer les mécanismes des épidémies, l’apparition de résistance, l’origine des pandémies, leur modélisation… On saute de bactéries en virus, du sida à Ebola en passant par le cancer, la drépanocytose ou la myxomatose.

Faire dialoguer les biologies

Le premier chapitre justifie ce regard particulier car le spécialiste considère que la médecine actuelle est assez hémiplégique, tournée vers les mécanismes de biologie moléculaire individuels plutôt que vers l’étude des effets de l’évolution sur les populations. Ce serait la victoire de Pasteur sur Darwin. Mais pour l’auteur il est urgent de faire dialoguer ces deux biologies.

Les chapitres suivants apportent des preuves nombreuses de l’apport de l’évolution dans la compréhension des épidémies. Les surprises et les conclusions contre-intuitives n’y sont pas rares. Beaucoup de questions restent sans réponse, dont la principale, « pourquoi les parasites nous tuent-ils ? ». Ou plongent dans la perplexité : « Les mâles sont-ils les parasites des femelles ? »

Le chapitre sur les traitements, alors que la campagne de vaccination contre le Covid-19 débute lentement en France, souligne la complexité du sujet. La phagothérapie, les peptides antimicrobiens, les moustiques transgéniques ont des avantages et des inconvénients. Sur les vaccins, qui font pression sur l’environnement du virus, le biologiste prévoit que de futures souches plus virulentes émergent – le variant britannique est, lui, plus contagieux –, au risque de menacer les personnes non vaccinées.

« L’indépendance enseignant-chercheur mise en cause »

« L’indépendance enseignant-chercheur mise en cause »

En validant des dispositions contestées de la loi de programmation de la recherche, le Conseil constitutionnel rend possible d’accéder au corps des professeurs d’université sans qualification par une instance nationale, regrettent, dans une tribune au « Monde », les professeurs de droit Dominique Rousseau, Pierre-Yves Gahdoun et Julien Bonnet.

Tribune. 

 

En 1984, le Conseil constitutionnel consacrait un principe fondamental, reconnu par les lois de la République : celui de l’indépendance des professeurs d’université. Cette décision laissait présager, pour les années à venir, un contrôle serré des mesures législatives susceptibles de heurter cette indépendance.

Le Conseil, trente-sept ans après, semble le regretter. Dans sa décision du 21 décembre 2020, sans revenir officiellement en arrière, il s’applique à vider complètement de sa substance ce principe constitutionnel en validant des dispositions de la loi de programmation de la recherche dénoncées – chose rare – par la quasi-totalité du monde académique.

On pourra dire, bien entendu, que les auteurs de la présente tribune étant eux-mêmes des universitaires, et l’un d’entre eux siégeant au Conseil national des universités (CNU), l’appréciation ne saurait être totalement objective. Et l’argument serait valable. On pourra également soutenir que le travail de commentaire étant par définition plus ou moins critique, on trouvera toujours, ici ou là, une plume grincheuse pour voir dans la jurisprudence du Conseil matière à s’insurger.

Une protection bien illusoire

Tout cela est encore vrai. Mais tout de même : le Conseil rend, sur cette loi de programmation de la recherche pour les années 2021 à 2030, une décision vite rédigée, mal argumentée, et qui ne répond absolument pas aux différents griefs invoqués. Les requérants voyaient ainsi dans la nouvelle procédure de « tenure track », permettant aux établissements de recruter « en qualité d’agent contractuel de droit public une personne en vue de sa titularisation dans le corps des professeurs de l’enseignement supérieur », une porte ouverte au localisme le plus complet.

Mais le Conseil se contente à ce sujet de rappeler par une réserve d’interprétation que « le principe d’indépendance des enseignants-chercheurs s’oppose à ce que le chef d’établissement puisse refuser, pour des motifs étrangers à l’administration de l’université et, en particulier, des motifs liés à la qualification scientifique de l’intéressé, de proposer à la titularisation un candidat ayant reçu un avis favorable de la commission de titularisation ». Le Conseil ajoute que « le chef d’établissement ne saurait, non plus, quel qu’en soit le motif, proposer à la titularisation un candidat ayant fait l’objet d’un avis défavorable de cette commission ».

Protection bien illusoire puisque, dans les faits, la commission de titularisation de l’université reste toujours plus ou moins liée à la présidence, si bien que la décision de cette commission ne sera jamais officiellement désavouée. Mais le Conseil fait mine de ne rien voir et s’en remet aux modestes contraintes légales pour valider le mécanisme dans son ensemble.

 

Technologies :« Pour une éthique des algorithmes »

Technologies :« Pour une éthique des algorithmes »

Le licenciement par Google de Timnit Gebru, chercheuse de renom en intelligence artificielle, jette une ombre sur les priorités de l’entreprise et suscite de légitimes protestations, souligne, dans une tribune au « Monde », Lê Nguyên Hoang, spécialiste de l’éthique des algorithmes à à l’Ecole polytechnique fédérale de Lausanne.

Tribune. 

Début décembre, Timnit Gebru, codirectrice de l’équipe d’éthique de l’intelligence artificielle (IA) de Google et chercheuse académique de renom, a été licenciée. Les informations au sujet de son licenciement sont encore très incomplètes. Néanmoins, cet événement semble faire suite à une contestation par la chercheuse de décisions éthiquement discutables de la direction de son entreprise. En particulier, celle-ci semble avoir exigé la rétractation d’un article de recherche, dont Timnit Gebru est coautrice, et qui questionne l’éthique des algorithmes de traitement de langage au cœur de nombreux produits de Google.

En réaction à cet événement, une lettre ouverte de soutien a été publiée. Cette lettre conteste la version des faits présentée par Google ainsi que les décisions de l’entreprise, et exige davantage de transparence et d’engagement éthique. Elle a aujourd’hui reçu 2 695 signatures d’employés de Google, et 4 302 signatures d’universitaires, d’employés de l’industrie des technologies et de membres de la société civile.

Pour comprendre l’importance de cette lettre, il est utile de prendre du recul et de mesurer l’impact mondial des algorithmes de Google. Ces algorithmes répondent quotidiennement à des milliards de requêtes d’utilisateurs, sur des thèmes parfois controversés et dangereux comme « le changement climatique est un canular », « les dangers de la vaccination » ou « événement musulman ». Ces algorithmes ont aussi une influence monumentale sur les vidéos qui seront davantage visionnées sur la plate-forme YouTube, puisque deux visionnages sur trois résultent de recommandations algorithmiques. De façon inquiétante, plusieurs études suggèrent que ces algorithmes promeuvent énormément de contenus complotistes, et ont contribué à ce que les vidéos qui nient le changement climatique fassent autant de vues que celles qui l’expliquent.

Biais préoccupants

Dans ce contexte, il semble important d’étudier davantage l’éthique de ces algorithmes. L’article rétracté par Google soulignait justement, entre autres, que des biais préoccupants avaient été assimilés par les algorithmes de traitement des langages. Ces biais avaient d’ailleurs déjà été soulignés, par exemple par Abubakar Abid, qui a montré qu’un algorithme appelé GPT-3 complétait systématiquement des débuts de phrases à propos des musulmans par des histoires de terrorisme. Si des algorithmes similaires sont déployés par Google, à moins d’une réflexion éthique préalable, il faut craindre que les réponses à des recherches comme « événement musulman » parlent eux aussi davantage de terrorisme que de ramadan.

 

Un Français « déchiffre l’élamite  » une écriture de plus de 4000 ans

 Un Français déchiffre  » l’élamite  » une écriture de plus de 4000 ans

L’archéologue français François Desset, du Laboratoire Archéorient à Lyon, a annoncé le qu’il avait réussi à déchiffrer des inscriptions vieilles de 4.400 ans ! Un article paru dans Sciences avenir. Cet écriture était utilisée par les Elamites qui peuplaient alors l’Iran.

Les plus anciens exemples d’écriture connus à ce jour proviennent de Mésopotamie (Irak actuel) et remontent à l’Age du Bronze, vers 3300 ans avant J.-C. : il s’agit des tablettes proto-cunéiformes. Or le déchiffrement de l’élamite linéaire remet en question cette suprématie ! « Nous découvrons en effet que vers 2300 avant J.-C., un système d’écriture parallèle existait en Iran, et que sa version la plus ancienne - appelée l’écriture proto-élamite, (3300 avant J.C. - 2900 avant J.-C.) – remontait aussi loin dans le temps que les premiers textes cunéiformes mésopotamiens ! précise François Desset. Aussi, je peux aujourd’hui affirmer que l’écriture n’est pas d’abord apparue en Mésopotamie puis plus tard en Iran : ces deux systèmes, le proto-cunéiforme mésopotamien et le proto-élamite iranien, ont en fait été contemporains ! Il n’y a pas eu une écriture mère dont le proto-élamite serait la fille, il y a eu deux écritures sœurs. D’autre part, en Iran, il n’y a pas eu non plus deux systèmes d’écritures indépendantes comme les spécialistes le pensaient jusque-là, avec le proto-élamite d’un côté et l’élamite linéaire de l’autre, mais une même écriture qui a été soumise à évolution historique et a été transcrite avec des variations au cours de deux périodes distinctes. » 

Ce qui change complètement la perspective sur l’apparition du système d’écriture au Proche Orient puisqu’il est désormais plus exact de dire que l’Iran a développé son propre système d’écriture « en même temps » qu’en Mésopotamie et que le plateau iranien ne devrait plus être ignoré désormais dans les reconstitutions historiques traitant des origines de l’écriture…
En vert, l’aire de diffusion de l’écriture élamite linéaire au 4e/3ee millénaire avant J.-C. ©François Desset

C’est cette forme la plus récente de l’écriture iranienne (l’élamite linéaire) qui a pu être déchiffrée. Il s’agit, à l’heure actuelle, de quarante inscriptions provenant du sud de l’Iran, depuis l’antique ville de Suse, en passant par le Fars (avec la région de Kam Firouz et la plaine de Marv Dasht, juste à côté du célèbre site achéménide de Persépolis) puis le sud-est iranien avec Shahdad et le célèbre site de Konar Sandal / Jiroft. Contrairement au cunéiforme mésopotamien, qui est un système d’écriture mixte alliant des phonogrammes (signes transcrivant un son) à des logogrammes (signes transcrivant une chose, une idée, un mot), l’élamite linéaire présente quant à lui la particularité, unique au monde au 3ème millénaire avant J.-C., d’être une écriture purement phonétique (avec des signes notant des syllabes, des consonnes et des voyelles). Utilisée d’environ 3300 à 1900 avant J.-C., l’écriture iranienne a considérablement évolué entre ses textes les plus anciens (les tablettes Proto-Elamites) et les plus récents (les textes en élamite linéaire), avec notamment un processus « d’écrémage ». Des 300 signes de départ permettant de noter les noms propres dans les tablettes proto-élamites (dont la grande majorité est conservée à l’heure actuelle au Musée du Louvre), il n’en restera que 80 à 100 par la suite en élamite linéaire, sa version la plus récente. Une centaine de signes utilisés donc en continu pendant quelque 1400 années et généralement écrits de la droite vers la gauche et du haut vers le bas.  »Pour travailler, nous avons divisé la quarantaine de textes dont nous disposions en 8 corpus, en fonction des provenances et des époques. Car l’élamite linéaire a été utilisé de 2300 à 1900 avant J.-C. sous le règne de différents souverains et dynasties et dans différentes régions », poursuit l’archéologueLa plupart des textes sont des inscriptions royales assez répétitives, dédicacées à d’anciens dieux, du type : « Je suis [le nom], le grand roi de [nom], le fils de [nom du père], j’ai fait cet objet pour [nom du dieu ou d’une personne]« .

Le déclic des  »vases gunagi »

Pour François Desset, le « déclic » du déchiffrement s’est produit en 2017 lors de l’analyse d’un corpus de 8 textes rédigés sur des vases en argent, qualifiés de « vases gunagi », datés vers 2000-1900 avant J.-C. et venant de tombes de la région de Kam-Firouz (à l’heure actuelle conservés dans une collection privée à Londres). Comme ces vases présentaient des séquences de signes très répétitives, standardisées à vrai dire, l’archéologue a pu ainsi repérer les signes servant à noter les noms de deux souverains, Shilhaha et Ebarti II (ayant régné tous les deux vers 1950 avant J.-C.) et de la principale divinité vénérée alors dans le sud-ouest de l’Iran, Napirisha.

 
Inscription en élamite linéaire dans la partie supérieure de ce vase en argent provenant de Marv Dasht (Iran), daté du 3e millénaire avant J.-C. © François Desset

Cette première étape du déchiffrement, publiée en 2018, a abouti cette année au déchiffrement complet, qui sera publié scientifiquement en 2021. Ainsi, à titre d’exemple, le décryptage d’un magnifique vase en argent découvert dans la région de Marv Dasht dans les années 1960 et conservé à l’heure actuelle au Musée National à Téhéran (Iran), où l’on peut désormais lire: « A la dame de Marapsha [toponyme], Shumar-asu [son nom], j’ai fait ce vase en argent. Dans le temple qui sera célèbre par mon nom, Humshat, je l’ai déposé en offrande pour toi avec bienveillance ». Le résultat d’années de travail acharné. « Je travaille sur ces systèmes d’écriture depuis 2006, explique le chercheur à Sciences et AvenirJe ne me suis pas levé un matin en me disant que j’avais déchiffré l’élamite linéaire. Cela m’a pris plus de 10 ans et je n’ai jamais été certain que je parviendrais au but. »

L’écriture élamite linéaire note une langue particulière, l’élamite. Il s’agit d’un isolat linguistique ne pouvant être rattaché à l’heure actuelle à aucune autre famille linguistique connue, à l’exemple du basque. « Jusqu’à ce déchiffrement, tout ce qui concernait les populations occupant le Plateau iranien provenait d’écrits mésopotamiensCes nouvelles découvertes vont enfin nous permettre d’accéder au propre point de vue des hommes et femmes occupant un territoire qu’ils désignaient par Hatamti, alors que le terme d’Elam par lequel nous le connaissions jusque-là, ne correspond en fait qu’à un concept géographique externe, formulé par leurs voisins Mésopotamiens ».
Cône en terre cuite comportant des inscriptions en élamite linéaire datées d’environ 2500-2300 avant J.-C. ©François Desset

Cette percée du déchiffrement à des implications importantes dans trois domaines, a poursuivi François Desset: « sur l’histoire iranienne; sur le développement de l’écriture en Iran en particulier, et au Proche-Orient en général, avec des considérations sur la continuité entre les systèmes d’écriture proto-élamite et élamite linéaire; et sur la langue hatamtite (élamite) elle-même, désormais mieux documentée dans sa forme la plus ancienne et rendue désormais accessible pour la première fois par un système d’écriture autre que le cunéiforme mésopotamien (lire encadré).

Pour Massimo Vidale, le protohistorien italien organisateur de la conférence de Padoue, (dont Sciences et Avenir vient de publier les travaux sur le site d’ »Hatra, la cité du Dieu-Soleil » (Irak), dans son magazine daté décembre 2020 actuellement en kiosque), « La France, par ce nouveau décryptage, maintient sa primauté dans le « craquage » des anciens systèmes d’écritures perdus ! ». Quant à François Desset, il s’est déjà lancé dans le déchiffrement de l’état le plus ancien de l’écriture iranienne, les tablettes proto-élamites, pour lesquelles il considère avoir désormais ouvert une « autoroute ».

A propos du déchiffrement des anciennes écritures

Il ne faut pas confondre langue (les sons parlés) et écriture (les signes visuels). Ainsi, un même système d’écriture peut être utilisé pour noter des langues différentes. Par exemple, l’alphabet latin permet actuellement de transcrire le français, l’anglais, l’italien ainsi que le turc par exemple. De la même façon, l’écriture cunéiforme des Mésopotamiens permettait de transcrire plusieurs langues comme l’akkadien (langue sémitique), le vieux perse (langue indo-européenne) ou bien encore l’élamite et le sumérien (isolats linguistiques). Inversement, une langue peut également être transcrite par différents systèmes d’écriture comme le persan (une langue indo-européenne) qui s’écrit à l’heure actuelle aussi bien avec l’alphabet arabe en Iran (et parfois l’alphabet latin avec le surprenant phénomène du fingilish), que l’alphabet cyrillique au Tadjikistan alors qu’il a été noté par le passé avec un système cunéiforme à l’époque achéménide (ca. 520-330 avant J.-C., pour le Vieux Perse) ou l’alphabet araméen à l’époque sassanide (3ème-7ème siècle de notre ère pour le Moyen Perse). Dans le cas de la langue élamite, elle était connue jusqu’à présent uniquement à travers l’écriture cunéiforme. Avec le déchiffrement de l’écriture élamite linéaire réalisé par François Desset, nous avons désormais accès à cette langue à travers un système d’écriture probablement développé exprès pour elle et reflétant donc mieux les subtilités phonologiques de cette langue que l’écriture cunéiforme.

Quelques grands « déchiffreurs » :

L’abbé Barthélémy (1716-1795) a en 1753 décrypté l’alphabet palmyréen, puis en 1754, l’alphabet phénicien.

Jean-François Champollion (1790-1832) a déchiffré les hiéroglyphes égyptiens.

Henry Creswicke Rawlinson (1810-1895) un des quatre co-déchiffreurs de l’écriture cunéiforme notant la langue akkadienne.

Michael Ventris (1922-1956) a déchiffré en 1952 le « linéaire B », l’une des trois écritures découvertes à Cnossos (Crète) utilisée au 2ème millénaire avant J.-C. pour noter une forme archaïque du Grec.

Du poulet artificiel dans un restaurant !

Du poulet artificiel dans un restaurant !

Pour la première fois poulet artificiel a été servi dans un restaurant de Singapour. L’objectif environnemental serait de réduire l’empreinte carbone de la consommation de viande dans le monde. Bref la chimie industrielle au service d’une cause écologique à la fois discutable et évidemment dangereuse quand on sait ce que les industriels de l’industrie alimentaire sont capables d’incorporer dans leurs produits. Observons que les écolos bobos sont très discrets sur les effets de cette chimie alimentaire.

Eat Just, qui travaille sur ce projet de viande de laboratoire cultivée à partir de cellules animales, a annoncé que ses morceaux de poulet avaient été autorisés à la vente par l’agence de sécurité alimentaire de la cité-Etat d’Asie du Sud-Est. Il s’agit « d’une avancée pour l’industrie alimentaire mondiale », a-t-elle souligné dans un communiqué reçu mercredi, alors que de nombreuses sociétés cherchent des moyens de produire de la viande avec un impact moindre sur l’environnement.

. Eat Just précise avoir produit plus de 20 lots de viande de poulet artificielle dans des bioréacteurs de 1 200 litres avant de soumettre sa production à des tests de qualité et de sécurité. La consommation de viande mondiale devrait augmenter de 70 % d’ici 2050, et la viande artificielle pourrait bientôt répondre à une partie de la demande, selon la start-up .

« En collaborant avec le secteur agricole dans son ensemble et des politiques visionnaires, des compagnies comme la nôtre peuvent aider à répondre à la demande en hausse pour les protéines animales d’une population qui atteindra 9,7 milliards d’ici 2050 », selon Josh Tetrick. Singapour encourage la croissance de start-up développant de nouvelles technologies agricoles et alimentaires, allant de la création de « fruits de mer » cultivés en laboratoire à des raviolis dans lesquels des fruits tropicaux remplacent le porc.

À quand le recyclage des ordures ménagères ou des vieux pneus remplacer la viande hachée des McDo ?

 

« Sauver “Science & Vie !” »

« Sauver “Science & Vie !” »

Dans une tribune au « Monde », un collectif de près de trois cents universitaires et scientifiques, parmi lesquels Philippe Descola, Julie Battilana, Françoise Combes, Annie Ernaux, Gabriel Zucman ou Julia Cagé, dénonce les pratiques du groupe Reworld qui contrôle Science et Vie

Tribune. 

 

Saviez-vous que la découverte de nouveaux corps venait remettre en cause la date de l’éruption du Vésuve ? Nous non plus. Et pour cause : il s’agit d’une fausse information. Un article publié en ligne le 2 décembre sur le site de Science & Vie par une apprentie en formation au « media content manager » Bachelor de Reworld Media Campus (pardonnez le franglais) contre l’avis – et malgré les protestations – de la rédaction du journal, qui n’a plus accès aujourd’hui aux contenus publiés sur son propre site.

Petit rappel des faits : en juillet 2019, le groupe Reworld Media, groupe créé en 2012 par Pascal Chevalier, figure de la « French tech », et qui se présente comme « un groupe d’entrepreneurs français avec une culture start-up », a fait l’acquisition de Mondadori France, mettant ainsi la main sur une trentaine de titres, dont BibaGrazia et Science & Vie et devenant au passage le premier groupe magazine français.

En 2019 déjà, ce rachat avait suscité les protestations des salariés du groupe inquiets pour leur avenir. Car les méthodes de Reworld sont en contradiction même avec l’éthique journalistique : produire du contenu sans rédaction. Et de fait, au cours des derniers mois, Reworld a fait partir petit à petit les journalistes de ses titres nouvellement acquis : d’une part, 60 % d’entre eux ont fait jouer leur clause de cession au moment du changement d’actionnariat sans être remplacés ; pour les autres, Reworld s’est prévalu de « l’équation économique » pour finir d’externaliser leur fabrication, mettant ainsi fin à la parution en kiosque de l’hebdomadaire Grazia, et supprimant au passage une trentaine d’emplois.

Pas d’information sans journalistes

Nous soutenons aujourd’hui les salariés de Science & Vie – ainsi que ceux des autres titres du groupe Reworld Media – car nous pensons qu’on ne peut pas faire d’information sans journalistes. Faut-il rappeler qu’en ces temps de controverses scientifiques et de désinformation galopante, par exemple autour de la question du vaccin contre la Covid-19, nous n’avons jamais autant eu besoin d’une information scientifique indépendante et de qualité ?

Nous les soutenons car nous pensons que les médias ne sont pas des entreprises comme les autres : l’information est un bien public ; l’actionnaire d’un média ne devrait pas être libre de le vider de sa rédaction, d’externaliser la production de contenus – puisque sans journalistes il ne peut plus s’agir d’informations – dans le seul but de faire fructifier la marque à moindres frais et de maximiser ainsi sa rentabilité.

 

Informatique quantique : la Chine va concurrencer les États-Unis

Informatique quantique : la Chine va concurrencer les États-Unis

 

Une équipe de chercheurs de l’Université des sciences et technologies de Chine a en effet revendiqué vendredi avoir dépassé les précédents records des deux géants américains Google et IBM.

Selon l’article publié dans la revue Science, l’équipe chinoise affirme que son système, appelé Jiuzhang, a réalisé en trois minutes un calcul qui aurait pris deux milliards d’années à un puissant superordinateur.

A titre de comparaison, Google avait communiqué il y a un an environ sur son processeur Sycamore qui aurait mis, lui, environ 200 secondes à exécuter une tâche qui selon les chercheurs aurait « nécessité approximativement 10.000 années [de calcul] sur le meilleur supercalculateur au monde ».

La fusion nucléaire expérimentée en Chine

La fusion nucléaire expérimentée en Chine

 

Alors que la France est dans une phase d’expérimentation pour un réacteur à fusion dans le cadre du projet international ITER, la Chine a déjà mis au point un réacteur à fusion . Les réacteurs en service actuellement sont à fission nucléaire et ont surtout le désavantage de générer des déchets très toxiques. La fusion nucléaire est considérée par ses défenseurs comme l’énergie de demain car elle est infinie, tout comme celle du soleil, et ne produit ni déchets ni gaz à effet de serre.

La Chine dispose à cet effet d’un réacteur Tokamak HL-2M, le plus performant du pays, dans la province du Sichuan (sud-ouest). Il s’agit d’une chambre de confinement magnétique qui génère une chaleur phénoménale dans le but de fondre des noyaux atomiques.

Ce tokamak est surnommé « soleil artificiel » en raison de la température qui peut y dépasser les 150 millions de degrés, selon Chine nouvelle – soit dix fois la chaleur produite au cœur même du soleil.

 

Le réacteur va « apporter un soutien technique essentiel à la Chine » dans le cadre de sa participation au projet international Iter sur des réacteurs à fusion expérimentaux, a indiqué l’ingénieur en chef Yang Qingwei, cité par Chine nouvelle.

La France a lancé en juillet à Saint-Paul-lès-Durance (Bouches-du-Rhône) l’assemblage d’un gigantesque réacteur à fusion dans le cadre du projet Iter. Il vise les 150 millions de degrés mais les premiers tests ne sont pas attendus avant 2025.

L’assemblage du réacteur expérimental ITER, dont l’ambition est d’apprendre à maîtriser la fusion nucléaire, a débuté mardi 28 juillet dans le sud de la France. Mais les connaissances scientifiques en la matière progressent trop lentement au vu de l’urgence climatique.

Le projet a débuté en 2006, avec la signature d’un accord international réunissant 35 pays, dont les membres de l’Union Européenne (avec, à l’époque, le Royaume-Uni), la Suisse, l’Inde, le Japon, la Corée du Sud et les États-Unis. Depuis environ 15 ans, le site ITER (réacteur thermonucléaire expérimental international) s’édifie lentement dans le sud de la France, à Cadarache, dans les Bouches-du-Rhône.
Après plusieurs contretemps, sa construction  a franchi ce mardi 28 juillet une étape symbolique : le lancement de l’assemblage du réacteur, qui devrait encore durer près de cinq ans. Un événement salué par Emmanuel Macron, en visioconférence, ainsi que par les dirigeants de sept des États partenaires du projet.
“Avec la fusion, le nucléaire peut être une promesse d’avenir”, en offrant “une énergie non polluante, décarbonée, sûre et pratiquement sans déchets”, a souligné le président français. Le chef d’État sud-coréen Moon Jae-In voit dans ce “plus grand projet scientifique de l’histoire de l’humanité”  la concrétisation d’un “rêve partagé de créer une énergie propre et sûre d’ici à 2050”.
Théoriquement, la fusion nucléaire permet effectivement d’accéder à une source d’énergie décarbonée, aux déchets radioactifs peu nombreux et à courte durée de vie. Une technologie bien plus propre que la fission nucléaire employée dans les centrales actuelles, et quasiment infinie : la fusion ne nécessite en effet pas d’uranium, minerai dont les réserves tendent à s’épuiser. Elle reproduit, à peu de choses près, les réactions observées au cœur des étoiles, d’où l’expression “mettre le soleil en boîte” pour décrire son mode de fonctionnement.

La fusion est largement plus complexe que la fission nucléaire et les expérimentations nécessitent la construction de tokamaks de plus en plus grands et performants. En effet, chaque changement d’échelle provoque l’apparition de nouveaux phénomènes, qu’il faut apprendre à maîtriser. D’où la naissance d’ITER, tokamak encore plus vaste que Jet et qui aura lui même un successeur. Le réacteur de Cadarache n’est en fait qu’une étape dans la maîtrise de la fusion. Une étape symbolique, sans doute, mais encore très éloignée d’une centrale électrique fonctionnelle mais qui vient d’être franchi par la Chine.

Le Centre-Val de Loire : laboratoire de l’Internet par la lumière ?

 Le Centre-Val de Loire : laboratoire de l’Internet par la lumière ?

 

Le centre Val de Loire se veut un laboratoire de diffusion d’Internet par la lumière Le Li-Fi (acronyme des mots anglais light et fidelity) est une technologie de connexion Internet sans fil qui utilise la partie visible du spectre électromagnétique en modulant la lumière sur de hautes fréquences pour coder et transmettre des informations.

 

Article de Futura-sciences:

 

Cette technologie prometteuse présentée comme une alternative au Wi-Fi et dont on entend parler depuis une dizaine d’années, tarde à émerger. Cependant, elle devrait nous devenir un peu plus familière cette année grâce à la commercialisation des premiers dispositifs destinés au grand public. En l’occurrence, il s’agit d’une lampe de bureau et d’une serrure connectée, fabriquées par deux entreprises françaises qui ont fait parler d’elles lors du dernier Consumer Electronics Show (CES) : Oledcomm et Havr.

 

Oledcomm a créé MyLiFi, une lampe de bureau LED qui diffuse une connexion Internet sans fil via la lumière. La lampe est munie d’un câble Ethernet qui se branche à un routeur Wi-Fi ou une box Internet. L’ordinateur, que l’on place dans le champ lumineux, est lui équipé d’un récepteur Li-Fi branché via le port USB. La connexion offre un débit de 23 Mbit/s, bien loin de ce que peut faire la norme 802.11ac (jusqu’à 1.300 Mbit/s de débit théorique), qui est la version grand public du Wi-Fi la plus répandue. Mais le Li-Fi a d’autres arguments à faire valoir.

 

Pour mémoire, cette technologie, qui s’apparente au morse dans son fonctionnement, se sert de la modulation de lumière à haute fréquence pour coder et transmettre des informations. Le Li-Fi est présenté comme plus sécurisé que le Wi-Fi (pas de risque de piratage de la connexion à distance) et plus sûr du point de vue sanitaire face à la nocivité que l’on prête aux ondes radio. Oledcomm exploite aussi l’argumentaire de la luminothérapie, mettant en avant la possibilité de contrôler l’intensité de l’éclairage et la température de la couleur.

 

Après l’établissement giennois Bernard Palissy en septembre, le lycée Grandmont à Tours à lui aussi été doté le 19 octobre d’une installation en LiFi (Light Fidelity) pour son Centre de Documentation et d’Information (CDI). Un troisième lycée, probablement professionnel, sera équipé début 2021. Pour mener cette expérimentation, la région Centre-Val de Loire a choisi comme intégrateur Spie ICS. La filiale IT du groupe de BTP s’appuie elle sur la technologie d’Oledcomm. Conjointement à la société écossaise Pure LiFi, cette TPE installée à Vélizy est le co-inventeur en 2012 de la LiFi.

Quelle régulation de l’intelligence artificielle

Quelle régulation de l’intelligence artificielle

L’informaticien et philosophe Jean-Gabriel Ganascia estime que les Etats doivent se saisir de ces questions et prendre leurs responsabilités, afin de ne pas s’en remettre uniquement aux acteurs privés.(Interview dans le monde)

Elon Musk a présenté, le 28 août, les recherches de sa société Neuralink visant, avec le recours de l’intelligence artificielle, à soigner des pathologies et augmenter les capacités cérébrales. Comment analysez-vous ces annonces ?

Les déclarations d’Elon Musk sont problématiques. Sa société travaille sur les implants cérébraux et sur les interfaces cerveaux-ordinateurs. Nous savons que quand une personne a une activité cérébrale, ses neurones émettent des signaux électriques. Les recherches dans le domaine des interfaces visent à analyser ces signaux grâce à des techniques d’apprentissage machine, afin de les transformer par exemple en commande d’un objet, d’une prothèse, etc. On parle ici d’un signal qui part de l’homme vers une machine.

Elon Musk, lui, laisse entendre qu’il pourrait aussi avoir un signal retour, de la machine vers l’homme donc. Nous pourrions, à terme, tous être connectés au réseau par nos cerveaux et bénéficier d’informations mises en commun. En étant tous liés par un « lacet neuronal » nous deviendrions d’une certaine manière transparents les uns aux autres. Il y a, derrière cette idée, la théorie selon laquelle l’intelligence artificielle va nous dépasser et qu’il faut, pour rivaliser, augmenter notre mémoire.

D’où vient cette notion de mémoire augmentée ?

En partie des auteurs de science-fiction, comme l’Ecossais Iain Banks (1954-2013), qui, dans la seconde moitié du XXe siècle, utilise le terme de « lacet neuronal » repris par Elon Musk dans sa présentation. Mais on trouve des liens encore plus anciens. Le physicien Vannevar Bush (1890-1974), conseiller scientifique du président Roosevelt, a écrit en 1945 – avant le premier ordinateur électronique – un texte visionnaire, As We May Think (« comme nous pourrions penser »), où il imagine le Memex (Memory Extender), un extenseur de mémoire pour gérer le savoir technologique en constante augmentation.

Il imagine, dessin à l’appui, un verre dépoli, l’équivalent d’un écran, sur lequel pourrait être projeté de l’information. Dans la conclusion du texte, il évoque les ondes électriques cérébrales et s’interroge : « Peut-être qu’un jour, on saura quelle est leur nature et on pourra passer, sans intermédiaire, directement de l’électricité extérieure, remplie d’information, à l’électricité intérieure. » On peut voir une certaine continuité entre sa vision et celle d’Elon Musk.

 

L’enjeu de la régulation de l’intelligence artificielle

L’enjeu de la régulation de l’intelligence artificielle

 

Florian Ingen-Housz, partner au sein d’Altermind, et Victor Storchan, ingénieur en IA dans l’industrie financière, explique l’enjeu de la régulation de l’intelligence artificielle (IA) dans la Tribune

 

 

En février dernier, la Commission européenne a publié son livre blanc sur la régulation des applications de l’Intelligence Artificielle (IA). Plutôt que de légiférer unilatéralement sur ce sujet, la Commission a choisi, de manière novatrice, une approche consultative et participative en incitant l’ensemble des parties prenantes à cet écosystème à participer à la discussion. Cette approche doit être encouragée, approfondie et accélérée pour ajuster l’état du droit à un état de l’art technologique qui ne cesse de faire surgir des débats juridiques et normatifs inédits. Cette approche est aussi le seul moyen de faire émerger, dans la décennie qui vient, une véritable vision européenne de la Tech, tout à la fois pro-business et respectueuse des libertés individuelles.

Un défi majeur pour les régulateurs

L’IA constitue en effet un défi majeur pour les régulateurs. La vitesse prodigieuse des avancées technologiques doit inviter ces derniers à co-construire la norme avec un écosystème plus large qu’ils n’en ont l’habitude, plutôt que d’imposer celle-ci « par le haut ». Tout comme l’ont montré les débats sur la bioéthique depuis les années 1970, la régulation technologique est avant tout un choix de société et par conséquent un effort continu. La question se pose néanmoins avec une acuité particulière pour le déploiement de l’IA, compte tenu de l’ambiguïté de ses définitions, de sa nature stochastique et de l’opacité des multiples modèles sur lesquels elle est bâtie. Cette opacité est aggravée par l’hypercroissance de l’écosystème (50% de plus de papiers soumis à NeurIPS – une des conférences majeures de la discipline - en 2019 par rapport à l’année précédente), qui rend immédiatement obsolètes des savoirs difficilement acquis par des régulateurs parfois mal-équipés sur le plan technique. Si la régulation est évidemment primordiale pour permettre l’adoption, créer du consensus et de la confiance envers cette technologie, son élaboration devra donc être suffisamment (i) spécifique dans son champ d’application pour être « implémentable », (ii) inclusive et ouverte dans sa démarche et (iii) sélective dans ses priorités et son séquencement.

Il faudra donc, dans un premier temps, d’abord s’assurer de la juste définition de l’objet ciblé. Ce besoin de spécificité dans un domaine aux frontières floues soulève un premier défi : celui de la sémantique. Le concept d’IA est imprécis, même pour les experts. Contrairement aux précédentes vagues de disruption technologique, que ce soit la machine à vapeur, l’électricité, la chimie ou même les premiers programmes informatiques, les contours de l’IA sont moins tangibles. Ainsi, en 2013, l’Etat du Nevada a dû ainsi revoir sa définition de l’IA pour les véhicules autonomes car celle-ci englobait aussi certains modèles de voitures sophistiquées avec des fonctionnalités de contrôle avancées. La définition de ce qu’est un robot pour l’Union européenne n’est pas non plus satisfaisante. Contrairement à ce que semble indiquer cette dernière, les robots n’acquièrent en effet pas de capacité d’autonomie uniquement grâce aux données et aux capteurs dont ils disposeraient. Comme le montrent les travaux de Bryan Casey et Mark A. Lemley (Stanford Law School) lorsque cela est possible, une manière de contourner le problème sémantique est de s’assurer que la régulation cerne en priorité les comportements des individus et non pas les techniques, les types d’algorithmes ou les robots.

Faire coopérer des acteurs très divers

L’efficacité de la régulation pour l’IA se mesurera aussi à sa capacité à faire coopérer des acteurs très divers. Les usages de cette technologie doivent être appréhendés non pas in-vitro mais au sein d’écosystèmes technico-sociaux complexes où elle est déployée. Ainsi cette coopération doit à la fois s’effectuer horizontalement et verticalement. Horizontalement d’abord, par la co-construction entre juristes, techniciens, et chercheurs, mais également sociologues et citoyens qui via les décideurs publics seront les utilisateurs de ces systèmes d’IA. Ces derniers doivent être dotés d’outils pour améliorer leur capacité à contester la décision d’un modèle afin de créer de la confiance. Le dialogue doit aussi être plurilatéral, non seulement par une coordination entre pays et puissances régionales, mais aussi en incluant les ONG, la société et l’industrie.

 

Cette coopération est aussi verticale. Pour être opérant, le processus délibératif d’une gouvernance globale doit pouvoir être traduit en termes techniques par les ingénieurs et les chercheurs qui conçoivent les modèles. Cependant, pour être parfaitement efficace et agile, cette approche différenciée devra pouvoir s’incarner par une gouvernance dans les entreprises capable de guider les équipes techniques. Ces dernières sont confrontées à plusieurs dilemmes du fait des contraintes techniques, mathématiques ou algorithmiques et ont besoin d’indications précises qui tranchent des compromis entre certaines notions d’éthiques comme l’équité ou le respect de la vie privée. Il est donc nécessaire de faire un choix qui relève presque de philosophie politique. Ces choix sont sociétaux et culturels.

Enfin, lorsqu’une directive réglementaire présente une ambiguïté intrinsèque (dans le but par exemple d’anticiper des développements de technologie future ou pour pouvoir être appliquée à un spectre large d’acteurs), il est précieux que l’écosystème puisse collectivement expliciter les points d’incertitude qui sont sujets à l’interprétation. Cet effort de clarification permettrait d’aligner les efforts de gestion du risque dans les modèles d’IA sur des standards communs. Ces concertations des parties prenantes ont vocation à constituer une « soft law » pour préciser ou compléter au plus près du terrain des principes plus généraux fixant l’esprit et l’intention.

Se concentrer sur un nombre réduit de secteurs

 

Enfin, la régulation pour être efficace doit en priorité se concentrer sur un nombre réduit de secteurs et d’applications sur lesquels une attention immédiate est requise. A titre d’exemple, l’UE propose de calibrer le niveau de régulation selon le niveau de risque que représente une application de l’IA ou un secteur industriel applicatif. La commission propose ainsi une liste de plusieurs secteurs à haut risque comme les transports, la santé ou l’énergie dans lesquels certains déploiements technologiques sensibles devront respecter un ensemble de règles plus exigeant. Cette approche semble raisonnable. Le risque consubstantiel à l’innovation et un principe de précaution aveugle à la diversité des cas d’usages aboutirait à une société du statu quo vidée de sa force entrepreneuriale et créatrice. Les applications dans le secteur public (justice et éducation notamment), la santé font certainement partis des chantiers prioritaires. Les exemples récents de systèmes mal déployés sont légions : les entreprises technologiques comme IBM ou Microsoft ont stoppé leurs services de reconnaissance faciale après que des failles éthiques à répétition aient été identifiées. L’algorithme néerlandais de prédiction de fraude pour les demandeurs de sécurité sociale a été suspendu par une juridiction du pays pour violation des droits de l’homme et de la régulation RGPD sur les données.

Ainsi, les rapports entre les régulateurs et les innovateurs en IA ne peuvent être résumés à un conflit entre le glaive et le bouclier. La multidisciplinarité de cette technologie, ses évolutions rapides et disruptives doivent être accompagnées pour qu’elle serve le plus grand nombre dans la transparence et responsabilité des acteurs.

 

Avenir nucléaire : le projet Iter

Avenir nucléaire : le projet Iter

Un article très intéressant des les Échos qui fait le point sur le projet nucléaire Iter. Alternative à la fission nucléaire, ce projet expérimental pourrait permettre de produire une énergie décarbonée, abondante, sûre et pratiquement sans déchet. Encore faut-il que l’ambitieux chantier, qui a déjà pris quelques années de retard, arrive à terme et que cette nouvelle technologie démontre sa rentabilité.

1 – Qu’est-ce que la fusion nucléaire ?

La fusion nucléaire est différente de la fission nucléaire, qui est le processus exploité dans les centrales nucléaires d’aujourd’hui. « Le principe de la fission est de casser des noyaux lourds et de récupérer l’énergie générée par cette rupture. Tandis que pour la fusion, on fait chauffer des noyaux légers afin qu’ils aillent suffisamment vite et qu’ils fusionnent, ce qui va aussi libérer de l’énergie », schématise Jérôme Bucalossi, directeur de l’Institut de Recherche sur la Fusion par confinement Magnétique (IRFM) au Commissariat à l’énergie atomique (CEA).

Pour faire simple, une centrale à fusion nucléaire consiste à reproduire sur Terre une réaction à l’oeuvre dans les étoiles. « Dans notre Soleil, les noyaux d’hydrogène fusionnent pour former des atomes d’hélium, explique Jérôme Bucalossi. Ici, on fait fusionner du deutérium et du tritium, car c’est la réaction la plus facile à obtenir en laboratoire ».

Pour arriver à cette réaction, une température très élevée est nécessaire : de l’ordre de 150 millions de degrés Celsius. Lorsqu’un gaz est porté à très haute température, les électrons sont arrachés de leur orbite dans l’atome et le gaz se transforme en plasma. C’est dans ce milieu que les noyaux légers peuvent fusionner.

2 – Comment « mettre en boîte » l’énergie des étoiles  ?

Pour « mettre en boîte » un soleil miniature, cette boîte doit être incroyablement résistante. C’est le rôle du tokamak, la machine au coeur de la centrale qui utilise des champs magnétiques pour confiner et contrôler le plasma chaud.

Inventé dès les années 50 par des physiciens soviétiques – d’où son nom, qui est un acronyme russe -, ce dispositif est une chambre à vide en forme d’anneau entourée d’énormes bobines magnétiques. Le plasma – composé de particules électriquement chargées – est en effet sensible à ce champ magnétique, qui le maintient à l’écart des parois de l’enceinte.

 

Les parois du tokamak vont ensuite absorber sous forme de chaleur l’énergie créée par la réaction de fusion. Cette chaleur est transformée en vapeur, puis, grâce à des turbines et à des alternateurs, on obtient de l’électricité.

3 – En quoi consiste le projet Iter ?

Bien qu’il soit implanté en France, Iter est un projet international dans lequel sont engagés 35 pays, dont l’Union européenne, la Russie, la Chine, les Etats-Unis, la Corée du Sud, le Japon et l’Inde. Il s’agit d’un projet strictement scientifique et aucune exploitation commerciale n’est encore prévue. Son tokamak, le plus grand jamais construit, a pour ambitieuse mission de démontrer que la fusion nucléaire peut constituer une source d’énergie à grande échelle.

L’idée est née en novembre 1985, lors du sommet de Genève, quand Mikhaïl Gorbatchev a proposé au président américain Ronald Reagan de travailler ensemble à la conception d’un réacteur de fusion nucléaire à des fins pacifiques « pour le bien de l’humanité ». Plus de trente ans après, leur idée a rallié toutes les grandes puissances et commence à prendre forme non loin de Cadaraches, le lieu d’implantation choisi en 2005.

4 – La fusion nucléaire est-elle la source d’énergie parfaite ?

Sur le papier, la fusion nucléaire semble être une source d’énergie idéale. De très grandes quantités d’énergie sont libérées par ce processus, ce qui permettrait de satisfaire définitivement les besoins énergétiques de l’humanité.

Les centrales n’émettent pas de CO2 et génèrent seulement de l’hélium, un gaz inoffensif. De plus, le dispositif est « intrinsèquement sûr », selon Jérôme Bucalossi. « Toute perturbation va refroidir le plasma, et donc arrêter la réaction de fusion. Il n’y a pas d’emballement possible », explique-t-il.

 

Le tokamak devient à terme un déchet radioactif.CEA

Pour ne rien gâcher, le processus nécessite de manipuler « des quantités de matières très faibles ». « On parle de grammes de deuterium, précise le responsable au CEA, donc une énergie très concentrée qui permet d’alimenter beaucoup d’habitations ». Ce deuterium est « abondant dans l’eau de mer » et « réparti assez uniformément dans la planète ».

Toutefois, le réacteur devient à terme un déchet radioactif, car il produit des neutrons énergétiques qui vont « activer les parois de la machine, c’est-à-dire la rendre radioactive ». Cela dit, la radioactivité de ces éléments « pourrait être désactivée en une dizaine d’années, un siècle maximum ».

5 – Cette technologie est-elle prête ?

Le principal défaut de la fusion nucléaire est qu’elle n’est pas encore bien maîtrisée. On doit chauffer en continu le plasma – et donc lui apporter en continu de l’énergie – pour que les réactions de fusion se maintiennent et produisent à leur tour de l’énergie.

Pour Iter, les concepteurs espèrent que l’énergie produite sera 10 fois supérieure à l’énergie injectée : 50 mégawatts injectés pour 500 produits. Un objectif encore jamais atteint par les précédents réacteurs de recherche construits ces dernières années. Le record est actuellement détenu par JET, qui est parvenu à restituer seulement 70 % de l’énergie injectée : 24 mégawatts injectés pour 16 mégawatts produits.

 

Le volume de plasma d’Iter sera dix fois plus grand que celui de JET, le plus grand des tokamaks aujourd’hui en activité.

« Combien de jours ou années peut-on maintenir le facteur 10 ? Les parois de la machine sont confrontées à des flux de chaleur intense. Le plasma provoque une érosion. S’il faut changer le réacteur tous les ans, économiquement ce sera difficilement viable », pointe Jérôme Bucalossi.

Ce sont ces défauts qui font dire aux associations environnementales, telles que Greenpeace France, que le projet Iter est un mirage scientifique en plus d’être un gouffre financier.

6 – Pourquoi le projet a-t-il pris tant de retard ?

Projet pharaonique impliquant plusieurs pays et nombreux partenaires industriels, Iter a déjà pris cinq ans de retard, avec un triplement du budget initial, à plus de 20 milliards d’euros désormais.

« C’est un projet international, il a fallu du temps pour former les équipes avec les sept partenaires, apprendre à travailler ensemble, finaliser le design du réacteur, créer les chaînes de productions, s’adresser aux partenaires locaux… », énumère Jérôme Bucalossi. Plus d’un million de composants ont été fabriqués dans les usines des membres du projet, dans le monde entier, puis acheminés vers le site. « Il y a des composants de taille immense, qu’il faut ajuster de manière millimétrique ».

 

Lancé il y a quasiment 15 ans, le projet Iter a ainsi pu débuter cet été l’assemblage de son réacteur. « Les premières bobines et premiers éléments du cryostat sont arrivés. L’assemblage va durer jusqu’à fin 2025, indique Jérôme Bucalossi. Ensuite la mise en route va être assez longue. Entre les premiers allumages de plasma dans la chambre à vide jusqu’à ce que l’on obtienne le facteur Q = 10, il faudra environ dix ans d’expérimentation ». Les campagnes expérimentales à pleine puissance sont ainsi prévues à partir de 2035.

En cas de succès d’Iter, un autre projet, encore plus ambitieux, doit voir le jour : DEMO. La fusion nucléaire entamera alors son passage à l’échelle industrielle.

 

Les freins de la recherche en France

Les freins de la recherche en France

  • Agnès Ricroch est enseignante-chercheure à AgroParisTech et à l’université Paris-Sud, professeur adjoint à la Pennsylvania State University (États-Unis), dénonce les freins à la recherche en France Agnès Ricroch est aussi membre du comité d’éthique de l’Ordre national des Vétérinaires, secrétaire de la section Sciences de la vie de l’Académie d’agriculture de France.(Interview dans l’Opinion)
  • La France se définit encore elle-même comme la patrie des Lumières. Pourtant, vous alertez sur le fait que des pans de sa recherche sont privés de liberté…
  •  
  • Cela dépend des domaines. La France abrite des secteurs de recherche dynamiques, en pointe, innovants. C’est le cas pour la santé – la recherche contre le cancer ou les maladies génétiques, avec des expériences poussées en thérapie génique, en édition du génome –, les énergies renouvelables, la neutralité carbone, la chimie verte… Cela colle avec l’air du temps, répond aux grands enjeux sociétaux, notamment climatiques, internationaux et s’inscrit dans les priorités européennes. Sur ces sujets, il n’y a pas de pénurie d’argent, on peut mobiliser des chercheurs. Un bon exemple : l’Institut du cerveau et de la moelle épinière, à Paris, qui fait un travail remarquable et interdisciplinaire agrégeant aussi des sciences sociales sur les maladies neurodégénératives. Cependant, il existe des domaines devenus des tabous. Des repoussoirs politiques. C’est le cas de la recherche sur le clonage, ou sur les OGM, ma spécialité. La recherche française est en situation de blocage quasi-complet. Sa créativité est entravée, bridée, alors qu’elle a prouvé, par le passé, qu’elle pouvait être extrêmement fertile. Dans les laboratoires français, avant que les OGM ne soient ostracisés, on mettait au point des maïs avec une meilleure utilisation de l’azote dans le but de moins polluer les nappes phréatiques par les nitrates et de réduire les gaz à effet de serre ! Ils ont été vandalisés. La liberté de chercher a quasi disparu dans ce domaine, elle s’oriente sur d’autres outils.
  • Que s’est-il passé ?
  •  
  • Ces sujets ont été happés par la politique. On a calqué sur la recherche une grille de lecture grossière gauche/droite qui se traduit par anticapitalisme/libéralisme. Les biotechnologies végétales et particulièrement les OGM, associés une grande entreprise multinationale, n’ont eu aucune chance dans ce contexte. Les sujets entiers des OGM, du clonage, par exemple, sont devenus des boucs émissaires, associés à un agrobusiness insupportable. Tout a été emporté. Plus question de parler de brevets. Cela revenait, dans cette interprétation, à privatiser le vivant. Et qu’importe si ce n’est pas le vivant en lui-même mais des constructions à partir de matière vivante qui auraient pu être brevetées, et pour une dure limitée. Tant pis, aussi, si l’argent des brevets pouvait servir à financer une recherche fondamentale de long terme, non finalisée, tâtonnante, de l’innovation, des projets qui pouvaient répondre à des préoccupations futures, en allégeant le poids que cela représente pour des Etats. Tant pis, enfin, si cela a fait quasiment disparaître de la scène internationale des pans de la recherche française créatifs, brillants, et que les sociétés privées françaises en sont réduites à payer des royalties par exemple à des universités américaines pour avancer. Nous n’avons pas seulement perdu la latitude financière qu’auraient pu nous donner ces brevets pour continuer à progresser. Nous avons perdu la liberté de chercher. C’est un drame pour moi, qui suis une œcuménique de la recherche, qui crois aux fécondations croisées entre les disciplines. Je refuse de me laisser enfermer dans une lecture politique de nos travaux menés avec mes collègues, surtout si cela veut dire que des courants politiques veulent les censurer
  • Comment se traduit cette perte de liberté ?
  •  
  • De multiples façons. Aujourd’hui, en France, il n’est plus possible de faire de la recherche sur les OGM autrement qu’au niveau fondamental, sur une paillasse de laboratoire. Il y a une interdiction politique implicite. Des départements français interdisent l’expérimentation sur leur sol. Nous, chercheurs, savons que ce n’est même pas la peine de constituer des dossiers pour obtenir des autorisations. Cela va plus loin : même lorsque tout est fait dans les règles, avec les accords des autorités, y compris du ministère concerné, les travaux de recherche sont saccagés en toute impunité ou presque. C’est arrivé à l’Inra de Colmar, sur des vignes résistantes à une maladie en 2010. Les destructions sont fréquentes, malheureusement devenues banales. Nous déplorons aussi des intrusions dans nos laboratoires, le harcèlement par des ONG. Un ostracisme. Les jeunes sociétés de biotechnologies, lorsqu’elles veulent participer à des concours, à des levées de fonds, doivent expliquer qu’elles ne font pas d’OGM, sous peine d’être écartées par principe.
  • Des chercheurs français ne trouvent plus de places dans les laboratoires où ils font l’objet de pressions pour qu’ils en soient écartés. De la même façon, l’expression dans les médias est devenue très compliquée. Là encore, des chercheurs sont dissuadés par leur hiérarchie de s’exprimer. Ce qui se passe est préoccupant. Certains de mes collègues et moi-même avons vu les conclusions de nos recherches sur l’innocuité des OGM dans l’alimentation des animaux détournées, transformées dans une presse soi-disant de référence pour les faire coller à des agendas politiques. Nous n’avons pas pu obtenir de correction dans la version papier du journal. Il y a une parole, une vérité scientifique qui n’a pas le droit de s’exprimer, qui est remplacée par des fake news. Une liberté d’expression bafouée. C’est un phénomène français, car la presse scientifique de haut niveau, américaine, australienne, britannique, accueille notre parole.
  • La France a cessé de considérer les biotechnologies comme des outils, dont on peut produire des connaissances, trouver des solutions ou des parties de solutions à des problèmes cruciaux tels que la pollution par des plastiques ou l’émission des gaz à effet de serre, avec d’autres outils issus d’autres disciplines, de réfléchir à la complexité du monde vivant de façon holistique
  • Pour vous, ce qui est encore plus grave, c’est l’impossibilité pure et simple de la réflexion philosophique sur ces sujets…
  •  
  • C’est un paradoxe. Nous, scientifiques, sommes tous sensibles à l’idée des dérives de la science. Mais pour discuter des dérives, encore faut-il pouvoir mener une réflexion sur les utilisations ! Or, ce n’est pas possible sereinement. La France a cessé de considérer les biotechnologies comme des outils, dont on peut produire des connaissances, trouver des solutions ou des parties de solutions à des problèmes cruciaux tels que la pollution par des plastiques ou l’émission des gaz à effet de serre, avec d’autres outils issus d’autres disciplines, de réfléchir à la complexité du monde vivant de façon holistique. Nous sommes passés à côté de choses fantastiques comme les plantes qui produisent de la lipase gastrique contre la mucoviscidose ou qui résistent au stress hydrique. Tout cela été rangé caricaturalement dans la catégorie de l’agriculture intensive, alors que cela peut aussi être des réponses dans le cadre de l’agriculture biologique. Toutes les nouvelles questions sur l’édition du génome avec de nouvelles technologies sans ajout de matériel génétique extérieur risquent d’être confisquées ou éteintes par cette interdiction de réflexion.
  • Quelle est votre appréciation du principe de précaution, inscrit dans la Constitution ?
  •  
  • Il a été dévoyé. Il a entraîné une escalade. Des pouvoirs publics, sur la foi du principe de précaution, n’admettent plus le moindre risque, aussi infime soit-il. Ils n’admettent même plus que le risque zéro n’existe pas. Ils n’admettent pas qu’il faille évaluer la science sous l’angle du bénéfice et du risque et non pas seulement du risque. Ils sont en permanence en train de doubler les ceintures de bretelles, et ils ne les desserrent pas. Cela a eu de terribles effets : cela a engendré une méfiance insondable chez des citoyens. Une méfiance qui est traitée par une surenchère de précautions. Cette quête sans fin de réassurance n’a pas rassuré la population : elle lui a juste fait croire qu’il faut avoir peur tout le temps de tout. Il est vrai que des décisions regrettables comme celles qui ont entouré les scandales de l’amiante ou du sang contaminé les ont éprouvés. Mais ils ne savent plus vers qui se tourner pour avoir confiance, certains rejetant des progrès aussi éclatants que les vaccins. L’acte de se faire vacciner est, ne l’oublions pas, altruiste. Selon le même schéma que le rejet de l’agrochimie, sur fond d’anticapitalisme, on assiste à une détestation de la pharmacie, de ses effets secondaires fantasmés. Le paradoxe est encore là : pour se détourner d’un monde qui est accusé de faire de l’argent sur des produits dangereux, des citoyens apeurés sont prêts à se tourner vers des gourous tout aussi intéressés par l’argent et qui proposent à la vente sur Internet des poudres de perlimpinpin que personne n’évalue scientifiquement !
  • Vous appelez à un sursaut !
  • J’ai le sentiment que les réseaux sociaux affectent notre liberté de réflexion collective. En France, cette boucle qui s’auto-entretient n’est pas compensée par les grands médias, comme c’est par exemple le cas en Grande-Bretagne. La BBC fait figure de vigie très efficace conte la prolifération des fausses informations, parle librement des nouvelles technologies de réécriture du génome ou de recherches sur l’embryon humain par exemple, les soumet au débat. On part du principe, chez nos voisins britanniques, qu’il ne doit pas y avoir de tabous scientifiques dans le choix public. Que la science doit être présente pour ouvrir le monde, un monde des possibles, pas pour le refermer. Je n’aime pas l’application détournée du principe de précaution, mais je voudrais le brandir ici : prenons bien garde à ce que la France n’éteigne ses lumières et retombe dans l’obscurantisme.

« Pour des garanties de la rigueur scientifique »

« Pour des garanties de la rigueur scientifique »

 

Un collectif de près de 90 sociétés savantes académiques et médicales demande, dans une tribune au « Monde », un élargissement des prérogatives de l’Office français de l’intégrité scientifique dans la loi de programmation de la recherche.

 

Tribune. La crise sanitaire actuelle a mis le sujet de l’intégrité scientifique au cœur de l’actualité. La cacophonie des prises de position de scientifiques et médecins dans les médias, la mise en avant d’articles scientifiques de qualité douteuse ou la rétractation d’articles publiés dans des revues prestigieuses ont fait s’interroger le public sur la validité du travail de l’ensemble des chercheurs et chercheuses. Or pour que la société bénéficie des avancées scientifiques, nos compatriotes ont besoin de confiance en la recherche et les responsables politiques de résultats fiables pour guider leur action.

 

Un malentendu s’est installé, qui reflète une méconnaissance de la manière dont la recherche progresse et le savoir se construit. Croyant peut-être nourrir le débat, les médias ont donné la parole à des tenants de positions contradictoires, sans préciser si elles reflétaient le consensus scientifique ou étaient celles d’une petite minorité. Le débat contradictoire ne décrédibilise pas la science, bien au contraire, mais le consensus scientifique n’est jamais la recherche du juste milieu. Il n’est pas un compromis entre les positions des uns et des autres : il est fondé sur l’analyse des données et fait abstraction des idéologies et des opinions personnelles. La méthode scientifique passe l’intuition au filtre rigoureux de méthodologies explicitées, validées et contrôlées par les pairs. Loin d’être un carcan intellectuel, elle est garante de la fiabilité des avancées de la science.

A ce malentendu s’ajoute un autre phénomène. La communauté scientifique dénonce depuis longtemps le fait que les financements et carrières des personnels de recherche sont basés sur une compétition individuelle et une course effrénée à la publication, parfois au détriment de la qualité des articles et de la construction collective du savoir. La Loi de programmation de la recherche actuellement en discussion au Parlement ne rompt hélas pas avec cette philosophie. Couplé à un contrôle insuffisant de l’intégrité scientifique, ce phénomène a engendré des dérives dans toutes les disciplines : données inventées, modifiées ou passées sous silence, plagiat, graphiques trompeurs, auteurs de complaisance, publication dans des revues scientifiques douteuses ou conflits d’intérêts passés sous silence. Si les fraudes volontaires restent très rares, des pratiques critiquables se sont suffisamment développées pour mettre en péril l’édifice de la connaissance.

12345



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol