Archive pour la Catégorie 'sciences'

Le Centre-Val de Loire : laboratoire de l’Internet par la lumière ?

 Le Centre-Val de Loire : laboratoire de l’Internet par la lumière ?

 

Le centre Val de Loire se veut un laboratoire de diffusion d’Internet par la lumière Le Li-Fi (acronyme des mots anglais light et fidelity) est une technologie de connexion Internet sans fil qui utilise la partie visible du spectre électromagnétique en modulant la lumière sur de hautes fréquences pour coder et transmettre des informations.

 

Article de Futura-sciences:

 

Cette technologie prometteuse présentée comme une alternative au Wi-Fi et dont on entend parler depuis une dizaine d’années, tarde à émerger. Cependant, elle devrait nous devenir un peu plus familière cette année grâce à la commercialisation des premiers dispositifs destinés au grand public. En l’occurrence, il s’agit d’une lampe de bureau et d’une serrure connectée, fabriquées par deux entreprises françaises qui ont fait parler d’elles lors du dernier Consumer Electronics Show (CES) : Oledcomm et Havr.

 

Oledcomm a créé MyLiFi, une lampe de bureau LED qui diffuse une connexion Internet sans fil via la lumière. La lampe est munie d’un câble Ethernet qui se branche à un routeur Wi-Fi ou une box Internet. L’ordinateur, que l’on place dans le champ lumineux, est lui équipé d’un récepteur Li-Fi branché via le port USB. La connexion offre un débit de 23 Mbit/s, bien loin de ce que peut faire la norme 802.11ac (jusqu’à 1.300 Mbit/s de débit théorique), qui est la version grand public du Wi-Fi la plus répandue. Mais le Li-Fi a d’autres arguments à faire valoir.

 

Pour mémoire, cette technologie, qui s’apparente au morse dans son fonctionnement, se sert de la modulation de lumière à haute fréquence pour coder et transmettre des informations. Le Li-Fi est présenté comme plus sécurisé que le Wi-Fi (pas de risque de piratage de la connexion à distance) et plus sûr du point de vue sanitaire face à la nocivité que l’on prête aux ondes radio. Oledcomm exploite aussi l’argumentaire de la luminothérapie, mettant en avant la possibilité de contrôler l’intensité de l’éclairage et la température de la couleur.

 

Après l’établissement giennois Bernard Palissy en septembre, le lycée Grandmont à Tours à lui aussi été doté le 19 octobre d’une installation en LiFi (Light Fidelity) pour son Centre de Documentation et d’Information (CDI). Un troisième lycée, probablement professionnel, sera équipé début 2021. Pour mener cette expérimentation, la région Centre-Val de Loire a choisi comme intégrateur Spie ICS. La filiale IT du groupe de BTP s’appuie elle sur la technologie d’Oledcomm. Conjointement à la société écossaise Pure LiFi, cette TPE installée à Vélizy est le co-inventeur en 2012 de la LiFi.

Quelle régulation de l’intelligence artificielle

Quelle régulation de l’intelligence artificielle

L’informaticien et philosophe Jean-Gabriel Ganascia estime que les Etats doivent se saisir de ces questions et prendre leurs responsabilités, afin de ne pas s’en remettre uniquement aux acteurs privés.(Interview dans le monde)

Elon Musk a présenté, le 28 août, les recherches de sa société Neuralink visant, avec le recours de l’intelligence artificielle, à soigner des pathologies et augmenter les capacités cérébrales. Comment analysez-vous ces annonces ?

Les déclarations d’Elon Musk sont problématiques. Sa société travaille sur les implants cérébraux et sur les interfaces cerveaux-ordinateurs. Nous savons que quand une personne a une activité cérébrale, ses neurones émettent des signaux électriques. Les recherches dans le domaine des interfaces visent à analyser ces signaux grâce à des techniques d’apprentissage machine, afin de les transformer par exemple en commande d’un objet, d’une prothèse, etc. On parle ici d’un signal qui part de l’homme vers une machine.

Elon Musk, lui, laisse entendre qu’il pourrait aussi avoir un signal retour, de la machine vers l’homme donc. Nous pourrions, à terme, tous être connectés au réseau par nos cerveaux et bénéficier d’informations mises en commun. En étant tous liés par un « lacet neuronal » nous deviendrions d’une certaine manière transparents les uns aux autres. Il y a, derrière cette idée, la théorie selon laquelle l’intelligence artificielle va nous dépasser et qu’il faut, pour rivaliser, augmenter notre mémoire.

D’où vient cette notion de mémoire augmentée ?

En partie des auteurs de science-fiction, comme l’Ecossais Iain Banks (1954-2013), qui, dans la seconde moitié du XXe siècle, utilise le terme de « lacet neuronal » repris par Elon Musk dans sa présentation. Mais on trouve des liens encore plus anciens. Le physicien Vannevar Bush (1890-1974), conseiller scientifique du président Roosevelt, a écrit en 1945 – avant le premier ordinateur électronique – un texte visionnaire, As We May Think (« comme nous pourrions penser »), où il imagine le Memex (Memory Extender), un extenseur de mémoire pour gérer le savoir technologique en constante augmentation.

Il imagine, dessin à l’appui, un verre dépoli, l’équivalent d’un écran, sur lequel pourrait être projeté de l’information. Dans la conclusion du texte, il évoque les ondes électriques cérébrales et s’interroge : « Peut-être qu’un jour, on saura quelle est leur nature et on pourra passer, sans intermédiaire, directement de l’électricité extérieure, remplie d’information, à l’électricité intérieure. » On peut voir une certaine continuité entre sa vision et celle d’Elon Musk.

 

L’enjeu de la régulation de l’intelligence artificielle

L’enjeu de la régulation de l’intelligence artificielle

 

Florian Ingen-Housz, partner au sein d’Altermind, et Victor Storchan, ingénieur en IA dans l’industrie financière, explique l’enjeu de la régulation de l’intelligence artificielle (IA) dans la Tribune

 

 

En février dernier, la Commission européenne a publié son livre blanc sur la régulation des applications de l’Intelligence Artificielle (IA). Plutôt que de légiférer unilatéralement sur ce sujet, la Commission a choisi, de manière novatrice, une approche consultative et participative en incitant l’ensemble des parties prenantes à cet écosystème à participer à la discussion. Cette approche doit être encouragée, approfondie et accélérée pour ajuster l’état du droit à un état de l’art technologique qui ne cesse de faire surgir des débats juridiques et normatifs inédits. Cette approche est aussi le seul moyen de faire émerger, dans la décennie qui vient, une véritable vision européenne de la Tech, tout à la fois pro-business et respectueuse des libertés individuelles.

Un défi majeur pour les régulateurs

L’IA constitue en effet un défi majeur pour les régulateurs. La vitesse prodigieuse des avancées technologiques doit inviter ces derniers à co-construire la norme avec un écosystème plus large qu’ils n’en ont l’habitude, plutôt que d’imposer celle-ci « par le haut ». Tout comme l’ont montré les débats sur la bioéthique depuis les années 1970, la régulation technologique est avant tout un choix de société et par conséquent un effort continu. La question se pose néanmoins avec une acuité particulière pour le déploiement de l’IA, compte tenu de l’ambiguïté de ses définitions, de sa nature stochastique et de l’opacité des multiples modèles sur lesquels elle est bâtie. Cette opacité est aggravée par l’hypercroissance de l’écosystème (50% de plus de papiers soumis à NeurIPS – une des conférences majeures de la discipline - en 2019 par rapport à l’année précédente), qui rend immédiatement obsolètes des savoirs difficilement acquis par des régulateurs parfois mal-équipés sur le plan technique. Si la régulation est évidemment primordiale pour permettre l’adoption, créer du consensus et de la confiance envers cette technologie, son élaboration devra donc être suffisamment (i) spécifique dans son champ d’application pour être « implémentable », (ii) inclusive et ouverte dans sa démarche et (iii) sélective dans ses priorités et son séquencement.

Il faudra donc, dans un premier temps, d’abord s’assurer de la juste définition de l’objet ciblé. Ce besoin de spécificité dans un domaine aux frontières floues soulève un premier défi : celui de la sémantique. Le concept d’IA est imprécis, même pour les experts. Contrairement aux précédentes vagues de disruption technologique, que ce soit la machine à vapeur, l’électricité, la chimie ou même les premiers programmes informatiques, les contours de l’IA sont moins tangibles. Ainsi, en 2013, l’Etat du Nevada a dû ainsi revoir sa définition de l’IA pour les véhicules autonomes car celle-ci englobait aussi certains modèles de voitures sophistiquées avec des fonctionnalités de contrôle avancées. La définition de ce qu’est un robot pour l’Union européenne n’est pas non plus satisfaisante. Contrairement à ce que semble indiquer cette dernière, les robots n’acquièrent en effet pas de capacité d’autonomie uniquement grâce aux données et aux capteurs dont ils disposeraient. Comme le montrent les travaux de Bryan Casey et Mark A. Lemley (Stanford Law School) lorsque cela est possible, une manière de contourner le problème sémantique est de s’assurer que la régulation cerne en priorité les comportements des individus et non pas les techniques, les types d’algorithmes ou les robots.

Faire coopérer des acteurs très divers

L’efficacité de la régulation pour l’IA se mesurera aussi à sa capacité à faire coopérer des acteurs très divers. Les usages de cette technologie doivent être appréhendés non pas in-vitro mais au sein d’écosystèmes technico-sociaux complexes où elle est déployée. Ainsi cette coopération doit à la fois s’effectuer horizontalement et verticalement. Horizontalement d’abord, par la co-construction entre juristes, techniciens, et chercheurs, mais également sociologues et citoyens qui via les décideurs publics seront les utilisateurs de ces systèmes d’IA. Ces derniers doivent être dotés d’outils pour améliorer leur capacité à contester la décision d’un modèle afin de créer de la confiance. Le dialogue doit aussi être plurilatéral, non seulement par une coordination entre pays et puissances régionales, mais aussi en incluant les ONG, la société et l’industrie.

 

Cette coopération est aussi verticale. Pour être opérant, le processus délibératif d’une gouvernance globale doit pouvoir être traduit en termes techniques par les ingénieurs et les chercheurs qui conçoivent les modèles. Cependant, pour être parfaitement efficace et agile, cette approche différenciée devra pouvoir s’incarner par une gouvernance dans les entreprises capable de guider les équipes techniques. Ces dernières sont confrontées à plusieurs dilemmes du fait des contraintes techniques, mathématiques ou algorithmiques et ont besoin d’indications précises qui tranchent des compromis entre certaines notions d’éthiques comme l’équité ou le respect de la vie privée. Il est donc nécessaire de faire un choix qui relève presque de philosophie politique. Ces choix sont sociétaux et culturels.

Enfin, lorsqu’une directive réglementaire présente une ambiguïté intrinsèque (dans le but par exemple d’anticiper des développements de technologie future ou pour pouvoir être appliquée à un spectre large d’acteurs), il est précieux que l’écosystème puisse collectivement expliciter les points d’incertitude qui sont sujets à l’interprétation. Cet effort de clarification permettrait d’aligner les efforts de gestion du risque dans les modèles d’IA sur des standards communs. Ces concertations des parties prenantes ont vocation à constituer une « soft law » pour préciser ou compléter au plus près du terrain des principes plus généraux fixant l’esprit et l’intention.

Se concentrer sur un nombre réduit de secteurs

 

Enfin, la régulation pour être efficace doit en priorité se concentrer sur un nombre réduit de secteurs et d’applications sur lesquels une attention immédiate est requise. A titre d’exemple, l’UE propose de calibrer le niveau de régulation selon le niveau de risque que représente une application de l’IA ou un secteur industriel applicatif. La commission propose ainsi une liste de plusieurs secteurs à haut risque comme les transports, la santé ou l’énergie dans lesquels certains déploiements technologiques sensibles devront respecter un ensemble de règles plus exigeant. Cette approche semble raisonnable. Le risque consubstantiel à l’innovation et un principe de précaution aveugle à la diversité des cas d’usages aboutirait à une société du statu quo vidée de sa force entrepreneuriale et créatrice. Les applications dans le secteur public (justice et éducation notamment), la santé font certainement partis des chantiers prioritaires. Les exemples récents de systèmes mal déployés sont légions : les entreprises technologiques comme IBM ou Microsoft ont stoppé leurs services de reconnaissance faciale après que des failles éthiques à répétition aient été identifiées. L’algorithme néerlandais de prédiction de fraude pour les demandeurs de sécurité sociale a été suspendu par une juridiction du pays pour violation des droits de l’homme et de la régulation RGPD sur les données.

Ainsi, les rapports entre les régulateurs et les innovateurs en IA ne peuvent être résumés à un conflit entre le glaive et le bouclier. La multidisciplinarité de cette technologie, ses évolutions rapides et disruptives doivent être accompagnées pour qu’elle serve le plus grand nombre dans la transparence et responsabilité des acteurs.

 

Avenir nucléaire : le projet Iter

Avenir nucléaire : le projet Iter

Un article très intéressant des les Échos qui fait le point sur le projet nucléaire Iter. Alternative à la fission nucléaire, ce projet expérimental pourrait permettre de produire une énergie décarbonée, abondante, sûre et pratiquement sans déchet. Encore faut-il que l’ambitieux chantier, qui a déjà pris quelques années de retard, arrive à terme et que cette nouvelle technologie démontre sa rentabilité.

1 – Qu’est-ce que la fusion nucléaire ?

La fusion nucléaire est différente de la fission nucléaire, qui est le processus exploité dans les centrales nucléaires d’aujourd’hui. « Le principe de la fission est de casser des noyaux lourds et de récupérer l’énergie générée par cette rupture. Tandis que pour la fusion, on fait chauffer des noyaux légers afin qu’ils aillent suffisamment vite et qu’ils fusionnent, ce qui va aussi libérer de l’énergie », schématise Jérôme Bucalossi, directeur de l’Institut de Recherche sur la Fusion par confinement Magnétique (IRFM) au Commissariat à l’énergie atomique (CEA).

Pour faire simple, une centrale à fusion nucléaire consiste à reproduire sur Terre une réaction à l’oeuvre dans les étoiles. « Dans notre Soleil, les noyaux d’hydrogène fusionnent pour former des atomes d’hélium, explique Jérôme Bucalossi. Ici, on fait fusionner du deutérium et du tritium, car c’est la réaction la plus facile à obtenir en laboratoire ».

Pour arriver à cette réaction, une température très élevée est nécessaire : de l’ordre de 150 millions de degrés Celsius. Lorsqu’un gaz est porté à très haute température, les électrons sont arrachés de leur orbite dans l’atome et le gaz se transforme en plasma. C’est dans ce milieu que les noyaux légers peuvent fusionner.

2 – Comment « mettre en boîte » l’énergie des étoiles  ?

Pour « mettre en boîte » un soleil miniature, cette boîte doit être incroyablement résistante. C’est le rôle du tokamak, la machine au coeur de la centrale qui utilise des champs magnétiques pour confiner et contrôler le plasma chaud.

Inventé dès les années 50 par des physiciens soviétiques – d’où son nom, qui est un acronyme russe -, ce dispositif est une chambre à vide en forme d’anneau entourée d’énormes bobines magnétiques. Le plasma – composé de particules électriquement chargées – est en effet sensible à ce champ magnétique, qui le maintient à l’écart des parois de l’enceinte.

 

Les parois du tokamak vont ensuite absorber sous forme de chaleur l’énergie créée par la réaction de fusion. Cette chaleur est transformée en vapeur, puis, grâce à des turbines et à des alternateurs, on obtient de l’électricité.

3 – En quoi consiste le projet Iter ?

Bien qu’il soit implanté en France, Iter est un projet international dans lequel sont engagés 35 pays, dont l’Union européenne, la Russie, la Chine, les Etats-Unis, la Corée du Sud, le Japon et l’Inde. Il s’agit d’un projet strictement scientifique et aucune exploitation commerciale n’est encore prévue. Son tokamak, le plus grand jamais construit, a pour ambitieuse mission de démontrer que la fusion nucléaire peut constituer une source d’énergie à grande échelle.

L’idée est née en novembre 1985, lors du sommet de Genève, quand Mikhaïl Gorbatchev a proposé au président américain Ronald Reagan de travailler ensemble à la conception d’un réacteur de fusion nucléaire à des fins pacifiques « pour le bien de l’humanité ». Plus de trente ans après, leur idée a rallié toutes les grandes puissances et commence à prendre forme non loin de Cadaraches, le lieu d’implantation choisi en 2005.

4 – La fusion nucléaire est-elle la source d’énergie parfaite ?

Sur le papier, la fusion nucléaire semble être une source d’énergie idéale. De très grandes quantités d’énergie sont libérées par ce processus, ce qui permettrait de satisfaire définitivement les besoins énergétiques de l’humanité.

Les centrales n’émettent pas de CO2 et génèrent seulement de l’hélium, un gaz inoffensif. De plus, le dispositif est « intrinsèquement sûr », selon Jérôme Bucalossi. « Toute perturbation va refroidir le plasma, et donc arrêter la réaction de fusion. Il n’y a pas d’emballement possible », explique-t-il.

 

Le tokamak devient à terme un déchet radioactif.CEA

Pour ne rien gâcher, le processus nécessite de manipuler « des quantités de matières très faibles ». « On parle de grammes de deuterium, précise le responsable au CEA, donc une énergie très concentrée qui permet d’alimenter beaucoup d’habitations ». Ce deuterium est « abondant dans l’eau de mer » et « réparti assez uniformément dans la planète ».

Toutefois, le réacteur devient à terme un déchet radioactif, car il produit des neutrons énergétiques qui vont « activer les parois de la machine, c’est-à-dire la rendre radioactive ». Cela dit, la radioactivité de ces éléments « pourrait être désactivée en une dizaine d’années, un siècle maximum ».

5 – Cette technologie est-elle prête ?

Le principal défaut de la fusion nucléaire est qu’elle n’est pas encore bien maîtrisée. On doit chauffer en continu le plasma – et donc lui apporter en continu de l’énergie – pour que les réactions de fusion se maintiennent et produisent à leur tour de l’énergie.

Pour Iter, les concepteurs espèrent que l’énergie produite sera 10 fois supérieure à l’énergie injectée : 50 mégawatts injectés pour 500 produits. Un objectif encore jamais atteint par les précédents réacteurs de recherche construits ces dernières années. Le record est actuellement détenu par JET, qui est parvenu à restituer seulement 70 % de l’énergie injectée : 24 mégawatts injectés pour 16 mégawatts produits.

 

Le volume de plasma d’Iter sera dix fois plus grand que celui de JET, le plus grand des tokamaks aujourd’hui en activité.

« Combien de jours ou années peut-on maintenir le facteur 10 ? Les parois de la machine sont confrontées à des flux de chaleur intense. Le plasma provoque une érosion. S’il faut changer le réacteur tous les ans, économiquement ce sera difficilement viable », pointe Jérôme Bucalossi.

Ce sont ces défauts qui font dire aux associations environnementales, telles que Greenpeace France, que le projet Iter est un mirage scientifique en plus d’être un gouffre financier.

6 – Pourquoi le projet a-t-il pris tant de retard ?

Projet pharaonique impliquant plusieurs pays et nombreux partenaires industriels, Iter a déjà pris cinq ans de retard, avec un triplement du budget initial, à plus de 20 milliards d’euros désormais.

« C’est un projet international, il a fallu du temps pour former les équipes avec les sept partenaires, apprendre à travailler ensemble, finaliser le design du réacteur, créer les chaînes de productions, s’adresser aux partenaires locaux… », énumère Jérôme Bucalossi. Plus d’un million de composants ont été fabriqués dans les usines des membres du projet, dans le monde entier, puis acheminés vers le site. « Il y a des composants de taille immense, qu’il faut ajuster de manière millimétrique ».

 

Lancé il y a quasiment 15 ans, le projet Iter a ainsi pu débuter cet été l’assemblage de son réacteur. « Les premières bobines et premiers éléments du cryostat sont arrivés. L’assemblage va durer jusqu’à fin 2025, indique Jérôme Bucalossi. Ensuite la mise en route va être assez longue. Entre les premiers allumages de plasma dans la chambre à vide jusqu’à ce que l’on obtienne le facteur Q = 10, il faudra environ dix ans d’expérimentation ». Les campagnes expérimentales à pleine puissance sont ainsi prévues à partir de 2035.

En cas de succès d’Iter, un autre projet, encore plus ambitieux, doit voir le jour : DEMO. La fusion nucléaire entamera alors son passage à l’échelle industrielle.

 

Les freins de la recherche en France

Les freins de la recherche en France

  • Agnès Ricroch est enseignante-chercheure à AgroParisTech et à l’université Paris-Sud, professeur adjoint à la Pennsylvania State University (États-Unis), dénonce les freins à la recherche en France Agnès Ricroch est aussi membre du comité d’éthique de l’Ordre national des Vétérinaires, secrétaire de la section Sciences de la vie de l’Académie d’agriculture de France.(Interview dans l’Opinion)
  • La France se définit encore elle-même comme la patrie des Lumières. Pourtant, vous alertez sur le fait que des pans de sa recherche sont privés de liberté…
  •  
  • Cela dépend des domaines. La France abrite des secteurs de recherche dynamiques, en pointe, innovants. C’est le cas pour la santé – la recherche contre le cancer ou les maladies génétiques, avec des expériences poussées en thérapie génique, en édition du génome –, les énergies renouvelables, la neutralité carbone, la chimie verte… Cela colle avec l’air du temps, répond aux grands enjeux sociétaux, notamment climatiques, internationaux et s’inscrit dans les priorités européennes. Sur ces sujets, il n’y a pas de pénurie d’argent, on peut mobiliser des chercheurs. Un bon exemple : l’Institut du cerveau et de la moelle épinière, à Paris, qui fait un travail remarquable et interdisciplinaire agrégeant aussi des sciences sociales sur les maladies neurodégénératives. Cependant, il existe des domaines devenus des tabous. Des repoussoirs politiques. C’est le cas de la recherche sur le clonage, ou sur les OGM, ma spécialité. La recherche française est en situation de blocage quasi-complet. Sa créativité est entravée, bridée, alors qu’elle a prouvé, par le passé, qu’elle pouvait être extrêmement fertile. Dans les laboratoires français, avant que les OGM ne soient ostracisés, on mettait au point des maïs avec une meilleure utilisation de l’azote dans le but de moins polluer les nappes phréatiques par les nitrates et de réduire les gaz à effet de serre ! Ils ont été vandalisés. La liberté de chercher a quasi disparu dans ce domaine, elle s’oriente sur d’autres outils.
  • Que s’est-il passé ?
  •  
  • Ces sujets ont été happés par la politique. On a calqué sur la recherche une grille de lecture grossière gauche/droite qui se traduit par anticapitalisme/libéralisme. Les biotechnologies végétales et particulièrement les OGM, associés une grande entreprise multinationale, n’ont eu aucune chance dans ce contexte. Les sujets entiers des OGM, du clonage, par exemple, sont devenus des boucs émissaires, associés à un agrobusiness insupportable. Tout a été emporté. Plus question de parler de brevets. Cela revenait, dans cette interprétation, à privatiser le vivant. Et qu’importe si ce n’est pas le vivant en lui-même mais des constructions à partir de matière vivante qui auraient pu être brevetées, et pour une dure limitée. Tant pis, aussi, si l’argent des brevets pouvait servir à financer une recherche fondamentale de long terme, non finalisée, tâtonnante, de l’innovation, des projets qui pouvaient répondre à des préoccupations futures, en allégeant le poids que cela représente pour des Etats. Tant pis, enfin, si cela a fait quasiment disparaître de la scène internationale des pans de la recherche française créatifs, brillants, et que les sociétés privées françaises en sont réduites à payer des royalties par exemple à des universités américaines pour avancer. Nous n’avons pas seulement perdu la latitude financière qu’auraient pu nous donner ces brevets pour continuer à progresser. Nous avons perdu la liberté de chercher. C’est un drame pour moi, qui suis une œcuménique de la recherche, qui crois aux fécondations croisées entre les disciplines. Je refuse de me laisser enfermer dans une lecture politique de nos travaux menés avec mes collègues, surtout si cela veut dire que des courants politiques veulent les censurer
  • Comment se traduit cette perte de liberté ?
  •  
  • De multiples façons. Aujourd’hui, en France, il n’est plus possible de faire de la recherche sur les OGM autrement qu’au niveau fondamental, sur une paillasse de laboratoire. Il y a une interdiction politique implicite. Des départements français interdisent l’expérimentation sur leur sol. Nous, chercheurs, savons que ce n’est même pas la peine de constituer des dossiers pour obtenir des autorisations. Cela va plus loin : même lorsque tout est fait dans les règles, avec les accords des autorités, y compris du ministère concerné, les travaux de recherche sont saccagés en toute impunité ou presque. C’est arrivé à l’Inra de Colmar, sur des vignes résistantes à une maladie en 2010. Les destructions sont fréquentes, malheureusement devenues banales. Nous déplorons aussi des intrusions dans nos laboratoires, le harcèlement par des ONG. Un ostracisme. Les jeunes sociétés de biotechnologies, lorsqu’elles veulent participer à des concours, à des levées de fonds, doivent expliquer qu’elles ne font pas d’OGM, sous peine d’être écartées par principe.
  • Des chercheurs français ne trouvent plus de places dans les laboratoires où ils font l’objet de pressions pour qu’ils en soient écartés. De la même façon, l’expression dans les médias est devenue très compliquée. Là encore, des chercheurs sont dissuadés par leur hiérarchie de s’exprimer. Ce qui se passe est préoccupant. Certains de mes collègues et moi-même avons vu les conclusions de nos recherches sur l’innocuité des OGM dans l’alimentation des animaux détournées, transformées dans une presse soi-disant de référence pour les faire coller à des agendas politiques. Nous n’avons pas pu obtenir de correction dans la version papier du journal. Il y a une parole, une vérité scientifique qui n’a pas le droit de s’exprimer, qui est remplacée par des fake news. Une liberté d’expression bafouée. C’est un phénomène français, car la presse scientifique de haut niveau, américaine, australienne, britannique, accueille notre parole.
  • La France a cessé de considérer les biotechnologies comme des outils, dont on peut produire des connaissances, trouver des solutions ou des parties de solutions à des problèmes cruciaux tels que la pollution par des plastiques ou l’émission des gaz à effet de serre, avec d’autres outils issus d’autres disciplines, de réfléchir à la complexité du monde vivant de façon holistique
  • Pour vous, ce qui est encore plus grave, c’est l’impossibilité pure et simple de la réflexion philosophique sur ces sujets…
  •  
  • C’est un paradoxe. Nous, scientifiques, sommes tous sensibles à l’idée des dérives de la science. Mais pour discuter des dérives, encore faut-il pouvoir mener une réflexion sur les utilisations ! Or, ce n’est pas possible sereinement. La France a cessé de considérer les biotechnologies comme des outils, dont on peut produire des connaissances, trouver des solutions ou des parties de solutions à des problèmes cruciaux tels que la pollution par des plastiques ou l’émission des gaz à effet de serre, avec d’autres outils issus d’autres disciplines, de réfléchir à la complexité du monde vivant de façon holistique. Nous sommes passés à côté de choses fantastiques comme les plantes qui produisent de la lipase gastrique contre la mucoviscidose ou qui résistent au stress hydrique. Tout cela été rangé caricaturalement dans la catégorie de l’agriculture intensive, alors que cela peut aussi être des réponses dans le cadre de l’agriculture biologique. Toutes les nouvelles questions sur l’édition du génome avec de nouvelles technologies sans ajout de matériel génétique extérieur risquent d’être confisquées ou éteintes par cette interdiction de réflexion.
  • Quelle est votre appréciation du principe de précaution, inscrit dans la Constitution ?
  •  
  • Il a été dévoyé. Il a entraîné une escalade. Des pouvoirs publics, sur la foi du principe de précaution, n’admettent plus le moindre risque, aussi infime soit-il. Ils n’admettent même plus que le risque zéro n’existe pas. Ils n’admettent pas qu’il faille évaluer la science sous l’angle du bénéfice et du risque et non pas seulement du risque. Ils sont en permanence en train de doubler les ceintures de bretelles, et ils ne les desserrent pas. Cela a eu de terribles effets : cela a engendré une méfiance insondable chez des citoyens. Une méfiance qui est traitée par une surenchère de précautions. Cette quête sans fin de réassurance n’a pas rassuré la population : elle lui a juste fait croire qu’il faut avoir peur tout le temps de tout. Il est vrai que des décisions regrettables comme celles qui ont entouré les scandales de l’amiante ou du sang contaminé les ont éprouvés. Mais ils ne savent plus vers qui se tourner pour avoir confiance, certains rejetant des progrès aussi éclatants que les vaccins. L’acte de se faire vacciner est, ne l’oublions pas, altruiste. Selon le même schéma que le rejet de l’agrochimie, sur fond d’anticapitalisme, on assiste à une détestation de la pharmacie, de ses effets secondaires fantasmés. Le paradoxe est encore là : pour se détourner d’un monde qui est accusé de faire de l’argent sur des produits dangereux, des citoyens apeurés sont prêts à se tourner vers des gourous tout aussi intéressés par l’argent et qui proposent à la vente sur Internet des poudres de perlimpinpin que personne n’évalue scientifiquement !
  • Vous appelez à un sursaut !
  • J’ai le sentiment que les réseaux sociaux affectent notre liberté de réflexion collective. En France, cette boucle qui s’auto-entretient n’est pas compensée par les grands médias, comme c’est par exemple le cas en Grande-Bretagne. La BBC fait figure de vigie très efficace conte la prolifération des fausses informations, parle librement des nouvelles technologies de réécriture du génome ou de recherches sur l’embryon humain par exemple, les soumet au débat. On part du principe, chez nos voisins britanniques, qu’il ne doit pas y avoir de tabous scientifiques dans le choix public. Que la science doit être présente pour ouvrir le monde, un monde des possibles, pas pour le refermer. Je n’aime pas l’application détournée du principe de précaution, mais je voudrais le brandir ici : prenons bien garde à ce que la France n’éteigne ses lumières et retombe dans l’obscurantisme.

« Pour des garanties de la rigueur scientifique »

« Pour des garanties de la rigueur scientifique »

 

Un collectif de près de 90 sociétés savantes académiques et médicales demande, dans une tribune au « Monde », un élargissement des prérogatives de l’Office français de l’intégrité scientifique dans la loi de programmation de la recherche.

 

Tribune. La crise sanitaire actuelle a mis le sujet de l’intégrité scientifique au cœur de l’actualité. La cacophonie des prises de position de scientifiques et médecins dans les médias, la mise en avant d’articles scientifiques de qualité douteuse ou la rétractation d’articles publiés dans des revues prestigieuses ont fait s’interroger le public sur la validité du travail de l’ensemble des chercheurs et chercheuses. Or pour que la société bénéficie des avancées scientifiques, nos compatriotes ont besoin de confiance en la recherche et les responsables politiques de résultats fiables pour guider leur action.

 

Un malentendu s’est installé, qui reflète une méconnaissance de la manière dont la recherche progresse et le savoir se construit. Croyant peut-être nourrir le débat, les médias ont donné la parole à des tenants de positions contradictoires, sans préciser si elles reflétaient le consensus scientifique ou étaient celles d’une petite minorité. Le débat contradictoire ne décrédibilise pas la science, bien au contraire, mais le consensus scientifique n’est jamais la recherche du juste milieu. Il n’est pas un compromis entre les positions des uns et des autres : il est fondé sur l’analyse des données et fait abstraction des idéologies et des opinions personnelles. La méthode scientifique passe l’intuition au filtre rigoureux de méthodologies explicitées, validées et contrôlées par les pairs. Loin d’être un carcan intellectuel, elle est garante de la fiabilité des avancées de la science.

A ce malentendu s’ajoute un autre phénomène. La communauté scientifique dénonce depuis longtemps le fait que les financements et carrières des personnels de recherche sont basés sur une compétition individuelle et une course effrénée à la publication, parfois au détriment de la qualité des articles et de la construction collective du savoir. La Loi de programmation de la recherche actuellement en discussion au Parlement ne rompt hélas pas avec cette philosophie. Couplé à un contrôle insuffisant de l’intégrité scientifique, ce phénomène a engendré des dérives dans toutes les disciplines : données inventées, modifiées ou passées sous silence, plagiat, graphiques trompeurs, auteurs de complaisance, publication dans des revues scientifiques douteuses ou conflits d’intérêts passés sous silence. Si les fraudes volontaires restent très rares, des pratiques critiquables se sont suffisamment développées pour mettre en péril l’édifice de la connaissance.

Prix Nobel de chimie : cocorico mais

Prix Nobel de chimie : cocorico mais

Indéniablement on ne peut que féliciter Emmanuelle Charpentier  pour son prix Nobel de chimie. C’est une récompense en même temps de la qualité de la formation et de la recherche en France. En gros, elle a participé à la découverte d’un ciseau génétique de précision, permettant d’éditer une séquence ADN au sein même d’une cellule. Ce qui ouvre un nombre incalculable de possibilités sur l’homme, les animaux ou les plantes. Formée en France, Emmanuelle Charpentier est notamment directrice du centre de recherche Max Planck pour la science des pathogènes à Berlin . Le problème c’est que l’intéressée a été obligé de s’expatrier pour continuer sa formation et surtout trouver les moyens financiers pour approfondir le champ de ses recherches. Un phénomène habituel en France où la formation des scientifiques est reconnue comme de très haut niveau mais des scientifiques qui doivent s’expatrier ensuite compte tenu de la bureaucratie et du manque de moyens de la recherche.

Les  possibilités d’application sont quasi infinies, puisque l’on fait exactement ce que l’on veut en termes d’édition génétique ; on peut modifier les cellules souches et les réimplanter après modification avec le ciseau génétique. Le champ d’application est immense. Cela pose aussi de très grands problèmes d’éthique. Jusqu’où peut-on en effet modifier le patrimoine génétique par exemple des embryons.

Les applications thérapeutiques ou agroalimentaires représentent des marchés de plusieurs milliards d’euros au moins.

La science face à la complexité du vivant

La science est balbutiante face à la complexité du vivant

La philosophe, Isabelle Stengers ,  considère, dans un entretien au « Monde », que la crise sanitaire a révélé l’incapacité du pouvoir politique et des « experts » à sortir de l’idéalisme de la croissance et à penser la réalité qui nous attend.

Isabelle Stengers est professeure de philosophie des sciences, retraitée de l’Université libre de Bruxelles. Après avoir longtemps étudié la construction des discours et des concepts scientifiques et les relations entre sciences et pouvoirs (L’Invention des sciences modernes, La Découverte, 1993), elle analyse les risques que l’idéal scientifico-capitaliste fait courir au vivant (Au temps des catastrophes. Résister à la barbarie qui vient, La Découverte, 2008) et s’engage dans un combat intellectuel pour une refondation des rapports sociaux et biologiques (Réactiver le sens commun. Lecture de Whitehead en temps de débâcle, La Découverte, 208 pages, 18 euros) à partir de la pensée du mathématicien britannique Alfred North Whitehead (1861-1947).

Que nous montre le coup d’arrêt provoqué par le virus sur la fragilité du système global de croissance ?

Le premier trait de l’événement pandémique est le rapport étonnant qu’il établit entre le local et le global. Bien qu’il ait partie liée avec les désordres écologiques que provoque l’exploitation tous azimuts du vivant et de son milieu, cet événement a pour point de départ une affaire hyper-locale : un être, qui n’existe que pour cette éventualité rare, rencontre un hôte accueillant, avec lequel, grâce auquel, il pourra participer à l’aventure de la vie.

Une telle rencontre est parfaitement contingente, même si les virus ne cessent de muter, c’est-à-dire d’en augmenter la probabilité. Mais elle a ouvert à celui-ci un destin étonnant, bien différent de celui de ses cousins, qui participent de manière plus ou moins pacifique à la vie de chauve-souris ou de pangolins. Ce qui, pour le virus, est l’accomplissement de sa vocation première et dernière, a réussi à susciter ce qu’a été incapable de provoquer une menace qui, elle, est globale et prévisible : celle du désastre climatique dont les signes avant-coureurs se multiplient aujourd’hui. Certes, des catastrophes se succèdent désormais, imposant le fait qu’il y a « comme un problème », mais il semble entendu que celui-ci devra se résoudre dans le respect de l’impératif de croissance. Quoi que ce soit d’autre est inconcevable. La réussite virale a pourtant provoqué l’inconcevable.

Il y a un contraste assez sidérant entre le désordre climatique, explicable, implacable et indifférent à ses conséquences, et le virus, prince de l’opportunisme, qui n’existe que grâce aux conséquences qu’il provoque, mais sans les expliquer. Car le virus n’explique pas les effets de la rencontre, et encore moins l’« arrêt » sinon du monde, en tout cas de tout ce que ce monde fait circuler. C’est bien plutôt ce monde qui s’est bloqué à son épreuve. Panique générale, sauf en Afrique, où les épidémies, on connaît.

 

La science est balbutiante face à la complexité du vivant

La science est balbutiante face à la complexité du vivant

La philosophe, Isabelle Stengers ,  considère, dans un entretien au « Monde », que la crise sanitaire a révélé l’incapacité du pouvoir politique et des « experts » à sortir de l’idéalisme de la croissance et à penser la réalité qui nous attend.

Isabelle Stengers est professeure de philosophie des sciences, retraitée de l’Université libre de Bruxelles. Après avoir longtemps étudié la construction des discours et des concepts scientifiques et les relations entre sciences et pouvoirs (L’Invention des sciences modernes, La Découverte, 1993), elle analyse les risques que l’idéal scientifico-capitaliste fait courir au vivant (Au temps des catastrophes. Résister à la barbarie qui vient, La Découverte, 2008) et s’engage dans un combat intellectuel pour une refondation des rapports sociaux et biologiques (Réactiver le sens commun. Lecture de Whitehead en temps de débâcle, La Découverte, 208 pages, 18 euros) à partir de la pensée du mathématicien britannique Alfred North Whitehead (1861-1947).

Que nous montre le coup d’arrêt provoqué par le virus sur la fragilité du système global de croissance ?

Le premier trait de l’événement pandémique est le rapport étonnant qu’il établit entre le local et le global. Bien qu’il ait partie liée avec les désordres écologiques que provoque l’exploitation tous azimuts du vivant et de son milieu, cet événement a pour point de départ une affaire hyper-locale : un être, qui n’existe que pour cette éventualité rare, rencontre un hôte accueillant, avec lequel, grâce auquel, il pourra participer à l’aventure de la vie.

Une telle rencontre est parfaitement contingente, même si les virus ne cessent de muter, c’est-à-dire d’en augmenter la probabilité. Mais elle a ouvert à celui-ci un destin étonnant, bien différent de celui de ses cousins, qui participent de manière plus ou moins pacifique à la vie de chauve-souris ou de pangolins. Ce qui, pour le virus, est l’accomplissement de sa vocation première et dernière, a réussi à susciter ce qu’a été incapable de provoquer une menace qui, elle, est globale et prévisible : celle du désastre climatique dont les signes avant-coureurs se multiplient aujourd’hui. Certes, des catastrophes se succèdent désormais, imposant le fait qu’il y a « comme un problème », mais il semble entendu que celui-ci devra se résoudre dans le respect de l’impératif de croissance. Quoi que ce soit d’autre est inconcevable. La réussite virale a pourtant provoqué l’inconcevable.

Il y a un contraste assez sidérant entre le désordre climatique, explicable, implacable et indifférent à ses conséquences, et le virus, prince de l’opportunisme, qui n’existe que grâce aux conséquences qu’il provoque, mais sans les expliquer. Car le virus n’explique pas les effets de la rencontre, et encore moins l’« arrêt » sinon du monde, en tout cas de tout ce que ce monde fait circuler. C’est bien plutôt ce monde qui s’est bloqué à son épreuve. Panique générale, sauf en Afrique, où les épidémies, on connaît.

 

Actu économie, social, société, les plus lus

 

 

 

 

Déménagement de la gare de l’Est à Paris: le maire n’a aucune compétence !

 

 

 

 

 

  • Liens

 

 

 

 

 

 

 

Maintien du premier tour des municipales: c’était criminel

Maintien du premier tour des municipales: c’était criminel

 

 

À juste titre, un médecin généraliste dénonce sur Europe 1 le caractère criminel de la décision du Premier ministre d’avoir organisé le premier tour des élections municipales. Un acte totalement irresponsable d’après lui dans la mesure où le rassemblement des électeurs à transformé les bureaux de vote en salle de contamination;  cela , en pleine explosion du nombre de cas de coronavirus.

 

Alors que l’épidémie gagnait du terrain la semaine précédant l’

élection, avec plus de 700 cas par jour en moyenne, le gouvernement a décidé de ne pas reporter le scrutin, s’appuyant sur les recommandations du Conseil scientifique.  »C’est irresponsable », s’emporte Bertrand Legrand. « On voit que le nombre de personnes atteintes ne fait qu’augmenter. Ces élections ont été une catastrophe en termes épidémiologiques, c’est criminel de les avoir maintenues. »

 

Une semaine plus tard, les élections municipales paraissent bien loin face aux 860 morts que dénombre la France lundi soir. « Vous entendez très peu la colère des médecins, parce qu’on a autre chose à faire et qu’on est là pour soigner nos patients », poursuit Bertrand Legrand.

Le praticien nordiste évoque la pénurie d’équipements, qui rend son travail de plus en plus compliqué : « Le fait de ne pas avoir de masques, j’ai eu une dotation de 50 masques et une entreprise du BTP m’a livré cinq combinaisons pour que je puisse aller faire les soins palliatifs à domicile… On est dans un pays qui ne respecte même pas le simple fait que le médecin puisse donner les derniers soins à domicile. C’est vraiment honteux », dénonce-t-il. « Les patients qu’on n’hospitalisera pas, on ne peut même plus rentrer chez eux si on n’a pas de combinaisons. Je me retrouve avec un patient, c’est sa mère de 80 ans qui s’occupe de lui, il en a 50, les deux vont être contaminés. Vous n’imaginez même pas. »

Actu économie, social, société: les plus lus

 

 

 

 

Déménagement de la gare de l’Est à Paris: le maire n’a aucune compétence !

 

 

 

 

 

  • Liens