Archive pour la Catégorie 'sciences'

La polémique sur l’«islamo-gauchisme» n’est pas le débat dont la recherche française a besoin

La polémique sur l’«islamo-gauchisme» n’est pas le débat dont la recherche française a besoin

Me Yann-Maël Larher, Avocat fondateur legalbrain – OkayDoc.fr. (*) estime que l’islamo-gauchisme n’est pas un sujet prioritaire pour la recherche qui devrait s’occuper davantage des carences françaises par exemple en matière de recherche médicale sur le vaccin Covid.

 

 

La recherche, c’est le futur de la France, mais c’est paradoxalement une thématique absente des débats actuels qui visent à le construire. Serge Haroche, prix Nobel de physique 2012, déplorait déjà lors du « Grand débat des idées » en 2019, « le décrochage inquiétant de la France dans la compétition internationale » en matière de recherche, et « le manque d’attractivité des carrières scientifiques ».

Handicapé notamment par la lourdeur de ses institutions, notre pays souffre du cloisonnement des disciplines et d’une surreprésentation des sciences dites dures au détriment des sciences humaines et sociales. Grâce à leurs compétences et de leurs aptitudes, les diplômés du doctorat en France peuvent pourtant jouer un rôle crucial dans la résolution des problèmes sanitaires, économiques et sociaux qui se profilent.

Alors que la croissance de l’économie du savoir réclame une main-d’œuvre hautement qualifiée, les diplômés du doctorat des universités françaises devraient jouer un rôle central face aux défis auxquels la France est déjà confrontée. Mais alors pourquoi 30% de nos chercheurs sont amenés à partir à l’étranger?

À l’instar des derniers prix Nobel obtenus par des Français pour des recherches financées par des pays étrangers, les titulaires d’un doctorat quittent souvent notre pays pour continuer leurs recherches et contribuent in fine à améliorer le niveau de connaissances de nos voisins. Les jeunes chercheurs se heurtent en effet à d’importants obstacles tout au long de leur parcours jusqu’à leur entrée sur le marché du travail.

À côté de leurs travaux, bien des doctorants courent après les financements tout en cumulant enseignement et parfois petits boulots qui n’ont rien à voir avec leurs parcours. À cela peut s’ajouter l’administratif qui va à contre-courant de leurs recherches. Une fois diplômés, les jeunes docteurs français sont à nouveau pénalisés par certains employeurs (privés et publics) qui ne perçoivent pas ce qu’ils gagnent à les embaucher, croyant qu’il leur manque des attributs ou des compétences professionnelles essentiels.

L’enjeu d’une valorisation efficace de la recherche en France pour conserver des entreprises innovantes et attirer de nouveaux profils dans les laboratoires de nos universités devient crucial grâce à des dispositifs simples et compréhensibles par toutes les structures, quelle que soit leur taille. Comme le fait par exemple Okay Doc, des pratiques prometteuses sont actuellement à l’œuvre dans notre pays pour rapprocher les employeurs et les jeunes chercheurs. Il est notamment possible d’encourager les doctorants à réaliser des missions de conseil pendant quelques jours ou semaines en entreprise en lien avec l’expertise qu’ils développent pendant leur thèse. Ces missions peuvent également favoriser les liens entre des mondes qui ne se parlent pas suffisamment.

La thèse CIFRE qui associe une entreprise, un doctorant et un laboratoire,  est un autre exemple de dispositif qui fonctionne et qui gagnerait à être promu notamment auprès des TPE/PME et des collectivités. Ces liens peuvent aider à accroître la capacité d’intégration en montrant aux employeurs qu’il y a des avantages à embaucher des détenteurs d’un doctorat pour faire de la recherche, mais aussi pour occuper des postes considérés comme plus « opérationnels ».

En pratique, il reste pourtant très difficile de développer ces nouvelles formes de partenariats en raison notamment des préjugés dans certaines entreprises vis-à-vis des universités, ou dans le sens inverse, considérant que la recherche publique n’a rien à faire avec le privé.

Améliorer la situation des détenteurs d’un doctorat en France leur profitera personnellement, mais bénéficiera également à la société tout entière. Alors que le monde s’engage vers une économie davantage axée sur le savoir, on constate tout aussi paradoxalement une polarisation croissante des débats publics avec des prises de positions de plus en plus simplistes et caricaturales. Les titulaires du doctorat ont pourtant un rôle essentiel à jouer dans la transformation de la société et la compréhension des mutations.

Les jeunes chercheurs souhaitent de plus en plus souvent casser les codes de la recherche traditionnelle en vulgarisant par exemple leurs travaux sur Youtube ou lors d’évènements comme « Ma thèse en 180 secondes » ou encore grâce à des médias dédiés à la diffusion des sciences comme The Conversation. Il faut les encourager et les former dans les universités sur ce chemin. Des sciences physiques aux sciences humaines et sociales, il s’agit de s’assurer que la valorisation des chercheurs dans la recherche, mais aussi dans l’opinion publique soit à la hauteur des enjeux climatiques, sanitaires, sociaux, économiques, géopolitiques… mais également démocratiques auxquels nous faisons face.

En somme, plutôt que d’alimenter des débats stériles, créons des conditions « d’épanouissement » pour les jeunes docteurs avec des débouchés sérieux. Comme le disait Jean d’Ormesson :

« La science présente beaucoup de dangers, mais il faut lutter contre ces dangers non pas par moins de science, mais par davantage de science, une science qui puisse aussi créer sa propre éthique. »

____

(*) Yann-Maël LARHER est Avocat fondateur legalbrain - OkayDoc.fr, Docteur en droit social – relations numériques de travail et conseiller municipal délégué à Boulogne-Billancourt

La faillite de la recherche en France

La faillite de la recherche en France

Quatre professeurs de médecine dressent un bilan accablant de l’état de la recherche en France et appellent l’Etat à réagir en privilégiant la recherche fondamentale.

Tribune.

 

Que la patrie de Pasteur n’ait pas été capable de produire un vaccin contre le virus SARS CoV-2 est un échec qui implique autant le système public de recherche que son pendant privé, l’industrie pharmaceutique.

Cette situation n’est pas surprenante : on constate depuis de nombreuses années un désengagement des pouvoirs publics, avec seulement 2,2 % du produit intérieur brut (PIB) consacré à la recherche, en deçà des 3 % affichés dans l’engagement de Bologne et des investissements des principaux pays européens et nord-américains. Les carrières de la recherche n’attirent plus, et les sites universitaires constatent l’exode de leurs diplômés vers des pays beaucoup plus attractifs quant aux salaires et aux moyens de travail.

La recherche publique mobilise des chercheurs d’organismes nationaux (CNRS, Inserm, Inrae, Inria…), des enseignants-chercheurs des universités, des ingénieurs, des techniciens, des doctorants et postdoctorants. Ces personnels passent une grande partie de leur temps à rechercher des moyens financiers, déposer des demandes de contrats, rédiger des rapports d’activité, remplir des tâches administratives croissantes. La mission d’enseignement des enseignants-chercheurs s’est considérablement alourdie au détriment du temps consacré à la recherche.

Ce déclin est remarqué par la communauté internationale et abondamment rapporté dans les médias étrangers. En témoignent la diminution de la sollicitation des chercheurs français dans la gestion internationale de la science (édition, congrès, évaluation) et notre très faible attractivité pour des chercheurs étrangers. Paradoxalement, la formation des jeunes diplômés dans nos laboratoires est universellement reconnue ce qui les rend largement courtisés par les universités étrangères.

Nos décideurs politiques n’ont pas conscience que la recherche, notamment celle dite fondamentale, est le moteur indispensable de l’innovation technologique, du développement industriel et du progrès social. Les propositions des gouvernements successifs de recapitaliser ce secteur et de revaloriser les carrières n’ont jamais atteint les standards internationaux.

Nos gouvernants privilégient la recherche appliquée conduisant à une commercialisation immédiate, une vision simpliste et à court terme qui nous rend tributaires des innovations étrangères. La situation actuelle ne peut que s’aggraver, car cette rupture de connaissance fondamentale se traduira pendant plusieurs années en affaiblissements des développements applicatifs. C’est la clé de compréhension que doivent avoir nos dirigeants pour une stratégie ambitieuse.

La fusée SpaceX d’Eon Musk s’écrase encore

La  fusée SpaceX d’Eon Musk s’écrase encore

C’est le troisième prototype de la fusée SpaceX  qui s’écrase encore au sol, ce qui n’a pas empêché le très volubile patron et milliardaire Eon Musk  de considérer qu’il s’agissait d’un succès. Il faut dire que les entreprises du milliardaire aussi bien dans l’espace que vis-à-vis de l’automobile électrique reposent beaucoup sur du vent. Le groupe du milliardaire est particulièrement surcoté et ne repose que sur les annonces mirifiques d’ Elon Musk.

Dernièrement Elon Musk a réussi un coup avec sa publicité en faveur du bit coin dans lequel il a investi 1,5 milliards. Ce qui a propulsé encore la valeur du bitcoin mais en même temps favoriser son extrême volatilité.

Cependant le patron Elon Musk ce félicite de l’opération ratée pour l’espace. Sans doute pour ne pas décourager les futures touristes candidats au voyage spatiaux.   «L’équipe SpaceX fait du super boulot! Un jour, la véritable mesure du succès sera le fait que les vols Starship seront devenus banals», a ajouté le fantasque milliardaire dans un second tweet.«Un magnifique atterrissage en douceur», avait commenté SpaceX dans la vidéo retransmettant le vol d’essai en direct. Des flammes étaient toutefois visibles au pied de la fusée, en train d’être éteintes par les équipes sur place. Quelques minutes plus tard, une énorme explosion a projeté l’engin en l’air, qui s’est fracassé en retombant au sol.

Starship, la fusée en cause est appelée à devenir la fusée de choix de SpaceX, fondée par le milliardaire Elon Musk, pour aller un jour sur Mars !

Ethique de la recherche: éviter de glisser vers l’idéologie

Ethique de la recherche: éviter de glisser vers l’idéologie

Face au mélange entre science et politique, au refus du pluralisme, les chercheurs doivent pouvoir échanger de façon argumentée et réfutée, en s’employant à « éviter les fractures et les enclaves », explique le géographe Jacques Lévy dans une tribune au « Monde ».

 

 

Tribune.

 

Une des effets dommageables de la prise de position de Frédérique Vidal sur l’« islamo-gauchisme » à l’université a été de permettre à ses détracteurs d’inverser son propos et de porter la charge sur les lanceurs d’alerte. Pourtant, il existe bien des motifs d’inquiétude sur la relation entre la société et ses chercheurs, et pas seulement en sciences sociales. Pour y voir plus clair, distinguons trois plans : celui des théories, celui du mélange des genres et celui du pluralisme.

Les théories qui cherchent à expliquer le monde sont nombreuses et tant mieux ! L’une d’elles se fonde sur une vision communautaire du social : elle se représente la société comme une constellation de groupes aux appartenances non choisies et irréversibles. La fameuse « intersectionnalité » consiste en une essentialisation des identités, qu’on peut éventuellement croiser, mais sans les remettre en question.

 

Cette école de pensée tente de sauver le structuralisme marxiste, dans lequel la communauté de classe était centrale, en ajoutant de nouvelles « structures » à un édifice qui se lézarde, pris à contre-pied par l’irruption des singularités individuelles. On peut préférer, dans le sillage de Norbert Elias (1897-1990), le paradigme de la « société des individus », qui décrit un monde où les individus acteurs et une société postcommunautaire prospèrent de conserve. La différence entre ces deux conceptions est patente, mais on ne peut s’en plaindre. Cela, c’est le débat, sain parce que libre et transparent, qui caractérise la démarche scientifique.Le danger apparaît avec le mélange des genres entre science et politique. Roger Pielke (The Honest Broker, Cambridge University Press, 2007, non traduit) a montré, à propos des débats sur le climat, que lorsqu’un sujet est marqué à la fois par des controverses scientifiques et des oppositions politiques fortes, les deux dissensus peuvent s’épauler et créer des monstres : le militant choisit l’hypothèse qui l’arrange pour se parer de la légitimité scientifique, tandis que le chercheur se mue subrepticement en un politicien sans scrupule. Les chercheurs sont aussi des citoyens et ils ont bien le droit de l’être. Leurs expériences personnelles peuvent être des ressources pour la connaissance.

Si la conscience que les registres ne doivent pas se fondre les uns dans les autres fait défaut, les savants se muent tout bonnement en idéologues d’autant plus déplaisants qu’ils s’abritent derrière leur statut. On voit fleurir des novlangues dignes du 1984 de George Orwell, lorsque, au nom de la science, l’« antiracisme » couvre un nouveau type de racisme, ou lorsque la « démocratie écologique » vise une dictature des écologistes intégristes. L’enquête qu’ont menée les chercheurs britannique et américain Helen Pluckrose et James Lindsay (Cynical Theories, Pitchstone Publishing 2020, non traduit) montre que des revues universitaires prestigieuses acceptent aisément de publier des textes délirants dont on aimerait pouvoir rire mais qui sont animés par une idéologie de la haine intercommunautaire et n’hésitent pas à traiter de « négationniste » toute prise de position divergente

Technologies-Intelligence artificielle : limites et mythes

Technologies-Intelligence artificielle : limites et mythes

 

 

Luc Julia fut un des créateurs de Siri, l’assistant virtuel de l’iPhone. Il dirige depuis 2012 le centre de recherche de Samsung, en Californie, mais il passe une partie de son temps à Paris. Considéré comme une des stars mondiales de l’intelligence artificielle, il a pourtant clamé, dans un livre paru en janvier 2019, que celle-ci… n’existe pas ! (Interview dans l’opinion)

Vous êtes le créateur de Siri, un des outils les plus aboutis d’intelligence artificielle appliqué à la reconnaissance vocale. Et pourtant, vous soutenez cette thèse surprenante : l’intelligence artificielle n’existe pas !

Non, cela n’existe pas ; et d’ailleurs, j’appelle cela de l’innovation avancée ou de l’intelligence augmentée, ce qui signifie que l’on peut garder le même sigle sans utiliser l’expression intelligence artificielle. Ce à quoi on a assisté depuis les années 1970, après un premier « hiver de l’intelligence artificielle » qui a découlé de l’échec des premières tentatives de reconnaissance du sens des textes écrits avec une machine et de l’assèchement des financements qui a suivi. Ce que nous observons aujourd’hui, ce sont surtout des systèmes experts, qui suivent de la logique, des règles. Ce sont des super arbres décisionnels qui reposent sur des capacités de stockage de plus en plus importantes. En 1997, lorsque l’ordinateur Deep Blue d’IBM bat le champion d’échec Gary Kasparov, il n’y parvient que parce qu’il est doté d’une mémoire énorme qui stocke les 10 49 coups possibles aux échecs. C’est beaucoup, mais c’est un nombre fini.

L’intelligence artificielle a pourtant démontré des capacités d’apprentissage…

Elle n’a démontré que sa capacité à apprendre très lentement. J’aime citer cet exemple. La naissance d’Internet, en 1994, a offert au monde la plus importante base de données jamais compilée et la notion de « big data ». On a pu prouver la capacité d’un système informatique à apprendre. La première expérience menée, entre 1997 et 2000, a été d’apprendre à un ordinateur à reconnaître un chat, en observant des centaines de milliers de photos étiquetées « chat » postées par des humains ; c’était la première base qualifiée et bien labellisée que l’on possédait, parce que les propriétaires de chats aiment poster des photos de leurs animaux. Et c’est ainsi qu’entre 2000 et 2005, des machines ont pu reconnaître des chats… à 98 %. Un enfant humain a, lui, besoin de voir un chat deux fois en moyenne pour intégrer le concept. Cela relativise totalement la notion de machine learning.

La machine a besoin, pour gager, de s’appuyer sur l’équivalent de la puissance de calcul de 2000 ordinateurs domestiques. Un petit data center qui dépense 440 kWh ! Une énergie folle pour jouer au go quand, dans le même temps, l’esprit humain dépense 20 Wh, l’équivalent d’une ampoule de faible puissance

L’intelligence artificielle a appris à faire des choses vraiment plus difficiles, comme jouer au très complexe jeu de go, dont on peine à évaluer le nombre de combinaisons possibles. N’est-ce pas remarquable ?

Le jeu de go est un jeu originaire de Chine dont le but est de contrôler le plan de jeu en y construisant des « territoires » avec des pierres noires et blanches, tout en faisant des prisonniers. Ce jeu pourrait comporter entre 10 172 et 10 592 configurations. On ne sait pas exactement. On sait désormais avoir une machine avec une puissance de calcul suffisante pour prendre en compte cette incroyable masse de combinaisons. Le programme Alphago développé par Google DeepMind a battu un humain en 2016. Elle n’est pas plus créative que l’homme. Elle est simplement plus surprenante. Et elle a besoin, pour gagner, de s’appuyer sur l’équivalent de la puissance de calcul de 2000 ordinateurs domestiques. Un petit data center qui dépense 440 kWh ! Une énergie folle pour jouer au go quand, dans le même temps, l’esprit humain dépense 20 Wh, l’équivalent d’une ampoule de faible puissance. Et l’esprit humain ne fait pas que jouer au go, il sait faire des quantités d’autres choses. Il faut se calmer, avec l’intelligence artificielle. Pour l’instant, cela se résume à une débauche de data et d’énergie pour faire des choses très limitées.

Pourquoi l’intelligence artificielle – ou l’innovation avancée comme vous l’appelez – fait-elle si peur ?

Parce que l’on raconte n’importe quoi sur ce sujet. Pour certains, l’IA – et j’utilise ces lettres à dessein – c’est Hollywood, c’est de la science-fiction, c’est « Terminator », le robot qui remplace l’homme et prend seul des décisions mauvaises, qui est incontrôlable. Or, nous sommes actuellement en contrôle total de l’IA. Ou alors, on fait rêver. C’est un autre genre de film, c’est « Her », le film de Spike Jonze, l’IA séduisante, qui devient notre moitié. Or, cela n’existera jamais avec les mathématiques et les statistiques qui servent actuellement de base à l’IA. Il faudrait utiliser d’autres sciences pour simuler un cerveau. Peut-être de l’informatique quantique… Mais cela reste une totale hypothèse, puisque nous ne savons pas comment fonctionne un cerveau, ou ce qu’est l’intelligence. On veut donc imiter un modèle que l’on ne connaît pas. L’intelligence émotionnelle, par exemple, personne ne sait ce que c’est.

Il y a pourtant des inquiétudes légitimes avec l’IA. En 2016, par exemple, le chatbot de Microsoft Tay, qui était supposé aider les clients à choisir leur matériel, est devenu raciste et sexiste en à peine 16 heures d’usage…

Tay était une expérience marketing qui a dû très vite être débranchée. Cet échec a souligné deux choses. D’abord, le fait que les algorithmes doivent comprendre le public et s’y adapter pour répondre à ses questions. Cela n’a pas été le cas avec Tay, qui a raconté autre chose que ce qu’il devait. Ensuite, pour pouvoir prendre en compte des conversations et répondre, un chatbot doit s’appuyer sur des conversations préexistantes annotées. Il y a des quantités considérables dans une base appelée Switchboard, qui recense des conversations enregistrées de call center. Il est probable que la base utilisée par Tay n’était pas de bonne qualité et à conduit Tay à dériver. C’est toujours l’homme qui décide ! Il n’y a pas d’erreurs de la machine les erreurs sont toujours celles de l’homme.

La technologie informatique est sans doute une des inventions les plus puissantes de l’humanité. Plus puissante, sans doute, que la maîtrise de l’atome. Mais elle n’est finalement pas si différente des autres inventions

Quelle attitude les autorités politiques doivent-elles adopter face à l’intelligence artificielle ?

Il faut évidemment une régulation, mais qui ait avant tout une valeur éducative. Pour l’instant les tentatives sont arrivées en retard. Le Règlement européen sur la protection des données personnelles, le RGPD, est très louable, mais il arrive quinze ans après les premiers problèmes. La régulation, c’est avant tout la régulation de chacun. La technologie informatique est sans doute une des inventions les plus puissantes de l’humanité. Plus puissante, sans doute, que la maîtrise de l’atome. Mais elle n’est finalement pas si différente des autres inventions. On a mis du temps à réguler l’usage du couteau ou de la poudre. Tous les outils peuvent être utilisés à bon ou à mauvais escient. Lorsque l’Humain invente quelque chose, c’est généralement pour le bien. Mais il est possible que cela dérape ici où là.

Est-il cependant à craindre que l’intelligence artificielle et ses applications finissent par grignoter nos libertés individuelles ?

L’IA aura les effets que les individus et les groupes décideront qu’elle aura. C’est une question éthique, philosophique autant que politique. Elle peut servir à éviter les accidents de voiture, à diagnostiquer les cancers. Le temps libéré par la technologie peut être utilisé pour nous éduquer, pour créer des liens. Les abus de la technologie peuvent aussi aboutir à des scénarios comme celui d’« Idiocracy », film sorti en 2005. Mike Judge y dépeint une société qui a tout lâché et la technologie aboutit à réduire une partie de l’humanité en esclavage. Notre rapport à la technologie doit être une négociation permanente : qu’est-ce qu’elle m’apporte ou pas ? Il faut choisir ses batailles.

Vous êtes une figure incontournable de la Tech aux Etats-Unis. Et vous n’êtes pas le seul français à briller dans la Silicon Valley. Comment se fait-il, selon vous, que la France et l’Europe comptent aussi peu de licornes ?

Je suis un franco-franchouillard de base ! Je crois en la France de Pascal, de Descartes, en l’héritage des Lumières. Notre pays produit des ingénieurs doués en maths et en technologie… Mais cela ne se traduit pas en termes économiques par la création d’entreprises. Cela n’a rien à voir avec les compétences, mais avec le marché. Il a beau exister un marché commun en Europe, du point de vue technologique, ce marché n’existe pas. Trop de langues cohabitent, trop de régulations, trop de barrières administratives différentes ; l’Europe a, de ce point de vue là, tout fait pour se pénaliser elle-même. Résultat : pour une société technologique française, le marché se limite à 60 millions d’habitants quand il est de 330 millions de personnes aux Etats-Unis avec un langage unique et d’un milliard de personnes en Chine. La démographie et la géographie font finalement tout. Il va être très compliqué d’inverser la tendance, même si, depuis deux ou trois ans, la French tech a redonné une fibre entrepreneuriale à la France. Les pépites que nous exportons sont en fait nos cerveaux, puisque tous les chefs de l’intelligence artificielle dans la Silicon Valley sont des Français.

Economie, social, société : les plus lus

Un plan européen de recherche enfin à la hauteur ?

Un  plan européen de recherche enfin à la hauteur ?

 

Le plan européen de recherche est enfin à la hauteur estiment  Mariya Gabriel, commissaire européenne à l’Innovation, à la Recherche, à la Culture, à l’Education et à la Jeunesse, et François-Xavier Bellamy, président de la délégation française du Groupe PPE au Parlement européen, et membre de la commission de l’Energie, de l’Industrie et de la Recherche .( Chronique dans la tribune).

 

 

La situation difficile que nos pays traversent actuellement nous rappelle qu’au-delà de leur contribution évidente à la vie de nos sociétés, les efforts de recherche et d’innovation sont essentiels pour faire face aux crises. La recherche a ainsi été l’un des tout premiers domaines sollicités et soutenus au plan européen pour apporter une réponse globale à la crise du coronavirus – un milliard d’euros a été mobilisé pour soutenir le développement de nouvelles méthodes de test, de nouveaux traitements et de nouveaux vaccins… Cette même recherche doit rester une priorité, pour préparer nos pays aux crises qui ne manqueront pas de survenir encore, et dont la nature n’est pas toujours prévisible. Il ne fait aucun doute que, dans les mois et les années à venir, notre réponse commune aux défis sanitaires, sociaux, économiques ou géopolitiques s’appuiera de manière décisive sur les moyens que nous aurons su allouer au monde scientifique aujourd’hui.

C’est cette conviction qui a amené l’Europe à doter Horizon Europe d’un budget de 95,5 milliards d’euros et d’un ensemble d’instruments modernes, faisant de celui-ci le programme de recherche et d’innovation le plus puissant au monde. Ce programme doit apporter jusqu’à 11 euros de gains de PIB pour chaque euro investi et suppose la création jusqu’à 100.000 emplois dans la recherche et l’innovation avant la fin de 2027. Il continuera de soutenir la recherche exploratoire par l’intermédiaire du Conseil européen de la recherche, en plus d’inciter davantage de jeunes à se lancer dans la recherche grâce au programme de subventions « Actions Marie Skłodowska-Curie ». L’objectif est double : investir dans des infrastructures de recherche d’envergure mondiale et attirer les talents du monde entier.

Les six pôles du programme couvrent tous les domaines de recherche fondamentale et d’innovation, ainsi que, pour la première fois, les secteurs de la culture et de la création, et la contribution de ces secteurs à l’innovation européenne. Afin de préserver et de promouvoir la richesse culturelle de l’Europe, la création d’un espace de collaboration numérique en matière de patrimoine culturel est par ailleurs à l’étude. Le programme soutient également l’innovation structurelle nécessaire dans les chaînes de valeur clés, contribuant ainsi à renforcer la souveraineté technologique des pays d’Europe dans des domaines essentiels, de la santé à l’industrie en passant par l’agriculture, la mobilité ou encore la sécurité. Lutte contre le cancer, neutralité-climat dans au moins cent villes européennes, lutte contre la pollution des eaux, des mers et des sols, accroissement des capacités de résiliences de nos régions face aux changements climatiques : une part majeure des objectifs poursuivis vise en outre la préservation de l’environnement, des conditions mêmes de la vie. Dans les domaines stratégiques de l’énergie, des transports, de la biodiversité, de la santé, de l’alimentation ou de l’économie circulaire, les partenariats européens avec les secteurs privé et public seront davantage en phase avec les investissements des États membres et des entreprises.

 

Pour la première fois, le programme comprend un pilier distinct d’actions en faveur des innovations de rupture – le Conseil européen de l’innovation devant être amené à soutenir les innovations les plus avancées et radicales en vue de leur mise sur le marché. Enfin, l’accès à l’Espace européen de la recherche sera élargi pour mieux exploiter le potentiel national au sein de chaque État-membre. Il a été proposé que le programme consacre 3,3 % de son budget global à cet objectif, ce qui représente une augmentation significative par rapport au précédent programme Horizon.

Les défis qui succéderont à la sortie de la crise actuelle seront colossaux, et ne pourront être relevés qu’en alliant, à une saine mobilisation des institutions européennes, les retombées d’avancées scientifiques qu’elles auront contribué à soutenir. Au-delà d’un soutien à un secteur-clé pourvoyeur d’emplois, c’est aussi un service rendu aux pays d’Europe qui, ouverts sur le monde, ont conscience de la nécessité d’assurer leur autonomie stratégique

Pandémie : plaidoyer pour la tech et l’IA

Pandémie : plaidoyer pour la tech et l’IA

 

Ancienne dirigeante de Sanofi et de GE Healthcare, Pascale Witz défend dans son livre* le recours à la tech et à l’intelligence artificielle (IA) dans la santé.(Interview dans l’Opinion)

Quel est l’apport de la tech dans la course aux vaccins ?

Les vaccins à ARN messager sont des exemples criants de l’apport de la tech. Si Moderna et BioNTech ont réussi ce coup de force, c’est qu’ils travaillaient depuis cinq ans sur cette technologie et qu’ils ont fait pivoter leurs équipes vers le vaccin. C’est ce qui leur a permis de gagner la course. Ce n’est pas le cas de Sanofi et je suis sûre que les équipes, que je connais bien et qui n’ont pas ménagé leurs efforts, sont très déçues. Mais, comme je l’expliquais, chaque laboratoire a utilisé la technologie qu’il maîtrisait.

Comparée à nos voisins anglais qui vaccinent à tour de bras, la France est à la traîne. Faut-il repenser notre sacro-saint principe de précaution?

Je ne pense pas que la France a été plus précautionneuse que la Grande-Bretagne. Le démarrage de notre campagne vaccinale a manqué d’audace mais les choses se déroulent bien mieux à présent. Il faut comprendre une chose : Faire un vaccin, ce n’est pas comme faire du Doliprane ! Ce n’est pas parce qu’on est capable de développer le second qu’on peut faire de même avec le premier. Les lignes de production sont tout à fait différentes. Un vaccin va transiter par la ligne dite des grandes molécules ou des produits biologiques innovants. C’était déjà un marché tendu. Lorsqu’un laboratoire veut développer un nouveau produit, il lui faut réserver un créneau pour la capacité de production des années à l’avance. Les limites de la campagne vaccinale se situent davantage à ce niveau-là selon moi.

En dehors du vaccin, pour quelle pathologie la tech a-t-elle fait ses preuves ?

Quand je parle de la tech, c’est au sens large, j’englobe la puissance du calcul, la miniaturisation, la connectivité. Le diabète est un bon exemple. Il y a 5 ou 6 ans, un patient diabétique devait avoir en permanence avec lui sa trousse de bonne taille contenant tous les outils pour se piquer le doigt. Avec les mini-capteurs de mesure du glucose en continu à patcher sur le bras ou sur le ventre une fois par semaine, cette logistique encombrante est derrière nous. Il suffit de regarder sa montre connectée pour vérifier discrètement son taux de glucose dans le sang.

La tech me semble tout à fait pertinente pour la surveillance cardiaque, en particulier celle des femmes. Elles sont davantage sujettes à la survenue d’un décès que les hommes après un premier événement cardiaque. Les médecins urgentistes vous diront leur inquiétude lorsqu’ils renvoient chez elles des patientes dont le tableau clinique est incertain. Des sociétés comme iRhythm Technologies développent déjà des enregistreurs d’ECG connectés, discrets. Il n’y a pas si longtemps, on faisait porter aux patients un holter, dispositif contraignant qui permettait l’enregistrement en continu de l’électrocardiogramme (pendant au moins 24 heures, NDLR). C’était impossible de l’oublier !

Selon vous, l’intégration de l’IA dans les protocoles médicaux va permettre de «  réhumaniser  » la médecine, en particulier à l’hôpital. N’est-ce pas paradoxal ?

La tech démocratise l’innovation médicale, elle pousse vers une santé de plus en plus humaine. Ce n’est pas du tout un paradoxe.

L’IA doit être conçue comme un outil de support à la décision. Elle permet l’analyse d’un plus grand nombre de données et, ce faisant, accorde au médecin davantage de temps pour se recentrer sur le patient. C’est l’autre aspect que je défends, quand je parle du suivi médical «  déporté  » à la maison grâce à la tech. Cette approche contribue au désengorgement des urgences et recentre l’hôpital sur son cœur de métier : la prise en charge des pathologies les plus graves.

Nous avons de grandes exigences vis-à-vis de la médecine. Je ne vois pas d’autres moyens que de faire confiance à la tech et à l’utilisation sécurisée des données

Vous prônez le principe de l’algorithme personnel de santé. De quoi s’agit-il ? Est-ce applicable en France, ou la population se méfie volontiers des GAFAM ?

Prenons l’exemple de l’asthme. La société Propeller Health a développé un inhalateur connecté, qui prend en considération l’environnement immédiat du patient et lui permet d’anticiper des crises d’asthme et d’éviter une fois de plus un recours aux urgences. Il s’agit donc, en somme, d’ajuster au plus près et de façon la plus personnelle le traitement au patient.

Quant à la défiance, je rappelle que nos données sont bien plus souvent enregistrées par des sociétés commerciales qu’à des fins scientifiques. Et, sincèrement, il faut en passer par là pour avancer dans la recherche clinique. Nous avons de grandes exigences vis-à-vis de la médecine. Je ne vois pas d’autres moyens que de faire confiance à la tech et à l’utilisation sécurisée des données. En ce sens, la création du Health data hub (nouvelle banque de données nationale, NDLR) est une très bonne initiative.

Intelligence artificielle : limites et mythes

 

Intelligence artificielle : limites et mythes

 

 

Luc Julia fut un des créateurs de Siri, l’assistant virtuel de l’iPhone. Il dirige depuis 2012 le centre de recherche de Samsung, en Californie, mais il passe une partie de son temps à Paris. Considéré comme une des stars mondiales de l’intelligence artificielle, il a pourtant clamé, dans un livre paru en janvier 2019, que celle-ci… n’existe pas ! (Interview dans l’opinion)

Vous êtes le créateur de Siri, un des outils les plus aboutis d’intelligence artificielle appliqué à la reconnaissance vocale. Et pourtant, vous soutenez cette thèse surprenante : l’intelligence artificielle n’existe pas !

Non, cela n’existe pas ; et d’ailleurs, j’appelle cela de l’innovation avancée ou de l’intelligence augmentée, ce qui signifie que l’on peut garder le même sigle sans utiliser l’expression intelligence artificielle. Ce à quoi on a assisté depuis les années 1970, après un premier « hiver de l’intelligence artificielle » qui a découlé de l’échec des premières tentatives de reconnaissance du sens des textes écrits avec une machine et de l’assèchement des financements qui a suivi. Ce que nous observons aujourd’hui, ce sont surtout des systèmes experts, qui suivent de la logique, des règles. Ce sont des super arbres décisionnels qui reposent sur des capacités de stockage de plus en plus importantes. En 1997, lorsque l’ordinateur Deep Blue d’IBM bat le champion d’échec Gary Kasparov, il n’y parvient que parce qu’il est doté d’une mémoire énorme qui stocke les 10 49 coups possibles aux échecs. C’est beaucoup, mais c’est un nombre fini.

L’intelligence artificielle a pourtant démontré des capacités d’apprentissage…

Elle n’a démontré que sa capacité à apprendre très lentement. J’aime citer cet exemple. La naissance d’Internet, en 1994, a offert au monde la plus importante base de données jamais compilée et la notion de « big data ». On a pu prouver la capacité d’un système informatique à apprendre. La première expérience menée, entre 1997 et 2000, a été d’apprendre à un ordinateur à reconnaître un chat, en observant des centaines de milliers de photos étiquetées « chat » postées par des humains ; c’était la première base qualifiée et bien labellisée que l’on possédait, parce que les propriétaires de chats aiment poster des photos de leurs animaux. Et c’est ainsi qu’entre 2000 et 2005, des machines ont pu reconnaître des chats… à 98 %. Un enfant humain a, lui, besoin de voir un chat deux fois en moyenne pour intégrer le concept. Cela relativise totalement la notion de machine learning.

La machine a besoin, pour gager, de s’appuyer sur l’équivalent de la puissance de calcul de 2000 ordinateurs domestiques. Un petit data center qui dépense 440 kWh ! Une énergie folle pour jouer au go quand, dans le même temps, l’esprit humain dépense 20 Wh, l’équivalent d’une ampoule de faible puissance

L’intelligence artificielle a appris à faire des choses vraiment plus difficiles, comme jouer au très complexe jeu de go, dont on peine à évaluer le nombre de combinaisons possibles. N’est-ce pas remarquable ?

Le jeu de go est un jeu originaire de Chine dont le but est de contrôler le plan de jeu en y construisant des « territoires » avec des pierres noires et blanches, tout en faisant des prisonniers. Ce jeu pourrait comporter entre 10 172 et 10 592 configurations. On ne sait pas exactement. On sait désormais avoir une machine avec une puissance de calcul suffisante pour prendre en compte cette incroyable masse de combinaisons. Le programme Alphago développé par Google DeepMind a battu un humain en 2016. Elle n’est pas plus créative que l’homme. Elle est simplement plus surprenante. Et elle a besoin, pour gagner, de s’appuyer sur l’équivalent de la puissance de calcul de 2000 ordinateurs domestiques. Un petit data center qui dépense 440 kWh ! Une énergie folle pour jouer au go quand, dans le même temps, l’esprit humain dépense 20 Wh, l’équivalent d’une ampoule de faible puissance. Et l’esprit humain ne fait pas que jouer au go, il sait faire des quantités d’autres choses. Il faut se calmer, avec l’intelligence artificielle. Pour l’instant, cela se résume à une débauche de data et d’énergie pour faire des choses très limitées.

Pourquoi l’intelligence artificielle – ou l’innovation avancée comme vous l’appelez – fait-elle si peur ?

Parce que l’on raconte n’importe quoi sur ce sujet. Pour certains, l’IA – et j’utilise ces lettres à dessein – c’est Hollywood, c’est de la science-fiction, c’est « Terminator », le robot qui remplace l’homme et prend seul des décisions mauvaises, qui est incontrôlable. Or, nous sommes actuellement en contrôle total de l’IA. Ou alors, on fait rêver. C’est un autre genre de film, c’est « Her », le film de Spike Jonze, l’IA séduisante, qui devient notre moitié. Or, cela n’existera jamais avec les mathématiques et les statistiques qui servent actuellement de base à l’IA. Il faudrait utiliser d’autres sciences pour simuler un cerveau. Peut-être de l’informatique quantique… Mais cela reste une totale hypothèse, puisque nous ne savons pas comment fonctionne un cerveau, ou ce qu’est l’intelligence. On veut donc imiter un modèle que l’on ne connaît pas. L’intelligence émotionnelle, par exemple, personne ne sait ce que c’est.

Il y a pourtant des inquiétudes légitimes avec l’IA. En 2016, par exemple, le chatbot de Microsoft Tay, qui était supposé aider les clients à choisir leur matériel, est devenu raciste et sexiste en à peine 16 heures d’usage…

Tay était une expérience marketing qui a dû très vite être débranchée. Cet échec a souligné deux choses. D’abord, le fait que les algorithmes doivent comprendre le public et s’y adapter pour répondre à ses questions. Cela n’a pas été le cas avec Tay, qui a raconté autre chose que ce qu’il devait. Ensuite, pour pouvoir prendre en compte des conversations et répondre, un chatbot doit s’appuyer sur des conversations préexistantes annotées. Il y a des quantités considérables dans une base appelée Switchboard, qui recense des conversations enregistrées de call center. Il est probable que la base utilisée par Tay n’était pas de bonne qualité et à conduit Tay à dériver. C’est toujours l’homme qui décide ! Il n’y a pas d’erreurs de la machine les erreurs sont toujours celles de l’homme.

La technologie informatique est sans doute une des inventions les plus puissantes de l’humanité. Plus puissante, sans doute, que la maîtrise de l’atome. Mais elle n’est finalement pas si différente des autres inventions

Quelle attitude les autorités politiques doivent-elles adopter face à l’intelligence artificielle ?

Il faut évidemment une régulation, mais qui ait avant tout une valeur éducative. Pour l’instant les tentatives sont arrivées en retard. Le Règlement européen sur la protection des données personnelles, le RGPD, est très louable, mais il arrive quinze ans après les premiers problèmes. La régulation, c’est avant tout la régulation de chacun. La technologie informatique est sans doute une des inventions les plus puissantes de l’humanité. Plus puissante, sans doute, que la maîtrise de l’atome. Mais elle n’est finalement pas si différente des autres inventions. On a mis du temps à réguler l’usage du couteau ou de la poudre. Tous les outils peuvent être utilisés à bon ou à mauvais escient. Lorsque l’Humain invente quelque chose, c’est généralement pour le bien. Mais il est possible que cela dérape ici où là.

Est-il cependant à craindre que l’intelligence artificielle et ses applications finissent par grignoter nos libertés individuelles ?

L’IA aura les effets que les individus et les groupes décideront qu’elle aura. C’est une question éthique, philosophique autant que politique. Elle peut servir à éviter les accidents de voiture, à diagnostiquer les cancers. Le temps libéré par la technologie peut être utilisé pour nous éduquer, pour créer des liens. Les abus de la technologie peuvent aussi aboutir à des scénarios comme celui d’« Idiocracy », film sorti en 2005. Mike Judge y dépeint une société qui a tout lâché et la technologie aboutit à réduire une partie de l’humanité en esclavage. Notre rapport à la technologie doit être une négociation permanente : qu’est-ce qu’elle m’apporte ou pas ? Il faut choisir ses batailles.

Vous êtes une figure incontournable de la Tech aux Etats-Unis. Et vous n’êtes pas le seul français à briller dans la Silicon Valley. Comment se fait-il, selon vous, que la France et l’Europe comptent aussi peu de licornes ?

Je suis un franco-franchouillard de base ! Je crois en la France de Pascal, de Descartes, en l’héritage des Lumières. Notre pays produit des ingénieurs doués en maths et en technologie… Mais cela ne se traduit pas en termes économiques par la création d’entreprises. Cela n’a rien à voir avec les compétences, mais avec le marché. Il a beau exister un marché commun en Europe, du point de vue technologique, ce marché n’existe pas. Trop de langues cohabitent, trop de régulations, trop de barrières administratives différentes ; l’Europe a, de ce point de vue là, tout fait pour se pénaliser elle-même. Résultat : pour une société technologique française, le marché se limite à 60 millions d’habitants quand il est de 330 millions de personnes aux Etats-Unis avec un langage unique et d’un milliard de personnes en Chine. La démographie et la géographie font finalement tout. Il va être très compliqué d’inverser la tendance, même si, depuis deux ou trois ans, la French tech a redonné une fibre entrepreneuriale à la France. Les pépites que nous exportons sont en fait nos cerveaux, puisque tous les chefs de l’intelligence artificielle dans la Silicon Valley sont des Français.

Covid-19 : la logique actionnariale emporté chez Sanofi

Covid-19 : la logique actionnariale emporté chez Sanofi

Chez les fabricants de médicaments, la logique actionnariale l’a emporté sur la logique de santé publique, estime la chercheuse Nathalie Coutinet dans un entretien au « Monde ».

Entretien. Nathalie Coutinet est maîtresse de conférences en économie au Centre d’économie de l’université Paris-Nord, spécialiste de l’économie de la santé, de la protection sociale et de l’industrie du médicament.

Le groupe Sanofi, leader de l’industrie pharmaceutique française, est aujourd’hui critiqué pour son retard dans la course au vaccin contre le Covid-19. Est-ce un échec de la recherche et développement (R&D) et de l’industrie « à la française » ?

Je ne crois pas qu’on puisse véritablement parler d’échec. Sanofi a fait le choix d’utiliser les technologies classiques de développement d’un vaccin – comme celui contre la grippe – plutôt que l’ARN messager. Le délai classique dans ce domaine est de cinq à dix ans (un vaccin en deux ans serait déjà exceptionnel).

La surprise scientifique est venue de la performance de l’ARN messager, pourtant étudié et mis au point depuis longtemps. Sanofi est d’ailleurs partenaire, depuis 2018, d’une biotech américaine, Translate Bio, experte de l’ARN messager, tout comme Pfizer l’est de BioNTech. Ce qu’on ne sait pas, c’est pourquoi Sanofi n’a pas activé ce partenariat dans sa quête d’un vaccin.


Le fait que l’américain Pfizer ait découvert un vaccin avant le français Sanofi n’est pas une surprise : depuis vingt ans, la R&D du médicament migre vers les Etats-Unis. Les dépenses annuelles de R&D des firmes pharmaceutiques américaines ont augmenté de 7,4 % entre 2003 et 2007, puis de 8,9 % entre 2013 et 2017, alors qu’elles ont augmenté pour les firmes européennes de 5,8 % et de 3 % respectivement sur les mêmes périodes.

La Biomedical Advanced Research and Development Authority américaine a mis, en toute transparence, 10 milliards de dollars (8,3 milliards d’euros) sur la table pour inciter les industriels à trouver un vaccin anti-Covid-19 – dont 2,7 milliards de dollars pour Sanofi GSK. L’Union européenne et la France sont bien en dessous, mais on ne sait pas vraiment de combien, faute de transparence sur le sujet…

Pourquoi la R&D s’est-elle déplacée vers les Etats-Unis ?

Parce que le modèle économique de l’industrie pharmaceutique s’est transformé, passant d’un objectif de santé publique – mettre au point des médicaments soignant le plus grand nombre possible de maladies et de gens – à un objectif financier – servir le plus gros dividende possible à ses actionnaires.


A l’origine, Sanofi est le résultat d’un montage industriel des années 1990, construit par l’Etat et les grands actionnaires de l’époque (L’Oréal et Total) selon la logique du « champion national ». Auparavant, la pharmacie était une activité des grands groupes chimiques – en France, mais aussi ailleurs en Europe.

L’industrie pharmaceutique française sous la domination de sociétés internationales

 

La chercheuse Sophie Chauveau souligne, dans une tribune au « Monde », l’absence de longue date d’une véritable politique industrielle du médicament en France.

 

 

Tribune.
 En France, la souveraineté nationale en matière de médicaments s’est effritée dès les années 1950. Ce recul s’explique par les caractéristiques de l’industrie pharmaceutique dans l’Hexagone, et par une politique publique réduite au contrôle des prix et à la surveillance sanitaire, sans réelle ambition industrielle. 

L’industrie pharmaceutique française est plutôt issue de l’officine. A la différence des firmes pharmaceutiques britanniques, allemandes et nord-américaines, les entreprises françaises étaient éloignées de la recherche académique, et surtout la relation avec les laboratoires universitaires dépendait plus de relations interpersonnelles que d’un modèle d’organisation. Dès 1945, l’Etat a bien tenté un rapprochement forcé entre Institut Pasteur, CNRS et entreprises pharmaceutiques pour organiser la production d’antibiotiques et se défaire de l’emprise américaine, mais sans succès. Dans les années 1950, les capacités de recherche et développement (R & D) des laboratoires français sont en situation d’infériorité.

Les politiques publiques ont facilité l’entrée des firmes étrangères sur le marché national et la prise de contrôle des laboratoires pharmaceutiques français. Des années 1950 jusqu’aux années 1980, les différents gouvernements privilégient le contrôle du prix des médicaments pour ne pas accroître davantage les charges de l’assurance-maladie : non seulement ces prix sont parmi les plus bas en Europe, mais il est en outre très difficile d’obtenir leur revalorisation. Faute de ressources, les entreprises françaises ne peuvent pas investir dans la R & D : elles préfèrent développer des copies et négocier des licences d’exploitation avec les laboratoires étrangers. Enfin, les procédures d’autorisation de mise sur le marché ne prennent guère en compte la dimension innovante des nouveaux produits.

En outre, jusqu’en 1972, prévaut une politique protectionniste que les firmes pharmaceutiques étrangères déjouent sans difficulté. Il est en effet impossible de commercialiser en France un médicament fabriqué à l’étranger. Pour entrer sur le marché français, les laboratoires britanniques et américains, notamment, rachètent des laboratoires français dont ils font des filiales, auxquelles ils vendent les principes actifs de médicaments dont la mise en forme et le conditionnement se font sur le territoire national.

Ces pratiques permettent non seulement de s’imposer sur le marché français, particulièrement dynamique en matière de consommation de médicaments, mais aussi de prendre le contrôle du secteur pharmaceutique. Au début des années 1970, plus de 40 % du chiffre d’affaires de l’industrie pharmaceutique en France est réalisé par des filiales de groupes étrangers, surtout américaines et allemandes. Cette emprise est particulièrement forte pour les antibiotiques (70 % de la production en France est sous contrôle étranger) et les traitements hormonaux (80 %).

L’industrie pharmaceutique française en cause

L’industrie pharmaceutique française en cause

L’historienne Muriel Le Roux détaille, dans une tribune au « Monde », la lente érosion de l’écosystème français du médicament.

Tribune. 

 

En juillet 2018, le Conseil stratégique des industries de santé annonçait de nouvelles mesures pour que les firmes du secteur choisissent davantage la France pour investir en recherche et développement (R&D). Après la loi Allègre de 1999 et ses adaptations régulières, qui offrent des dispositifs parmi les plus favorables à l’innovation, cette réitération peut sembler étonnante.

Favoriser les relations entre la recherche académique et l’industrie a été une préoccupation constante des pouvoirs publics sous la Ve République. Après 1945, les Etats les plus riches ont tous corrélé big science et big business, en particulier dans la chimie et la pharmacie, donnant naissance à un milieu aux contours flous et au jeu d’acteurs sans cesse renouvelé, dont la complexité s’est accrue sous l’effet de la mondialisation et de la financiarisation des entreprises. Ce qui apparaît au grand jour depuis un an n’est donc pas nouveau.

 

En France, dès les années 1950, nombre de chercheurs du CNRS avaient des contrats individuels avec l’industrie, notamment chimique. Jusqu’aux années 1980, la communauté scientifique jouissait d’une grande autonomie dans le choix et la conduite des recherches, ainsi que dans la décision de coopérer ou pas avec l’industrie. Avec l’accord-cadre Rhône-Poulenc-CNRS de 1975, il s’agissait pour l’Etat d’encadrer des pratiques existantes dans les laboratoires, de valoriser les résultats de la recherche publique, de limiter l’usage qu’en faisaient les industriels sans y avoir contribué, tout en orientant une partie de la recherche. Cette politique scientifique et des mesures fiscales incitatives explique en grande partie la performance industrielle des laboratoires chimiques et pharmaceutiques français, qui ont ainsi pu rattraper leur retard du début des années 1950.

Dans le cas du Taxotère, un anticancéreux bien connu dont la molécule avait été découverte à l’Institut de chimie des substances naturelles (ICSN-CNRS) après plus d’une décennie de recherches publiques partiellement financées par des contrats signés par les chercheurs eux-mêmes avec les industriels, Rhône-Poulenc Rorer prit directement les brevets, tandis que la recherche publique reçut les redevances qui lui revenaient selon le contrat.

 

Mais au cours des années 1980, le partenariat par « accord-cadre » entre institutions s’est généralisé, excluant progressivement les chercheurs des décisions en matière d’innovation et restreignant l’indépendance de la recherche académique. Sans doute s’agissait-il de faire face à l’augmentation du coût de la recherche et de s’adapter au système nord-américain de cofinancement entre les universités (publiques et privées), les entreprises, les fondations et l’Etat fédéral. Mais la conséquence a été le triomphe du modèle de la très grande firme se concentrant sur la production des « blockbusters » (molécules dont le chiffre d’affaires dépasse le milliard d’euros) et réalisant des économies d’échelle en R&D, à coups de rachats et de concentration. Le Taxotère a été l’un des blockbusters du groupe Sanofi, devenu l’un des leaders mondiaux du secteur. 

Recherche : la France déclassée

Recherche : la France déclassée

 

L’économiste Pierre-André Buigues suggère, dans une tribune au « Monde », d’augmenter de 25 milliards d’euros la dépense annuelle française de recherche et développement, et de supprimer le crédit d’impôt recherche, qui ne profite qu’aux multinationales.

Tribune. Tous les économistes reconnaissent qu’investir en recherche et développement (R&D) est un passage obligé pour stimuler la compétitivité d’un pays, et monter la part des hautes technologies dans sa production industrielle.

En France, les dernières nouvelles du côté de la pharmacie et de l’aéronautique, seuls secteurs à fort niveau de dépenses en R&D où la France a des positions fortes, sont très préoccupantes.

Sanofi a décidé de couper dans ses dépenses en R&D. La CGT estime que la R&D pharmacie (hors sa division vaccin) du champion français de la pharmacie comptait 6 350 salariés en 2008 et en compte moins de 3 500 aujourd’hui.

L’aéronautique, de son côté, est en plein marasme, et il est probable que l’investissement en R&D ne soit plus prioritaire.

Le problème est malheureusement plus général. La France est aujourd’hui un pays de seconde zone dans les secteurs de haute technologie et à haute intensité en R&D, loin derrière les pays du nord de l’Europe. Au mieux, notre pays se situe dans la moyenne de la zone euro. L’office statistique européen Eurostat fournit tous les éléments qui permettent d’établir ce diagnostic. Reprenons-en les principaux éléments.

793 euros par habitant

En premier lieu, une comparaison de l’intensité de dépenses en R&D par habitant entre les pays européens montre que la France est à peine au-dessus de la moyenne de la zone euro en 2019 (793 euros par habitant en France, contre 780 euros en moyenne pour la zone euro). Tous les pays nordiques, l’Allemagne, l’Autriche et la Belgique, ont des dépenses de R&D au-dessus de 1 200 euros par habitant, soit, au minimum 50 % de plus que la France.

En second lieu, grâce à ces investissements en R&D, ces pays du nord de l’Europe ont une industrie beaucoup plus spécialisée dans les secteurs de haute technologie. Ceux-ci pèsent chez nous deux fois moins que leur poids relatif dans les pays à fort investissement en R&D. La spécialisation relative en haute technologie de la France est même plus faible que pour l’ensemble de la zone euro.


«

Recherche française : la déroute

Recherche française : la déroute

 

Philippe Escande du Monde considère que la chute de la recherche française est dramatique

 

 

 

Les échecs à développer un vaccin ont mis en lumière une faiblesse en matière de recherche pharmaceutique. Ils ne sont que la face émergée d’un iceberg en perdition.

L’année 2020 restera décidément comme celle du rendez-vous avec des vérités qui dérangent. Parmi celles-ci, une nous saute aux yeux en ce mois de janvier : la France tourne le dos à son avenir. Les échecs récents de l’Institut Pasteur et de Sanofi, les deux fers de lance de la filière pharmaceutique française, à développer à temps un vaccin ont mis en lumière la faiblesse française en matière de recherche pharmaceutique.

Mais ce serait une erreur de pointer seulement ces deux acteurs, qui ne constituent que la face émergée d’un iceberg en perdition. Comme le souligne la récente note du Conseil d’analyse économique (CAE) publiée mardi 26 janvier, c’est tout l’appareil de recherche française qui a décroché.

La crise sanitaire souligne cette carence car la recherche pharmaceutique est aujourd’hui l’activité économique et industrielle la plus liée à la recherche fondamentale. Aucun autre secteur n’a autant besoin d’un lien fort et direct entre les entreprises et les laboratoires des universités. Pour preuve, les deux seuls vaccins contre le Covid-19 disponibles en Europe sont issus de deux entreprises fondées par des universitaires, BioNTech en Allemagne, créée par trois chercheurs de l’université de Mayence, et Moderna, fondée par un biologiste d’Harvard. Avec la grande bascule de la pharmacie de la recherche chimique vers la biotechnologie, l’essentiel des nouveaux médicaments est issu en tout ou partie des travaux académiques, d’où le succès mondial de la région de Boston, aux Etats-Unis, siège d’Harvard et du MIT.

Cause nationale

Plus grave, les crédits publics consacrés en France à la santé sont deux fois inférieurs à ceux de l’Allemagne et ils ont diminué de 28 % entre 2011 et 2018, quand ils augmentaient respectivement de 11 % outre-Rhin et de 16 % au Royaume-Uni. Aucune université française ne figure dans le classement de Shanghaï des 50 premiers établissements mondiaux. La part française dans les publications internationales se réduit. Et, enfin, ce qui n’est pas sans lien, le salaire moyen en début de carrière d’un chercheur français s’établit à 63 % en dessous de la moyenne des pays de l’OCDE.

Conséquence logique, en aval de cette chaîne, les résultats ne sont pas meilleurs : la part des sociétés de biotechnologie françaises est en diminution et le ticket moyen de financement de ces sociétés par des investisseurs de capital-risque s’élève à 9 millions d’euros en France, contre 12 au Royaume-Uni et 16 en Allemagne. Enfin, la note du CAE souligne le « lent déclin français » en matière de brevets entre le milieu des années 1990 et celui des années 2000. Le fossé se réduit depuis peu mais reste conséquent par rapport aux leaders européens.

IA: Trouver l’équilibre entre innovation et régulation

IA: Trouver l’équilibre entre innovation et régulation

David Lacombled ,président de la Villa numéris, estime dans l’Opinion que « L’Europe peut encore inventer un modèle alternatif des données basé sur ses valeurs de respect des individus et de leurs droits ​»

 

 

La seule limite de l’intelligence artificielle (IA) sera celle de l’imagination humaine. Faut-il à ce point avoir peur de soi-même pour craindre autant l’IA ? Alors que le mot «robot» fête ses 100 ans, il suffit de regarder les débats sans fins qu’il suscite pour deviner que l’IA, en s’installant dans nos vies et dans notre économie, nourrira durablement les préventions. Si le robot répond aujourd’hui encore à une vision tayloriste défiant la main-d’œuvre, l’IA apparaît trop souvent comme pouvant rivaliser avec le cerveau en le simulant. Cela montre la nécessité de mieux partager et comprendre la technologie, ce qui n’implique pas pour autant de l’encadrer et de la réglementer ex ante.

Les données et leur utilisation sont aujourd’hui avant tout regardées d’un point de vue technologique ou financier, tant leur performance impressionne. Elles le sont moins par les répercussions qu’elles peuvent entraîner d’un point de vue social et humain tant la situation est inédite. A en donner le vertige. Un aperçu sur la valorisation boursière des « Big Tech » qui reposent avant tout sur l’efficience de leur algorithme, telles qu’Apple ou Amazon, rappelle à quel point les données sont génératrices de valeurs.

Eclairer l’avenir. Dans leur récent essai, Le Pouvoir de la Destruction Créatrice (Odile Jacob), Philippe Aghion, Céline Antonin et Simon Bunel rappellent que ce processus est bien une réalité, quelque chose de palpable pointant « un conflit permanent entre l’ancien et le nouveau ​». S’ils soulignent que « ​l’effet de destruction d’emplois se manifeste à court terme, tandis que l’effet de création d’emplois et l’effet de capitalisation sont davantage des effets de long terme ​». Or, « ​c’est bien à court terme que la destruction créatrice est ressentie par les individus dans les différentes enquêtes d’opinion ​».

Dans son essai L’intelligence artificielle n’existe pas, Luc Julia confesse ​: « ​ma grande crainte est que les gens croient tout ce qu’on leur raconte sur l’IA, tout simplement parce qu’ils n’ont pas assez d’informations sur le sujet ​». L’ingénieur, concepteur de l’assistant vocal Siri, préconise que « ​nous devons combattre les délires véhiculés par certains en argumentant avec les simples faits ​».

. De fait, la promesse de l’apocalypse en matière d’emplois pour les individus et de carnage financier pour les entreprises ne constitue pas vraiment un chemin engageant. Rappelons au contraire comment les données se sont transformées en petits cailloux blancs de nos existences permettant certes de les décrire, voire de les prédire, mais avant tout de les simplifier pour accéder aux savoirs et se divertir (cf. Netflix), pour vivre plus confortablement (recherche Web, navigation…), en meilleure santé et plus longtemps (aujourd’hui la modélisation de propagation des virus, demain les jumeaux numériques de nos propres corps), pour travailler plus efficacement pour ne pas dire plus intelligemment. Pour peu de dompter la machine. Ce sont là les valeurs et les promesses que portent avant tout les données et leur calcul par ce qui reste un programme informatique, l’intelligence artificielle.

Il n’en reste pas moins que l’intelligence artificielle, par sa puissance, pose des défis inédits. La docteure en informatique Marie-Aude Aufaure souligne à quel point « ​il faut particulièrement veiller aux biais, à l’explicabilité et l’acceptabilité des algorithmes appliqués sur des ensembles de données ​» pour contribuer à « ​démystifier les capacités de l’intelligence artificielle en rappelant que l’apprentissage au sens de l’IA est éloigné de l’apprentissage humain qui lui est centré sur une combinaison complexe de raisonnement, de mémoire, de connaissances de sens commun, etc. ​». En effet, un biais humain peut se retrouver démultiplié par la force du calcul. Par exemple, si votre entreprise recrute majoritairement des hommes et les paie mieux, le risque est grand que le fossé se creuse et s’amplifie si une IA prend le relais du processus de recrutement.

Dès 2017, la chercheuse Laurence Devillers décrivait Des Robots et des Hommes, mythes, fantasmes et réalité (Plon). Elle s’intéresse « ​à la perception des robots et met en avant qu’il faut créer des machines morales pour encadrer la vie avec ces machines et une réflexion est menée pour savoir s’il est possible à un robot d’avoir une conscience de soi. Elle explique en quoi cela est important, avec l’exemple des robots tueurs, et dans quelle mesure cela est possible d’un point de vue éthique et technique ​».

C’est à l’élaboration d’un nouveau paradigme entre les humains et les objets techniques qu’il faut s’atteler. Le réglementer et le régir aujourd’hui reviendrait à encadrer un phénomène en mouvement au risque de freiner l’innovation

C’est d’ailleurs, la régulation des armes létales autonomes qui constituait un des points majeurs du rapport de Gilles Lebreton, député européen du Rassemblement National, adopté il y a quelques jours par le Parlement européen montrant à quel point les élus seront tentés d’encadrer l’essor de la technologie. Pourtant, si un drone pouvait tuer sans ordre humain, c’est bien que l’humain l’aurait accepté. C’est bien une des limites à fixer.

Mot-valise à double fond. En cela, Laurence Devillers a raison de rappeler une évidence ​: « ​il ne faut pas penser les robots comme de nouveaux humains ​». Et c’est bien à l’élaboration de ce nouveau paradigme entre les humains et les objets techniques qu’il faut s’atteler. Le réglementer et le régir aujourd’hui reviendrait à encadrer un phénomène en mouvement au risque de freiner l’innovation par un excès de régulation.

Dès lors, le mot « éthique ​» apparaît comme un mot-valise, à double-fond, bien pratique pour y mettre tout ce qui relève de nos craintes et de nos peurs. Un mot à géométrie variable dont personne n’a la même définition et pour cause personne n’a le même code de valeurs. Certainement serait-il plus pertinent de revenir à des terminologies éprouvées, reconnues et partagées en entreprise de responsabilité sociale et environnementale, de gouvernance, de codes et de chartes. Cela n’empêche pas le dialogue. Au contraire.

La bataille des données n’est pas perdue car elle ne fait que commencer. Notre continent est particulièrement attaché au respect des droits de l’homme et à l’indépendance des individus. Avec la mise en place du Règlement général sur la protection des données (RGPD) puis l’annonce de celui sur le Digital Services Act, l’Europe montre sa volonté de construire un cadre de référence pour apporter protection aux consommateurs et stabilité aux entreprises. Il s’agit à présent d’inventer un modèle alternatif, respectueux des êtres et de leurs droits, ouvert, permettant de recueillir des données et de ne les utiliser que pour ce pour quoi elles ont été confiées. La primauté de l’humain n’est pas antagoniste avec les avancées technologiques. Pour peu que les individus s’en emparent.

David Lacombled est président de la Villa numéris.

Intelligence artificielle : l’Europe en retard

 Intelligence artificielle : l’Europe en retard

D’après l’étude annuelle de la Fondation pour les technologies de l’information (Information Technology and Innovation Foundation), parue lundi 25 janvier, les États-Unis mènent la course au développement et à l’utilisation de l’intelligence artificielle (IA), tandis que la Chine progresse rapidement au point de « challenger la domination américaine« , et que l’Union européenne est… à la traîne.

Domaines de l’intelligence artificielle d’après http://www.intelligenceartificielle.fr/:

 

Systèmes experts :

soit un logiciel capable de simuler le comportement d’un humain effectuant une tâche très précise. C’est un domaine où l’intelligence artificielle est incontestablement un succès, dû au caractère très précis de l’activité demandée à simuler.

Calcul formel (opposé au calcul numérique) :

traiter les expressions symboliques. Des logiciels sur le marché, comme Mathematica, Maple, etc., effectuent tous des calculs formels.

Représentation des connaissances :

on entend la représentation symbolique de la connaissance pour que le logiciel soit capable de la manipuler. Un des secteurs de recherche en intelligence artificielle qui est le plus important.

Simulation du raisonnement humain :

tenter de mettre au point des logiques qui formalisent le mode de raisonnement (logiques modales, floues, temporelles, etc.).

Traitement du langage naturel :

c’est la compréhension qui reste le problème majeur à la traduction ou au résumé d’un texte dans une autre langue. De grands progrès ont été faits pour obtenir une représentation sous une forme indépendante de la langue dans laquelle l’original est écrit. Certains traducteurs orientés dans des domaines spécialisés donnent de meilleurs résultats grâce à leurs spécificités.

Résolution de problèmes :

représentation, analyse et résolution de problèmes concrets. C’est le cas des jeux de réflexion tels que les échecs, le backgammon ou les dames. Dans le cas du backgammon le champion du monde est un programme. Ils restent quelques jeux qui résistent aux efforts des programmeurs.

Reconnaissance de la parole :

beaucoup de progrès ont été effectués. Un logiciel comme Naturaly Speaking permet la dictée. Cependant, la compréhension d’un mot ou d’une phrase requiert une grande quantité d’informations extralangagières (contexte, connaissance du sujet, etc.).

Reconnaissance de l’écriture :

la reconnaissance de l’écriture dactylographiée n’est pas facile (malgré des logiciels assez performants sur le marché), mais l’écriture manuscrite pose des problèmes beaucoup plus complexes. Cela n’est pas étonnant dans la mesure où cette tâche peut nous poser à nous aussi des problèmes insolubles. Certains chercheurs essaient de reconstituer à partir du texte le mouvement de la main afin de comprendre ce qui est écrit.

Reconnaissance des visages :

considérée de longue date comme un des problèmes de l’intelligence artificielle le plus difficile, les résultats récents deviennent intéressants avec les réseaux neuronaux.

Robotique :

la robotique dans les usines est déjà fortement répendue. La première génération est capable d’exécuter une série de mouvements préenregistrés, la deuxième génération est dotée de capteurs de perception permettant de prendre certaines décisions et la troisième génération possède une plus grande autonomie, elle peut se déplacer dans un environnement.

L’apprentissage :

un logiciel devrait avoir des capacités d’apprentissage autonome pour pouvoir être véritablement qualifié d’intelligent. Douglas Lenat travaille actuellement à la constitution d’une gigantesque base de données censée contenir toutes les connaissances partagées par les humains d’un même groupe pour leur communication. Il souhaite adjoindre un module d’apprentissage à sa base de données lui permettant de travailler seule pour collecter des informations nouvelles et réorganiser l’architecture de ses connaissances.

Réseaux neuronaux :

un réseau de neurones formels est un modèle rudimentaire du cerveau humain. Une cellule neuronale possède une sortie et des entrées reliées à d’autres neurones. Ces réseaux partagent des propriétés importantes avec le cerveau humain. Cela requiert une programmation non explicite et la répartition de l’information sur l’ensemble du réseau.

Systèmes complexes adaptatifs :

le regroupement des algorithmes génétiques et des modèles de vie artificielle. En résumé succint, l’étude des convergences vers des formes organisées des populations soumises à des lois simples et naturelles.

Sciences technologies – Un ordinateur quantique ?

Sciences technologies – Un ordinateur quantique ?

Passer de l’ordinateur classique à l’ordinateur quantique , c’est se donner une puissance de calcul dont il est difficile de prendre l’ampleur. Un peu comme si on comparaît le boulier à l’ordinateur actuel. Les champs d’application du calcul quantique concerneraient énormément  de domaines par exemple la médecine, la logistique, la finance, l’intelligence artificielle ou la traduction des langues.

 

« Dans un entretien de vulgarisation avec Etienne KleinThierry Breton schématise le fonctionnement d’un calcul quantique comme un avis de recherche : si l’on cherche dans une salle de mille personnes quelqu’un mesurant plus de 1,80 m et parlant anglais, il compare l’informatique classique à l’interrogation de chaque participant un par un en posant les questions « Mesurez-vous plus de 1,80 m ? » et « Parlez-vous anglais ? » et en notant les numéros de ceux qui répondent « oui » aux deux questions, ce qui va prendre un certain temps. En calcul quantique, tout se passe comme si on lançait un appel général : « Les personnes mesurant plus de 1,80 m et parlant anglais peuvent-elles lever la main ? » et on a la réponse quasi instantanément. Thierry Breton parle de calcul holistique et non plus séquentiel. Reste à mettre au point des langages traitant globalement un ensemble de valeurs possibles comme une seule. Pour le moment, Atos travaille sur une sorte d’assembleur approprié, nommé AQAL (Atos Quantum Assembly Language). Le nom d’ »assembleur » peut induire en erreur, puisqu’il s’agit d’un langage de description de traitements qui est au contraire indépendant de la machine utilisée (contrairement à un assembleur au sens classique, donc) à condition qu’elle respecte quelques grandes lignes d’une sorte de machine virtuelle. » (Wikipédia)

Un pas important pourrait avoir été franchi ces jours-ci. Un mois après avoir fait fuiter l’information par erreur, Google a annoncé mercredi avoir atteint la suprématie quantique. Dans un communiqué publié le 23 octobre, la firme de Mountain View prétend avoir « démontré sa capacité à calculer en quelques secondes ce qui prendrait des milliers d’années aux supercalculateurs les plus grands et avancés, atteignant ainsi une étape majeure connue comme la suprématie quantique« .

Mais il y a loin la théorie à la réalité d’après un papier du Monde

« . Dompter les lois de la physique à l’échelle de l’infiniment petit pour créer un appareil avec une puissance de calcul sans équivalent avec les machines actuelles capable de résoudre les problèmes les plus complexes. Après l’espace dans les années 50, la communauté scientifique et technologique s’emploie aujourd’hui à conquérir une nouvelle frontière, celle de l’informatique quantique, un horizon de plus en plus convoité depuis les années 80.

Aux avant-postes de cette course technologique mondiale, on retrouve les Etats-Unis et la Chine, dont les grands industriels investissent massivement en R&D pour ne pas rester à quai de la révolution annoncée. Côté américain, Google, IBM et Microsoft sont convaincus de pouvoir réaliser des calculs quantiques totalement inaccessibles aux ordinateurs traditionnels dans les prochaines années.

Un pas important pourrait avoir été franchi ces jours-ci. Un mois après avoir fait fuiter l’information par erreur, Google a annoncé mercredi avoir atteint la suprématie quantique. Dans un communiqué publié le 23 octobre, la firme de Mountain View prétend avoir « démontré sa capacité à calculer en quelques secondes ce qui prendrait des milliers d’années aux supercalculateurs les plus grands et avancés, atteignant ainsi une étape majeure connue comme la suprématie quantique« .

La suprématie quantique est un concept né dans les années 80. Elle désigne le moment où est démontrée la supériorité d’un ordinateur quantique sur un ordinateur classique sur une tâche particulière. Les ingénieurs de Google, aidés par la Nasa et le laboratoire national d’Oak Ridge, affirment avoir réussi à créer un processeur capable de réaliser un calcul en 200 secondes quand le plus avancé des ordinateurs actuels aurait besoin de 10.000 ans. »

Biais cognitifs: la relation machine et cerveaux

 

Le sociologue poursuit ses travaux sur les biais intellectuels et les croyances. Mais il leur donne une ampleur nouvelle dans « Apocalypse cognitive », réflexion sur les risques cruciaux que nous font courir nos intuitions erronées.( Analyse dans le Monde, extraits )

Contraintes sanitaires obligent, la rencontre s’est faite sur écran, en « distanciel » comme dit la novlangue. Situation banale qui, avec Gérald Bronner, cesse de l’être. Elle se révèle, en réalité, particulièrement pertinente. Car l’entretien à distance crée une combinaison curieuse de proximité et d’éloignement, or ces éléments se tiennent, de plusieurs manières, au cœur de sa réflexion.

En effet, Apocalypse cognitive, son treizième ouvrage, accorde une place centrale aux écrans, à l’attraction des images et de l’immédiat. Le sociologue en scrute méfaits et bienfaits, cherche ce qu’ils révèlent de notre humanité, de notre fonctionnement cérébral, pour le pire comme le meilleur, aussi lucidement que possible. Soucieux de rendre ce constat utile, même par sa face sombre, il examine également les moyens de mettre au point, pour l’avenir, un bon usage de nos machines et de nos neurones, afin de voir advenir, plutôt qu’une régression, un nouvel essor de la civilisation.

La proximité de l’apparence, la distance de l’arrière-plan concernent aussi le parcours personnel de ce chercheur, professeur de sociologie à l’université de Paris (anciennement Denis-Diderot), de plus en plus présent, d’année en année, dans les médias, les librairies et les débats publics, depuis que La Démocratie des crédules (PUF, 2013), couronné par cinq prix, l’a fait connaître bien au-delà des cercles universitaires.

Un « transclasse »

A l’écran, donc, l’image d’un quinquagénaire souriant, presque juvénile. Sa simplicité fait vite oublier qu’il est couvert de titres et de fonctions académiques et que la liste de ses contributions savantes dans les revues de recherche occupe des pages. Et pourtant, ce n’est pas un « héritier ». Rien, à distance, ne le prédisposait à devenir ce qu’il est aujourd’hui.

Né dans une famille modeste de la banlieue de Nancy, le sociologue remarque aujourd’hui qu’il « coche toutes les cases » de ce qui définit un « transclasse ». Toutes, sauf celles, pourtant habituelles, du dolorisme et de la honte. Avoir vécu d’abord sans livres, sans musique, sans église, sans syndicat ne lui inspire aucune gêne. Il y voit au contraire une forme de chance, la clé d’un « nomadisme social » qui lui donne aujourd’hui le sentiment, en n’étant jamais nulle part tout à fait à sa place, de pouvoir observer partout le jeu social avec « une distance amusée ».

Difficile de savoir dans quelle mesure cette trajectoire personnelle a conduit Gérald Bronner à se défier du déterminisme social, façon Bourdieu, et à privilégier la marge de décision et de responsabilité des acteurs, dans le sillage de son maître, le philosophe et sociologue Raymond Boudon (1934-2013). En tout cas, il reconnaît volontiers un lien direct entre sa biographie et son champ de recherche, délimité par nos erreurs dues aux biais cognitifs, et nos croyances déraisonnables, dues à notre difficulté à endurer l’incertitude. « J’ai été mon premier laboratoire », confie-t-il.

 

Pour un écosystème français des technologies quantiques

Pour un écosystème français des technologies quantiques 

Quatre expert(e) s de l’innovation technologique et de son financement appellent, dans une tribune au « Monde », les entreprises françaises à ne pas passer à côté du quantique, prochaine révolution dans le domaine de l’informatique et des communications (extraits)

Tribune.

 

Nous sommes à l’aube d’une révolution technologique. Issue des découvertes de la physique quantique, la possibilité de manipuler des particules élémentaires (électrons, ions, atomes, photons) ouvre la voie à des ruptures dans des domaines tels que l’informatique, les communications, la métrologie ou la cybersécurité. Le cabinet de conseil en stratégie BCG a identifié une trentaine de cas d’usage, et une création de valeur comprise entre 25 et 50 milliards d’euros à horizon 2030.

Les géants du numérique, Google et IBM en tête, mettent au point des prototypes de calculateurs quantiques de plus en plus puissants. Cette course aux technologies quantiques mobilise aussi les gouvernements, à commencer par ceux de la Chine et des Etats-Unis. Le Royaume-Uni et l’Allemagne ont initié une stratégie nationale il y a déjà plusieurs années.


Et la France ? L’année 2020 a débuté par la remise du rapport de la députée Paula Forteza (Français de l’étranger, ex-LRM), et aurait dû s’achever par l’annonce d’un plan stratégique (« Quantique : le virage technologique que la France ne ratera pas »). La crise sanitaire a retardé son lancement, désormais attendu pour les premiers mois de 2021. Il y a pourtant urgence, car sans un engagement fort et rapide de l’Etat pour affirmer ses ambitions académiques, industrielles et économiques, la France ne pourra pas rattraper son retard.

Exception

Au-delà de ce plan, notre pays doit absolument construire un écosystème des technologies quantiques. Nous en possédons déjà plusieurs briques indispensables. Une recherche de très haut niveau, tout d’abord, autour de trois pôles situés à Paris, Saclay et Grenoble. Un portefeuille de start-up de grande qualité, ensuite, comme Pasqal, Qubit Pharmaceuticals, Alice & Bob, C12, Quandela, Cryptonext ou VeriQloud.

Des structures d’investissement, enfin, qu’elles soient publiques, avec le plan Deeptech de Bpifrance, ou privées, avec Quantonation, pionnier dans le financement en amorçage de ces technologies. Cet écosystème naissant commence à se structurer, notamment autour du think tank Le Lab quantique, créé en 2018 pour associer start-up, industriels, PME et ETI. La région Ile-de-France soutient à travers lui une approche originale, le « Pack quantique », pour développer les cas d’usage.

Mais le tableau est encore incomplet. Un point doit concentrer toutes les attentions : la plupart de nos grandes entreprises n’ont pas pris conscience de cette révolution. Une poignée de groupes industriels de premier plan ont commencé à se mobiliser, à l’image d’Atos, Thales, Orange, Air Liquide ou Airbus, mais ils demeurent l’exception quand ils devraient être la règle.

Sciences- Un ordinateur quantique : Pour quand ?

Sciences- Un ordinateur quantique : Pour quand ?

Passer de l’ordinateur classique à l’ordinateur quantique , c’est se donner une puissance de calcul dont il est difficile de prendre l’ampleur. Un peu comme si on comparaît le boulier à l’ordinateur actuel. Les champs d’application du calcul quantique concerneraient énormément  de domaines par exemple la médecine, la logistique, la finance, l’intelligence artificielle ou la traduction des langues.

 

« Dans un entretien de vulgarisation avec Etienne KleinThierry Breton schématise le fonctionnement d’un calcul quantique comme un avis de recherche : si l’on cherche dans une salle de mille personnes quelqu’un mesurant plus de 1,80 m et parlant anglais, il compare l’informatique classique à l’interrogation de chaque participant un par un en posant les questions « Mesurez-vous plus de 1,80 m ? » et « Parlez-vous anglais ? » et en notant les numéros de ceux qui répondent « oui » aux deux questions, ce qui va prendre un certain temps. En calcul quantique, tout se passe comme si on lançait un appel général : « Les personnes mesurant plus de 1,80 m et parlant anglais peuvent-elles lever la main ? » et on a la réponse quasi instantanément. Thierry Breton parle de calcul holistique et non plus séquentiel. Reste à mettre au point des langages traitant globalement un ensemble de valeurs possibles comme une seule. Pour le moment, Atos travaille sur une sorte d’assembleur approprié, nommé AQAL (Atos Quantum Assembly Language). Le nom d’ »assembleur » peut induire en erreur, puisqu’il s’agit d’un langage de description de traitements qui est au contraire indépendant de la machine utilisée (contrairement à un assembleur au sens classique, donc) à condition qu’elle respecte quelques grandes lignes d’une sorte de machine virtuelle. » (Wikipédia)

Un pas important pourrait avoir été franchi ces jours-ci. Un mois après avoir fait fuiter l’information par erreur, Google a annoncé mercredi avoir atteint la suprématie quantique. Dans un communiqué publié le 23 octobre, la firme de Mountain View prétend avoir « démontré sa capacité à calculer en quelques secondes ce qui prendrait des milliers d’années aux supercalculateurs les plus grands et avancés, atteignant ainsi une étape majeure connue comme la suprématie quantique« .

Mais il y a loin la théorie à la réalité d’après un papier du Monde

« . Dompter les lois de la physique à l’échelle de l’infiniment petit pour créer un appareil avec une puissance de calcul sans équivalent avec les machines actuelles capable de résoudre les problèmes les plus complexes. Après l’espace dans les années 50, la communauté scientifique et technologique s’emploie aujourd’hui à conquérir une nouvelle frontière, celle de l’informatique quantique, un horizon de plus en plus convoité depuis les années 80.

Aux avant-postes de cette course technologique mondiale, on retrouve les Etats-Unis et la Chine, dont les grands industriels investissent massivement en R&D pour ne pas rester à quai de la révolution annoncée. Côté américain, Google, IBM et Microsoft sont convaincus de pouvoir réaliser des calculs quantiques totalement inaccessibles aux ordinateurs traditionnels dans les prochaines années.

Un pas important pourrait avoir été franchi ces jours-ci. Un mois après avoir fait fuiter l’information par erreur, Google a annoncé mercredi avoir atteint la suprématie quantique. Dans un communiqué publié le 23 octobre, la firme de Mountain View prétend avoir « démontré sa capacité à calculer en quelques secondes ce qui prendrait des milliers d’années aux supercalculateurs les plus grands et avancés, atteignant ainsi une étape majeure connue comme la suprématie quantique« .

La suprématie quantique est un concept né dans les années 80. Elle désigne le moment où est démontrée la supériorité d’un ordinateur quantique sur un ordinateur classique sur une tâche particulière. Les ingénieurs de Google, aidés par la Nasa et le laboratoire national d’Oak Ridge, affirment avoir réussi à créer un processeur capable de réaliser un calcul en 200 secondes quand le plus avancé des ordinateurs actuels aurait besoin de 10.000 ans. »

1234



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol