Archive pour la Catégorie 'sciences'

Actu économie, social, société: les plus lus

Actu économie, social, société: les plus lus

 

 

 

 

 

 

 

Nouvelles technologies (5G, internet, console etc.): le risque d’un contrôle social généralisé

Neutralité carbone 2050 : il manque 20 milliards chaque année

Trou de la sécu : la faute à la croissance et à l’absence de financements des nouvelles mesures

Taxes Trump contre l’Europe : l’OMC se couche devant Washington

L’intelligence artificielle : comment prendre en compte l’intelligence humaine

Vote pour les partis radicaux : 75% des français tentés

Croissance France : maintien à un bas niveau

Croissance mondiale en panne

Enjeu du climat : Macron-Thunberg, le camelot et la prophétesse

Immigration: les quotas, réponse trop partielle

Économie circulaire: encore très insuffisante

Sondage attentat Préfecture de Paris: Castaner disqualifié

Incendies en Amazonie : une catastrophe écologique mondiale

Islamisme : Macron sous –estime la situation (Xavier Bertrand) »

Alstom- Le conseiller de Macron soupçonné de prise illégale d’intérêt

Etats-Unis – Chine : accord ou seulement fin de la guerre ?

Etats-Unis – Chine : accord ou seulement fin de la guerre ?

Rejet de Sylvie Goulard: « l’échec de l’arrogance de Macron » (Raphaël Glucksmann )

Croissance en berne

Terrorisme France, Allemagne, Grande Bretagne : le retour des fous de Dieu

Convention citoyenne pour le climat : une belle manipulation

Commission européenne: Macron ridiculisé

Encore un député LREM ,Thierry Solère, mis en examen pour fraude fiscale

Usine Michelin : nouvelle fermeture à La Roche-sur-Yon

La collapsologie: le nouveau concept pour discréditer les écologistes

Brexit: l’enfumage de Johnson se précise

Crise de la santé publique : très grosse manif le 14 novembre

CICE : profitable surtout aux grandes entreprises mais pas forcément à l’emploi

Choisir entre les Immigrés et les Kurdes : l’odieux chantage d’Erdogan

Ordinateur quantique : Pour quand ?

Ordinateur quantique : Pour quand ?

Passer l’ordinateur classique à l’ordinateur quantique , c’est se donner une puissance de calcul dont il est difficile de prendre l’ampleur. Un peu comme si on comparaît le boulier à l’ordinateur actuel. Les champs d’application du calcul quantique concerneraient beaucoup de domaines par exemple la médecine, la logistique, la finance, l’intelligence artificielle ou la traduction des langues.

 

« Dans un entretien de vulgarisation avec Etienne KleinThierry Breton schématise le fonctionnement d’un calcul quantique comme un avis de recherche : si l’on cherche dans une salle de mille personnes quelqu’un mesurant plus de 1,80 m et parlant anglais, il compare l’informatique classique à l’interrogation de chaque participant un par un en posant les questions « Mesurez-vous plus de 1,80 m ? » et « Parlez-vous anglais ? » et en notant les numéros de ceux qui répondent « oui » aux deux questions, ce qui va prendre un certain temps. En calcul quantique, tout se passe comme si on lançait un appel général : « Les personnes mesurant plus de 1,80 m et parlant anglais peuvent-elles lever la main ? » et on a la réponse quasi instantanément. Thierry Breton parle de calcul holistique et non plus séquentiel. Reste à mettre au point des langages traitant globalement un ensemble de valeurs possibles comme une seule. Pour le moment, Atos travaille sur une sorte d’assembleur approprié, nommé AQAL (Atos Quantum Assembly Language). Le nom d’ »assembleur » peut induire en erreur, puisqu’il s’agit d’un langage de description de traitements qui est au contraire indépendant de la machine utilisée (contrairement à un assembleur au sens classique, donc) à condition qu’elle respecte quelques grandes lignes d’une sorte de machine virtuelle. » (Wikipédia)

Un pas important pourrait avoir été franchi ces jours-ci. Un mois après avoir fait fuiter l’information par erreur, Google a annoncé mercredi avoir atteint la suprématie quantique. Dans un communiqué publié le 23 octobre, la firme de Mountain View prétend avoir « démontré sa capacité à calculer en quelques secondes ce qui prendrait des milliers d’années aux supercalculateurs les plus grands et avancés, atteignant ainsi une étape majeure connue comme la suprématie quantique« .

Mais il y a loin la théorie à la réalité d’après un papier du Monde

« . Dompter les lois de la physique à l’échelle de l’infiniment petit pour créer un appareil avec une puissance de calcul sans équivalent avec les machines actuelles capable de résoudre les problèmes les plus complexes. Après l’espace dans les années 50, la communauté scientifique et technologique s’emploie aujourd’hui à conquérir une nouvelle frontière, celle de l’informatique quantique, un horizon de plus en plus convoité depuis les années 80.

Aux avant-postes de cette course technologique mondiale, on retrouve les Etats-Unis et la Chine, dont les grands industriels investissent massivement en R&D pour ne pas rester à quai de la révolution annoncée. Côté américain, Google, IBM et Microsoft sont convaincus de pouvoir réaliser des calculs quantiques totalement inaccessibles aux ordinateurs traditionnels dans les prochaines années.

Un pas important pourrait avoir été franchi ces jours-ci. Un mois après avoir fait fuiter l’information par erreur, Google a annoncé mercredi avoir atteint la suprématie quantique. Dans un communiqué publié le 23 octobre, la firme de Mountain View prétend avoir « démontré sa capacité à calculer en quelques secondes ce qui prendrait des milliers d’années aux supercalculateurs les plus grands et avancés, atteignant ainsi une étape majeure connue comme la suprématie quantique« .

La suprématie quantique est un concept né dans les années 80. Elle désigne le moment où est démontrée la supériorité d’un ordinateur quantique sur un ordinateur classique sur une tâche particulière. Les ingénieurs de Google, aidés par la Nasa et le laboratoire national d’Oak Ridge, affirment avoir réussi à créer un processeur capable de réaliser un calcul en 200 secondes quand le plus avancé des ordinateurs actuels aurait besoin de 10.000 ans. »

L’origine de l’homme, Homo sapiens sapiens, confirmée en Afrique

L’origine de l’homme, Homo sapiens sapiens, confirmée en Afrique

La région initiale de l’homme moderne, homo sapiens sapiens, serait localisée dans l’actuel Botswana.  Il s’agit d’une région d’Afrique australe, dans le nord de l’actuel Botswana, où notre ancêtre commun a vécu il y a 200.000 ans avant de migrer 70.000 ans plus tard, selon une étude internationale publiée lundi dans la prestigieuse revue Nature et reprise par France Info.

« Remontant aux racines de notre arbre génétique, l’étude affirme avoir localisé pour la première fois la « patrie ancestrale » de l’homme moderne, Homo sapiens sapiens. « Nous savons depuis longtemps que l’homme moderne était apparu en Afrique il y a environ 200.000 ans. Mais nous ignorions jusqu’ici où se situait précisément cette patrie« , a déclaré l’Australienne Vanessa Hayes, auteure principale, lors d’une conférence de presse.

L’équipe de chercheurs a fondé ses travaux sur la généalogie génétique, qui permet de tracer des modèles de migrations. Elle a analysé 200 génomes mitochondriaux, marqueurs génétiques de la généalogie maternelle, prélevés sur des populations vivant actuellement en Namibie et en Afrique du Sud, une région d’Afrique depuis longtemps considérée comme étant l’un des berceaux de l’homme moderne.

Les tests ADN ont révélé la présence rare du plus ancien lignage génétique maternel, appelé « L0″, encore porté par ces populations. « En observant ce lignage, nous nous sommes demandés d’où venaient ces personnes, où vivaient-elles? Nous avons donc étudié la dispersion géographique de ce lignage« , explique Vanessa Hayes. « Nous avons fait des analyses spatiales pour remonter le temps, car à chaque fois qu’une migration intervient, c’est enregistré dans notre ADN, qui change. Il est comme une horloge de notre histoire« , poursuit la généticienne.

En comparant les génomes, les chercheurs ont réussi à isoler un ancêtre commun qui était un ancien Khoïsan, peuple de chasseur-cueilleurs vivant toujours aujourd’hui. Selon l’étude, tous les hommes vivant actuellement en Afrique et hors d’Afrique, partagent ce même ancêtre.

« Je crois que nous étions tous des Khoïsans à un moment donné« , affirme Vanessa Hayes. Ces Khoïsans, première communauté humaine moderne, auraient vécu dans la même région pendant 70.000 ans, sans en bouger. Comme le sait-on ? Parce que le génome est resté identique, sans diverger, de -200.000 ans à -130.000 ans environ.

La communauté aurait prospéré dans cette région (grande comme la Nouvelle-Zélande), située au sud du fleuve Zambèze, qui part de l’actuelle Namibie, traverse le nord du Botswana et va jusqu’au Zimbabwe.  Aujourd’hui désertique – appelée le Kalahari – elle était à l’époque humide, verdoyante et luxuriante. Des analyses géologiques combinées à des modèles climatiques ont montré qu’elle abritait un immense lac, deux fois grand comme le lac Victoria, appelé Makgadikgadi, disparu depuis.

Le climat a ensuite commencé à changer, à la faveur d’une « modification de l’orbite terrestre« , détaille Axel Timmermann, océanographe, co-auteur de l’étude. Le lac s’est disloqué, la région s’est peu à peu asséchée, et les populations ont commencé à migrer via des « corridors verts« , en direction du nord-est, puis du sud-ouest.

Ces premiers départs ont ouvert la voie à la future migration des hommes modernes hors d’Afrique. Mais certains sont restés, s’adaptant à la sécheresse. Leurs descendants y vivent toujours, et sont restés chasseurs-cueilleurs. Du fait de ce mode de vie ancestral, Vanessa Hayes se doutait que ces Khoïsans portaient en eux cet ancien lignage.

Autre signe: ils parlent un langage « à clic« , qui fait claquer certaines consonnes avec la langue. « Or nous avons que le langage à clic est le plus ancien« , souligne la chercheuse. « Les Khoïsans qui vivent ici n’ont jamais quitté la patrie ancestrale. Eux savent qu’ils ont toujours été ici, ils se le racontent de génération en génération. Moi, je devais le prouver scientifiquement au reste du monde« , se réjouit Vanessa Hayes, qui a mis dix ans à mettre au jour cette généalogie génétique. « C’est comme si on regardait un grand arbre, dont les Européens et les Asiatiques seraient des toutes petites branches au sommet« , conclut-elle. »

Les cryptomonnaies pour remplacer les banques centrales

Les  cryptomonnaies pour remplacer les banques centrales

 

Finalement, un jour les cryptomonnaies  et notamment le projet de Libra de Facebook pourrait bien balayer les banques centrales et notamment la banque centrale européenne. Ce qui est en cause aussi c’est la souveraineté des Etats ou des zones en matière monétaire. Une sorte de tsunami qui ferait sauter les frontières et le champ  des responsabilités précédemment confiées aux banques centrales.  Le rôle des banques centrales en effet de gérer les monnaies en intervenant de manière un peu artificielle  sur leur volume et leur valeur. Bref du bricolage monétaire qui conduit comme en ce moment à surtout fabriquer de la fausse monnaie pour sauver un système financier qui risque l’éclatement. Les cryptomonnaies et surtout le système des blockchains  permettent de gérer la problématique monétaire de manière plus rigoureuse sans interférence avec les intérêts politiques.

En fonction du degré d’acceptation du Libra et du référencement de l’euro dans son panier de réserve, cela pourrait limiter le pouvoir de contrôle de la BCE sur l’euro, perturber le mécanisme de transmission de la politique monétaire en affectant la position des banques de la zone euro en matière de liquidités et miner le rôle international de la monnaie unique, par exemple en réduisant la demande”, a-t-il déclaré.

Cette monnaie virtuelle, non adossée à des Etats ou à des banques centrales et dont le lancement est prévu pour 2020, sera gérée par une association d’entreprises, d’organisations à but non lucratif et d’institutions universitaires.

Ce projet a fait l’objet de nombreuses critiques de la part de responsables politiques et de régulateurs financiers, qui craignent une adoption généralisée par les 2,38 milliards d’utilisateurs de Facebook, une perspective susceptible de menacer la stabilité du système monétaire international voire même la souveraineté de certains pays.

Les ministres de Finances et gouverneurs des banques centrales du G7 ont affiché mi-juillet leur volonté de ne pas permettre au projet Libra de se concrétiser tant qu’un cadre réglementaire n’aura pas été défini pour cet instrument d’ampleur potentiellement systémique.

L’avenir de l’électroporation

 

Plus de 400 scientifiques vont se réunir en congrès à Toulouse pour discuter des perspectives de développement de l’électroporation qui  consiste à appliquer des impulsions de champ électrique ultracourtes et intenses aux cellules, qu’elles soient isolées ou organisées dans les tissus chez l’animal, chez l’humain ou chez les végétaux  pour augmenter leur perméabilité membranaire.

Cette technique permet de créer des pores dans les membranes des cellules et ainsi de faire entrer ou sortir des molécules de manière très efficace, précise et ciblée directement dans la cellule.

“Appliqué à la médecine, nous faisons des petits trous avec des électrodes dans les membranes des cellules afin d’y faire entrer des molécules d’intérêt, contrairement aux médicaments qui ont du mal à pénétrer une cellule”, explique Marie-Pierre Rols, directrice de recherche CNRS à l’Institut de pharmacologie et biologie structurale de Toulouse, qui travaille depuis 30 ans sur le sujet.

“Cette technique est très efficace car elle permet de faire pénétrer jusqu’à mille fois plus certains médicaments anticancéreux qu’une chimiothérapie classique et ceci avec très peu d’effets secondaires », précise la scientifique toulousaine, arguant que près de 150 centres hospitaliers en Europe utilisent l’électroporation qui n’est pour l’instant pas autorisée en France, faute d’avoir été examinée par la Haute autorité de santé.

Autorisée en médecine vétérinaire en France, la méthode de l’électroporation s’est généralisée et permet ainsi le traitement de tumeurs cutanées avec des résultats de guérison avoisinant les 99% chez les chevaux.

“Grâce à nos travaux pour comprendre le fonctionnement de l’électroporation, les industriels de l’agroalimentaire utilisent désormais cette technique pour stériliser les aliments et des jus de fruits, extraire le sucre de la betterave ou même cuire des aliments sans les chauffer en préservant les vitamines”, détaille Marie-Pierre Rols.

Afin d’améliorer les qualités gustatives des vins, la méthode est aussi utilisée dans les vins de Gaillac (Tarn) pour l’extraction de polyphénols des grains de raisins.

“La définition d’un vin se trouve dans les polyphénols, la pellicule de la baie de raisin”, explique Loic Royant, directeur général de la société Lery Biotech, un des leaders mondiaux dans le marché des générateurs d’impulsion, qui participe au congrès toulousain.

“En envoyant un chemin électrique dans la baie de raisin grâce à un générateur, nous libérons ce caractère spécifique du vin de manière plus qualitative et plus rapide”, assure le patron de cette PME toulousaine créée en 2015 et qui travaille également pour le traitement des tumeurs par électrochimiothérapie en clinique vétérinaire.

“C’est une méthode d’avenir qui a déjà fait ses preuves dans de nombreux domaines”, plaide Marie-Pierre Rols.

L’électroporation : c’est quoi

 

L’électroration  consiste à appliquer des impulsions de champ électrique ultracourtes et intenses aux cellules pour  faire entrer ou sortir des molécules de manière très efficace, précise et ciblée directement dans la cellule.

 

Une définition de Gazettelabo :

 
« L’électroporation présente de nombreux avantages sur les méthodes plus conventionnelles qu’elles soient chimiques ou biologiques. Cette méthode est facile à réaliser et ainsi parfaite ment reproductible, rapide, avec des rendements excellents, et surtout non toxique. Contrairement aux agents chimiques, I’électroporation n’altère pas ou peu la structure biologique de la cellule ciblée, ni son fonctionnement bio logique. Cette méthode permet égale ment de s’affranchir de vecteurs biologiques comme les virus qui peuvent présenter certains inconvénients.
La perméabilisation réversible de la membrane cellulaire soumise à champ électrique permet d’introduire toute sorte de molécules dans la cellule. Cette méthode s’est donc très vite développée pour la construction de vecteurs en transférant des gènes dans des bactéries, ou pour l’étude de l’activité cellulaire après introduction de métabolites, protéines, anticorps dans les cellules. L’électroporation s’est aussi révélée être une méthode de choix pour les manipulations génétiques des cellules de mammifères ou des embryons.
L’application d’un champ électrique peut également être le facteur déclenchant de phénomènes particuliers. Ainsi, la parthénogénèse peut être induite en stimulant un œuf non fécondé, et de la même façon, on peut faciliter la fécondation en appliquant un pulse au sperme (ce qui entraine une amélioration de la réaction acrosomique).

L’électrofusion
Lorsque des cellules soumises à un champ électrique sont en contact, elles peuvent fusionner, c’est l’électrofusion. Le contact cellulaire préalable peut être effectué par une manipulation mécanique ou, comme c’est en général le cas, par un champ électrique oscillatoire de haute fréquence et de basse intensité. Les possibilités offertes par l’électrofusion sont multiples. En effet, cette technique qui présente les mêmes avantages que l’électroporation est très utilisée dans l’agronomie, pour la fusion de protoplastes et la création de plantes résistantes à des maladies dûes à des champignons ou à des insectes. C’est également un outil extrêmement efficace pour la création d’hydridomes dans le cadre de la production d’anticorps monoclonaux. La production et le rendement de cellules hybridomes sont améliorés d’un facteur 100 par rapport aux techniques chimiques.

Electroporation et électrofusion sont des techniques d’une grande fiabilité et dont les applications concernent des domaines multiples. Il est également intéressant de souligner que l’électroporation ouvre la voie à de nombreuses autres possibilités. »

Actu, infos, économie, social, politique : articles les plus lus

Actu, infos, économie, social, politique : articles les plus lus

Actu, infos, économie, social, politique : articles les plus lus

Intelligence artificielle : l’esquisse d’une stratégie

Intelligence artificielle : l’esquisse d’une stratégie

 

 

Comme on le sait, la mode n’est pas aux réflexions stratégiques dans ce gouvernement qui lui préfère une sorte de l’idéologie du court terme. Pourtant pour certains grands sujets industriels ou autres, la complexité de la problématique et l’ampleur des moyens à mettre en œuvre exigent  nécessairement une vision à long terme et la mise en place de synergies entre les acteurs concernés. Faute de ce type de démarche, la France et l’Europe ont perdu la maîtrise de la technologie 5G  au profit seulement des Chinois et des Américains. Concernant l’intelligence artificielle là aussi chinois et américains ont engagé des moyens considérables pour maîtriser cette révolution technologique. On peut donc se réjouir que Huit  grands groupes industriels français de secteurs aussi variés que l’aérospatiale, l’énergie et l’automobile aient  annoncé mercredi avoir signé un manifeste pour préparer l’utilisation de l’intelligence artificielle (IA) dans leurs activités respectives. Air Liquide, Dassault Aviation, EDF, Renault, Safran, Thales, Total et Valeo précisent dans un communiqué commun vouloir définir d’ici la fin d’année un “plan d’action coordonné avec l’écosystème français de l’IA». Les groupes industriels ont signé ce manifeste avec le ministère de l’Economie et des Finances dans le cadre de la stratégie “AI for Humanity” du gouvernement. “L’objectif est d’atteindre plus rapidement une masse critique sur les sujets de recherche prioritaires”, soulignent-ils pour expliquer leur volonté de coopérer, tout en invitant d’autres acteurs publics ou privés à les rejoindre. Le groupe de télécoms Orange, le fabricant de semi-conducteurs STMicroelectronics, le groupe de services pétroliers Schlumberger et l’éditeur de jeux vidéo Ubisoft ont déjà franchi le pas ces derniers jours en participant eux aussi au manifeste, a précisé Marko Erman, directeur technique de Thales. “La rupture technologique fondatrice pour les économies du 21e siècle, ce sera l’intelligence artificielle”, a souligné lors d’un discours le ministre de l’Economie et des Finances Bruno Le Maire. “C’est pour ça qu’il est absolument impératif (…) que ce soit une technologie que nous maîtrisions et non pas une technologie que nous subissions”, a-t-il ajouté. On peut cependant regretter que le rapprochement des compétences et les moyens de recherche sur le sujet n’ait  pas une dimension européenne

Michelin lance le pneu increvable …mais plus cher ?

Michelin lance le pneu increvable …mais plus cher ?

Il faut sans doute saluer ce projet actuellement en cours d’expérimentation concernant le nœud increvable. On sait que Michelin a toujours été à la pointe de la recherche dans son domaine d’activité, qu’il a aussi beaucoup été imité. Cette fois ce pneu  increvable constituerait une évolution majeure sans doute d’abord pour la sécurité. Aussi du fait qui n’est jamais très agréable d’avoir à installer une roue de secours surtout lorsque la circulation est dense et l’espace rare.  Le tour du pneu est tenu par un maillage en caoutchouc qui permet d’absorber les chocs et les aspérités de la route. Dans une vidéo de présentation, on voit le prototype s’écraser sur un nid-de-poule afin d’en épouser la forme avant de revenir à sa forme normale. Une question se pose quand même à savoir la durée de ce nouveau pneu et son coût. D’une manière ou d’une autre, une surface de la roue sera en contact avec l’infrastructure et l’usure est inévitable. Combien pourra durer le nouveau pneu comparé à l’existant et qu’elle sera son prix ?

Algorithmes : les dérives

Algorithmes : les dérives

Un article intéressant d’Amélie CHARNAY,Journaliste, sur 01net.com qui rend compte d’un livre,« Algorithmes, la bombe à retardement » de la mathématicienne américaine Cathy O’Neil .

« Virée. Sara Wysocki, une institutrice de CM2 louée par sa hiérarchie comme par ses élèves, eut la stupeur d’être remerciée par le district de Washington en 2011. L’algorithme chargé de lui attribuer un score d’évaluation avait conclu à son incompétence puisque les notes des enfants avaient baissé par rapport à l’année précédente. Elle finit par découvrir que les enseignants avant elle avaient gonflé les résultats, faussant ainsi toute la base de données. Cette histoire n’est qu’un exemple banal des effets pervers engendrés par certains algorithmes mal conçus. La mathématicienne américaine Cathy O’Neil les appelle des ADM, des algorithmes de destruction mathématique.

Il y a deux ans, cette analyste repentie et figure d’Occupy Wall Street a consacré un livre à ces modèles mathématiques toxiques. Algorithmes, la bombe à retardement a été salué outre-Atlantique pour sa clairvoyance et vient de sortir enfin en France aux Editions les Arènes avec une préface de Cédric Villani. Loin de l’implacable rigueur scientifique qui leur colle à la peau, ils sont loin d’être des outils impartiaux d’aide à la décision. Leurs jeux de données sont parfois falsifiés, comme ce fut le cas avec cette institutrice. Mais ils sont souvent tout simplement biaisés, comme cette intelligence artificielle testée par Amazon pour ses recrutements. L’agence Reuters a révélé qu’elle avait eu tendance à écarter les femmes des postes techniques parce qu’elle avait pris modèle sur les hommes de la société qui occupaient déjà 60% de ces emplois.

 

Les algorithmes découlent toujours de critères sélectionnés par des humains. Choisir de ne pas prendre en compte les frais de scolarité lorsque l’on veut classer les universités américaines, c’est favoriser les établissements qui sont les plus chers et renforcer encore leur attractivité au détriment des autres. Autre exemple : les logiciels de prédiction des crimes. Ils ont pour conséquence de multiplier les contrôles dans les quartiers pauvres et les arrestations de mineurs pour consommation d’alcool. Certains adolescents s’emportent et leur refus d’obtempérer les conduit tout droit dans un pénitencier. S’ils avaient habité un quartier riche, ils n’auraient jamais été inquiétés et conserveraient encore un casier judiciaire vierge.

Prenons encore le cas du questionnaire LSI-R que les détenus des prisons doivent remplir outre-atlantique pour évaluer leur risque de récidive. Dans les Etats de l’Idaho et du Colorado, les réponses servent à décider de la peine. Or, si un individu compte des membres de sa famille ayant eu des démêlés avec la justice, l’algorithme va être plus enclin à le classer dans un groupe à risque. Il écopera alors d’une peine plus lourde, restera davantage en prison et aura moins de chance de retrouver un emploi à sa sortie. Le cercle vicieux ne s’arrête pas là. « S’il commet un autre crime, la modélisation du récidivisme pourra se prévaloir d’un nouveau succès. Mais c’est en réalité le modèle lui-même qui alimente un cycle malsain et qui contribue à entretenir cette réalité », souligne Cathy O’Neil. Ces ADM se nourrissent donc de leurs erreurs et se renforcent inexorablement dans le temps, augmentant ainsi les inégalités et fragilisant encore davantage les plus vulnérables.

L’idée n’est pas de jeter l’opprobre sur tous les algorithmes. Beaucoup remplissent efficacement leur rôle sans répercussion délétère, surtout  s’il s’agit de battre un champion mondial de Go. Certains servent même l’intérêt général quand ils réussissent à repérer du travail forcé, par exemple. Le problème, c’est qu’ils sont utilisés sans discernement dans de multiples domaines à des moments clefs de la vie des individus. La société française aussi y est déjà confrontée. Ils influent sur l’orientation des études supérieures avec Parcoursup, l’obtention d’un crédit, le montant de notre assurance, les recrutements, nous ciblent publicitairement, et tentent même de peser sur notre opinion via les réseaux sociaux.

L’objectif de Cathy O’Neil est de nous appeler à la tempérance : nous ne pouvons pas attendre des algorithmes qu’ils solutionnent des tâches complexes comme évaluer les enseignants. Ce qu’elle espère, c’est que nous sortions de notre croyance aveugle en leur efficacité. Les citoyens doivent exiger la transparence sur la façon dont ces modèles fonctionnent et rester vigilants pour qu’ils soient sans cesse réévalués, afin de les corriger et de les améliorer. « Commençons dès maintenant à bâtir un cadre, pour s’assurer à long terme que les algorithmes rendent des comptes. Posons comme base la démonstration de leur légalité, de leur équité et de leur ancrage factuel », propose Cathy ONeil. Nous ne pouvons plus nous permettre de rester spectateurs, glisse-t-elle en conclusion. Si ce n’est pas le cas, nous serons condamnés à l’avenir à obéir à de mystérieuses boîtes noires qui contrôleront une grande partie de notre vie. «

Algorithmes, la bombe à retardement, Cathy O’Neil, les Arènes, 352 pages, 20,90 euros.

Intelligence artificielle : enjeux (rapport Villani)

Intelligence artificielle : enjeux (rapport Villani)

 

Un rapport parlementaire sorti il y a un an mais qui demeure d actualité (www.aiforhumanity.fr/pdfs/9782111457089_Rapport_Villani_accessible.pd).  Introduction.

« Définir l’intelligence artificielle n’est pas chose facile. Depuis ses origines comme domaine de recherche spécifique, au milieu du XXe siècle, elle a toujours constitué une frontière, incessamment repoussée. L’intelligence artificielle désigne en effet moins un champ de recherches bien défini qu’un programme, fondé autour d’un objectif ambitieux : comprendre comment fonctionne la cognition humaine et la reproduire ; créer des processus cognitifs comparables à ceux de l’être humain. Le champ est donc naturellement extrêmement vaste, tant en ce qui concerne les procédures techniques utilisées que les disciplines convoquées : mathématiques, informatiques, sciences cognitives… Les méthodes d’IA sont très nombreuses et diverses (ontologique, apprentissage par renforcement, apprentissage adversarial, réseaux de neurones…) et ne sont pas nouvelles : beaucoup d’algorithmes utilisés aujourd’hui ont été développés il y a plusieurs dizaines d’années. Depuis la conférence de Dartmouth de 1956, l’intelligence artificielle s’est développée, au gré des périodes d’enthousiasme et de désillusion qui se sont succédées, repoussant toujours un peu plus les limites de ce qu’on croyait pouvoir n’être fait que par des humains. En poursuivant son projet initial, la recherche en IA a donné lieu à des vrais succès (victoire au jeu d’échecs, au jeu de go, compréhension du langage naturel…) et a nourri largement l’histoire des mathématiques et de l’informatique : combien de dispositifs que nous considérons aujourd’hui comme banals étaient à l’origine une avancée majeure en IA – une application de jeux d’échecs, un programme de traduction en ligne… ? Du fait de ses ambitions, qui en font un des programmes scientifiques les plus fascinants de notre époque, la discipline de l’IA s’est toujours développée de concert avec les imaginaires les plus délirants, les plus angoissants et les plus fantastiques, qui ont façonné les rapports qu’entretient le grand public avec l’IA mais également ceux des chercheurs eux-mêmes avec leur propre discipline. La (science) fiction, les fantasmes et les projections collectives ont accompagné l’essor de l’intelligence artificielle et guident parfois ses objectifs de long terme : en témoignent les productions fictionnelles abondantes sur le sujet, de 2001 l’Odyssée de l’espace, à Her en passant Blade Runner et une grande partie de la littérature de science-fiction. Finalement, c’est probablement cette alliance entre des projections fictionnelles et la recherche scientifique qui constitue l’essence de ce qu’on appelle l’IA. Les imaginaires, souvent ethno-centrés et organisés autour d’idéologies politiques sous-jacentes, jouent donc un rôle majeur, bien que souvent négligé, dans la direction que prend le développement de cette discipline. L’intelligence artificielle est entrée, depuis quelques années, dans une nouvelle ère, qui donne lieu à de nombreux espoirs. C’est en particulier dû à l’essor de l’apprentissage automatique. Rendues possibles par des algorithmes nouveaux, par la multiplication des jeux de données et le décuplement des puissances L’intelligence artificielle est entrée, depuis quelques années, dans une nouvelle ère, qui donne lieu à de nombreux espoirs 10 Introduction de calcul, les applications se multiplient : traduction, voiture autonome, détection de cancer,… Le développement de l’IA se fait dans un contexte technologique marqué par la « mise en données » du monde (datafication), qui touche l’ensemble des domaines et des secteurs, la robotique, la blockchain1, le supercalcul et le stockage massif. Au contact de ces différentes réalités technologiques se jouera sûrement le devenir de l’intelligence artificielle. Ces applications nouvelles nourrissent de nouveaux récits et de nouvelles peurs, autour, entre autres, de la toute-puissance de l’intelligence artificielle, du mythe de la Singularité et du transhumanisme. Depuis quelques années, ces représentations sont largement investies par ceux qui la développent et participent à en forger les contours. Le cœur politique et économique de l’intelligence artificielle bat toujours dans la Silicon Valley, qui fait encore office de modèle pour tout ce que l’Europe compte d’innovateurs. Plus qu’un lieu, davantage qu’un écosystème particulier, elle est, pour beaucoup d’acteurs publics et privés, un état d’esprit qu’il conviendrait de répliquer. La domination californienne, qui subsiste dans les discours et dans les têtes, nourrit l’idée d’une voie unique, d’un déterminisme technologique. Si le développement de l’intelligence artificielle est pensé par des acteurs privés hors de nos frontières, la France et l’Europe n’auraient d’autre choix que de prendre le train en marche. Les illustrations sont nombreuses : rien qu’en France, l’accord signé entre Microsoft et l’éducation nationale sous le précédent quinquennat ou l’utilisation par la DGSI de logiciels fournis par Palantir, une startup liée à la CIA, ne disent finalement pas autre chose. On observe la même tentation chez les entreprises européennes qui, persuadées d’avoir déjà perdu la course, cèdent bien souvent aux sirènes des géants de la discipline, parfois au détriment de nos pépites numériques. Contrairement aux dernières grandes périodes d’emballement de la recherche en intelligence artificielle, le sujet a très largement dépassé la seule sphère scientifique et est sur toutes les lèvres. Les investissements dans la recherche et dans l’industrie atteignent des sommes extraordinaires, notamment en Chine. Les responsables politiques du monde entier l’évoquent dans les discours de politique générale comme un levier de pouvoir majeur : l’emblématique interview à Wired de Barack Obama en octobre 2016 montrait que ce dernier avait bien compris l’intérêt de faire de l’avance américaine en intelligence artificielle un outil redoutable de soft power. Le Président russe Vladimir Poutine a quant à lui affirmé que « celui qui deviendra le leader dans ce domaine sera le maître du monde », comparant l’intelligence artificielle aux technologies nucléaires. S’il s’agissait vraisemblablement pour lui de compenser le retard de la Russie en matière d’intelligence artificielle par un discours musclé sur le sujet, cette affirmation est révélatrice de l’importance géostratégique prise par ces technologies. Dans la mesure où les chaînes de valeur, surtout dans le secteur numérique, sont désormais mondiales, les pays qui seront les leaders dans le domaine de l’intelligence artificielle seront amenés à capter une grande partie de la valeur des systèmes qu’ils transforment, mais également à contrôler ces mêmes systèmes, mettant en cause l’indépendance des autres pays. C’est que l’intelligence artificielle va désormais jouer un rôle bien plus important que celui qu’elle jouait jusqu’alors. Elle n’est plus seulement un programme 1. La blockchain correspond à un registre distribué qui permet d’éviter de recourir à un tiers de confiance lors de transactions et qui est notamment au fondement du bitcoin. 11 Introduction Donner un sens, c’est-à-dire donner un cap, une signification et des explications. Voilà l’objectif de ce rapport de recherche confiné aux laboratoires ou à une application précise. Elle va devenir une des clés du monde à venir. En effet nous sommes dans un monde numérique, de plus en plus, de part en part. Un monde de données. Ces données qui sont au cœur du fonctionnement des intelligences artificielles actuelles. Dans ce monde-là, qui est désormais le nôtre, ces technologies représentent beaucoup plus qu’un programme de recherche : elles déterminent notre capacité à organiser les connaissances, à leur donner un sens, à augmenter nos facultés de prise de décision et de contrôle des systèmes. Et notamment à tirer de la valeur des données. L’intelligence artificielle est donc une des clés du pouvoir de demain dans un monde numérique. Voilà pourquoi il est d’intérêt général que nous nous saisissions collectivement de cette question. Et que la France et l’Europe puissent faire entendre leur voix. Il est nécessaire de tout faire pour rester indépendants. Or la concurrence est rude : les États-Unis et la Chine sont à la pointe de ces technologies et leurs investissements dépassent largement ceux consentis en Europe. Le Canada, le Royaume-Uni et, tout particulièrement, Israël, tiennent également une place essentielle dans cet écosystème naissant. Parce qu’à bien des égards, la France et l’Europe peuvent déjà faire figure de « colonies numériques »2, il est nécessaire de ne céder à aucune forme de déterminisme, en proposant une réponse coordonnée au niveau européen. C’est pourquoi le rôle de l’État doit être réaffirmé : le jeu du marché seul montre ses limites pour assurer une véritable politique d’indépendance. De plus les règles qui régissent les échanges internationaux et l’ouverture des marchés intérieurs ne servent pas toujours les intérêts économiques des États européens – qui l’appliquent trop souvent à sens unique. Plus que jamais, l’État doit donner un sens au développement de l’intelligence artificielle. Donner un sens, c’est-à-dire donner un cap, une signification et des explications. Voilà l’objectif de ce rapport »

Les perspectives de l’intelligence artificielle dans les transports (Patrice Caine, PDG de Thales)

Les perspectives de l’intelligence artificielle dans les transports (Patrice Caine, PDG de Thales)

 

Une interview de Patrice Caine, PDG de Thales dans la Tribune sur les perspectives de l’intelligence artificielle dans les transports et qui ne cache pas cependant la vulnérabilité de certains systèmes

 

Quelles pourraient être les nouvelles frontières dans l’aérospatiale et le transport terrestre grâce à l’arrivée de l’intelligence artificielle (IA) ?
PATRICE CAINE -
 Des cas d’usage faisant appel à ces technologies peut être déployés dès à présent par les compagnies aériennes. Celles-ci sont de grandes entreprises, qui disposent d’une supply chain, de nombreux salariés, des ERP [progiciel de gestion intégrée, ndlr] et qui intensifient la numérisation de leur exploitation. Un des éléments clés de cette digitalisation est l’utilisation de l’IA. Par exemple, Thales propose d’ores et déjà de tels cas d’usage aux compagnies aériennes et aux opérateurs de transport, comme dans le cas du métro de Londres ou de Singapour, ou encore pour la SNCF ou la Deutsche Bahn. La prochaine étape sera l’utilisation de l’IA dans les avions, les trains, les métros, ou encore les voitures. La question de savoir jusqu’où on utilise l’IA est en discussion. En d’autres termes, quel degré d’autonomie vise-t-on ? Le monde du transport terrestre est un peu moins complexe que l’aérien. Pour le transport terrestre, il s’agit d’un monde à deux dimensions, voire une seule dans le cas des trains ou des métros. Donner de l’autonomie à ces objets évoluant dans un monde à une ou deux dimensions est moins complexe que dans un monde à trois dimensions comme pour un avion.

Est-ce possible aujourd’hui dans les transports terrestres ?
La technologie a bien progressé. Thales est passé du stade de laboratoire il y a deux à trois ans, à la preuve de concept, par exemple avec le métro de New York. L’automne dernier, pour la première fois, Thales a équipé une rame de métro de multiples capteurs pour lui permettre de se repérer dans l’espace sans avoir besoin de balises sur la voie ferrée. Et nous avons mis des ordinateurs dans le poste de pilotage, avec des algorithmes utilisant de l’IA, pour permettre à la rame de métro de se repérer et de prendre des décisions par elle-même face à des cas de figure imprévus. Cela a permis de voir comment la machine réagissait à un événement qui n’était pas programmé. Et cela a bien fonctionné. Il y a un vrai bénéfice économique lié à l’utilisation de ces technologies, l’économie n’est pas vraiment liée à la présence humaine ou non dans les rames de métro. D’ailleurs, dans les métros automatiques, les opérateurs de transport qui ont gardé la présence humaine, l’ont fait principalement à des fins psychologiques, car en réalité l’homme ne pilote plus ces métros. Le vrai bénéfice des trains ou des métros autonomes sera d’être encore plus efficaces, mais aussi plus économes en pouvant, par exemple, se passer de tous les équipements de positionnement à la voie, les fameuses balises ou même de la signalisation à la voie.

N’aurons-nous pas besoin de redondance pour des systèmes autonomes ?
Pour passer à l’échelle industrielle, il faut faire la démonstration que cette technologie est « safety critical ». Pour cela, on a besoin notamment de redondance, comme dans le secteur aéronautique, en utilisant par exemple deux chaînes de calcul en parallèle comme avec les radioaltimètres qui peuvent être jusqu’à trois exemplaires dans un même appareil afin d’assurer la concordance des informations. Néanmoins, dans l’aérien, c’est encore plus compliqué. Je n’irais pas jusqu’à dire que les normes « safety » [de sécurité] sont plus drastiques, mais l’environnement est différent. Les avionneurs, qui ont une vue d’ensemble du sujet, travaillent notamment sur la notion de SPO (Single Pilot Operation). La question qui se pose n’est pas d’avoir un avion sans pilote et totalement autonome, mais plutôt de passer un jour de deux pilotes humains à un seul pilote humain assisté d’un pilote à base d’intelligence artificielle.

À quel horizon les compagnies aériennes pourront-elles proposer des avions avec un seul pilote assisté par la machine et l’IA ?
C’est une question pour les constructeurs et les compagnies aériennes. Thales ne maîtrise qu’une partie de ce grand défi technologique qui concerne toute la chaîne de pilotage. De plus, ce sont des questions réglementées. C’est bien le constructeur qui dira « je sais faire ou pas », la compagnie aérienne « j’en ai besoin ou pas », et le régulateur « je certifie ou pas ».

Aujourd’hui, est-il possible de faire voler des drones autonomes ?
Est-on capable de rendre les drones autonomes ? Pas encore. Mais cela est imaginable à l’avenir. Là encore, il faudra que tout cela soit conforme aux règles de sécurité. Aujourd’hui, un drone non piloté est automatique et non pas autonome : il fait juste ce qu’on lui a demandé de faire avant qu’il décolle, typiquement en lui indiquant les coordonnées GPS pour définir un parcours à suivre. Ceci rend son pilotage automatique, mais pas autonome.

Du point de vue de Thales, l’IA est-elle déjà mature pour des applications dans le monde réel ?
La technologie est mature pour tout un tas d’application et de cas d’usage. La question est de savoir à quel rythme les clients seront prêts à l’utiliser dans les systèmes, et à quelle vitesse les clients et les utilisateurs seront prêts à l’accepter. Par exemple, pour les compagnies aériennes, le passager peut se poser légitimement la question de la sécurité. Autre exemple, en matière de défense se posent des questions de responsabilité, d’éthique voire de morale. Pour autant, il y a des sujets qui ne posent pas vraiment de problème éthique : c’est le cas de l’auto-apprentissage, une forme d’autonomie-amont, qui permet aux objets d’apprendre par eux-mêmes. C’est le cas des capteurs en général, par exemple les radars, les sonars, ou tout autre capteur électronique, qui peuvent acquérir une autonomie en matière d’apprentissage. La technologie est mature, et Thales est capable d’en faire bénéficier les systèmes qu’il développe dès lors que les questions de responsabilité et d’acceptabilité sociétale, éthique ou morale sont réunies.

Quel est le marché de l’IA dans l’aérospatial ?
L’IA n’est pas un produit ou un marché, c’est une technologie qui permet de créer de la différentiation. Cela permet de faire de l’avionique, des systèmes de contrôle aérien, avec des services supplémentaires plus efficaces et plus intelligents. On ne vend pas de l’IA à proprement parler, on l’embarque dans nos produits ou solutions pour en décupler les capacités. En matière de services de cybersécurité, quand on injecte des algorithmes IA dans les sondes de supervision des réseaux informatiques, on vend toujours des sondes, mais elles sont encore plus performantes grâce à l’IA.

Peut-on ou pourra-t-on certifier l’IA ? Et donc contrôler l’IA ?
C’est une question très sérieuse sur laquelle nous travaillons. Nous sommes pour le moment à une étape intermédiaire, à savoir la mise au point de l’IA explicable. Aujourd’hui, la branche de l’IA qui repose sur l’apprentissage par les données [data based AI] fait appel essentiellement au machine learning ; c’est une IA dite « boîte noire ». On ne saura jamais expliquer pourquoi elle arrive au résultat, mais on constate que ce résultat est exact dans 99,99 % des cas. C’est le cas de la reconnaissance faciale. Mais lorsqu’il lui arrive de se tromper, on ne sait pas l’expliquer. La première étape pour arriver à une IA explicable fera très vraisemblablement appel à de l’IA à base d’apprentissage par les données et à de l’IA à base d’apprentissage par les modèles. Cette hybridation de ces deux types d’IA devrait permettre de produire des algorithmes permettant d’expliquer les résultats de l’IA. On y travaille et on a bon espoir d’y arriver. La deuxième étape, c’est l’IA certifiable. Les grands experts disent que cela prendra sans doute des années et qu’on n’est pas sûr d’y arriver, mais on cherche. Si on y arrive, on pourra l’utiliser de manière plus extensive. Et la plupart des réticences seront levées. On sera dans un autre univers. Enfin, contrôler l’IA, c’est encore autre chose. L’IA produit un résultat. Ce qu’on en fait derrière peut se faire de manière automatique ou en gardant le contrôle.

Est-il possible de développer un cloud souverain à l’échelle de la France ou de l’Europe ?
Dans le champ des technologies numériques, Thales est utilisateur du cloud et pas un fournisseur de cloud en tant que tel. On constate qu’il y a des solutions particulièrement efficaces comme Azure de Microsoft ou AWS d’Amazon. Ces produits mettent à disposition des micro-services, des composants logiciels, qui permettent aux développeurs qui les utilisent d’aller plus vite pour créer leurs propres applications. Le cloud est devenu un élément important de compétitivité et d’efficacité pour les équipes d’ingénierie afin de gagner en temps dans leurs développements. Il sera sans doute très difficile pour des acteurs différents de ceux cités de fournir autant de micro-services. Toutes les semaines Azure et AWS mettent à jour leurs micro-services en en proposant de meilleurs et en y ajoutant de nouveaux.

Mais comment peut-on se protéger de lois extraterritoriales américaines comme le Cloud Act ?
Pour nos activités, on utilise soit du cloud public, soit du cloud privé ou encore nos propres data centers selon la sensibilité des applications et des données. Mais Thales est surtout fournisseur de solutions pour tous ceux qui veulent utiliser le cloud tout en protégeant leurs données. Par exemple, on va systématiquement chiffrer les données avant qu’elles soient stockées dans le Cloud et offrir un service de type « Bring your own key », permettant de créer des clés d’accès personnalisées. La plupart des industriels, qui offrent des services de cloud, proposent des « packages » pour s’occuper de tout : hébergement des données et chiffrage de celles-ci. Cela marche bien pour les industriels qui n’ont pas de sujets de confidentialité. Mais pour les acteurs qui veulent dissocier fournisseur d’hébergement et fournisseur de chiffrement pour des raisons de sécurité et de confidentialité ou d’autres raisons, il est possible de le faire. Thales propose des offres de protection des données en complément des services des hébergeurs de données dans le cloud. Est-ce possible d’avoir un cloud souverain ? Oui, c’est possible pour l’hébergement, mais il sera difficile de rattraper le niveau des acteurs américains quant aux micro-services associés, leur avance dans ce domaine est considérable.

L’affaire Huawei est-elle le début d’une guerre froide technologique ?
D’une façon générale, il s’est ouvert dans le monde de nouveaux champs de confrontation : après les champs de confrontation classiques, militaires ou diplomatiques, on observe de plus en plus une confrontation technologique. Les puissances cherchent à asseoir une domination, qui n’est plus aujourd’hui que militaire et diplomatique. Il y a aussi une course à l’armement sur le terrain technologique qui répond à une logique de puissance. Mais cela n’a-t-il pas toujours été le cas dans l’histoire ? L’invention de la roue n’a-t-elle pas permis de récolter davantage et donc de nourrir plus de personnes et d’avoir des nations plus nombreuses ? Aujourd’hui, le champ des confrontations englobe sans complexe les aspects industriels et technologiques.

De façon plus générale, faut-il craindre un cyber-Pearl Harbor ?
Personne ne le sait avec certitude mais autant s’y préparer. À notre niveau, nous faisons tout pour protéger nos clients et notre entreprise, mais il faut rester modeste. Tous les grands groupes sont attaqués quotidiennement. Il y a derrière les attaques informatiques des intérêts, qui ne sont pas uniquement économiques. On se prépare à toutes les éventualités. Mais la créativité étant sans limite, c’est un combat de tous les instants. Ceci dit, ce type de menace représente également une opportunité et un marché pour Thales. Nous aidons nos clients, les États ou les OIV [Opérateurs d'importance vitale] sur ces questions de cyberprotection. Thales se spécialise plutôt sur les solutions et les produits sachant que les clients font appel aujourd’hui à deux types d’acteurs : ceux axés sur le pur conseil et ceux axés sur les solutions.

Est-on arrivé à une vraie prise de conscience de la menace cyber ?
Le monde économique en parle de plus en plus, mais tous les acteurs n’ont pas encore mené des actions concrètes. Il y a encore un écart entre intention et action, car cela requiert des moyens, mais le sujet n’est plus ignoré. Un cap sera franchi lorsque tous les acteurs investiront suffisamment pour se protéger.

La généralisation de l’Internet des objets (IoT) augmente-t-elle les risques ?
L’IoT est un démultiplicateur du champ des possibles, mais aussi une source additionnelle de vulnérabilité. Pour Thales, c’est un champ de questionnements en interne, et d’opportunités de marché en externe. Dans notre analyse des marchés, le fait de connecter des objets à haute valeur ajoutée, comme des trains, des avions, des voitures, implique une exigence de sécurisation élevée. C’est dans ce domaine que Gemalto va nous apporter des technologies que nous n’avions pas. Cela aurait été un non-sens de vouloir les développer par nous-mêmes. Gemalto sait identifier les objets de manière très sécurisée et sait les gérer, c’est-à-dire les activer et les configurer de manière hautement sécurisée. Il propose des plateformes capables de gérer des millions d’objets de manière hautement sécurisée quant à leur identité numérique. Thales fait le reste, notamment l’exploitation et la gestion des données de mission.

L’acquisition de Gemalto par Thales amène certains observateurs à se demander si Thales va rester dans la défense. Que leur répondez-vous ?
Thales réalise 8 milliards d’euros dans la défense, sur un chiffre d’affaires total de 19 milliards en incluant l’acquisition de Gemalto – 16 milliards avant. Déduire de l’acquisition de Gemalto qu’on se désintéresse du militaire est un non-sens total. Si demain nous avions des opportunités de croissance externe dans la défense, nous les regarderions. Il y a des cycles, et en ce moment on avance plus vite en matière d’acquisition dans nos métiers civils. Mais je tiens à cette dualité défense-­civil. Il faut reconnaître que les acquisitions en matière de défense se font dans un domaine contraint, où on a besoin d’accords qui vont au-delà de celui du conseil d’administration de Thales. De mon point de vue, l’Europe de la défense ne pourra se faire que s’il y a, à un moment donné, une consolidation industrielle. Imaginer qu’on puisse le faire uniquement par de la coopération n’est pas suffisant sur le long terme. Cela renvoie à l’envie des États de pousser ou d’accompagner ce type de consolidation industrielle. Force est de constater que depuis la création d’EADS, il n’y a pas eu de très grande consolidation dans la défense.

Thales est concurrent de Naval Group, dont il est actionnaire, de MBDA dans les missiles et de Safran dans l’optronique. N’y a-t-il pas des rectifications de frontière qui s’imposent ?
Il y a tellement à faire dans le naval, un secteur où on est à la fois concepteur de senseurs/capteurs, de radars, de sonars ainsi que de CMS [Combat Management Systems] avec nos activités aux Pays-Bas. Mais nous ne sommes pas maître d’œuvre, ni plateformiste. Sur les 8 milliards d’euros d’activité que nous réalisons dans le secteur de la défense, il y a déjà énormément de projets à lancer pour améliorer ce que nous faisons déjà avant d’entamer autre chose. Thales a des activités historiques qui sont le fruit de l’héritage du groupe, comme son activité missilière à Belfast. Elle découle d’une volonté politique du Royaume-Uni. Le fait de produire des véhicules blindés en Australie est également le résultat de la volonté du gouvernement australien d’avoir ses activités hébergées par un acteur de confiance comme Thales. Notre groupe est un jardin mixte, à la française et à l’anglaise.

Thales va-t-il rester actionnaire de Naval Group ?
Oui, absolument. Nous avons apporté, à l’époque, notre activité
de CMS à Naval Group afin de consolider et renforcer l’équipe de France du naval. Devenir actionnaire de Naval Group a été, pour nous, à la fois une opération industrielle et un mouvement stratégique longuement réfléchis. Nous avons donc une stratégie de long terme avec Naval Group dans le cadre d’un partenariat industriel, technologique et capitalistique.

Quelle sera la feuille de route du nouveau président de Naval Group ?
Elle sera bien évidemment à définir avec l’État. Il faut trouver un PDG qui écrive la suite de l’histoire de Naval Group pour les dix prochaines années et qui puisse donc s’inscrire dans la durée.

Concernant les exportations, trop de compliances [règles de conformité anti-corruption] ne tuent-elles pas le business ?
Il y a des règles, il faut les appliquer, un point c’est tout. Si on les respecte, on fait du business dans certains pays ou pas. Quand on ne parvient pas à faire du business dans certains pays en respectant les règles, tant pis pour nous…

Pour Thales, le spatial reste-t-il une activité cœur de métier ?
Le spatial est au cœur de nos métiers et représente une activité importante chez Thales : Thales Alenia Space réalise environ 2,5 milliards de chiffre d’affaires. Avec Telespazio, le groupe affiche un chiffre d’affaires d’environ 3 milliards d’euros dans le spatial. Ce n’est donc pas une activité accessoire et dans ce domaine d’activité, nous avons de nombreux projets passionnants à réaliser, des projets créateurs de valeur, bien sûr. Le fait que cette activité soit au cœur de Thales n’empêche pas de travailler ou de coopérer avec d’autres acteurs. La meilleure façon de répondre à un marché exigeant comme celui du spatial, a fortiori lorsqu’un tel marché est difficile et où certains acteurs renoncent, c’est de chercher à travailler de manière pragmatique avec son écosystème. D’une façon générale, nous avons une analyse lucide quelle que soit l’activité concernée. Si nous avons la conviction que nous sommes les mieux placés pour développer telle ou telle activité, nous la développons et nous y investissons de façon significative.

Quelle serait votre position si l’État proposait une consolidation dans le spatial entre Thales et Airbus ?
Comme vous le savez, je ne commente jamais de tels sujets. Ce n’est pas parce que le marché est difficile pour tout le monde en ce moment qu’il faut immédiatement se poser une telle question.

Les géants américains ont des projets pour aller sur Mars, contrairement aux groupes européens. Ne manque-t-il pas des projets emblématiques en Europe pour entraîner le grand public ?
On est déjà allé sur Mars avec ExoMars en 2015. L’ESA l’a fait. L’Europe, qui a été capable de créer l’Agence spatiale européenne (ESA), consacre des sommes importantes à l’espace. La question que l’Europe doit se poser est : comment maintenir une industrie aérospatiale au plus haut niveau capable de rivaliser avec la Chine et les États-Unis ? Aujourd’hui, c’est encore le cas. Par exemple, les Chinois sont encore demandeurs de coopérer avec les Européens : c’est le signe qu’ils ne maîtrisent pas encore tout par eux-mêmes. Quant à la question de l’incarnation en Europe du rêve de la conquête spatiale, peut-être manque-t-on effectivement de fortes personnalités emblématiques, comme Elon Musk ou Jeff Bezos aux États-Unis ?

Pourquoi l’Europe ne veut pas dire qu’elle veut aller coloniser Mars ?
Le spatial est un secteur qui concerne aussi bien la science que le commercial. Aller sur Mars relève difficilement d’une logique de business plan, et les clients, ou candidats au voyage, ne semblent pas très nombreux. C’est peut-être important d’aller explorer ou coloniser Mars, mais ceci relève de la mission scientifique ; ce n’est pas un business pour un acteur industriel comme Thales. Peut-être a-t-on un discours trop réaliste ? Les entrepreneurs qui annoncent vouloir le faire, le font avec leur argent et ils assument leurs rêves. Force est de constater qu’en Europe, nous n’avons pas bénéficié de l’émergence d’entrepreneurs milliardaires emblématiques du numérique.

La France est sur le point de changer de doctrine dans l’espace. Quelle est votre analyse sur ce champ de confrontations ?
Nous avons soumis des idées au ministère des Armées, par exemple dans le domaine de la surveillance de l’espace depuis l’espace [SSA, Space Situational Awarness]. Nous pouvons aider notre pays et l’Europe, à se doter de capacités nouvelles au service de notre défense autonome des capacités tierces. Maintenant, c’est une décision qui appartient au pouvoir politique. Ce qui est relativement nouveau, c’est que l’espace est en train de devenir, voire est devenu, un champ de confrontations assumé, là où il ne l’était pas, ou l’était mais de manière non assumée. Un peu à l’instar de ce qui s’est passé dans le cyberespace où, avant la loi de programmation militaire du précédant quinquennat, la France ne reconnaissait pas l’attaque dans ce domaine. Depuis celle-ci, la France s’est donné la possibilité de se défendre, mais aussi d’attaquer dans le cyber­espace. Les responsables politiques assument qu’il y ait une menace et une stratégie aussi bien défensive qu’offensive.

Comment voyez-vous Thales dans dix ans ?
D’ici à trois ans, j’ai envie de poursuivre tout ce qui a été lancé : consolider Gemalto, intégrer de plus en plus de technologies pour créer de nouveaux différenciateurs et de nouvelles innovations pour nos clients. Au-delà de cette période, il s’agira de continuer de trouver des technologies de rupture pour offrir à nos clients, à nos équipes et à nos actionnaires des perspectives passionnantes au-delà de la décennie pour faire de Thales un laboratoire du monde de demain, axé sur la recherche du progrès pour tous.

Avez-vous des projets qui vous font rêver ?
Oui, et ils sont nombreux. Par exemple, le laser de haute puissance ouvre des champs fantastiques. La question, au-delà de la technologie mise au point pour ce projet ELI-NP [Extreme Light Infrastructure for Nuclear Physics] qui nous a permis de battre un record mondial avec l’émission d’une puissance incroyable de 10 pétawatt [10 millions de milliards de watts], est de savoir s’il va créer du business ou si cet outil restera un outil scientifique. Potentiellement, les applications font rêver : l’une d’elles permettrait de réduire la période de vie des éléments radioactifs. Mais ce champ d’application et de business s’adresse aux acteurs comme EDF, pas à Thales.

Autre projet à dix ans : comment va-t-on utiliser les propriétés quantiques de la matière pour ouvrir de nouveaux champs d’application ?
Le champ d’application de ces propriétés est quasiment sans limite. Nous avons communiqué sur l’utilisation de la « spintronique » [technique qui exploite la propriété quantique du spin des électrons] pour mettre au point des nano­synapses, des nano-neurones avec pour objectif final de faire baisser d’un facteur 10 ou 100 la consommation électrique des supercalculateurs. Si nous y arrivons, nous pourrons transformer l’industrie informatique et des supercalculateurs ainsi que l’utilisation de l’IA, qui est fortement consommatrice en puissance de calcul et donc très énergivore. Mais on se doit encore de rester modeste. Autre champ à l’étude sur lequel Thales a commencé à travailler : les senseurs quantiques, secteur où on peut être capable d’améliorer d’un facteur 10 à 100 - ce qui est colossal pour l’industrie - les précisions de mesure du champ magnétique, de la gravité, du champ électrique, etc. Cela ouvre des champs d’application qui sont totalement disruptifs.

Quelles peuvent être les applications de cette technologie ?
Imaginez un avion qui décollerait de Paris pour atterrir à l’aéroport de New York- JFK et perdrait ses repères extérieurs. Avec les technologies actuelles, il arriverait à destination avec une précision de 2 kilomètres. Grâce à ces technologies utilisant les propriétés quantiques de la matière, il y parviendrait avec une précision de 20 mètres, ce qui lui permettrait de se poser sur la piste. On raisonne beaucoup défense, aéronautique, mais pour autant, l’utilisation de ces capteurs quantiques ouvre des possibilités fantastiques, notamment dans la connaissance et l’exploitation du sol et du sous-sol. On va pouvoir mesurer et détecter ce qui ne peut pas l’être par la sismique classique ou l’observation depuis le ciel ou l’espace. Par exemple, dans la défense, cela permettrait de détecter des mines sous l’eau et, in fine, de mettre l’homme en sécurité.

Ces capteurs quantiques pourraient augmenter la résilience des avions, qui auraient fait l’objet d’un brouillage du GPS ou de Galileo ?
Bien sûr, c’est un gain en précision mais aussi en résilience. Un avion pourrait devenir autonome, sans s’appuyer sur des moyens extérieurs de navigation, potentiellement vulnérables. Brouiller un signal GPS, c’est presque à la portée de tout le monde. On peut imaginer des avions dotés des capteurs quantiques pour disposer de capacités autonomes, leur permettant de se guider indépendamment du GPS. Nous travaillons aussi sur le champ des communications quantiques. C’est de la recherche-amont mais qui nous projette dans le futur au-delà de la décennie.

À quel horizon ce champ de recherches peut-il devenir un champ applicatif ?
Année après année, nous franchissons des étapes qui nous confortent dans nos choix. On a déjà fait des mesures dans nos laboratoires. Cela fonctionne dans le cadre de manipulations de labo, car on est sur des TRL [Technology Readiness Level] très bas en termes de maturité. C’est au moins à cinq ans, voire dix ans, mais aujourd’hui nous avons des pans entiers de la science qui permettent d’entrevoir des applications dans le champ industriel et économique.

La France doit rester un acteur majeur du spatial européen » (Frédérique Vidal)

La France doit  rester un acteur majeur du spatial européen » (Frédérique Vidal)

 

La ministre de l’Enseignement supérieur et de la Recherche, Frédérique Vidal, descend la place de la France en matière de développement spatial (interview dans la tribune)

 

2019 est une année chargée pour les questions spatiales avec en point d’orgue la conférence ministérielle de l’Agence spatiale européenne (ESA), dont l’objectif est de définir les priorités stratégiques et les financements qui vont avec. Quelles vont être les priorités de la France au conseil des ministres de l’ESA ?

FRÉDÉRIQUE VIDAL - Ce qu’il faut déjà rappeler, c’est à quel point l’Agence spatiale européenne est importante pour l’Europe et la France, leur permettant d’être des leaders du secteur spatial, dans le domaine des lanceurs comme dans celui des satellites : les lanceurs Ariane, les constellations Galileo et Copernicus, la sonde Rosetta… Lors de cette conférence ministérielle, le sujet central porté par la France sera celui de l’innovation. Comment l’Europe sur ces sujets d’innovation doit-elle faire pour rester un leader mondial ? Nous devons aussi penser davantage à l’utilisation des données générées par les satellites conçus et lancés par l’Europe et stimuler le développement de projets fondés sur leur exploitation. Penser à tout ce qu’on appelle le secteur aval, et qui va connaître un développement massif dans les prochaines années.

Pouvez-vous donner des exemples précis ?
Pour soutenir l’innovation, nous avons créé ArianeWorks, qui est une plateforme d’innovation de rupture d’un genre nouveau. Mon objectif est d’aider tout l’écosystème de startups New Space à se développer, en lien avec l’industrie et le Cnes. Que ce soit sur des sujets d’agriculture, avec l’utilisation des données satellitaires pour mieux gérer les sols et mieux prévoir la façon d’organiser les cultures ; que ce soit sur les questions de climat, avec l’observatoire que le Cnes est en train de monter au niveau mondial avec de nombreuses autres agences ; que ce soit sur les véhicules autonomes, avec le soutien d’exploitation des données de Galileo. Sur tous ces sujets, il faut maintenant qu’on tire profit des investissements faits au niveau des États membres, de l’ESA et de la Commission européenne.

Comment jugez-vous l’écosystème spatial français dans le domaine de l’innovation, notamment dans les data ? Est-ce qu’il vous paraît complet et voyez-vous des améliorations à apporter ?

Il y a toujours des améliorations à apporter, mais cet écosystème est vraiment dynamique. On a la chance d’avoir de nombreuses start-up dans le milieu des données, des calculs, dans l’algorithmique. On bénéficie d’un fonds très important de connaissances et d’expertise dans ces domaines-là, et cela permet d’alimenter la création de start-up, y compris d’ailleurs par des étudiants, des jeunes docteurs ou des chercheurs qui s’impliquent dans la création de start-up à partir de données du spatial.

En dépit de notre proximité avec l’Allemagne, il existe une réelle compétition entre Paris et Berlin dans le spatial. La France doit-elle réaffirmer son leadership spatial sur l’Europe à l’occasion de la ministérielle ?

La France est l’un des pays pionniers sur les questions spatiales, avec le premier programme de lanceur engagé en 1965. Nous avons une agence spatiale en France, le CNES, qui est un support très important à la recherche et aux industriels tant sur les lanceurs que sur les satellites. C’est normal que la France souhaite avoir un rôle de leader. Maintenant, il y a plusieurs grandes nations spatiales en Europe, notamment la France, l’Allemagne et l’Italie qui, à elles trois, contribuent à 85 % du budget d’Ariane 6. Il est crucial pour la France de rester un acteur majeur du spatial européen, et c’est tout aussi important que nos partenaires, Commission européenne comme États membres, restent fortement impliqués dans le spatial. Cela ne fait aucun doute dans l’esprit de qui que ce soit. C’est ce qui fait les succès européens.

Ariane 6 est-il le bon lanceur au bon moment ?

Ariane 6, qui sera porté par l’expertise d’Ariane­Group et de l’industrie européenne, sera un lanceur fiable et adapté aux besoins du marché des lancements. Il est donc primordial de terminer son développement puisque celui-ci induira une diminution du prix des lancements. Il sera environ deux fois moins cher par rapport à Ariane 5.

Vega E n’est-il pas un futur concurrent d’Ariane 6 ?

Une concurrence entre acteurs européens dans ce domaine serait stérile. Les programmes Ariane 6 et Vega sont extrêmement liés, leur vocation est d’être complémentaires. Notre R&D et l’innovation sont mises en commun entre la France et l’Italie. La France a financé Vega C et l’Italie de son côté Ariane 6. Notre objectif est de disposer au niveau européen d’une gamme de lanceurs qui couvrira tous les marchés de lancement.

La réutilisation d’un lanceur, considérée comme une innovation de rupture, n’est pas donc pas à l’ordre du jour…

Nous ne devons pas nous interdire de penser à la suite. Nous proposerons d’accélérer le développement des nouvelles technologies pour préparer la suite d’Ariane 6, via le moteur réutilisable à bas coût Prometheus et les démonstrateurs d’étage récupérable Callisto et Themis. Ce sont des solutions de rupture. Notre objectif est d’être capable, à partir d’Ariane 6, d’améliorer en permanence l’offre de lancement d’Arianespace. L’Europe est en train d’achever le développement d’Ariane 6, qui sera prochainement opérationnelle, et en parallèle prépare l’avenir. Ariane 6 sera enfin un pilier très important de l’autonomie et de la souveraineté de l’Europe et de la France. L’Allemagne et la France sont d’accord sur cette stratégie. Nous nous parlons souvent avec mon homologue allemand.

Justement, la France joue le jeu de la préférence européenne. Ce qui n’est pas le cas des autres pays, dont l’Allemagne. Faut-il être plus contraignant ?

Nous devons jouer avec les mêmes règles que nos concurrents. Croyez-moi, ce sujet est une priorité et de grands progrès ont été accomplis depuis deux ans. La Commission européenne et l’ESA se sont engagées à utiliser les lanceurs européens pour leurs programmes spatiaux. Par ailleurs, des représentants de cinq États européens (France, Allemagne, Italie, Espagne et Suisse) se sont engagés lors du Conseil ministériel de l’ESA du 25 octobre 2018 à utiliser en priorité les lanceurs européens pour leurs satellites institutionnels.

La France va-t-elle également soutenir son industrie dans les satellites, qui estime être le parent pauvre de la politique spatiale française ?

Commençons par regarder qui est en tête des dernières compétitions les plus importantes dans les satellites. Ce sont des entreprises françaises. Cette industrie est essentielle et c’est pourquoi l’État l’a toujours accompagnée et a contribué à la porter au meilleur niveau mondial. Cela n’a pas de sens d’opposer les satellites aux lanceurs et vice-versa. Je le leur ai dit. Nous avons la chance d’avoir en France deux grands « satellitiers ». C’est une force. Mais de temps en temps, le fait d’en avoir deux pose des problèmes face à une compétition mondiale féroce. Ils sont conscients que, sur certains programmes, ils doivent mieux travailler et réfléchir ensemble. Ils se rendent compte eux-mêmes, au regard du marché international des satellites, que parfois le fait de rentrer dans une compétition à outrance l’un contre l’autre n’est pas le meilleur moyen pour être efficace.

Poussez-vous à un rapprochement ?

Je ne définis pas la politique industrielle et commerciale de ces entreprises à leur place. L’essentiel pour moi est que notre filière de satellites reste, dans la durée, un fleuron au meilleur niveau mondial, capable d’innover et d’exporter. Nous sommes prêts à envisager toutes les options.

Avez-vous déjà un schéma de rapprochement ?

Ce n’est pas à moi de leur dire ce qu’ils ont à faire, mais ils sont conscients, et moi aussi, qu’il y a des choses à améliorer. Toutes les options sont sur la table, à eux de faire des propositions.

Est-ce un projet à court terme ?

Il faut laisser du temps au temps. C’est à eux de réfléchir et de faire des propositions qui feront en sorte qu’en termes de compétitivité, d’innovations et d’emplois les bonnes décisions soient prises.

Et si rien n’avait avancé avant la fin de l’année ?

Je crois qu’ils sont parfaitement conscients du sujet et ils s’en parlent. Sur la question du spatial, on porte tous la même ligne.

Estimez-vous que la France doit adapter sa doctrine spatiale militaire ?

C’est une question qu’il faut poser à la ministre des Armées, Florence Parly. Mais l’espace tend à devenir un champ de confrontations. Quand on vous attaque, il ne me paraît pas illogique d’être en capacité de répliquer.

D’une façon générale, faut-il faire évoluer le principe de juste retour géographique ?

La France porte cette volonté de faire évoluer le juste retour géographique sur investissement. Principalement nous devons repenser l’industrialisation des lanceurs Ariane pour une raison simple : ce marché est désormais le cadre d’une véritable compétition internationale. Il est très important d’améliorer la compétitivité des futurs lanceurs face notamment à la concurrence américaine. Une réflexion est en cours avec l’ESA pour définir des modalités privilégiant l’optimisation du coût. La compétitivité des programmes spatiaux européens doit devenir la règle à travers une approche beaucoup plus économique.

La France a soutenu le renforcement de l’agence spatiale de l’Union européenne à Prague. Pourquoi l’ESA, soutenue par l’Allemagne, a-t-elle freiné des quatre fers ?

Peut-on vraiment penser que l’Union européenne n’est pas un acteur à part entière du spatial alors qu’elle va investir 16 milliards d’euros dans l’espace entre 2021 et 2027 ? L’UE va tirer bénéfice de la gestion et de l’exploitation des données spatiales issues des programmes européennes qu’elle a financé. Mais l’Agence spatiale européenne demeure unique par son expertise technique sur la gestion des programmes.

Actu, infos, économie, social, politique : articles les plus lus

 

Des neurones toujours fabriqués à l’âge adulte

Des neurones toujours fabriqués  à l’âge adulte

De quoi rassurer même certains politiques ! France info nous apprend que les adultes  produisent des neurones une fois l’adolescence terminée. C’est ce qu’affirment des chercheurs spécialisés en neuropathologie et en biologie moléculaire de l’université de Madrid (Espagne) dans une étude publiée le 25 mars 2019 dans la revue Nature Medicine. Selon ces scientifiques, la fabrication des neurones, un processus appelé la neurogénèse et qui a lieu dans le cerveau persiste tout au long de la vie. Pour arriver à ce constat, les chercheurs ont travaillé sur des tissus cérébraux de 13 donneurs décédés, en bonne santé neurologique et âgés de 43 à 87 ans au moment du décès. Ils ont mis ces échantillons au contact d’une molécule fluorescente capable de se fixer spécifiquement aux neurones immatures. Résultat : des dizaines de milliers de cellules ont fixé cette molécule dans l’hippocampe, une région du cerveau impliquée notamment dans la mémorisation. Des observations de ces cellules au microscope ont permis aux chercheurs de vérifier qu’il s’agissait bien de jeunes neurones, et ce même dans les échantillons issus des donneurs les plus âgés.

Plus précisément, l’échantillon du plus jeune donneur décédé à 43 ans contenait environ 42.000 neurones immatures par millimètre carré de tissu cérébral. Ce chiffre diminuait de 30% pour le donneur le plus âgé décédé à 87 ans, soit près de 30.000 neurones par millimètre carré. Qu’en concluent les chercheurs madrilènes ? Que leurs travaux soutiennent bien l’hypothèse selon laquelle la neurogénèse décline avec l’âge mais ne s’arrête jamais complètement… au moins jusqu’à l’aube des 90 ans. Un second résultat dévoilé par cette étude concerne la maladie d’Alzheimer. Les chercheurs ont en effet réalisé les mêmes expériences sur des tissus cérébraux de 45 personnes atteintes de cette maladie neurodégénérative et décédées entre 52 et 97 ans. Ils ont alors observé que plus la maladie est avancée, moins le cerveau compte de neurones immatures : les personnes souffrant de la maladie d’Alzheimer auraient ainsi 30% de jeunes neurones en moins que les personnes du même âge et en bonne santé neurologique. Si cette observation ne peut être interprétée comme un lien de cause à effet entre le déclin de la neurogénèse et la maladie d’Alzheimer, elle ouvre tout de même de nouvelles pistes de recherche pour combattre cette pathologie.

Actu, infos, économie, social, politique : articles les plus lus