Archive pour le Tag 'l’intelligence'

Page 5 sur 5

Comment mettre l’intelligence artificielle à grande échelle (Mohit Joshi)

 Comment mettre l’intelligence artificielle à grande échelle (Mohit Joshi)

 

Mohit Joshi, Président d’Infosys explique comment mettre en œuvre l’IA à grande échelle:  les entreprises doivent prendre soin de leurs talents internes, mettre l’éthique au premier plan et développer une stratégie à l’échelle de l’entreprise pour la technologie sur toute la chaîne de valeur( chronique de la Tribune)

 

Nous sommes fermement ancrés dans la cinquième révolution industrielle, une révolution basée sur l’intelligence artificielle (IA). Tout a commencé par l’ordinateur central, puis les ordinateurs personnels dans les années 1980, suivis par Internet, et enfin l’agilité et la puissance du cloud computing dans les années 2010. Cette cinquième vague informatique sera la plus retentissante à ce jour, avec des capacités qui promettent toujours plus d’initiatives et d’exploration humaines.

Toutefois, un problème se pose. Bien que l’IA soit adaptée aux entreprises, nombre d’entre elles ne parviennent pas à en tirer pleinement profit. L’innovation est tellement rapide que les entreprises n’arrivent pas à suivre le rythme. En 2015, les chercheurs ont publié 10.000 articles scientifiques sur l’IA. En 2019, ce chiffre est passé à 25 000 rien qu’aux États-Unis. Pour de nombreux dirigeants, cette situation est inquiétante, surtout lorsqu’on sait qu’une bonne utilisation de l’IA devrait améliorer les bénéfices de l’entreprise de 38 % et permettrait d’offrir 14 000 milliards de dollars de valeur ajouté aux entreprises d’ici 2035.

Il serait donc judicieux que les entreprises à la traîne tirent les enseignements des organisations plus avancées en matière d’IA. Dans notre étude, nous avons découvert que les leaders en matière d’IA plaçaient la technologie au cœur de leur activité et de leurs modèles d’exploitation. Ils l’utilisent pour découvrir, démocratiser et réduire les risques inhérents à l’utilisation de l’IA. Pour ces entreprises, l’IA fait partie intégrante de leur ADN et leur permet de proposer de meilleurs produits, d’améliorer l’expérience client et d’obtenir davantage de valeur ajoutée auprès de leur écosystème de partenaires.

À l’inverse, les entreprises ayant pris du retard utilisent principalement l’IA pour améliorer l’efficacité plutôt que pour changer la façon dont l’entreprise gagne de l’argent. Pour prendre une longueur d’avance, ces entreprises doivent requalifier les employés, s’assurer que l’adoption de l’IA n’est pas fragmentée, développer des cadres éthiques et de gouvernance solide, et informer les dirigeants des risques et opportunités liés à l’adoption de l’IA. Cela permettrait d’augmenter les marges opérationnelles d’au moins 3 %. Pour une entreprise de services financiers dont les revenus s’élèvent à 10 milliards de dollars, cela équivaut à 300 millions de dollars supplémentaires de revenus, ce qui n’est pas négligeable.

La plupart des talents en science des données se tournant vers les grandes entreprises technologiques, les entreprises de services financiers leaders en matière d’IA se démarquent par leur capacité à requalifier la main d’œuvre. Elles utilisent des plateformes numériques et des outils d’auto-modélisation pour garantir un apprentissage permanent. C’est crucial. Il est maintenant temps pour les entreprises de former leurs talents internes, c’est-à-dire ces employés qui connaissent parfaitement l’entreprise et qui peuvent repérer les cas d’utilisation pertinents pour l’IA plus rapidement que les nouveaux embauchés.

Il est également essentiel de réunir les équipes sous un seul et même cadre d’IA au sein de toute l’entreprise. En effet, des opérations d’IA réussies peuvent accroître les marges opérationnelles d’au moins 6 % (ce qui représente 600 millions de dollars supplémentaires pour une entreprise dont les revenus s’élèvent à 10 milliards de dollars). Ces entreprises visionnaires s’assurent généralement que les équipes commerciales, financières et technologiques travaillent ensemble sur les projets d’IA tout au long du cycle de vie de l’IA, le plus souvent via un centre d’excellence. Les employés sont formés plus rapidement, les bons processus de gestion des changements sont regroupés afin que les solutions d’IA évoluent rapidement du stade de pilote au stade du déploiement et que l’IA au sein de l’entreprise soit en mesure de répondre aux attentes.

 

Pour obtenir des résultats et développer l’intelligence à grande échelle, il est nécessaire de développer une vision globale de l’IA d’entreprise qui repose sur des plateformes d’IA professionnelles. En outre, en tirant profit du produit visionnaire, du domaine et de conseils d’experts, les entreprises sont assurées d’obtenir des bénéfices exponentiels au fil du temps.

Des cadres d’IA éthiques et de gouvernance solide doivent être établis dès le départ. Cela permet de garantir des déploiements d’IA justes, équitables et impartiaux. Nous avons constaté que ces entreprises qui ont défini ces cadres surpassent d’au moins 25 % les entreprises retardataires sur un certain nombre d’indicateurs de performance clés de l’entreprise. Toutefois, il n’est pas toujours évident d’éliminer toute déformation inconsciente de ces données. C’est ici que le mandat organisationnel pour des solutions d’IA efficaces et explicables intervient.

Les employés qui utilisent l’IA en back office ou avec les clients doivent rapidement être informés des pratiques éthiques. Les algorithmes d’apprentissage automatique doivent être en mesure d’expliquer les décisions qu’ils prennent, de façon à ce qu’elles soient comprises par les autorités d’IA, notamment les régulateurs. Sans ce pilier d’IA, des éthiques d’IA imparfaites peuvent ruiner la réputation d’une entreprise financière en un instant, auprès des partenaires et des consommateurs.

Enfin, les leaders de l’IA doivent connaître l’impact des technologies sur un certain nombre d’aspects, notamment le modèle commercial, les employés, les partenaires, les clients et la société dans son ensemble. De nombreux dirigeants rencontrent des difficultés dans ces domaines et n’ont qu’une vague idée de la façon dont l’IA peut améliorer les marges et leur permettre de devancer la concurrence. Si 2020 est l’année de l’IA, alors cela doit également être l’année au cours de laquelle les dirigeants des entreprises financières commencent leur apprentissage de l’IA.

L’IA étant présente dans tous les aspects de notre vie, le temps est venu pour les entreprises d’accélérer le mouvement vers des statuts d’IA visionnaires. De l’IA normatif utilisé dans les stratégies de fonds de roulement et la réduction du risque opérationnel au traitement du langage naturel utilisé pour extraire les attributs sensibles des contrats, les applications innovantes de l’IA améliorent les entreprises de services financiers et leur permettent d’être plus rapides et plus agiles.

Pour mettre en œuvre l’IA à grande échelle, les entreprises de services financiers doivent prendre soin de leurs talents internes, mettre l’éthique au premier plan et développer une stratégie à l’échelle de l’entreprise pour la technologie sur toute la chaîne de valeur. Ce faisant, nos clients seront les annonciateurs de la cinquième révolution industrielle.

 

Quelle régulation de l’intelligence artificielle

Quelle régulation de l’intelligence artificielle

L’informaticien et philosophe Jean-Gabriel Ganascia estime que les Etats doivent se saisir de ces questions et prendre leurs responsabilités, afin de ne pas s’en remettre uniquement aux acteurs privés.(Interview dans le monde)

Elon Musk a présenté, le 28 août, les recherches de sa société Neuralink visant, avec le recours de l’intelligence artificielle, à soigner des pathologies et augmenter les capacités cérébrales. Comment analysez-vous ces annonces ?

Les déclarations d’Elon Musk sont problématiques. Sa société travaille sur les implants cérébraux et sur les interfaces cerveaux-ordinateurs. Nous savons que quand une personne a une activité cérébrale, ses neurones émettent des signaux électriques. Les recherches dans le domaine des interfaces visent à analyser ces signaux grâce à des techniques d’apprentissage machine, afin de les transformer par exemple en commande d’un objet, d’une prothèse, etc. On parle ici d’un signal qui part de l’homme vers une machine.

Elon Musk, lui, laisse entendre qu’il pourrait aussi avoir un signal retour, de la machine vers l’homme donc. Nous pourrions, à terme, tous être connectés au réseau par nos cerveaux et bénéficier d’informations mises en commun. En étant tous liés par un « lacet neuronal » nous deviendrions d’une certaine manière transparents les uns aux autres. Il y a, derrière cette idée, la théorie selon laquelle l’intelligence artificielle va nous dépasser et qu’il faut, pour rivaliser, augmenter notre mémoire.

D’où vient cette notion de mémoire augmentée ?

En partie des auteurs de science-fiction, comme l’Ecossais Iain Banks (1954-2013), qui, dans la seconde moitié du XXe siècle, utilise le terme de « lacet neuronal » repris par Elon Musk dans sa présentation. Mais on trouve des liens encore plus anciens. Le physicien Vannevar Bush (1890-1974), conseiller scientifique du président Roosevelt, a écrit en 1945 – avant le premier ordinateur électronique – un texte visionnaire, As We May Think (« comme nous pourrions penser »), où il imagine le Memex (Memory Extender), un extenseur de mémoire pour gérer le savoir technologique en constante augmentation.

Il imagine, dessin à l’appui, un verre dépoli, l’équivalent d’un écran, sur lequel pourrait être projeté de l’information. Dans la conclusion du texte, il évoque les ondes électriques cérébrales et s’interroge : « Peut-être qu’un jour, on saura quelle est leur nature et on pourra passer, sans intermédiaire, directement de l’électricité extérieure, remplie d’information, à l’électricité intérieure. » On peut voir une certaine continuité entre sa vision et celle d’Elon Musk.

 

L’enjeu de la régulation de l’intelligence artificielle

L’enjeu de la régulation de l’intelligence artificielle

 

Florian Ingen-Housz, partner au sein d’Altermind, et Victor Storchan, ingénieur en IA dans l’industrie financière, explique l’enjeu de la régulation de l’intelligence artificielle (IA) dans la Tribune

 

 

En février dernier, la Commission européenne a publié son livre blanc sur la régulation des applications de l’Intelligence Artificielle (IA). Plutôt que de légiférer unilatéralement sur ce sujet, la Commission a choisi, de manière novatrice, une approche consultative et participative en incitant l’ensemble des parties prenantes à cet écosystème à participer à la discussion. Cette approche doit être encouragée, approfondie et accélérée pour ajuster l’état du droit à un état de l’art technologique qui ne cesse de faire surgir des débats juridiques et normatifs inédits. Cette approche est aussi le seul moyen de faire émerger, dans la décennie qui vient, une véritable vision européenne de la Tech, tout à la fois pro-business et respectueuse des libertés individuelles.

Un défi majeur pour les régulateurs

L’IA constitue en effet un défi majeur pour les régulateurs. La vitesse prodigieuse des avancées technologiques doit inviter ces derniers à co-construire la norme avec un écosystème plus large qu’ils n’en ont l’habitude, plutôt que d’imposer celle-ci « par le haut ». Tout comme l’ont montré les débats sur la bioéthique depuis les années 1970, la régulation technologique est avant tout un choix de société et par conséquent un effort continu. La question se pose néanmoins avec une acuité particulière pour le déploiement de l’IA, compte tenu de l’ambiguïté de ses définitions, de sa nature stochastique et de l’opacité des multiples modèles sur lesquels elle est bâtie. Cette opacité est aggravée par l’hypercroissance de l’écosystème (50% de plus de papiers soumis à NeurIPS – une des conférences majeures de la discipline - en 2019 par rapport à l’année précédente), qui rend immédiatement obsolètes des savoirs difficilement acquis par des régulateurs parfois mal-équipés sur le plan technique. Si la régulation est évidemment primordiale pour permettre l’adoption, créer du consensus et de la confiance envers cette technologie, son élaboration devra donc être suffisamment (i) spécifique dans son champ d’application pour être « implémentable », (ii) inclusive et ouverte dans sa démarche et (iii) sélective dans ses priorités et son séquencement.

Il faudra donc, dans un premier temps, d’abord s’assurer de la juste définition de l’objet ciblé. Ce besoin de spécificité dans un domaine aux frontières floues soulève un premier défi : celui de la sémantique. Le concept d’IA est imprécis, même pour les experts. Contrairement aux précédentes vagues de disruption technologique, que ce soit la machine à vapeur, l’électricité, la chimie ou même les premiers programmes informatiques, les contours de l’IA sont moins tangibles. Ainsi, en 2013, l’Etat du Nevada a dû ainsi revoir sa définition de l’IA pour les véhicules autonomes car celle-ci englobait aussi certains modèles de voitures sophistiquées avec des fonctionnalités de contrôle avancées. La définition de ce qu’est un robot pour l’Union européenne n’est pas non plus satisfaisante. Contrairement à ce que semble indiquer cette dernière, les robots n’acquièrent en effet pas de capacité d’autonomie uniquement grâce aux données et aux capteurs dont ils disposeraient. Comme le montrent les travaux de Bryan Casey et Mark A. Lemley (Stanford Law School) lorsque cela est possible, une manière de contourner le problème sémantique est de s’assurer que la régulation cerne en priorité les comportements des individus et non pas les techniques, les types d’algorithmes ou les robots.

Faire coopérer des acteurs très divers

L’efficacité de la régulation pour l’IA se mesurera aussi à sa capacité à faire coopérer des acteurs très divers. Les usages de cette technologie doivent être appréhendés non pas in-vitro mais au sein d’écosystèmes technico-sociaux complexes où elle est déployée. Ainsi cette coopération doit à la fois s’effectuer horizontalement et verticalement. Horizontalement d’abord, par la co-construction entre juristes, techniciens, et chercheurs, mais également sociologues et citoyens qui via les décideurs publics seront les utilisateurs de ces systèmes d’IA. Ces derniers doivent être dotés d’outils pour améliorer leur capacité à contester la décision d’un modèle afin de créer de la confiance. Le dialogue doit aussi être plurilatéral, non seulement par une coordination entre pays et puissances régionales, mais aussi en incluant les ONG, la société et l’industrie.

 

Cette coopération est aussi verticale. Pour être opérant, le processus délibératif d’une gouvernance globale doit pouvoir être traduit en termes techniques par les ingénieurs et les chercheurs qui conçoivent les modèles. Cependant, pour être parfaitement efficace et agile, cette approche différenciée devra pouvoir s’incarner par une gouvernance dans les entreprises capable de guider les équipes techniques. Ces dernières sont confrontées à plusieurs dilemmes du fait des contraintes techniques, mathématiques ou algorithmiques et ont besoin d’indications précises qui tranchent des compromis entre certaines notions d’éthiques comme l’équité ou le respect de la vie privée. Il est donc nécessaire de faire un choix qui relève presque de philosophie politique. Ces choix sont sociétaux et culturels.

Enfin, lorsqu’une directive réglementaire présente une ambiguïté intrinsèque (dans le but par exemple d’anticiper des développements de technologie future ou pour pouvoir être appliquée à un spectre large d’acteurs), il est précieux que l’écosystème puisse collectivement expliciter les points d’incertitude qui sont sujets à l’interprétation. Cet effort de clarification permettrait d’aligner les efforts de gestion du risque dans les modèles d’IA sur des standards communs. Ces concertations des parties prenantes ont vocation à constituer une « soft law » pour préciser ou compléter au plus près du terrain des principes plus généraux fixant l’esprit et l’intention.

Se concentrer sur un nombre réduit de secteurs

 

Enfin, la régulation pour être efficace doit en priorité se concentrer sur un nombre réduit de secteurs et d’applications sur lesquels une attention immédiate est requise. A titre d’exemple, l’UE propose de calibrer le niveau de régulation selon le niveau de risque que représente une application de l’IA ou un secteur industriel applicatif. La commission propose ainsi une liste de plusieurs secteurs à haut risque comme les transports, la santé ou l’énergie dans lesquels certains déploiements technologiques sensibles devront respecter un ensemble de règles plus exigeant. Cette approche semble raisonnable. Le risque consubstantiel à l’innovation et un principe de précaution aveugle à la diversité des cas d’usages aboutirait à une société du statu quo vidée de sa force entrepreneuriale et créatrice. Les applications dans le secteur public (justice et éducation notamment), la santé font certainement partis des chantiers prioritaires. Les exemples récents de systèmes mal déployés sont légions : les entreprises technologiques comme IBM ou Microsoft ont stoppé leurs services de reconnaissance faciale après que des failles éthiques à répétition aient été identifiées. L’algorithme néerlandais de prédiction de fraude pour les demandeurs de sécurité sociale a été suspendu par une juridiction du pays pour violation des droits de l’homme et de la régulation RGPD sur les données.

Ainsi, les rapports entre les régulateurs et les innovateurs en IA ne peuvent être résumés à un conflit entre le glaive et le bouclier. La multidisciplinarité de cette technologie, ses évolutions rapides et disruptives doivent être accompagnées pour qu’elle serve le plus grand nombre dans la transparence et responsabilité des acteurs.

 

« L’intelligence artificielle contre le coronavirus »

« L’intelligence artificielle contre le coronavirus ».

 

L’intelligence artificielle peut-être très utile à la lutte contre le virus chinois d’après Victor Storchan et Erwan Le Noan *.( Chronique dans l’opinio

 

« 

Dans le roman de Giono, Le hussard sur le toit, Angelo découvre une Provence ravagée par le choléra. Face à l’épidémie, les habitants se confinent dans la peur, alors que les autorités tentent d’organiser, tant bien que mal, un barrage à la propagation de la maladie.

Face à l’urgence d’une crise, les mécanismes d’ajustement d’une société résiliente relèvent à la fois de l’anticipation et de l’improvisation. Anticipation, en se dotant d’un éventail de procédures de réponses coordonnées et d’expertises, qui dessinent les contours de stratégies à déployer quand survient l’imprévu. Improvisation, dans son sens positif où tels des musiciens, les différents acteurs jouent une partition dictée par les aléas de l’événement.

La crise du coronavirus confirme cette dichotomie traditionnelle entre innovation et application de la règle au cœur de la tempête : les plans d’urgence les mieux élaborés sont complétés, dans l’action, par l’initiative humaine. De façon intéressante, les nouvelles technologies comme l’intelligence artificielle (IA) participent pleinement de cette dynamique – révélant que, face aux défis les plus grands, la recherche académique et appliquée permet d’augmenter aussi bien les décisions au plus haut niveau que la pratique la plus concrète.

La publication récente des conclusions des travaux de chercheurs en médecine à l’Université de Wuhan l’illustre parfaitement : en constituant en à peine un mois un jeu de données d’images tomographiques de pneumonies, causées par le Covid-19 d’une part et provenant de pneumonies connues et plus classiques d’autre part, l’équipe a pu construire, grâce à l’IA, un outil d’aide à la décision qui permet aux praticiens d’établir un diagnostic médical avec un gain de temps estimé à 65 %.

Modèles «convolutionnels». L’imagerie médicale et plus généralement la vision assistée par ordinateur comptent parmi les applications les plus robustes de l’intelligence artificielle. Les outils utilisés aujourd’hui fonctionnent en mimant la structure du cortex visuel humain (soit 5 milliards de neurones qui se répartissent en couches successives). Ils ne sont pas nouveaux : le Français Yann LeCun fut, dès les années 1990, un pionnier de cette technique qui s’est diffusée plus largement depuis 2012, grâce à l’utilisation de circuits intégrés modernes. Ces modèles, dits « convolutionnels », sont constitués en couches neuronales qui transmettent successivement l’information en tenant compte de dépendances spatiales dans l’image. Cette méthode permet de détecter des motifs utiles pour la tâche à effectuer.

Cette technique est au cœur du système d’IA conçu à Wuhan pour identifier les pneumonies virales de Covid-19 à partir de plus de 46 000 images tomographiques – collectées en un temps record, reconstituées en mesurant l’absorption des rayons X par les tissus biologiques de 106 patients. Ces couches d’informations ont été assemblées dans une architecture spécialisée dans la segmentation d’images et capable de détecter les traces d’infection pulmonaire, parfois très légères au stade précoce de l’infection (des dixièmes de millimètres).

Les phases d’évaluation ont permis de conclure que l’algorithme fournit une précision comparable à celle des radiologues, sans pour autant s’y substituer : il est utilisé comme outil d’aide à la décision, qui permet de réduire à 40 secondes le temps nécessaire au diagnostic (contre 116 par les meilleurs médecins).

. Cet outil, qui augmente le savoir humain, a donc permis un gain de temps substantiel dans la pratique médicale. C’est essentiel, car la détection précoce de l’infection permet un isolement rapide du patient, alors que l’attente prolongée augmente les risques de surinfection. C’est aussi une espérance de meilleure lutte contre l’épidémie : dans la province chinoise de Hubei, mi-février, plus de 77 000 cas étaient sous observation médicale, dont la plupart nécessitaient un examen radiologique approfondi… alors que moins de 4 500 radiologues exercent dans cette région. La technologie rayonnera au demeurant au-delà : le partage d’une plateforme en libre accès dans le cloud permet aux autres hôpitaux et professionnels de santé de l’utiliser – et aussi de l’auditer.

En médecine, et particulièrement en imagerie médicale, l’utilisation d’algorithmes a une longue histoire. Dans son livre récent – et à succès –, Aurélie Jean explique comment elle les a mobilisés pour de la recherche en biomécanique, dans le but d’évaluer les risques de traumatismes cérébraux lors de chocs. Ces exemples comme les travaux des médecins de Wuhan montrent que, particulièrement dans des moments de crise intense, la recherche académique est un outil puissant de progrès et un éclairage précieux pour augmenter efficacement les décisions humaines, des praticiens aux dirigeants.

* Victor Storchan est spécialiste de machine learning, ancien élève de Stanford. Erwan Le Noan est associé du cabinet Altermind.

La régulation de l’intelligence artificielle ?

La régulation de l’intelligence artificielle ?

 

 

Nozha Boujemaa,Directrice science & innovation chez Median Technologies estime indispensable  la régulation de l’IA. (Tribune dans le Monde)

 

« . La Commission européenne a annoncé fin février sa volonté de réguler l’intelligence artificielle (IA). Celle-ci suscite fantasmes, craintes et fascination. Les industriels européens redoutent le coût financier d’une telle régulation et brandissent le frein à l’innovation. Les consommateurs redoutent les discriminations. Serait-ce l’avenir ou le péril de l’humanité ? On entend l’un et l’autre : l’intelligence artificielle va sauver des vies, l’intelligence artificielle va décider de nos vies.

Existe-il une définition unique de l’intelligence artificielle ? La réponse est non, il y a autant de définitions que d’écoles de pensée et de communautés scientifiques. Par exemple entre l’IA statistique et l’IA symbolique, l’IA faible et l’IA forte, certaines sont explicables et d’autres pas encore. Aucun exercice de définition de l’IA n’a débouché sur un réel consensus, et parfois même l’exercice a été abandonné.

D’ailleurs, c’est une erreur que de personnaliser l’IA. Les algorithmes de l’IA et leurs dérives potentielles de toutes sortes (éthiques ou juridiques) ne sont qu’une codification des opinions de leurs concepteurs et de ceux qui les déploient. La tentation est très forte de réguler tout ce qui semble échapper à notre compréhension et à notre contrôle. Cette approche suppose que le simple fait d’établir de nouvelles règles juridiques sera un rempart protecteur face aux dérives potentielles.

La nécessité d’encadrer juridiquement l’usage des algorithmes de l’IA ne fait pas de doute, tant leurs champs d’application sont étendus et tant les brèches pour certaines dérives au service de leurs concepteurs sont possibles. La régulation des algorithmes de manière générale, et celle de l’IA en particulier, est un terrain de jeu tout à fait nouveau pour les juristes. Il faudrait une transformation numérique du métier juridique pour espérer une réelle efficacité. Il faudrait que les avocats se forment aux algorithmes sans pour autant en devenir spécialistes et que les cabinets d’avocats se dotent de spécialistes de l’IA pour cerner les questions à résoudre.

Autrement, la régulation ne donnera lieu qu’à des mesures descendantes traduisant les principes de ce qui doit être fait mais qui resteront non applicables. Comment un juriste pourrait-il s’assurer qu’un algorithme d’IA respecterait la nouvelle juridiction qui sera mise en place ? Ce qui doit guider la régulation de ce nouveau genre, c’est l’analyse du risque des décisions algorithmiques pour l’humain. Le secteur de la santé est bien en avance dans ce domaine pour l’homologation des services logiciels comme dispositifs médicaux, pour garantir la maîtrise des biais et de la répétabilité. »

 

 

Enjeu de l’intelligence artificielle ?

Un député de la majorité propose un débat sur le sens et les conditions de développement de l’intelligence artificielle. Il n’est pas inutile de revenir sur ce concept à partir de l’introduction au remarquable rapport qu’a effectué la CCI de l’Essonne. Une introduction faite par Éric Villani.

« Qu’est-ce que l’intelligence artificielle ? On peut comparer le fonctionnement d’un algorithme de machine learning au développement cognitif de l’enfant : celui-ci apprend en observant le monde, en analysant la manière dont les individus interagissent, en reproduisant les règles sans pour autant qu’on les lui expose explicitement.

Schématiquement, la même chose se produit en matière d’apprentissage automatique : les algorithmes sont désormais entraînés à apprendre seuls sans programmation explicite. Il y a autant de définitions d’intelligence artificielle que de technologies. L’IA fait l’objet d’une compétition vive. Pourquoi ? L’apprentissage par données n’est pas la seule méthode menant à l’intelligence artificielle. Mais c’est aujourd’hui la méthode la plus utilisée, celle qui se développe le plus vite et celle qui fait l’objet de la compétition la plus vive.

L’Europe est la taille minimum pour être dans le concert international. Mais le budget du programme Euro HPC* (6 Mds) est insuffisant  : les Chinois investissent dix fois plus et nous serons toujours en retard de puissance. Des bases de données, à l’échelle européenne, vont voir le jour avec le concours des entreprises.

Il y a aujourd’hui des secteurs en haute tension comme la recherche et d‘autres sont à venir. La France, avec notamment Paris-Saclay et son exceptionnel écosystème, compte parmi les meilleurs mathématiciens au monde. C’est un atout de taille ! Quelle stratégie pour aider les PME essonniennes à prendre le cap des nouvelles technologies ? Elles doivent faire selon leurs moyens : avoir un référent en nouvelles technologies, constituer des petites équipes de veille technologique et de réflexions. L’essentiel pour elles est de créer des coopérations, trouver les bons interlocuteurs. Elles doivent être proactives, se mettre en connexion. * Euro HPC ; programme de l’UE pour le déploiement en Europe d’une infrastructure de calibre mondial dédiée au calcul haute performance (HPC).

Qu’est-ce que l’intelligence artificielle ?

 

 

Un député de la majorité propose un débat sur le sens et les conditions de développement de l’intelligence artificielle. Il n’est pas inutile de revenir sur ce concept à partir de l’introduction au remarquable rapport qu’a effectué la CCI de l’Essonne. Une introduction faite par Éric Villani.

Qu’est-ce que l’intelligence artificielle ? On peut comparer le fonctionnement d’un algorithme de machine learning au développement cognitif de l’enfant : celui-ci apprend en observant le monde, en analysant la manière dont les individus interagissent, en reproduisant les règles sans pour autant qu’on les lui expose explicitement.

Schématiquement, la même chose se produit en matière d’apprentissage automatique : les algorithmes sont désormais entraînés à apprendre seuls sans programmation explicite. Il y a autant de définitions d’intelligence artificielle que de technologies. L’IA fait l’objet d’une compétition vive. Pourquoi ? L’apprentissage par données n’est pas la seule méthode menant à l’intelligence artificielle. Mais c’est aujourd’hui la méthode la plus utilisée, celle qui se développe le plus vite et celle qui fait l’objet de la compétition la plus vive.

L’Europe est la taille minimum pour être dans le concert international. Mais le budget du programme Euro HPC* (6 Mds) est insuffisant  : les Chinois investissent dix fois plus et nous serons toujours en retard de puissance. Des bases de données, à l’échelle européenne, vont voir le jour avec le concours des entreprises.

Il y a aujourd’hui des secteurs en haute tension comme la recherche et d‘autres sont à venir. La France, avec notamment Paris-Saclay et son exceptionnel écosystème, compte parmi les meilleurs mathématiciens au monde. C’est un atout de taille ! Quelle stratégie pour aider les PME essonniennes à prendre le cap des nouvelles technologies ? Elles doivent faire selon leurs moyens : avoir un référent en nouvelles technologies, constituer des petites équipes de veille technologique et de réflexions. L’essentiel pour elles est de créer des coopérations, trouver les bons interlocuteurs. Elles doivent être proactives, se mettre en connexion. * Euro HPC ; programme de l’UE pour le déploiement en Europe d’une infrastructure de calibre mondial dédiée au calcul haute performance (HPC).

Développement de l’intelligence artificielle: la démocratisation par l’auto apprentissage ?

Développement de l’intelligence artificielle: la démocratisation par l’auto apprentissage ?

La spécialiste en intelligence artificielle Nozha Boujemaa décrit l’émergence de l’apprentissage machine automatisé, qui va modifier les métiers liés à l’IA dans une tribune au Monde. Un vision toutefois peut-être un peu rapide, en tout cas qui peut être discutée sur ce qu’on entend vraiment par Intelligence artificielle.

« Le développement de l’intelligence artificielle (IA) est assez ironique : il faut beaucoup d’efforts manuels et parfois ad hoc pour la construction de modèles prédictifs précis. Une technologie qui se veut entièrement dans l’automatisation de tâches humaines implique en effet plusieurs étapes fastidieuses : annotation et étiquetage des données d’apprentissage, qui nécessitent parfois un travail humain colossal ; exploration et sélection de données représentatives ; sélection de modèles ; réglages des paramètres du modèle en plus des phases de tests et de généralisation. Le cheminement à travers toute la chaîne de développement est complexe, même pour les spécialistes et les experts en sciences des données. Dans de nombreux contextes industriels, la mise sur le marché d’une solution fondée sur des modèles prédictifs est assez longue.

Cette impasse est en train de disparaître avec l’émergence de l’auto-apprentissage (AutoML, ou Automated Machine Learning), qui consiste à automatiser la recherche de l’architecture optimale d’un réseau de neurones. La maturité technologique de l’IA permet aujourd’hui de mettre au point des architectures de réseaux de neurones profonds plus efficacement que ne le feraient les experts humains, par exemple en reconnaissance d’objets et en vision par ordinateur.

Double ironie : on va pouvoir se passer en partie de certaines expertises en sciences des données et les automatiser. Dans le contexte d’AutoML, les ingénieurs vont pouvoir se consacrer à des phases plus critiques qui ont davantage besoin de l’intelligence humaine, comme l’analyse de situations de métiers complexes et les questions commerciales, au lieu de se perdre dans le processus fastidieux de construction de la solution. En réalité, cette démarche va aider les développeurs non spécialistes des données à réaliser des solutions d’IA plus facilement. Les scientifiques spécialisés vont, eux, pouvoir effectuer un travail complexe plus rapidement, grâce à la technologie AutoML, qui pourrait bien placer l’IA au cœur de l’essor des entreprises.

AutoML est une tendance qui va fondamentalement changer le paysage des solutions fondées sur l’apprentissage par machine. Elle se concentre sur deux aspects : l’acquisition de données et la prédiction. Toutes les étapes qui se déroulent entre ces deux phases seront prises en charge par les processus d’AutoML. Les utilisateurs apportent leur propre jeu de données, identifient les catégories et appuient sur un bouton pour générer un modèle parfaitement entraîné et optimisé, prêt à prédire. Ces approches d’AutoML vont faciliter la démocratisation de l’IA au service du plus grand nombre.

 

Bientôt l’intelligence artificielle au niveau de l’humain ?

Bientôt l’intelligence artificielle au niveau de l’humain ?

(Yann Le Cun )

Dans une interview aux Échos, Yann Le Cun analyses les possibilités et les limites de l’IA.  Yann Le Cun  est  responsable de la recherche en intelligence artificielle (IA) de Facebook et professeur à New York University, Yann Le Cun a reçu le prix Turing 2019, équivalent du Nobel d’informatique. Il vient de publier un livre retraçant son parcours et ses travaux.

 

Dans votre livre, vous vous montrez fier des progrès accomplis par l’intelligence artificielle (IA). Mais vous dites aussi qu’elle est loin de l’intelligence d’un rat. Diriez-vous, comme un autre expert français, Luc Julia (*), que l’intelligence artificielle n’existe pas ?

Non ! Ce n’est pas qu’elle n’existe pas, mais il y a une confusion fréquente : quand on voit une machine qui a des compétences surhumaines sur une tâche particulière, on lui attribue les compétences qu’elle aurait si cette intelligence venait d’une personne. Et donc on se dit : « la machine peut nous battre à plate couture au jeu de go, donc elle peut nous battre partout » ou bien « elle peut traduire dans une centaine de langues, donc elle est plus intelligente que n’importe quel humain ». Ce n’est pas vrai, car ces systèmes sont très spécialisés, très étroits.

Ce n’est donc pas la même intelligence que les humains…

Certaines personnes estiment que ce qui caractérise l’intelligence humaine, c’est qu’elle est générale. Je dis dans mon livre que ce n’est pas vrai non plus. L’intelligence humaine est, elle aussi, spécialisée, mais moins spécialisée que l’intelligence artificielle. Je crois à ce qu’on appelle l’intelligence artificielle de niveau humain (« human level intelligence »). Pour moi, il ne fait aucun doute que les machines arriveront tôt ou tard à des niveaux d’intelligence aussi performante et générale que les humains et, probablement, nous dépasseront assez vite.

Et l’intelligence de niveau humain, ce serait quoi ? Qu’une machine soit capable de tenir la conversation que nous avons en ce moment ?

Oui, qu’elle puisse faire toutes les tâches intellectuelles que fait un être humain, à peu près aussi bien, à l’exception de ce qui relève de l’expérience humaine.

Pensez-vous que vous verrez bientôt les machines atteindre ce niveau d’intelligence ?

Je pense que je le verrai un jour, mais pas bientôt. C’est un peu difficile de le dire. Il y a des obstacles qu’il faudra franchir, et certaines personnes ne voient pas ces obstacles et pensent qu’il suffira de prendre les techniques actuelles, et d’avoir plus de données et plus de puissance pour arriver à une intelligence de niveau humain. Je n’y crois pas du tout. Je pense qu’il faudra des progrès conceptuels qui sont du ressort de la science, pas de la technologie.

Quel genre de progrès ?

Pour moi, le premier obstacle à franchir est de permettre aux machines d’apprendre par elles-mêmes, un peu à la manière des enfants ou des animaux. Un enfant acquiert une quantité gigantesque de savoirs sur le fonctionnement du monde simplement par l’observation.

Comme celui d’intelligence artificielle, le terme d’apprentissage automatique (« machine learning », en anglais) est trompeur car une machine n’apprend pas du tout comme un humain…

Absolument. Pour qu’une machine reconnaisse des chaises, des chiens ou des chats, il faut d’abord lui montrer des milliers d’images étiquetées, dans chaque catégorie. Alors qu’un petit enfant auquel on montre trois dessins d’un éléphant saura ensuite reconnaître un éléphant dans une photo. Qu’est-ce qui fait qu’il y parvient sans avoir vu des milliers d’images ? Permettre aux machines d’apprendre de cette manière est d’autant plus important que l’on se lance dans des problèmes complexes : on veut apprendre aux voitures à se conduire toutes seules, par exemple, et cela n’est pas possible avec les méthodes traditionnelles.

Comment faire autrement ?

Ce qui manque, c’est de permettre à la machine, par un apprentissage autosupervisé, de se construire un modèle du monde. Qu’elle sache prédire que, si elle roule au bord d’un ravin et qu’elle donne un coup de volant, elle va finir au fond, et que ce n’est pas bon. Apprendre un modèle du monde, cela revient à prédire le futur à partir du passé et du présent, et peut-être d’une séquence d’actions que l’on a l’intention de faire. Pouvoir prédire, c’est un peu l’essence de l’intelligence.

Ce qui est étonnant, en lisant votre livre, c’est à quel point vous êtes fasciné par les neurosciences, par la façon dont le cerveau apprend…

C’est une inspiration. Il y a des gens qui disent que l’on peut faire de l’intelligence artificielle sans se référer du tout à l’intelligence humaine. Cela a été un des courants classiques de l’IA, fondé sur la logique, et cela a conduit aux systèmes experts, qui ont montré leurs limites notamment pour l’apprentissage car il faut entrer toutes les données « à la main ». Et puis il y a l’autre approche, qui consiste à essayer de copier ce qui se passe dans le cerveau. Mais là, il y a un autre danger, qui est de reproduire de trop près ce qui se passe, sans en comprendre les principes.

Les réseaux de neurones profonds, que vous avez contribué à inventer, sont particulièrement performants pour la reconnaissance faciale, qui est en train de se répandre partout, parfois de façon inquiétante. Qu’est-ce que cela vous inspire ?

C’est vrai pour toutes les technologies. Les technologies sont neutres, elles peuvent être utilisées à des fins bénéfiques ou moins bénéfiques. Ce qui fait qu’elles seront principalement utilisées à des fins bénéfiques, c’est la force de nos institutions démocratiques. Ceci dit, si on retourne plusieurs siècles en arrière, personne ne peut contester les bénéfices de l’invention de l’imprimerie, même si elle a permis de disséminer les écrits de Calvin et Luther qui ont causé deux cents ans de persécutions en Europe. C’est vrai que  les systèmes de reconnaissance du visage qui sont utilisés en Chine sont directement inspirés d’un de mes articles sur les réseaux convolutifs publiés en 2014. Mais la même invention sert aussi dans la sécurité routière, pour des systèmes d’aide à la conduite, ou dans l’analyse d’imagerie médicale pour augmenter la fiabilité. Elle sert à beaucoup de choses utiles, y compris chez Facebook pour lutter contre les images terroristes.

 (*) Luc Julia, aujourd’hui responsable de la recherche de Samsung, est à l’origine de Siri, l’assistant vocal d’Apple. Il a publié l’an dernier « L’intelligence artificielle n’existe pas » (First Editions).

« Quand la machine apprend », Yann Le Cun, éditions Odile Jacob, 396 pages, 22,90 euros.

 

L’intelligence artificielle : comment prendre en compte l’intelligence humaine ?

L’intelligence artificielle : comment prendre en compte  l’intelligence humaine ?

 

Arnaud Martin, Université Rennes 1 pose la question de l’intégration de  l’incertitude humaine dans l’intelligence artificielle. (La Tribune)

« L’intelligence artificielle est devenue aujourd’hui un enjeu économique et se retrouve au cœur de nombreuses actualités. En effet les applications d’un grand nombre d’algorithmes regroupés sous le terme d’intelligence artificielle se retrouvent dans plusieurs domaines. Citons par exemple l’utilisation de l’intelligence artificielle dans les processus de recrutement ou encore pour le développement de voitures autonomes. Dans ce contexte, la France veut jouer un rôle dans lequel le rapport Villani pose les bases d’une réflexion. Ces méthodes et algorithmes d’intelligence artificielle soulèvent cependant des craintes et des critiques liées à la perte du sens commun issu des relations humaines.

Il faut toutefois avoir conscience que l’ensemble de ces approches ne font qu’intégrer des connaissances humaines qui ont été au préalable modélisées bien souvent à partir de processus d’extraction de connaissances.

C’est dans ce cadre que nous menons des recherches dans l’équipe DRUID (Declarative and Reliable Management of Uncertain, User-generated Interlinked Data) de l’IRISA (Institut de recherche en informatique et systèmes aléatoires). Il est en effet important de pouvoir modéliser de façon la plus exacte possible les connaissances des hommes aussi imparfaites qu’elles soient. Par exemple, lorsqu’on s’exprime sur les réseaux sociaux, on peut émettre des avis entachés d’incertitude ou encore d’imprécision. Il ne serait pas raisonnable de croire tout ce qui peut se dire sur les réseaux sociaux. Mais comment modéliser ces doutes que l’on a tous ?

Nous développons ainsi des approches dans le cadre de la théorie des fonctions de croyance. Cette théorie permet de modéliser à la fois le caractère incertain d’une information mais également son caractère imprécis. Par exemple, si l’on me dit qu’il pleuvra peut-être beaucoup demain, d’une part je ne suis pas certain qu’il pleuve demain et d’autre part je ne sais pas interpréter le terme « beaucoup » qui peut correspondre à la quantité d’eau qu’il va tomber ou à la durée de la pluie. Alors dois-je prendre un parapluie ?

Cette modélisation de l’information produite par les hommes, l’intelligence naturelle, doit être particulièrement fine lorsque l’on veut combiner ces informations issues de différentes personnes. En effet, si beaucoup de personnes pensent qu’il va peut-être pleuvoir demain, sur la base de leurs connaissances diverses et indépendantes, on peut penser qu’il y a plus de chance qu’il pleuve demain, même si les personnes initialement étaient incertaines.

 

Ainsi, plusieurs stratégies de combinaison de ces informations dans le cadre de la théorie des fonctions de croyance ont été proposées. Au cœur de ces approches, réside la notion de conflit car lorsqu’on laisse la possibilité à plusieurs personnes indépendantes de s’exprimer, inévitablement certaines opinions seront contradictoires. Le conflit peut donc être vu comme une conséquence inhérente à la diversité de l’intelligence naturelle. Atteindre un consensus devient donc un des principaux défis de l’intelligence artificielle.

C’est en effet à partir d’un consensus qu’une décision peut être prise que ce soit lors d’une assemblée de personnes ou par un algorithme. Si le consensus est mou, la décision sera moins fiable et parfois peu pertinente. Il serait illusoire de penser que les décisions prises par un algorithme d’intelligence artificielle sont indiscutables et sont prises de façon certaine. Toute décision doit donc être accompagnée d’un niveau de confiance que l’on peut lui porter. Ainsi, dans le cadre de la théorie des fonctions de croyance, plusieurs stratégies de décision sont développées pour m’aider notamment à prendre ou non un parapluie.

Bien sûr le développement de ces approches sous-entend qu’on laisse suffisamment d’expressivité aux personnes afin de préciser leur incertitude et imprécision. C’est malheureusement peu souvent le cas. Aujourd’hui on nous demande notre avis sur tout : on doit noter l’hôtel dans lequel on vient de séjourner, le chauffeur qui nous a conduits, le vendeur d’électroménager ou encore le livreur. Il est cependant bien souvent difficile d’attribuer une note ou un avis, qui reste très subjectif, alors que par exemple on ne s’est même pas encore servi de l’électroménager. Les questionnaires ne permettent pas de préciser nos incertitudes et imprécisions alors qu’il est des plus naturels de les exprimer dans le langage courant. Pire, les algorithmes d’apprentissage qui sont le fondement d’un grand nombre de méthodes d’intelligence artificielle ne permettent pas d’intégrer ces connaissances naturelles puisqu’elles n’ont pas été recueillies dans les bases de données. En particulier, des plates-formes de productions participatives (crowdsourcing en anglais) permettent, entre autres, d’acquérir des bases de connaissances nécessaires à l’apprentissage d’algorithmes de plus en plus gourmands avec la résurgence des réseaux de neurones.

Ainsi dans le cadre d’un projet de recherche qui porte sur le développement de ces plates-formes, nous cherchons à proposer des questionnaires permettant des réponses incertaines et imprécises.

Ces recherches nous paraissent essentielles pour l’intégration de l’intelligence naturelle dans les algorithmes d’intelligence artificielle. »

______

Par Arnaud Martin, Intelligence Artificielle, Fouille de données, Université Rennes 1

 

L’intelligence artificielle : comment y intégrer l’intelligence humaine ?

L’intelligence artificielle : comment y intégrer l’intelligence humaine ?

 

Arnaud Martin, Université Rennes 1 pose la question de l’intégration de  l’incertitude humaine dans l’intelligence artificielle. (La Tribune)


« L’intelligence artificielle est devenue aujourd’hui un enjeu économique et se retrouve au cœur de nombreuses actualités. En effet les applications d’un grand nombre d’algorithmes regroupés sous le terme d’intelligence artificielle se retrouvent dans plusieurs domaines. Citons par exemple l’utilisation de l’intelligence artificielle dans les processus de recrutement ou encore pour le développement de voitures autonomes. Dans ce contexte, la France veut jouer un rôle dans lequel le rapport Villani pose les bases d’une réflexion. Ces méthodes et algorithmes d’intelligence artificielle soulèvent cependant des craintes et des critiques liées à la perte du sens commun issu des relations humaines.

Il faut toutefois avoir conscience que l’ensemble de ces approches ne font qu’intégrer des connaissances humaines qui ont été au préalable modélisées bien souvent à partir de processus d’extraction de connaissances.

C’est dans ce cadre que nous menons des recherches dans l’équipe DRUID (Declarative and Reliable Management of Uncertain, User-generated Interlinked Data) de l’IRISA (Institut de recherche en informatique et systèmes aléatoires). Il est en effet important de pouvoir modéliser de façon la plus exacte possible les connaissances des hommes aussi imparfaites qu’elles soient. Par exemple, lorsqu’on s’exprime sur les réseaux sociaux, on peut émettre des avis entachés d’incertitude ou encore d’imprécision. Il ne serait pas raisonnable de croire tout ce qui peut se dire sur les réseaux sociaux. Mais comment modéliser ces doutes que l’on a tous ?

Nous développons ainsi des approches dans le cadre de la théorie des fonctions de croyance. Cette théorie permet de modéliser à la fois le caractère incertain d’une information mais également son caractère imprécis. Par exemple, si l’on me dit qu’il pleuvra peut-être beaucoup demain, d’une part je ne suis pas certain qu’il pleuve demain et d’autre part je ne sais pas interpréter le terme « beaucoup » qui peut correspondre à la quantité d’eau qu’il va tomber ou à la durée de la pluie. Alors dois-je prendre un parapluie ?

Cette modélisation de l’information produite par les hommes, l’intelligence naturelle, doit être particulièrement fine lorsque l’on veut combiner ces informations issues de différentes personnes. En effet, si beaucoup de personnes pensent qu’il va peut-être pleuvoir demain, sur la base de leurs connaissances diverses et indépendantes, on peut penser qu’il y a plus de chance qu’il pleuve demain, même si les personnes initialement étaient incertaines.

 

Ainsi, plusieurs stratégies de combinaison de ces informations dans le cadre de la théorie des fonctions de croyance ont été proposées. Au cœur de ces approches, réside la notion de conflit car lorsqu’on laisse la possibilité à plusieurs personnes indépendantes de s’exprimer, inévitablement certaines opinions seront contradictoires. Le conflit peut donc être vu comme une conséquence inhérente à la diversité de l’intelligence naturelle. Atteindre un consensus devient donc un des principaux défis de l’intelligence artificielle.

C’est en effet à partir d’un consensus qu’une décision peut être prise que ce soit lors d’une assemblée de personnes ou par un algorithme. Si le consensus est mou, la décision sera moins fiable et parfois peu pertinente. Il serait illusoire de penser que les décisions prises par un algorithme d’intelligence artificielle sont indiscutables et sont prises de façon certaine. Toute décision doit donc être accompagnée d’un niveau de confiance que l’on peut lui porter. Ainsi, dans le cadre de la théorie des fonctions de croyance, plusieurs stratégies de décision sont développées pour m’aider notamment à prendre ou non un parapluie.

Bien sûr le développement de ces approches sous-entend qu’on laisse suffisamment d’expressivité aux personnes afin de préciser leur incertitude et imprécision. C’est malheureusement peu souvent le cas. Aujourd’hui on nous demande notre avis sur tout : on doit noter l’hôtel dans lequel on vient de séjourner, le chauffeur qui nous a conduits, le vendeur d’électroménager ou encore le livreur. Il est cependant bien souvent difficile d’attribuer une note ou un avis, qui reste très subjectif, alors que par exemple on ne s’est même pas encore servi de l’électroménager. Les questionnaires ne permettent pas de préciser nos incertitudes et imprécisions alors qu’il est des plus naturels de les exprimer dans le langage courant. Pire, les algorithmes d’apprentissage qui sont le fondement d’un grand nombre de méthodes d’intelligence artificielle ne permettent pas d’intégrer ces connaissances naturelles puisqu’elles n’ont pas été recueillies dans les bases de données. En particulier, des plates-formes de productions participatives (crowdsourcing en anglais) permettent, entre autres, d’acquérir des bases de connaissances nécessaires à l’apprentissage d’algorithmes de plus en plus gourmands avec la résurgence des réseaux de neurones.

Ainsi dans le cadre d’un projet de recherche qui porte sur le développement de ces plates-formes, nous cherchons à proposer des questionnaires permettant des réponses incertaines et imprécises.

Ces recherches nous paraissent essentielles pour l’intégration de l’intelligence naturelle dans les algorithmes d’intelligence artificielle. »

______

Par Arnaud Martin, Intelligence Artificielle, Fouille de données, Université Rennes 1

 

La confiance, le ressort de l’intelligence collective ? ( Mathieu Laine)

La  confiance, le ressort de l’intelligence collective ? ( Mathieu Laine)

 

 

Une interview intéressante sur la confiance et l’Etat (même cela peut  être discutée notamment parce que  intelligence, même collective, n’est pas nécessairement la morale) de Mathieu Laine, entrepreneur et professeur affilié à Sciences Po  (tribune dans l’Opinion).

 

C’est l’un des pièges les plus retors de notre monde et nous finissons tous par nous faire avoir : parce que le monde nous paraît, à raison, de plus en plus complexe, parce que la demande d’intervention se fait plus pressante, il nous semble inéluctable que les Etats doivent toujours plus intervenir. Or, qui dit intervention de l’Etat, dit, si ce n’est défiance, du moins recul de la confiance accordée aux individus de trouver par eux-mêmes la solution aux difficultés rencontrées.

Sans basculer dans l’anarchie, nous aurions grand intérêt à questionner notre habitude à déresponsabiliser les hommes et les femmes composant nos sociétés alors que leur intelligence collective, sans même qu’elle soit organisée par une instance supérieure, produit des résultats bien souvent éblouissants.

Pour mieux le comprendre, il faut lire ou relire le splendide livre d’Alain Peyrefitte, La société de confiance. Dans cette enquête fascinante au creuset de ce qui a fait le succès de l’Occident, l’auteur découvre que « le ressort du développement réside en définitive dans la confiance accordée à l’initiative personnelle, à la liberté exploratrice et inventive – à une liberté qui connaît ses contreparties, ses devoirs, ses limites, bref sa responsabilité, c’est-à-dire sa capacité à répondre d’elle-même ».

. Ce qui a fait la beauté de notre monde, ce sont les valeurs du monde libre, la liberté, la responsabilité, la propriété, la séparation des pouvoirs et la libre circulation des idées, notamment dans le domaine scientifique et juridique. Dans le cadre de l’Etat de droit, c’est la confiance qui libère et la défiance qui opprime.

Nous sommes toutefois biaisés par notre passé, nos réflexes, nos habitudes. Le recul de la confiance pointait déjà chez certains penseurs comme Hobbes et Rousseau, quand ils ont théorisé le contrat social par lequel chacun remet une partie de sa liberté d’action à un souverain supérieur supposé capable de les représenter et de savoir mieux que lui ce qui est bon pour lui. Benjamin Constant n’aura de cesse d’alerter sur les dangers d’une telle approche. « En se donnant à tous, il n’est pas vrai qu’on ne se donne à personne. On se donne au contraire à ceux qui agissent au nom de tous », écrit-il dans Principes de politiqueHayek décrira derrière le concept de constructivisme la fragilité majeure de l’intervention publique en raison d’un défaut congénital d’information du dirigeant politique. Aucune raison, aucun esprit humain, fusse-t-il supérieur, n’est en mesure d’appréhender l’intégralité et la complexité des informations nécessaires à la construction d’un ordre social. Cessons de raisonner sur cette illusion synoptique consistant à enfermer la confiance et, par là même, la liberté. La vraie transformation, c’est de refaire confiance à l’intelligence de chacun. Résultats garantis !

 

 

Mathieu Laine est entrepreneur et professeur affilié à Sciences Po. Il vient de publier Il faut sauver le monde libre chez Plon.

 

Les perspectives de l’intelligence artificielle dans les transports (Patrice Caine, PDG de Thales)

Les perspectives de l’intelligence artificielle dans les transports (Patrice Caine, PDG de Thales)

 

Une interview de Patrice Caine, PDG de Thales dans la Tribune sur les perspectives de l’intelligence artificielle dans les transports et qui ne cache pas cependant la vulnérabilité de certains systèmes

 

Quelles pourraient être les nouvelles frontières dans l’aérospatiale et le transport terrestre grâce à l’arrivée de l’intelligence artificielle (IA) ?
PATRICE CAINE -
 Des cas d’usage faisant appel à ces technologies peut être déployés dès à présent par les compagnies aériennes. Celles-ci sont de grandes entreprises, qui disposent d’une supply chain, de nombreux salariés, des ERP [progiciel de gestion intégrée, ndlr] et qui intensifient la numérisation de leur exploitation. Un des éléments clés de cette digitalisation est l’utilisation de l’IA. Par exemple, Thales propose d’ores et déjà de tels cas d’usage aux compagnies aériennes et aux opérateurs de transport, comme dans le cas du métro de Londres ou de Singapour, ou encore pour la SNCF ou la Deutsche Bahn. La prochaine étape sera l’utilisation de l’IA dans les avions, les trains, les métros, ou encore les voitures. La question de savoir jusqu’où on utilise l’IA est en discussion. En d’autres termes, quel degré d’autonomie vise-t-on ? Le monde du transport terrestre est un peu moins complexe que l’aérien. Pour le transport terrestre, il s’agit d’un monde à deux dimensions, voire une seule dans le cas des trains ou des métros. Donner de l’autonomie à ces objets évoluant dans un monde à une ou deux dimensions est moins complexe que dans un monde à trois dimensions comme pour un avion.

Est-ce possible aujourd’hui dans les transports terrestres ?
La technologie a bien progressé. Thales est passé du stade de laboratoire il y a deux à trois ans, à la preuve de concept, par exemple avec le métro de New York. L’automne dernier, pour la première fois, Thales a équipé une rame de métro de multiples capteurs pour lui permettre de se repérer dans l’espace sans avoir besoin de balises sur la voie ferrée. Et nous avons mis des ordinateurs dans le poste de pilotage, avec des algorithmes utilisant de l’IA, pour permettre à la rame de métro de se repérer et de prendre des décisions par elle-même face à des cas de figure imprévus. Cela a permis de voir comment la machine réagissait à un événement qui n’était pas programmé. Et cela a bien fonctionné. Il y a un vrai bénéfice économique lié à l’utilisation de ces technologies, l’économie n’est pas vraiment liée à la présence humaine ou non dans les rames de métro. D’ailleurs, dans les métros automatiques, les opérateurs de transport qui ont gardé la présence humaine, l’ont fait principalement à des fins psychologiques, car en réalité l’homme ne pilote plus ces métros. Le vrai bénéfice des trains ou des métros autonomes sera d’être encore plus efficaces, mais aussi plus économes en pouvant, par exemple, se passer de tous les équipements de positionnement à la voie, les fameuses balises ou même de la signalisation à la voie.

N’aurons-nous pas besoin de redondance pour des systèmes autonomes ?
Pour passer à l’échelle industrielle, il faut faire la démonstration que cette technologie est « safety critical ». Pour cela, on a besoin notamment de redondance, comme dans le secteur aéronautique, en utilisant par exemple deux chaînes de calcul en parallèle comme avec les radioaltimètres qui peuvent être jusqu’à trois exemplaires dans un même appareil afin d’assurer la concordance des informations. Néanmoins, dans l’aérien, c’est encore plus compliqué. Je n’irais pas jusqu’à dire que les normes « safety » [de sécurité] sont plus drastiques, mais l’environnement est différent. Les avionneurs, qui ont une vue d’ensemble du sujet, travaillent notamment sur la notion de SPO (Single Pilot Operation). La question qui se pose n’est pas d’avoir un avion sans pilote et totalement autonome, mais plutôt de passer un jour de deux pilotes humains à un seul pilote humain assisté d’un pilote à base d’intelligence artificielle.

À quel horizon les compagnies aériennes pourront-elles proposer des avions avec un seul pilote assisté par la machine et l’IA ?
C’est une question pour les constructeurs et les compagnies aériennes. Thales ne maîtrise qu’une partie de ce grand défi technologique qui concerne toute la chaîne de pilotage. De plus, ce sont des questions réglementées. C’est bien le constructeur qui dira « je sais faire ou pas », la compagnie aérienne « j’en ai besoin ou pas », et le régulateur « je certifie ou pas ».

Aujourd’hui, est-il possible de faire voler des drones autonomes ?
Est-on capable de rendre les drones autonomes ? Pas encore. Mais cela est imaginable à l’avenir. Là encore, il faudra que tout cela soit conforme aux règles de sécurité. Aujourd’hui, un drone non piloté est automatique et non pas autonome : il fait juste ce qu’on lui a demandé de faire avant qu’il décolle, typiquement en lui indiquant les coordonnées GPS pour définir un parcours à suivre. Ceci rend son pilotage automatique, mais pas autonome.

Du point de vue de Thales, l’IA est-elle déjà mature pour des applications dans le monde réel ?
La technologie est mature pour tout un tas d’application et de cas d’usage. La question est de savoir à quel rythme les clients seront prêts à l’utiliser dans les systèmes, et à quelle vitesse les clients et les utilisateurs seront prêts à l’accepter. Par exemple, pour les compagnies aériennes, le passager peut se poser légitimement la question de la sécurité. Autre exemple, en matière de défense se posent des questions de responsabilité, d’éthique voire de morale. Pour autant, il y a des sujets qui ne posent pas vraiment de problème éthique : c’est le cas de l’auto-apprentissage, une forme d’autonomie-amont, qui permet aux objets d’apprendre par eux-mêmes. C’est le cas des capteurs en général, par exemple les radars, les sonars, ou tout autre capteur électronique, qui peuvent acquérir une autonomie en matière d’apprentissage. La technologie est mature, et Thales est capable d’en faire bénéficier les systèmes qu’il développe dès lors que les questions de responsabilité et d’acceptabilité sociétale, éthique ou morale sont réunies.

Quel est le marché de l’IA dans l’aérospatial ?
L’IA n’est pas un produit ou un marché, c’est une technologie qui permet de créer de la différentiation. Cela permet de faire de l’avionique, des systèmes de contrôle aérien, avec des services supplémentaires plus efficaces et plus intelligents. On ne vend pas de l’IA à proprement parler, on l’embarque dans nos produits ou solutions pour en décupler les capacités. En matière de services de cybersécurité, quand on injecte des algorithmes IA dans les sondes de supervision des réseaux informatiques, on vend toujours des sondes, mais elles sont encore plus performantes grâce à l’IA.

Peut-on ou pourra-t-on certifier l’IA ? Et donc contrôler l’IA ?
C’est une question très sérieuse sur laquelle nous travaillons. Nous sommes pour le moment à une étape intermédiaire, à savoir la mise au point de l’IA explicable. Aujourd’hui, la branche de l’IA qui repose sur l’apprentissage par les données [data based AI] fait appel essentiellement au machine learning ; c’est une IA dite « boîte noire ». On ne saura jamais expliquer pourquoi elle arrive au résultat, mais on constate que ce résultat est exact dans 99,99 % des cas. C’est le cas de la reconnaissance faciale. Mais lorsqu’il lui arrive de se tromper, on ne sait pas l’expliquer. La première étape pour arriver à une IA explicable fera très vraisemblablement appel à de l’IA à base d’apprentissage par les données et à de l’IA à base d’apprentissage par les modèles. Cette hybridation de ces deux types d’IA devrait permettre de produire des algorithmes permettant d’expliquer les résultats de l’IA. On y travaille et on a bon espoir d’y arriver. La deuxième étape, c’est l’IA certifiable. Les grands experts disent que cela prendra sans doute des années et qu’on n’est pas sûr d’y arriver, mais on cherche. Si on y arrive, on pourra l’utiliser de manière plus extensive. Et la plupart des réticences seront levées. On sera dans un autre univers. Enfin, contrôler l’IA, c’est encore autre chose. L’IA produit un résultat. Ce qu’on en fait derrière peut se faire de manière automatique ou en gardant le contrôle.

Est-il possible de développer un cloud souverain à l’échelle de la France ou de l’Europe ?
Dans le champ des technologies numériques, Thales est utilisateur du cloud et pas un fournisseur de cloud en tant que tel. On constate qu’il y a des solutions particulièrement efficaces comme Azure de Microsoft ou AWS d’Amazon. Ces produits mettent à disposition des micro-services, des composants logiciels, qui permettent aux développeurs qui les utilisent d’aller plus vite pour créer leurs propres applications. Le cloud est devenu un élément important de compétitivité et d’efficacité pour les équipes d’ingénierie afin de gagner en temps dans leurs développements. Il sera sans doute très difficile pour des acteurs différents de ceux cités de fournir autant de micro-services. Toutes les semaines Azure et AWS mettent à jour leurs micro-services en en proposant de meilleurs et en y ajoutant de nouveaux.

Mais comment peut-on se protéger de lois extraterritoriales américaines comme le Cloud Act ?
Pour nos activités, on utilise soit du cloud public, soit du cloud privé ou encore nos propres data centers selon la sensibilité des applications et des données. Mais Thales est surtout fournisseur de solutions pour tous ceux qui veulent utiliser le cloud tout en protégeant leurs données. Par exemple, on va systématiquement chiffrer les données avant qu’elles soient stockées dans le Cloud et offrir un service de type « Bring your own key », permettant de créer des clés d’accès personnalisées. La plupart des industriels, qui offrent des services de cloud, proposent des « packages » pour s’occuper de tout : hébergement des données et chiffrage de celles-ci. Cela marche bien pour les industriels qui n’ont pas de sujets de confidentialité. Mais pour les acteurs qui veulent dissocier fournisseur d’hébergement et fournisseur de chiffrement pour des raisons de sécurité et de confidentialité ou d’autres raisons, il est possible de le faire. Thales propose des offres de protection des données en complément des services des hébergeurs de données dans le cloud. Est-ce possible d’avoir un cloud souverain ? Oui, c’est possible pour l’hébergement, mais il sera difficile de rattraper le niveau des acteurs américains quant aux micro-services associés, leur avance dans ce domaine est considérable.

L’affaire Huawei est-elle le début d’une guerre froide technologique ?
D’une façon générale, il s’est ouvert dans le monde de nouveaux champs de confrontation : après les champs de confrontation classiques, militaires ou diplomatiques, on observe de plus en plus une confrontation technologique. Les puissances cherchent à asseoir une domination, qui n’est plus aujourd’hui que militaire et diplomatique. Il y a aussi une course à l’armement sur le terrain technologique qui répond à une logique de puissance. Mais cela n’a-t-il pas toujours été le cas dans l’histoire ? L’invention de la roue n’a-t-elle pas permis de récolter davantage et donc de nourrir plus de personnes et d’avoir des nations plus nombreuses ? Aujourd’hui, le champ des confrontations englobe sans complexe les aspects industriels et technologiques.

De façon plus générale, faut-il craindre un cyber-Pearl Harbor ?
Personne ne le sait avec certitude mais autant s’y préparer. À notre niveau, nous faisons tout pour protéger nos clients et notre entreprise, mais il faut rester modeste. Tous les grands groupes sont attaqués quotidiennement. Il y a derrière les attaques informatiques des intérêts, qui ne sont pas uniquement économiques. On se prépare à toutes les éventualités. Mais la créativité étant sans limite, c’est un combat de tous les instants. Ceci dit, ce type de menace représente également une opportunité et un marché pour Thales. Nous aidons nos clients, les États ou les OIV [Opérateurs d'importance vitale] sur ces questions de cyberprotection. Thales se spécialise plutôt sur les solutions et les produits sachant que les clients font appel aujourd’hui à deux types d’acteurs : ceux axés sur le pur conseil et ceux axés sur les solutions.

Est-on arrivé à une vraie prise de conscience de la menace cyber ?
Le monde économique en parle de plus en plus, mais tous les acteurs n’ont pas encore mené des actions concrètes. Il y a encore un écart entre intention et action, car cela requiert des moyens, mais le sujet n’est plus ignoré. Un cap sera franchi lorsque tous les acteurs investiront suffisamment pour se protéger.

La généralisation de l’Internet des objets (IoT) augmente-t-elle les risques ?
L’IoT est un démultiplicateur du champ des possibles, mais aussi une source additionnelle de vulnérabilité. Pour Thales, c’est un champ de questionnements en interne, et d’opportunités de marché en externe. Dans notre analyse des marchés, le fait de connecter des objets à haute valeur ajoutée, comme des trains, des avions, des voitures, implique une exigence de sécurisation élevée. C’est dans ce domaine que Gemalto va nous apporter des technologies que nous n’avions pas. Cela aurait été un non-sens de vouloir les développer par nous-mêmes. Gemalto sait identifier les objets de manière très sécurisée et sait les gérer, c’est-à-dire les activer et les configurer de manière hautement sécurisée. Il propose des plateformes capables de gérer des millions d’objets de manière hautement sécurisée quant à leur identité numérique. Thales fait le reste, notamment l’exploitation et la gestion des données de mission.

L’acquisition de Gemalto par Thales amène certains observateurs à se demander si Thales va rester dans la défense. Que leur répondez-vous ?
Thales réalise 8 milliards d’euros dans la défense, sur un chiffre d’affaires total de 19 milliards en incluant l’acquisition de Gemalto – 16 milliards avant. Déduire de l’acquisition de Gemalto qu’on se désintéresse du militaire est un non-sens total. Si demain nous avions des opportunités de croissance externe dans la défense, nous les regarderions. Il y a des cycles, et en ce moment on avance plus vite en matière d’acquisition dans nos métiers civils. Mais je tiens à cette dualité défense-­civil. Il faut reconnaître que les acquisitions en matière de défense se font dans un domaine contraint, où on a besoin d’accords qui vont au-delà de celui du conseil d’administration de Thales. De mon point de vue, l’Europe de la défense ne pourra se faire que s’il y a, à un moment donné, une consolidation industrielle. Imaginer qu’on puisse le faire uniquement par de la coopération n’est pas suffisant sur le long terme. Cela renvoie à l’envie des États de pousser ou d’accompagner ce type de consolidation industrielle. Force est de constater que depuis la création d’EADS, il n’y a pas eu de très grande consolidation dans la défense.

Thales est concurrent de Naval Group, dont il est actionnaire, de MBDA dans les missiles et de Safran dans l’optronique. N’y a-t-il pas des rectifications de frontière qui s’imposent ?
Il y a tellement à faire dans le naval, un secteur où on est à la fois concepteur de senseurs/capteurs, de radars, de sonars ainsi que de CMS [Combat Management Systems] avec nos activités aux Pays-Bas. Mais nous ne sommes pas maître d’œuvre, ni plateformiste. Sur les 8 milliards d’euros d’activité que nous réalisons dans le secteur de la défense, il y a déjà énormément de projets à lancer pour améliorer ce que nous faisons déjà avant d’entamer autre chose. Thales a des activités historiques qui sont le fruit de l’héritage du groupe, comme son activité missilière à Belfast. Elle découle d’une volonté politique du Royaume-Uni. Le fait de produire des véhicules blindés en Australie est également le résultat de la volonté du gouvernement australien d’avoir ses activités hébergées par un acteur de confiance comme Thales. Notre groupe est un jardin mixte, à la française et à l’anglaise.

Thales va-t-il rester actionnaire de Naval Group ?
Oui, absolument. Nous avons apporté, à l’époque, notre activité
de CMS à Naval Group afin de consolider et renforcer l’équipe de France du naval. Devenir actionnaire de Naval Group a été, pour nous, à la fois une opération industrielle et un mouvement stratégique longuement réfléchis. Nous avons donc une stratégie de long terme avec Naval Group dans le cadre d’un partenariat industriel, technologique et capitalistique.

Quelle sera la feuille de route du nouveau président de Naval Group ?
Elle sera bien évidemment à définir avec l’État. Il faut trouver un PDG qui écrive la suite de l’histoire de Naval Group pour les dix prochaines années et qui puisse donc s’inscrire dans la durée.

Concernant les exportations, trop de compliances [règles de conformité anti-corruption] ne tuent-elles pas le business ?
Il y a des règles, il faut les appliquer, un point c’est tout. Si on les respecte, on fait du business dans certains pays ou pas. Quand on ne parvient pas à faire du business dans certains pays en respectant les règles, tant pis pour nous…

Pour Thales, le spatial reste-t-il une activité cœur de métier ?
Le spatial est au cœur de nos métiers et représente une activité importante chez Thales : Thales Alenia Space réalise environ 2,5 milliards de chiffre d’affaires. Avec Telespazio, le groupe affiche un chiffre d’affaires d’environ 3 milliards d’euros dans le spatial. Ce n’est donc pas une activité accessoire et dans ce domaine d’activité, nous avons de nombreux projets passionnants à réaliser, des projets créateurs de valeur, bien sûr. Le fait que cette activité soit au cœur de Thales n’empêche pas de travailler ou de coopérer avec d’autres acteurs. La meilleure façon de répondre à un marché exigeant comme celui du spatial, a fortiori lorsqu’un tel marché est difficile et où certains acteurs renoncent, c’est de chercher à travailler de manière pragmatique avec son écosystème. D’une façon générale, nous avons une analyse lucide quelle que soit l’activité concernée. Si nous avons la conviction que nous sommes les mieux placés pour développer telle ou telle activité, nous la développons et nous y investissons de façon significative.

Quelle serait votre position si l’État proposait une consolidation dans le spatial entre Thales et Airbus ?
Comme vous le savez, je ne commente jamais de tels sujets. Ce n’est pas parce que le marché est difficile pour tout le monde en ce moment qu’il faut immédiatement se poser une telle question.

Les géants américains ont des projets pour aller sur Mars, contrairement aux groupes européens. Ne manque-t-il pas des projets emblématiques en Europe pour entraîner le grand public ?
On est déjà allé sur Mars avec ExoMars en 2015. L’ESA l’a fait. L’Europe, qui a été capable de créer l’Agence spatiale européenne (ESA), consacre des sommes importantes à l’espace. La question que l’Europe doit se poser est : comment maintenir une industrie aérospatiale au plus haut niveau capable de rivaliser avec la Chine et les États-Unis ? Aujourd’hui, c’est encore le cas. Par exemple, les Chinois sont encore demandeurs de coopérer avec les Européens : c’est le signe qu’ils ne maîtrisent pas encore tout par eux-mêmes. Quant à la question de l’incarnation en Europe du rêve de la conquête spatiale, peut-être manque-t-on effectivement de fortes personnalités emblématiques, comme Elon Musk ou Jeff Bezos aux États-Unis ?

Pourquoi l’Europe ne veut pas dire qu’elle veut aller coloniser Mars ?
Le spatial est un secteur qui concerne aussi bien la science que le commercial. Aller sur Mars relève difficilement d’une logique de business plan, et les clients, ou candidats au voyage, ne semblent pas très nombreux. C’est peut-être important d’aller explorer ou coloniser Mars, mais ceci relève de la mission scientifique ; ce n’est pas un business pour un acteur industriel comme Thales. Peut-être a-t-on un discours trop réaliste ? Les entrepreneurs qui annoncent vouloir le faire, le font avec leur argent et ils assument leurs rêves. Force est de constater qu’en Europe, nous n’avons pas bénéficié de l’émergence d’entrepreneurs milliardaires emblématiques du numérique.

La France est sur le point de changer de doctrine dans l’espace. Quelle est votre analyse sur ce champ de confrontations ?
Nous avons soumis des idées au ministère des Armées, par exemple dans le domaine de la surveillance de l’espace depuis l’espace [SSA, Space Situational Awarness]. Nous pouvons aider notre pays et l’Europe, à se doter de capacités nouvelles au service de notre défense autonome des capacités tierces. Maintenant, c’est une décision qui appartient au pouvoir politique. Ce qui est relativement nouveau, c’est que l’espace est en train de devenir, voire est devenu, un champ de confrontations assumé, là où il ne l’était pas, ou l’était mais de manière non assumée. Un peu à l’instar de ce qui s’est passé dans le cyberespace où, avant la loi de programmation militaire du précédant quinquennat, la France ne reconnaissait pas l’attaque dans ce domaine. Depuis celle-ci, la France s’est donné la possibilité de se défendre, mais aussi d’attaquer dans le cyber­espace. Les responsables politiques assument qu’il y ait une menace et une stratégie aussi bien défensive qu’offensive.

Comment voyez-vous Thales dans dix ans ?
D’ici à trois ans, j’ai envie de poursuivre tout ce qui a été lancé : consolider Gemalto, intégrer de plus en plus de technologies pour créer de nouveaux différenciateurs et de nouvelles innovations pour nos clients. Au-delà de cette période, il s’agira de continuer de trouver des technologies de rupture pour offrir à nos clients, à nos équipes et à nos actionnaires des perspectives passionnantes au-delà de la décennie pour faire de Thales un laboratoire du monde de demain, axé sur la recherche du progrès pour tous.

Avez-vous des projets qui vous font rêver ?
Oui, et ils sont nombreux. Par exemple, le laser de haute puissance ouvre des champs fantastiques. La question, au-delà de la technologie mise au point pour ce projet ELI-NP [Extreme Light Infrastructure for Nuclear Physics] qui nous a permis de battre un record mondial avec l’émission d’une puissance incroyable de 10 pétawatt [10 millions de milliards de watts], est de savoir s’il va créer du business ou si cet outil restera un outil scientifique. Potentiellement, les applications font rêver : l’une d’elles permettrait de réduire la période de vie des éléments radioactifs. Mais ce champ d’application et de business s’adresse aux acteurs comme EDF, pas à Thales.

Autre projet à dix ans : comment va-t-on utiliser les propriétés quantiques de la matière pour ouvrir de nouveaux champs d’application ?
Le champ d’application de ces propriétés est quasiment sans limite. Nous avons communiqué sur l’utilisation de la « spintronique » [technique qui exploite la propriété quantique du spin des électrons] pour mettre au point des nano­synapses, des nano-neurones avec pour objectif final de faire baisser d’un facteur 10 ou 100 la consommation électrique des supercalculateurs. Si nous y arrivons, nous pourrons transformer l’industrie informatique et des supercalculateurs ainsi que l’utilisation de l’IA, qui est fortement consommatrice en puissance de calcul et donc très énergivore. Mais on se doit encore de rester modeste. Autre champ à l’étude sur lequel Thales a commencé à travailler : les senseurs quantiques, secteur où on peut être capable d’améliorer d’un facteur 10 à 100 - ce qui est colossal pour l’industrie - les précisions de mesure du champ magnétique, de la gravité, du champ électrique, etc. Cela ouvre des champs d’application qui sont totalement disruptifs.

Quelles peuvent être les applications de cette technologie ?
Imaginez un avion qui décollerait de Paris pour atterrir à l’aéroport de New York- JFK et perdrait ses repères extérieurs. Avec les technologies actuelles, il arriverait à destination avec une précision de 2 kilomètres. Grâce à ces technologies utilisant les propriétés quantiques de la matière, il y parviendrait avec une précision de 20 mètres, ce qui lui permettrait de se poser sur la piste. On raisonne beaucoup défense, aéronautique, mais pour autant, l’utilisation de ces capteurs quantiques ouvre des possibilités fantastiques, notamment dans la connaissance et l’exploitation du sol et du sous-sol. On va pouvoir mesurer et détecter ce qui ne peut pas l’être par la sismique classique ou l’observation depuis le ciel ou l’espace. Par exemple, dans la défense, cela permettrait de détecter des mines sous l’eau et, in fine, de mettre l’homme en sécurité.

Ces capteurs quantiques pourraient augmenter la résilience des avions, qui auraient fait l’objet d’un brouillage du GPS ou de Galileo ?
Bien sûr, c’est un gain en précision mais aussi en résilience. Un avion pourrait devenir autonome, sans s’appuyer sur des moyens extérieurs de navigation, potentiellement vulnérables. Brouiller un signal GPS, c’est presque à la portée de tout le monde. On peut imaginer des avions dotés des capteurs quantiques pour disposer de capacités autonomes, leur permettant de se guider indépendamment du GPS. Nous travaillons aussi sur le champ des communications quantiques. C’est de la recherche-amont mais qui nous projette dans le futur au-delà de la décennie.

À quel horizon ce champ de recherches peut-il devenir un champ applicatif ?
Année après année, nous franchissons des étapes qui nous confortent dans nos choix. On a déjà fait des mesures dans nos laboratoires. Cela fonctionne dans le cadre de manipulations de labo, car on est sur des TRL [Technology Readiness Level] très bas en termes de maturité. C’est au moins à cinq ans, voire dix ans, mais aujourd’hui nous avons des pans entiers de la science qui permettent d’entrevoir des applications dans le champ industriel et économique.

12345



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol