Archive pour le Tag 'Intelligence'

Intelligence artificielle : critiques et limites du rapport Villani

Intelligence artificielle : critiques et limites du rapport Villani

 

Olivier Ezratty, consultant et auteur, notamment de l’ebook « Les usages de l’intelligence artificielle »
évoque dans la Tribune les limites du rapport Villani notamment concernant l’aspect industriel et le vison trop franco-français. 

« L’introduction est admirablement bien écrite. Elle témoigne d’une passion non feinte de son auteur pour le sujet. Baptisé Donner un sens à l’intelligence artificielle – pour une stratégie nationale et européenne, le Rapport Villani recense 135 propositions. Il abonde de marronniers traditionnels sur l’organisation de la recherche, sur la valorisation industrielle de ses travaux et sur le rôle de la puissance publique comme acheteuse de technologies. Pourtant, cette dimension industrielle faisait partie des objectifs de la Mission Villani. Le point intermédiaire de décembre 2017 y faisait même abondamment référence. La première piste de réflexion était même de « mener une politique industrielle et économique innovante et ambitieuse ». Mais y confond toujours recherche et innovation. La principale ligne de force de ce rapport est de mettre en avant une vision d’une IA éthique et responsable, soucieuse des utilisateurs. C’est de bon aloi et le plan est très bien documenté de ce point de vue là. Mounir Mahjoubi défend cette approche en mettant en avant la dimension sociale de l’IA : elle doit être mise au service du bien de la société et ne pas être qu’un enjeu économique.

Cette volonté affichée de faire de la France un leader mondial d’une vision éthique de l’IA, de son impact sociétal et aussi de sa régulation se retrouve dans la marque du site présentant le Rapport Villani : AIFor Humanity ! On la retrouve dans les liens entre l’IA et la responsabilité environnementale ou encore dans le besoin d’améliorer la diversité des profils dans les métiers du numérique et de l’IA en particulier, et notamment celui d’attirer plus de jeunes filles dans ces filières.

Il serait évidemment préférable d’avoir à la fois une IA éthique et un leadership économique mondial dans l’IA. Nous risquons au bout du compte de n’avoir ni l’un ni l’autre. Sans leadership industriel, nos vies numériques continueront d’être envahies par les solutions d’acteurs internationaux qui valorisent plus leurs modèles économiques et marchés bifaces.

L’absence de vision industrielle se traduit par un Rapport qui est bien trop franco-français dans ses recettes. 113 de ses 135 propositions relèvent des usages et du marché de l’IA en France, et pas dans le monde. Nous sommes engoncés dans une vision locale du marché de l’IA, entretenant l’illusion que le marché français est un piédestal suffisant pour obtenir un leadership moral et un leadership industriel qui nous seraient dus dans l’IA. On veut jouer dans la cour des grands en se contentant de notre bien petit pré-carré.

Cela se manifeste aussi dans la propension à privilégier les sujets « à systèmes complexes » plus qu’à « produits génériques » comme les systèmes de transports intelligents ou de santé. Les solutions et approches de déploiement de ces systèmes dépendent étroitement des systèmes et acteurs locaux. C’est une vision d’intégration plus qu’une vision industrielle de solutions en volume.

La commission Villani et le gouvernement sont très hardis sur la question des données, prévoyant d’imposer « au cas par cas » l’ouverture des données provenant d’acteurs privés, y compris étrangers. Ces données seront malgré tout liées à des usages en France et renforceront donc le tropisme franco-français de l’entrepreneuriat local.

Pour faire bonne figure, le rapport affiche quelques ambitions européennes, notamment franco-allemandes. L’équivalent Villanesque de feu le projet de moteur de recherche franco-allemand Quaero est un projet franco-allemand d’industrie de la robotique. Il fait juste référence à un projet collaboratif de recherche européen qui, côté France, n’associe que le laboratoire de recherche LAAS du CNRS à Toulouse. Un peu léger pour créer un Airbus des robots !

Le rapport Villani abonde de propositions relatives aux chercheurs. Nombre d’entre elles ne sont pas spécifiques à l’IA, notamment pour rendre les carrières de chercheurs plus attractives. L’intention louable est de mieux rémunérer les chercheurs et limiter la fuite des cerveaux actuelle, qui est d’ailleurs mal chiffrée.

Il propose surtout la création de quatre à six Instituts 3IA (Interdisciplinaires d’Intelligence Artificielle) organisés dans un réseau national RN3IA. Ils seront voisins, dans leur principe, des IRT (Institut de Recherche Technologiques) qui avaient été lancés dans le cadre des Programmes d’Investissement d’Avenir à partir de 2009. Ils visent à améliorer le lien entre la recherche fondamentale publique et les entreprises. Ils serviront aussi à faire perfuser l’IA dans l’ensemble des disciplines scientifiques qui y feront appel.

Les 3IA s’ajouteront à des dispositifs existants tels que les contrats CIFRE qui permettent aux entreprises d’employer des doctorants, aux Pôles de Compétitivitéqui associent déjà entreprises et laboratoires de recherche, au réseau des Instituts Carnot, un label attribué aux laboratoires publics encourageant la recherche partenariale et au réseau RETIS qui regroupe notamment les incubateurs publics. Bref, la proposition des 3IA ne va pas simplifier la cartographie de la recherche française qui ressemble déjà à ça…

Une proposition originale est faite et qui provient visiblement de chercheurs en mal de reconnaissance : en nommer dans les conseils d’administration d’entreprises dont l’État est actionnaire. Pourquoi pas. Mais ils risquent de bien s’y ennuyer ! Ce n’est pas là que la stratégie des entreprises est établie. Ce sont le plus souvent des chambres d’enregistrement.

Comment quantifier ou qualifier le leadership mondial ? On sait qu’il est quasiment impossible de créer un leader mondial du numérique sans avoir une assise de marché large et homogène comme en bénéficient les acteurs des USA et de Chine. La France est trop petite et l’Europe trop fragmentée pour ce faire. Comment donc conquérir les marchés mondiaux ? Tout juste avons-nous des velléités d’influencer les politiques d’ouverture de données à l’échelle internationale.

Le rapport propose surtout des mesurettes, encore liées au marché intérieur français comme la création de labels IA associés à celui de la French Tech pour augmenter la visibilité de l’offre domestique en IA. Le guichet unique de l’IA prendrait la forme d’un annuaire des solutions logicielles prêtes à l’emploi pour créer des solutions à base d’IA, notamment pour conseiller les entreprises utilisatrices, dont les TPE/PME. C’est le rôle du privé !

S’en suit une litanie de propositions pour développer le rôle d’acheteur d’IA de l’État.  ll doit certainement tirer parti des technologies pour se moderniser. Mais c’est piège le plus dangereux qui soit pour les startups françaises ! Il n’est déjà pas simple de travailler avec un grand compte français, alors, avec l’État !

La proposition de création d’une DARPA française ou européenne présente du sens. Elle est issue de l’initiative Joint European Disruptive Initiative (JEDI) lancée par le Français André Loesekrug Pietri, en collaboration avec des Allemands et des Italiens. Le diable de ce genre d’objet est dans les détails de sa mise en œuvre.

Enfin, nous avons quatre secteurs d’activité cibles considérés comme relevant d’opportunités de leadership : santé, agriculture, transports, défense et sécurité avec quelques concepts génériques intéressants autour de l’expérimentation, l’accès à des données d’expérimentation – toujours locales – ainsi que les bacs à sable d’innovation.

Côté transports, ça parle de code de la route et d’expérimentations, mais pas d’industries. Qui sont les acteurs ? Où sont les économies d’échelle ? Où sont nos opportunités de création de valeurs ? Quid d’expérimentations dans des villes avec 100% de véhicules autonomes (level 4 ou 5) ? Voilà qui marquerait les esprits et ferait avancer l’état de l’art !

Dans la santé, le Rapport évoque surtout la manière d’exploiter les données de parcours de santé de la CNAM au lieu de se poser la question du marché mondial de la santé. En attendant, les startups françaises d’imagerie médicale alimentent leur IA avec des bases d’origine américaine.

Pour l’agriculture, les propositions relèvent beaucoup plus des usages en France que du développement de technologies agricoles à base d’IA que la France pourrait exporter. C’est presque plus un vœu d’autosuffisance alors que l’on importe presque tous nos engins agricoles !

Enfin, l’IA dans la défense et la sécurité est plus régalienne qu’industrielle. Le point de vue affiché est celui d’un État acheteur de technologies, même si nous sommes aussi un grand exportateur d’armes devant l’éternel.

Dans leur forme actuelle, ces cinq plans thématiques ressemblent plus à des plans de rattrapage ou de déploiements qu’à des plans industriels dignes de ce nom.

Le Rapport Villani propose d’ »innover dans l’industrie du composant adapté à l’IA« . Après un exposé clair des enjeux dans les processeurs neuromorphiques, la proposition faite consiste à créer un supercalculateur, une propension habituelle à s’éloigner dangereusement des marchés de volume ! Peut-être une influence d’ATOS-Bull qui est le fournisseur national de ce genre d’engins ou celle des chercheurs qui voudraient disposer de leur propre puissance de calcul pour entrainer leurs modèles de réseaux de neurones sans passer par le cloud des GAFAMI. Ca frise le hors sujet, car cela passe d’un enjeu industriel mondial à celui de l’équipement local de nos chercheurs.

Rien n’est dit de la filière française et européenne des composants ou des architectures d’IA distribuées et réparties dans les objets connectés, qui présentent un bénéfice directement lié à des préoccupations écologiques et de protection de la vie privée évoquées par ailleurs dans le Rapport ?

Ne parlons pas de se poser la question cruciale de l’informatique quantique, dont certaines applications auront un lien avec l’IA, mais qui attendra probablement un « plan calcul quantique » gouvernemental entre 2025 et 2030, quand il sera bien trop tard. Le mot quantique n’apparait pas dans le Rapport Villani. Comment arrive-t-on à un tel résultat ? Les raisons sont toujours les mêmes et liées à la méthode et au casting. Les chercheurs défendent la recherche. Les trublions de l’État veulent le moderniser. Les chercheurs en éthique défendent l’éthique. Les investisseurs veulent investir. Les avocats veulent faire évoluer le droit. Certains entrepreneurs recherchent du financement ou un assouplissement règlementaire. D’autres se plaignent du manque de compétences et de personnes formées. L’open source promeut l’open source. Mais peu affichent une vision globale. Les  demandes des chercheurs ont été visiblement mieux prises en compte. Pas étonnant ! La mission Villani comprenait deux chercheurs (Cédric Villani et Marc Schoenauer), un ingénieur de l’armement de la DGA et pas moins de cinq permanents du CNNum. Il n’est pas étonnant dans ces conditions que le Rapport Villani se soit intéressé plus à l’amont de l’innovation, à savoir la recherche, qu’à sa valorisation industrielle qui est un sujet complexe où l’Etat doit jouer un rôle de facilitateur plus que de stratège. Bref, on attend un peu la suite ! »

L’intégrale de l’analyse du rapport Villani sur www.oezratty.net

 

Intelligence artificielle en France : un micro plan

Intelligence artificielle en France : un micro plan

Force est de constater que la France forme chaque année de nombreux talents mais dont la plupart sont récupérées et par les GAFA et autres géants du net. Macron reconnait que  nombre d’entre eux travaillent d’ailleurs, depuis des années, pour le compte des Gafa (Google, Amazon, Facebook et Amazon) américains. Pas étonnant si ces Gafa veulent installer des centres de recherche en France relativement pointue sur le sujet mais dépendant des applications de plateformes. La France va dépenser 1.5 milliards en quelques ânées, la chine 13 milliards et les Gafa des dizaines et des dizaines de milliards. Pas sûr que ma France soit la bonne échelle intervention.  On peut regretter que sur ce terrain stratégique n’émerge aucun grand projet européen.  Autre problème non négligeable,  les faibles rémunérations des chercheures en France. Emmanuel Macron compte aussi « augmenter la porosité entre la recherche publique et le monde industriel ». Ainsi, les chercheurs français pourront à terme consacrer 50% de leur temps à un groupe privé, contre les 20% auxquels ils ont droit aujourd’hui. Une mesure qui pourrait notamment permettre d’augmenter un peu les rémunérations des chercheurs dans le public. Autre faiblesse, l’insuffisance de maîtrise des données indispensables aux algorithmes. Des données maitrisées parles grands du numérique notamment américains et chinois.  Du coup,  la France va tenter de se recentrer sur  certains secteurs, comme l’automobile, l’énergie, la cyber sécurité ou l’aéronautique ou la santé.  Ainsi, « la base de données de l’assurance-maladie ou encore celle des hôpitaux comptent parmi les plus larges du monde », souligne l’Elysée, qui a annoncé la création d’un « Health Data Hub ». En ouvrant ces données aux acteurs de l’IA dans un cadre sécurisé et garantissant la confidentialité, Emmanuel Macron espère développer des « innovations majeures », comme l’amélioration du traitement des tumeurs cancéreuses, ou la détection des arythmies cardiaques. Dans ce domaine, l’IA pourrait notamment permettre à l’Etat de faire d’importantes économies. Emmanuel Macron a enfin insisté sur les enjeux sociaux, éthiques et démocratiques liés à l’essor de l’IA. Pour lui, les états doivent se demander quelles valeurs l’IA doit servir, afin de tracer des lignes rouges. Il souhaite notamment lancer une réflexion mondiale sur « le contrôle et la certification » des algorithmes. Sur le modèle du GIEC.

Les enjeux de l’intelligence artificielle (Cédric Villani)

Les enjeux de l’intelligence artificielle  (Cédric Villani)

Enjeu scientifique, économie, démocratique et sociétal, Cédric Villani développe ces aspects dans une interview au JDD

L’intelligence artificielle (IA) semble aujourd’hui très à la mode, mais de quoi s’agit-il?
Il n’y a pas de définition précise. L’intelligence artificielle, c’est l’art de la programmation qui permettra à un algorithme, un ordinateur, de réaliser des tâches subtiles en tenant compte de nombreux paramètres. Il faut comprendre que l’IA repose sur des méthodes variées : la déduction logique, mais aussi l’apprentissage statistique, par l’exemple (vous ne dites pas à la machine ce qu’est une tarte aux fraises, mais vous lui montrez des milliers d’images de tartes pour qu’elle apprenne à les reconnaître) ou l’exploration (c’est ainsi que les derniers algorithmes du jeu de go découvrent les meilleures stratégies).

En quoi l’intelligence artificielle nous concerne tous?
L’IA va bouleverser notre quotidien avec discrétion. Vous en bénéficiez déjà quand vous faites en quelques clics une recherche par mot clé ou une traduction automatique. Vous serez un jour conduits par des voitures automatiques. Et un algorithme, au vu de vos données médicales et de vos radios, pourra vous dire : « Vous avez telle maladie et je recommande à votre médecin tel traitement.  » Vous serez alors soigné par une combinaison d’humain et d’IA.

Quelles seront les grandes pistes de votre rapport?
Elles s’articulent autour de six grands piliers : l’impact sur l’emploi, l’écologie, l’éthique, la recherche, la politique industrielle et l’enjeu des données. En cette matière, le droit européen est de loin le plus protecteur du monde. Nous tenons à le rappeler, car si les citoyens et les administrations n’ont pas confiance, ils ne partageront pas leurs données, et notre recherche prendra du retard. En même temps, il faut décloisonner. Nos administrations n’ont pas l’habitude de partager.

 

Que préconisez-vous en matière de recherche?
La compétition de l’IA est avant tout une course pour l’intelligence humaine, celle des experts. Il faut associer les grands acteurs : les universités, les centres de recherche comme le CNRS, l’Inria, le CEA. Donner aux chercheurs en IA des avantages, un environnement administratif moins pesant, des moyens de mener leur projet. Rapprocher le secteur public et le privé, favoriser les collaborations avec l’industrie. Je n’oublie pas un grand besoin de formation. Dans le domaine de l’IA, nous avons besoin aussi bien de bac +20 que de bac +3.

Seriez-vous prêt à postuler à un ministère de l’IA?
Certainement pas. Le sujet touche tous les ministères et doit irriguer toutes les administrations. S’il existe un ministère de l’IA dans certains pays, nous sommes convaincus qu’il faut une organisation plus subtile.

 

Votre mission a-t-elle repéré des secteurs prioritaires en matière d’IA?
Les expérimentations concernent tous les secteurs. Mais pour une vraie politique industrielle, notre rapport insistera sur les transports, la santé, l’environnement et la défense, des domaines dans lesquels l’Europe et la France ont une vraie expertise et dans lesquels l’Etat peut apporter une forte valeur ajoutée au virage de l’IA. En santé, nous avons de véritables pépites comme Therapixel, start-up spécialisée dans les diagnostics avancés en matière de cancer, Cardiologs en cardiologie ou Rythm et son bandeau facilitateur de sommeil. Arrêtons de nous sous-estimer.

 

Quel financement la France devrait-elle consacrer au développement de l’IA?
Au niveau de l’UE, une trentaine de milliards sur les années qui viennent me paraît la bonne échelle. Et au niveau de la France, une cible de 1 à 2 milliards d’euros par an semble raisonnable, si l’on ajoute les investissements IA en recherche, matériel, industrie, formation…

Aujourd’hui, l’IA se nourrit d’une foule de données personnelles, doit-on faire payer leur utilisation?
Quand un hôpital vend des données personnelles de ses patients sans leur consentement, c’est choquant. Nous n’avons pas plus vocation à en faire commerce. Pourquoi ne pas les communiquer pour des expériences scientifiques, pour que d’autres en fassent usage? Comme lorsqu’on choisit de donner son corps à la science.

Face aux géants américains et chinois, la bataille des données n’est-elle pas déjà perdue?
Il est plus délicat de constituer de grandes bases dans un environnement fragmenté, comme l’Europe, mais la mission est convaincue qu’on peut y parvenir. A Europe unie, rien d’impossible. Cette union de forces est pour moi le plus grand enjeu à long terme, et la première raison pour laquelle je fais de la politique.

 

Face au développement de l’IA, la culture scientifique des Français est-elle suffisante?
En France, on s’est mis en tête que la culture était littéraire… Nous devons convaincre que les sciences font partie de la culture. A ce titre, la proposition du ministre de l’Éducation d’instaurer, en première et en terminale, deux heures hebdomadaires d’humanités scientifiques et numériques me plaît beaucoup.

 

En quoi consistera ce nouveau cours?
Pour les élèves des sections littéraires, qui abandonneront les sciences, les grands principes sont déterminants. On abordera la question : qu’est-ce que les sciences changent dans notre société ? Sujet immense. On pourra y parler de l’IA, qui influence la géostratégie mondiale, expliquer comment la science a modifié le cours de la Seconde Guerre mondiale, raconter l’aventure de l’informatisation, les bonnes pratiques face aux progrès technologiques… Cela donnera des clés pour comprendre.

 

Et à l’école primaire?
Les enfants de 6 ou 7 ans sont très curieux. La mission sur l’enseignement des maths recommande de cultiver le sens des quatre opérations dès le CP. Je vous conseille les vidéos Curious Mind, Serious Play, de Jan de Lange, célèbre pédagogue néerlandais. On y voit des gamins de 3 à 6 ans qui se passionnent pour de petites expériences et ont de bonnes intuitions là où un Prix Nobel pourrait être perdu!

 

À quel âge commencer les cours d’informatique?
Dès le CP… mais sans écran. Il faut distinguer les algorithmes – la science des processus – et le logiciel. Suivre des jeux, des instructions, comprendre la démarche algorithmique, tout cela peut commencer très tôt, sans appareils. La fondation La Main à la pâte, qui cherche à améliorer la qualité de l’enseignement des sciences, a conçu un manuel, « 1,2,3 codez! », qui peut être utilisé dès la maternelle.

 

Les élèves français sont très mal notés dans les classements internationaux évaluant leurs performances en sciences. Le problème n’est-il pas lié à la façon dont elles sont enseignées?
Absolument. À leur décharge, les collègues enseignants ont reçu beaucoup d’instructions contradictoires et très peu de formation. Il est donc important de rappeler le subtil dosage d’ingrédients que l’on retrouve dans les pédagogies qui ont eu du succès, que ce soit Séguin, Montessori, Singapour… D’abord, l’élève commence par manipuler. Puis il va désigner les choses et les représenter. Et enfin passer aux concepts, aux règles abstraites. La formation des enseignants se révèle cruciale. Et le périscolaire a un rôle à jouer. En France, nous avons des clubs de jeux, des concours, des activités remarquables et sous-exploitées.

 

Les avancées de la science ne risquent-elles pas d’aboutir à une fracture entre ceux qui peuvent accéder au savoir et les autres?
C’est un vrai risque et nous voulons l’éviter. L’intelligence artificielle est un bon exemple. Elle suscite des craintes variées. Le spectre d’une IA autonome ne m’effraie pas, nous en sommes tellement loin. Mais l’idée d’une IA qui profite seulement aux experts est un danger sérieux. Pour que le sujet prenne son essor, il faut que les gens se sentent dans le coup. Bien plus que la simple acquisition de connaissances, la culture scientifique est un enjeu pour la cohésion de la société.

 

Intelligence artificielle : lente diffusion ou rupture ?

Intelligence artificielle : lente diffusion ou rupture ?

Dans une étude France Stratégie (ancien plan, service du Premier Ministre) évoque deux scénarii : l’un d’une diffusion progressive, l’autre d’une rupture. Dans le premier cas, l’intelligence artificielle serait intégrée au fonctionnement des entreprises et des organisations dans la continuité de leur transformation numérique.

Le défi de l’automatisation des tâches

De manière générale, le rapport explique que l’émergence de l’IA dans le monde du travail offrirait une opportunité économique liée à des gains de productivité (baisse des coûts d’opérations automatisées, automatisation des processus de coordination entre différents services et acteurs, optimisation des flux de production…) Ces mêmes gains pourraient constituer des risques pour l’emploi, remplaçant l’humain par la machine. . Les travailleurs pourraient également craindre une dévalorisation de leurs compétences, une surcharge cognitive, une perte d’autonomie, un contrôle accru et une perte de sens du travail liée à l’automatisation des tâches. Mais « , ces mêmes technologies pourraient aussi créer de nouveaux métiers grâce, notamment au traitement massif des données (devenir le superviseur d’une flotte de véhicules autonomes ou de chatbots par exemple). En imaginant que l’IA prenne en charge des tâches routinières et répétitives, on pourrait aussi imaginer que cela soulagerait les actuels travailleurs, qui bénéficieraient d’une amélioration des conditions de travail et une valorisation des activités et des tâches. France Stratégie prend trois exemple celui des transports avec notamment l’accélération de automatisation des tâches dans la logistique, les banques aussi concernées par la numérisation et les restructurations qui s’amplifient enfin le secteur de la santé où la les perspectives d’emplois nouveaux paraissent les plus positifs. Pour les patients, et les professionnels. Enfin, les auteurs de l’étude rappellent qu’il est impératif de sécuriser davantage les parcours professionnels dans les secteurs les plus impactés par l’IA afin d’éviter que le bouleversement annoncé se situe plus du côté du scénario dommageable.

Intelligence artificielle : enjeux et perspectives (Charles-Édouard Bouée)

 

Charles-Édouard Bouée, le président du cabinet de conseil Roland Berger, explique les défis qui nous attendent avec l’arrivée de l’intelligence artificielle dans une interview à la Tribune

 

Sommes-nous en train de vivre un tournant avec l’arrivée de l’intelligence artificielle dans nos vies ?

 

CHARLES-ÉDOUARD BOUÉE - À l’évidence, oui ! Tous les indices que nous observons depuis deux ans le montrent. Nous entrons dans l’âge des machines intelligentes. En 2016, il y a eu des prises de position très claires de personnages emblématiques des nouvelles technologies – Elon Musk, Bill Gates, etc. – et des victoires hautement symboliques de l’IA contre les champions du monde du jeu de go, de poker ou du jeu Civilisation, qui est un jeu de stratégie encore plus complexe. On a aussi vu émerger de nouveaux acteurs de l’IA, comme Nvidia qui a doublé de valeur boursière en un an. Le vrai point d’inflexion a eu lieu il y a dix ans, en 2005-2006. C’est là que les premières puces Nvidia et les premières applications de machine learning sont apparues. Mais le mot intelligence artificielle n’est entré dans le vocabulaire des entreprises que depuis 2016. La France s’en est rendu compte avec retard mais a lancé en janvier dernier France IA, une initiative intéressante dotée d’une enveloppe de 1,5 milliard d’euros sur dix ans, et qu’il faut désormais développer. Tous les grands pays en ont fait une priorité : dès 2016 aux États-Unis, un rapport très complet sur les enjeux de l’IA a été remis à Barack Obama. Les Chinois aussi en ont fait leur nouvel objectif national prioritaire. Les entreprises en parlent, les États s’en préoccupent et le sujet commence aussi à intéresser le grand public, à voir les nombreuses unes de la presse qui y sont consacrées.

Il y a donc une accélération ces deux dernières années…

L’intelligence artificielle coïncide avec la prise de conscience de l’impact des technologies nouvelles sur le travail, et sans être au coeur des enjeux des élections dans les différents pays, elle percute le débat politique parce qu’elle aura des conséquences pour l’économie et l’emploi. En mai 2014, Roland Berger avait fait une étude remarquée selon laquelle la robotisation pourrait menacer 42 % des emplois. C’était très prospectif. Les débats restaient très académiques. C’est aujourd’hui devenu un sujet de l’actualité. Tout le monde en parle. Il y a une accélération du temps. Pas seulement celui des technologies mais de tout. Hartmut Rosa, le philosophe allemand, a raison : le temps s’accélère.

Quels scénarios envisager pour l’arrivée de l’IA dans nos vies ?

Elle est déjà présente mais cela reste peu visible. Dans mon livre, j’essaie de décrire ce qui va se passer à un double horizon de dix ans et de vingt ans. 2026-2036, c’est à la fois loin et très proche. Cela va être selon moi un tsunami, en deux vagues. La première, sur la période 2016-2026, va être marquée par le basculement dans l’intelligence artificielle portative, intégrée dans les téléphones mobiles et également dans tous les autres équipements que nous utilisons. L’intelligence artificielle portative pour tous, cela veut dire que notre vie va changer encore davantage dans les dix prochaines années que dans les dix précédentes. L’IA portative va nous faire gagner du temps, en réalisant à notre place tout une série de tâches simultanément et rapidement. L’homme augmenté avec son smartphone intelligent sera capable de gérer plusieurs dimensions en parallèle : notre intelligence artificielle portative pourra en même temps faire nos courses sur plusieurs sites Internet et nous faire livrer à domicile au meilleur prix les meilleurs produits, réserver nos vacances, comparer les prix des abonnements de téléphone tout en vérifiant que nos données personnelles ne sont pas utilisées par des tiers sans notre accord – car notre IA portative effectuera elle-même les recherches et les achats, disruptant ainsi des secteurs entiers comme la grande distribution ou la publicité. Elle se connectera aussi avec l’IA portative de nos voisins, par exemple pour acheter de l’électricité au distributeur local. Notre vie quotidienne et toutes les industries vont être radicalement transformées.

Il y a un gros débat sur la productivité à l’heure du numérique, car on ne la voit pas dans les statistiques. Cette IA portative va tout changer ?

Oui, et elle va faire disparaître la fracture numérique, le fameux digital divide, à part pour ceux qui ne sauront pas se servir d’un smartphone… C’est comme l’énergie. On est tous égaux devant l’électricité. L’IA portative entraînera aussi un rééquilibrage du rapport de force entre les entreprises et les particuliers. Aujourd’hui, l’entreprise, même traditionnelle, a le pouvoir sur nos données et sur la technologie. Demain, avec l’IA portative, l’écart va se combler car tout le monde aura accès à cette puissance informatique. Avec la montée des cadres nomades et des freelancers, les rapports de force sociaux et le monde du travail pourraient évoluer sensiblement : nous tous, salariés comme consommateurs, serons « augmentés » et pourrons postuler aux nouveaux emplois, nous procurer les nouveaux produits et services avec l’appui de notre IA personnelle.

Qui seront les acteurs de cette intelligence artificielle portative ?

Selon moi, les leaders de cette nouvelle révolution ne seront pas les Gafa. Ni Google ni Apple ni Facebook ni Amazon, ni même les Chinois des Bat (Baidu, Alibaba et Tencent). Il y aura un rééquilibrage entre les grands acteurs de l’Internet, les entreprises et les individus. La question de la sécurité des données, des data, sera cruciale. On crée tous les deux ans autant de données que celles qui ont été produites avant par l’humanité. C’est vertigineux. Celui qui pourra avoir accès à des données « fraîches » sera très rapidement au même niveau que celui qui l’a précédé. Avec une IA portative, personne ne voudra avoir affaire à un commerçant qui dispose de son historique de données. Tout nouvel acteur capable de garantir cette protection des données aura donc une prime sur les autres. Ce pourra être un spin off des Gafa, ou bien un nouvel acteur encore inconnu. Les données n’auront plus la même valeur économique. Les futurs nouveaux algorithmes seront probablement moins consommateurs de données car l’IA sera de plus en plus élaborée. Aujourd’hui le machine learning [apprentissage automatique ou apprentissage statistique, Ndlr] a besoin d’une masse considérable de data et de capacité de calcul. Demain, nous passerons au machine reasoning avec une IA interprétative ayant une plus forte capacité de raisonnement. La dernière preuve empirique que les Gafa ne seront pas forcément les gagnants de la bataille de l’IA, c’est l’observation du passé. Il y a eu trois vagues technologiques depuis les années 1990 : la vague de l’ordinateur portable avec Microsoft et IBM ; la vague d’Internet avec les grands opérateurs fournisseurs d’accès à Internet, comme AOL (America Online). Et enfin, on a eu la vague des Gafa avec Apple, Google, Facebook et Amazon.

En dix ans, les Gafa ont atteint en Bourse l’équivalent du PIB de la France… Comment imaginer leur disparition ?

Ces entreprises ne vont pas disparaître mais elles peuvent connaître le même sort que celui des opérateurs télécoms. Dans dix ans, il y aura des sociétés qui auront une capitalisation boursière de plus de 1 000 milliards de dollars mais selon moi, ce ne seront pas les Gafa. Les nouveaux acteurs dominants seront ceux qui fourniront l’IA portative en protégeant les données personnelles. L’histoire a montré qu’à chaque transition, les consommateurs ont cherché un nouveau produit et une nouvelle marque. Google au début était un service neutre qui n’essayait pas de nous vendre quelque chose. Le moteur de recherche s’est imposé et est ensuite devenu un service marchand. Il y a donc beaucoup de présomptions que les dernières années ne sont pas une garantie pour le futur. On peut imaginer que la prochaine disruption technologique, qui est la plus grosse, se fera avec de nouveaux acteurs.

Cela veut dire que tout le monde repart du même point. Mais les Gafa sont tellement riches qu’ils pourraient aspirer tous les cerveaux. N’a-t-on pas atteint un point de non-retour ?

Ce n’est pas qu’une question de puissance et d’argent mais d’algorithmes et de créativité pour engendrer de nouveaux business. Ceux qui ont fait fortune, ce ne sont pas les créateurs d’Internet, mais ceux qui ont suivi, qui ont su créer les services, fait un comparateur, un site de vente en ligne ou de voyage ou de rencontres… Au début des années 1990, les étudiants d’Harvard allaient chez Microsoft qui attirait tous les talents et pourtant ce sont d’autres qui ont gagné la bataille de l’Internet. Donc rien ne garantit que les Gafa seront les gagnants pour l’éternité. En dix ans, un nouvel entrant avec peu de capitaux mais les bons cerveaux peut prendre leur place.

Donc, c’est la révolution des cerveaux… humains ?

Oui, heureusement… mais cela sera différent dans les dix années qui suivent. Dans la séquence 2026-2036, les progrès de l’IA seront encore plus spectaculaires : machine learning, machine reasoning, la machine qui apprend, celle qui raisonne ; puis viendront les algorithmes génétiques qui se corrigent et se transforment, c’est-à-dire une machine capable d’évoluer génétiquement, comme un cerveau humain.

On va donc vers l’IA forte ?

Progressivement, de plus en plus d’applications utiliseront l’IA portative. Ma thèse est qu’à un moment donné, de manière aléatoire, une machine va s’éveiller. Dans le livre, je date cet événement, qui correspond au fameux point de singularité, au 15 août 2038. Cela peut arriver n’importe où, n’importe quand. Ce sera un « accident ». Ce n’est pas nécessairement celui qui cherche qui trouvera. Dans la thèse du livre, c’est une mise à jour de routine de l’IA qui déclenche son éveil.

Oui, et cela pose dès lors toute une série de questions philosophiques. Comment se comporte l’IA devenue consciente ?

Il y a deux écoles. Ceux qui pensent que la machine aura tous les caractéristiques humaines. Les bonnes et les mauvaises… Elle sera cupide, voudra du pouvoir et asservir les autres. Et il y a ceux, les plus nombreux, qui pensent que la machine raisonnera par rapport à son propre empire. Elle voudra sécuriser son accès à l’énergie, la stocker et survivre. Elle va donc s’assurer que l’environnement climatique et énergétique est sécurisé. C’est tout ce dont elle a besoin. Elle cherchera à éviter les guerres et tout ce qui pourrait perturber ses infrastructures.

Elle va gouverner la planète Terre… Ce sera « la chute de l’empire humain » ?

Elle va s’assurer de sa survie sur Terre. La machine ne raisonnera pas selon les critères humains, mais en fonction de ses besoins propres. La chute de l’empire humain à l’ère de l’intelligence artificielle forte, ce sera du Gengis Khan ludique et indolore. Comme le décrit Elon Musk, l’homme vivra dans un énorme jeu vidéo, une sorte de Matrix – car pour la machine ce sera le meilleur endroit où mettre les humains.

Les gens en auront-ils conscience ?

Non. Pour l’instant les gens sont sur la plage : ils contemplent les vaguelettes et ne voient pas l’énorme tsunami qui arrive.

Pourtant on voit poindre un début de révolte contre les technologies…

Empiriquement, on sait qu’on ne peut pas arrêter les technologies. Même le nucléaire ne l’a pas été. La question est de savoir dans quel monde nous voulons vivre et comment nous souhaitons contrôler la technologie, ou pas. Mais le vrai problème est que nous n’avons pas conscience de la situation. Si l’être humain savait avec certitude qu’une machine prend le contrôle, alors il se battrait pour sa souveraineté. Mais la probabilité que nous ne soyons pas dans une immense simulation est d’une sur un milliard, a dit Elon Musk. Sa thèse est que la chute de l’empire humain, nous ne la verrons pas. Il se pourrait que nous y soyons déjà.

Sans aller aussi loin dans la prospective, l’intelligence artificielle est aussi une énorme opportunité de business ?

Je ne suis pas d’accord avec ceux qui pensent qu’on est coincé dans un monde de raréfaction du travail et où le revenu universel va s’imposer. Il nous reste dix ans devant nous pendant lesquels nous pouvons encore gagner la bataille. On est à l’aube d’un âge d’or si on sait s’adapter.

Pourtant le patron de Microsoft dit, comme certains hommes et femmes politiques, qu’il faudra taxer les robots pour financer un revenu universel…

Nous avons encore dix ans devant nous pendant lesquels nous pouvons gagner. Le revenu universel, c’est beaucoup trop tôt pour l’envisager. C’est reconnaître qu’on va perdre la bataille de l’IA. C’est exactement l’inverse de ce qu’il faut faire. Nos hommes et femmes politiques sont loin d’être les seuls à tenir ce discours, il y a aussi des représentants de la Silicon Valley qui en parlent. Mais la différence est que ceux-ci sont persuadés qu’ils vont gagner la bataille de l’IA. Le revenu universel, c’est pour expliquer aux gens qu’il faut qu’ils se préparent à être d’éternels perdants, qu’ils ne pourront qu’être pauvres, et subventionnés pour ne pas travailler. Au contraire, les syndicalistes devraient s’emparer de l’IA pour réclamer un effort massif d’éducation et de formation, et permettre aux étudiants et aux travailleurs français d’être les meilleurs. Aujourd’hui, il faut regrouper nos forces : travailler avec les Allemands ainsi qu’avec les autres pays européens, et faire effet de levier face aux Américains qui sont actuellement un peu affaiblis en raison de leurs clivages internes.

Et les entreprises, que font-elles pour se préparer ?

La prise de conscience a commencé. Depuis deux ans, les entreprises se sont lancées à marche forcée dans la transformation digitale. Elles sont en train de comprendre que ce n’est qu’une promenade de santé au regard de la montagne à gravir. Mais je leur dis que c’est une opportunité incroyable pour une entreprise de la vieille économie, car cela rebat toutes les cartes. En ayant une stratégie IA, elles peuvent rattraper leur retard. Aujourd’hui, tous nos clients se sentent menacés par les Gafa. Leur dire que même les Gafa peuvent disparaître avec l’arrivée en dix ans de nouveaux acteurs, c’est de nature à leur redonner l’espoir.

L’Europe a sa chance dans cette nouvelle bataille ?

Oui, parce qu’on a les mathématiciens, les ingénieurs, les cerveaux. Et on n’a pas les Gafa. Pourquoi les Gafa ont-ils gagné contre les opérateurs télécoms ? Parce que les opérateurs étaient persuadés qu’ils avaient la maîtrise du débit et du client. Les fournisseurs d’accès Internet ont cru qu’ils allaient gagner parce qu’ils avaient les abonnés. Mais lorsque les Gafa ont débarqué avec des applications qui ont été d’emblée adoptées par les clients, c’était fini pour eux. Ils sont passés de très riches à très pauvres. C’est une des raisons pour lesquelles l’Europe a raté le virage. Les opérateurs télécoms européens étaient les maîtres du monde et ils ont été vaincus : Vodafone, Deutsche Telekom, France Telecom avaient une stratégie d’expansion mondiale. C’étaient des cash machines qui émettaient de la monnaie papier car ils contrôlaient les consommateurs en les équipant de portables. Et les Gafa les ont remplacés en dix ans. C’est la preuve empirique que tout reste possible. On n’est pas assez stratèges en Europe. Les Chinois ont gagné la bataille suivante parce qu’ils sont partis de zéro. Il faut sortir de notre complexe d’infériorité vis-à-vis de la Silicon Valley. La bonne nouvelle, c’est que les grands groupes européens, dans l’automobile, l’industrie, les cosmétiques, n’ont pas peur des Gafa. L’IA est une opportunité pour eux. Ensuite, c’est aux gouvernements nationaux et à l’Europe de fournir les moyens de cette transformation. L’Europe doit lancer une plateforme IA en open source. Si l’Europe, qui a créé le GSM, sait définir les normes de l’intelligence artificielle portative, elle deviendra la référence, au moins pour l’Europe continentale.

Ceux qui auront donné le tempo sur les normes auront un avantage compétitif fort.

Aujourd’hui le problème de l’IA, c’est qu’elle n’est pas portable. C’est la forêt, ça foisonne, on est avant que Microsoft n’impose son système d’exploitation pour tous les ordinateurs. Celui qui saura développer l’OS de l’IA va emporter la mise.

Une stratégie IA pour une entreprise, c’est quoi ?

C’est très différent d’une stratégie classique où l’on regarde la concurrence, le marché, les produits, les clients, etc. La première étape est de visualiser le futur, un futur assez lointain, au moins 2030. Dans ce futur, il faut analyser tout ce qui dans son activité peut être impacté par l’IA. Ensuite, il faut développer une stratégie de conquête. Il faut apprendre à se projeter dans le futur : qu’est que ce qu’on va fournir au consommateur de 2036, qui aura accès à l’IA comme celui de 2017 a accès à l’Internet haut débit ? La seconde étape est d’analyser ses actifs, et déterminer ceux qui sont utiles et ceux qui ne le sont pas.

C’est simple à dire, pas à réaliser…

C’est beaucoup plus simple quand on a pris conscience des conséquences de l’arrivée de l’IA. C’est écrire avec le comex les futurs possibles et voir comment on peut les préempter et prendre de l’avance. C’est pour cela que les groupes traditionnels ont encore leur chance. Ils ont un avantage beaucoup plus grand qu’ils ne le pensent…

 

La France leader de l’intelligence artificielle ?

La France  leader de l’intelligence artificielle ?

 

C’est le souhait de Macron qui voudrait que la France joue dans la cour des grands. La course à l’IA est evidemmenet lancée. Elle s’appuiera notamment sur le caractère exponentiel de l’évolution des données qui tous les deux ans dépasse le volume de tout ce qui a été produit depuis l’origine de l’humanité. Un véritable or noir qui pourrait permettre à certains de dominer tant sur le plan économique que sociétal et politique. De ce point de vue la régulation du trafic de données qui rendent compte de la vie des individus en tout temps et en tout lieu revêt une importance capitale pour échapper à la domination des quelques oligopoles. Il faudra cependant aussi créer notamment des services de qualité garantissant ainsi la protection des idivudus.et f favoriser l’émergence de leaders internationaux d’origine française ou européenne. Au lieu de se résoudre à seulement fournir des ingénieurs de haut niveau aux GAFA ou de mettre en mettre nos Startups  en sous-traitance de ces leaders comme actuellement. Le chef de l’Etat va recevoir à dîner mercredi soir des chercheurs internationaux en la matière avant de se voir remettre jeudi le rapport du mathématicien et député La République en marche Cédric Villani et de prononcer un discours au Collège de France pour dévoiler sa stratégie. « J’annoncerai jeudi des mesures permettant à la France de conforter sa place comme l’un des leaders de l’intelligence artificielle dans le monde », a dit le chef de l’Etat lundi soir lors d’un discours aux industriels français. Selon l’Elysée, la mobilisation de fonds publics, notamment issus du fonds pour l’innovation dans l’industrie (F2i), du programme d’investissements d’avenir (PIA) et de crédits budgétaires, devrait être annoncée. « La France a raté toutes les dernières révolutions technologiques, la robotisation, internet, on n’a pas de géants en la matière », dit-on dans l’entourage du chef de l’Etat. « Là il y a vraiment la volonté de faire partie du jeu mondial » avec l’intelligence artificielle et la France « a la capacité de jouer dans la cour mondiale dans certains secteurs ». Pour Macron cette percée de la France dans l’IA est incontournable à moins de prendre le risque d’une  perte de souveraineté.

Intelligence artificielle : une révolution du quotidien (Cédric Villani )

Intelligence artificielle : une révolution du quotidien  (Cédric Villani )

Le  JDD  mathématicien et député Cédric Villani, chargé d’une  mission sur intelligence artificielle, défend la vulgarisation et la  démocratisation de la culture scientifique dans une interview au JDD.

Le  mathématicien explique que ses pistes s’articulent autour de « six grands piliers : l’impact sur l’emploi, l’écologie, l’éthique, la recherche, la politique industrielle et l’enjeu des données. » Pour être compétitive dans ce domaine, il estime que la France doit y consacrer de « 1 à 2 milliards d’euros par an » mais ajoute que « le plus grand enjeu à long terme » est la coopération européenne : « A Europe unie, rien d’impossible. »

En quoi l’IA nous concerne tous?
L’IA va bouleverser notre quotidien avec discrétion. Vous en bénéficiez déjà quand vous faites en quelques clics une recherche par mot clé ou une traduction automatique. Vous serez un jour conduits par des voitures automatiques. Et un algorithme, au vu de vos données médicales et de vos radios, pourra vous dire : « Vous avez telle maladie et je recommande à votre médecin tel traitement.  » Vous serez alors soigné par une combinaison d’humain et d’IA.

Quelles seront les grandes pistes de votre rapport?
Elles s’articulent autour de six grands piliers : l’impact sur l’emploi, l’écologie, l’éthique, la recherche, la politique industrielle et l’enjeu des données. En cette matière, le droit européen est de loin le plus protecteur du monde. Nous tenons à le rappeler, car si les citoyens et les administrations n’ont pas confiance, ils ne partageront pas leurs données, et notre recherche prendra du retard. En même temps, il faut décloisonner. Nos administrations n’ont pas l’habitude de partager

 

 

 

Intelligence artificielle : risque de manipulations  » ( Thierry Berthier et Nicolas Miailhe)

Intelligence artificielle : risque de manipulations   » ( Thierry Berthier et Nicolas Miailhe)  

 

De manipulations économiques et politique aussi une possible remise en cause de la  liberté, de la sécurité, du développement de  la durabilité, des  intérêts collectifs, et de  la dignité de la personne humaine par exemple.

 

Nicolas Miailhe est cofondateur et président de The Future Society, un incubateur d’idées et de projets lancé à la Harvard Kennedy School of Government en 2014 et dédié aux questions d’impact et de gouvernance de l’accélération et de la convergence des progrès technologiques. Dans ce cadre, Nicolas a lancé « The AI Initiative », qui pilote actuellement, entre autres activités, un débat participatif mondial multilingue sur la gouvernance de l’intelligence artificielle.

Lorsque l’on évoque la diaspora française des experts impliqués dans l’IA mondialisée, on pense immédiatement à Yann Le Cun, Directeur du laboratoire d’intelligence artificielle de Facebook (FAIR) ou à Emmanuel Mogenet, directeur de l’ingénierie de Google Research Europe.

D’autres voix françaises ont su se faire entendre dans un écosystème mondial très concurrentiel, en particulier celle de Nicolas Miailhe sur le segment des implications sociétales et géopolitiques de l’intelligence artificielle.

The AI Initiative, quels objectifs ?

NICOLAS MIAILHE – « The AI Initiative » a été lancée en 2015 dans le cadre de « The Future Society » pour se concentrer sur les questions d’impact et de gouvernance de la montée en puissance de l’Intelligence artificielle. Notre objectif est de favoriser l’émergence de cadres de gouvernance globaux permettant de tirer le meilleur parti de la révolution de l’IA en maximisant les bénéfices et en minimisant les risques.

Nous sommes convaincus que la révolution de l’IA est globale et qu’elle appelle donc une meilleure coordination internationale, mais aussi transnationale, car le monopole des États est remis en cause par la puissance des géants du numérique. Faire émerger un cadre de gouvernance adapté va prendre du temps. Cela implique de nourrir un dialogue transdisciplinaire et ouvert sur la société civile au-delà des experts et des praticiens.

Pourquoi est-ce nécessaire d’ouvrir sur la société au-delà des experts ?

Les changements vont affecter tout le monde et les questions éthiques à trancher aussi. Vu les dilemmes et les tensions entre des valeurs fondatrices de nos modèles sociaux comme la liberté, la sécurité, le développement, la durabilité, les intérêts collectifs, et la dignité de la personne humaine par exemple, un dialogue est indispensable pour harmoniser nos systèmes de valeurs. C’est une tâche difficile et très politique au fond, mais indispensable si nous voulons apprendre à vivre en harmonie à 7 puis 8 et 10 milliards d’êtres humains à l’heure de l’IA. Les travaux de recherche, les outils cognitifs et les évènements que nous organisons avec The AI Initiative sont tournés vers ce but.

Quelles sont les différences entre populations américaine et française ?

Les Américains sont généralement plus technophiles et confiants dans l’avenir que les Français. Ils ont aussi un goût pour le risque plus développé. C’est lié à leur histoire et à l’esprit de conquête (notamment sur la nature) qui l’irrigue.

Cet esprit, on le retrouve dans la métaphore de la « nouvelle frontière » qui continue de jouer un rôle central dans le projet de construction national américain : depuis la conquête de l’Ouest au XIXe siècle, jusqu’à celle de l’espace et de la lune au XXe siècle ; et à présent du corps et du cerveau humain. Le goût pour le risque, on le retrouve jusqu’à aujourd’hui par exemple au travers du droit à porter les armes… qui nous fait bondir en France !

Des craintes également aux États-Unis ?

Le leadership technoscientifique et industriel américain en matière de numérique, de data et donc d’IA est un facteur très rassurant à l’heure actuelle s’agissant de leur capacité à façonner l’agenda mondial de l’IA en équilibrant les bienfaits avec les risques.

Notre approche est ancrée dans la crainte… et la réalité du décrochage industriel et scientifique. Nous percevons la révolution de l’IA comme une vague, un tsunami qui nous arrive dessus et qui menace notre modèle de société contre lequel il faut se protéger. Nous avons perdu notre esprit de conquête qu’il faut absolument retrouver et traduire dans un modèle industriel crédible.

Comme nous percevons la révolution de l’IA comme largement « étrangère », nous Français cherchons malheureusement à la réguler (contraindre) plus qu’à gouverner (accompagner). Notre ambition universaliste est bien là, mais elle est quelque part plus conservatrice qu’elle n’est progressiste à l’heure où beaucoup de choses changent avec des opportunités à saisir dans tous les domaines : médical, transport, finance, sécurité, industrie, etc.

Notre ambition universaliste se traduit par la recherche d’un modèle européen de l’IA qui articule recherche de la puissance avec respect de la personne humaine. La péréquation entre les deux ne va pas être simple, car en régulant à partir d’une position d’extrême faiblesse industrielle par rapport aux Américains ou aux Chinois, nous risquons d’entraver notre propre montée en puissance. C’est un peu le risque que le GDPR (Règlement général sur la protection des données) fait planer sur les ambitions de puissance de la France et de l’Europe si nous ne savons pas en faire un atout.

Le solutionnisme béat de la Silicon Valley est-il inquiétant ?

Au-delà des bonnes intentions, qui sont sincères chez la plupart des transhumanistes, le solutionnisme technologique est un poison dangereux ; par manque de réflexivité. C’est à croire que nous n’avons rien appris des horreurs du XXe siècle.

La simplification à outrance des débats à laquelle on assiste parfois dans la Silicon Valley relève d’une certaine forme de naïveté, voire de fondamentalisme. Or, le recours à la science et à la technologie pour résoudre des problèmes (développement, maladie, sécurité, relations entre les individus) n’est jamais neutre. Il intègre des transferts de pouvoir importants. La montée en puissance des géants du numérique aux États-Unis ou en Chine s’accompagne d’un transfert de richesse et de pouvoir très important et qui n’est pas encore équilibré. Avec le basculement dans une économie de l’attention et du virtuel qui comportent des risques de manipulations importants.

Quelle est la vision du côté de Harvard et de The Future Society ?

Nous avons souhaité lancer The Future Society à Harvard, la plus vieille, mais aussi la plus puissante des universités américaines, aussi pour bénéficier d’un enracinement et d’une réflexion plus profonde qui caractérise la côte Est des États-Unis par rapport à la côte ouest. Il y a un côté plus mesuré ; une prudence ; un respect par rapport aux usages et aux traditions. Et pour autant un dynamisme technoscientifique ainsi qu’un brassage de cultures et d’intelligences qu’on retrouve dans très peu d’écosystèmes à travers le monde.

Il s’agit donc d’un choix réfléchi qui vise quelque part à proposer un modèle alternatif à celui de la Silicon Valley ; empreint de plus d’humilité et peut-être de sagesse, au travers d’une conscience des enjeux du temps long et des forces profondes qui animent la trajectoire d’évolution de la vie intelligente dans l’univers. « Science sans conscience n’est que ruine de l’âme » disait Rabelais il y a plus de cinq siècles déjà. Nous avons fait notre cette belle maxime.

Cultiver une réflexion profonde à l’heure de la révolution NBIC qui remet en cause de façon rapide certains des grands équilibres qui ont régit nos modèles sociaux pendant des millénaires nous semble plus important que jamais. Avec la révolution de l’IA et des neurotechnologies, des choix d’une importance capitale -quasi existentiels- vont se présenter à nous. Il faut se donner les moyens de les instruire correctement.

Comment est perçu le transhumanisme aux États-Unis ? et en Europe ?

Notre position, si je peux parler ainsi, car The Future Society cultive la diversité, est qu’il est indispensable d’inviter les sociétés à créer les conditions d’un débat sur ces questions ; et que ce débat doit être transcivilisationnel. Permettre une politisation saine, sage et courageuse de ces enjeux, et quelque part de l’opposition croissante entre « transhumanistes libertariens », « techno-progressistes » et « bioconservateurs » de droite et de gauche nous semble crucial.

Cela n’est pas facile à faire, car les questions sont complexes, mais elles renvoient en fait à des interrogations philosophiques assez basiques, donc à la portée de l’immense majorité des gens, pourvu que le processus de politisation soit bien orchestré. Les experts dont nous faisons partie doivent de ce point de vue se mettre au service de la société, et faire preuve de pédagogie pour permettre aux citoyens de jouer leur rôle dans le débat. Définir la trajectoire d’évolution de l’Humanité au XXIe siècle à l’heure de l’accélération technologique implique rien de moins que cela ! C’est aussi ça l’éducation civique de notre époque.

Et les Français s’intéressent finalement beaucoup à ces questions par rapport à d’autres cultures, comme en témoigne le nombre important d’ouvrages, d’articles et de documentaires qui paraissent régulièrement sur la question depuis 2010. Vous savez, nous avions reçu Zoltan Itsvan (le candidat transhumaniste-libertarien à la présidence des États-Unis, Ndlr) à la Kennedy School en avril 2016 pendant la campagne des présidentielles américaines pour un débat politique inédit avec James Hugues (son opposant techno-progressiste, Ndlr). Discussion assez fascinante qui a entre autres montré que le transhumanisme n’est pas un bloc monolithique, mais plutôt un courant en évolution permanente et recomposition, ce qui est plutôt sain. La discussion a également montré en quoi le leadership techno-industriel vaut de plus en plus leadership politique. L’émergence d’un Marc Zuckerberg comme leader possible du parti démocrate le prouve bien aujourd’hui.

Et ce n’est pas forcément une bonne nouvelle ! C’est aussi pour cela que la France et l’Europe doivent prendre des risques et se réveiller sur le plan industriel si nous voulons être en capacité de faire entendre notre voix dans ce débat stratégique. Il ne s’agit rien de moins que de l’avenir de la condition humaine et des grands équilibres qui la régissent. Mais ce que je voulais vous dire en parlant de la visite de Zoltan Itsvan à Harvard… C’est qu’il était suivi par une équipe de télévision française qui faisait un reportage sur lui ! Cela montre à quel point les Français sont fascinés par ces enjeux ! Et de mon point de vue c’est plutôt rassurant.

Le spectre politique est en train d’évoluer profondément sous nos yeux : d’une seule dimension à plusieurs dimensions. Si bien qu’on doit plutôt penser en termes de « prisme ». Il y a un deuxième et un troisième axe au-delà du spectre « droite-gauche » : démocratie directe vs indirecte ; et local vs global. J’en rajoute même un quatrième, de plus en plus pertinent : bioconservateur vs transhumaniste. Et un cinquième, très ancien, mais qui resurgit : matérialistes vs transcendantalistes.

Existe-t-il une doctrine américaine de l’IA au plan économique, géopolitique, militaire ?

Dans la compétition stratégique croissante entre les États-Unis et la Chine, il y a indéniablement une course à l’IA. Commerciale, mais aussi militaire. Il faut arrêter de se voiler la face. Les enjeux sont trop importants et le paradigme du « winner-takes-all » de l’économie des plateformes est en train de donner un tour explosif à la course. La Russie semble en retrait, car très affaiblie sur le plan économique. En effet, la géopolitique de l’IA est avant tout une géo économie !

Et les deux mastodontes de l’économie numérique globale que sont la Chine et les États-Unis s’efforcent de s’appuyer sur la taille critique de leurs énormes marchés domestiques, et sur leurs alliances, pour devenir les leaders mondiaux de l’IA. Du côté des GAFAMI, comme des BATX, les capitaines d’industrie ont tous fait de l’IA le cœur de leur stratégie. Idem concernant les gouvernements : l’Administration Obama a mené tout un travail dans sa dernière année d’exercice en 2016 qui a débouché sur la publication d’une stratégie et d’une roadmap technologique, y compris sur le plan militaire avec la publication de sa stratégie du « third offset ».

Sans parler de cyber sécurité bien sûr dans laquelle l’IA est appelée à jouer un rôle croissant. A l’été 2017, les plus hautes autorités chinoises ont alors annoncé un plan stratégique de grande ampleur sur l’IA qui doit lui permettre de ravir le leadership technologique aux Américains en IA d’ici 2025. L’administration Trump ne s’est pas vraiment approprié le sujet, même si elle apporte un soutien indéfectible aux militaires et son grand plan de baisse des impôts devraient favoriser les géants du net. Même si la question d’une course à l’armement n’est pas clairement évoquée, elle est bien posée. Car d’un côté comme de l’autre on a un a une perception assez limpide de la dualité de ces technologies. Et dans les deux cas, le gouvernement a et va continuer à jouer un rôle critique pour soutenir les progrès technologiques. Regardez le rôle qu’a joué la DARPA aux États-Unis par exemple dans la révolution numérique. Aujourd’hui IA et robotique, mais avant cela, Internet, GPS. Le système chinois est un capitalisme d’État qui est encore plus clair et quelque part efficace. En tout cas le rattrapage numérique que les Chinois ont réussi à produire est assez incroyable et inquiète de plus en plus les Américains. C’est quelque chose dont on parle beaucoup à Harvard.

Eric Schmidt, le PDG d’Alphabet a tiré la sonnette d’alarme lors d’une conférence en novembre 2017 en affirmant que « la suprématie technologique sans égard dont les États-Unis ont bénéficié depuis la chute de l’Union Soviétique est terminée ». L’Europe, mais surtout l’Afrique sera demain un terrain d’affrontement entre ces deux modèles aux antipodes l’un de l’autre.

Quelles pistes pour la France ?

La période actuelle est un tournant indéniable. Nous avons la chance d’avoir un Président brillant qui est parfaitement conscient des enjeux de son temps, y compris sur le plan numérique. D’où également l’attachement viscéral du Président Macron à l’Europe. Car dans le monde qui vient, plus que jamais l’union fera la force.

Dans cette période charnière, il ne faut surtout pas que la France rate la mise en place des conditions de son leadership numérique en Europe et dans le monde. De ce point de vue, l’implosion récente du Conseil national du numérique (CNNum) n’est pas une bonne nouvelle, car elle nous prive d’un véhicule d’échange et de dialogue indispensable entre le gouvernement et la société civile. Il faut impérativement que l’on réussisse à sortir par le haut de la crise actuelle. Peut-être en repensant au passage les missions du CNNum et certains des grands principes qui régissent son fonctionnement comme son indépendance par exemple… Et son articulation avec le Conseil Economique Sociale et Environnemental ?

Réussir 2018 pour la France sur les plans du numérique et de l’IA implique de présenter une stratégie française en matière d’IA qui soit ambitieuse en matière industrielle. C’est ce à quoi s’attèle avec talent et détermination Cédric Villani qui rendra son rapport dans quelques semaines. Il reviendra alors à Mounir Mahjoubi, le ministre en charge du numérique, de traduire les axes proposés en une stratégie et l’exécuter.

Notre stratégie en matière d’IA doit aussi chercher à influencer la stratégie européenne que la Commission publiera à la mi-année. Quelques points à regarder avec attention de ce point de vue : l’articulation d’une stratégie industrielle en matière de data avec le cadre régulatoire du Règlement général de protection des données (RGPD) qui s’appliquera à partir de mai 2018 à travers toute l’Europe. Il est impératif de réussir à faire de ce cadre une chance pour la France et l’Europe permettant de faire émerger des leaders industriels de la data et de l’IA. Et cela ne va pas être facile, car les risques et les entraves pour les entrepreneurs sont importants.

Faire de l’Europe le champion de l’éthique sans masse critique des usages est dangereux. Surtout quand on connaît la propension des consommateurs à sacrifier vie privée contre gratuité et confort d’usage. Il faut que cela change, mais le dosage doit être équilibré, car nous vivons dans un marché globalisé. Si nous savons trouver la bonne mesure, le RGPD offre des atouts donc il faut se saisir, comme le droit à la portabilité des données qui peut être un avantage comparatif majeur pour le marché unique et les acteurs européens. Il faut que les gouvernements développent une politique industrielle solide permettant de faire émerger des plateformes européennes nourries à la portabilité. C’est un changement de paradigme qui ne va pas se faire tout seul.

_____

Par Thierry Berthier, Maitre de conférences en mathématiques, cybersécurité et cyberdéfense, chaire de cyberdéfense Saint-Cyr, Université de Limoges et Nicolas Miailhe, Senior Visiting Research Fellow, Harvard University

La version originale de cet article a été publiée sur The Conversation

 

Intelligence artificielle : avancées, limites et gadgets (Charles Edouard Bouée)

Intelligence artificielle : avancées, limites et gadgets (Charles Edouard Bouée)

 

Dans une tribune des Échos, Charles Edouard Bouée,  président de Roland Berger, fait la part de ce qui relève réellement des avancés en matière d’intelligence artificielle et ce qui relève des gadgets car surtout destinés à valoriser artificiellement un produits et/ou  à attirer des capitaux.

 

«  La septicémie, qui représente une des premières causes de mortalité en milieu hospitalier, pourrait bientôt appartenir au passé. Comment ? Grâce à un algorithme d’intelligence artificielle capable de détecter, une demi-heure avant qu’elle ne survienne, une chute brutale de la pression artérielle très souvent indicatrice d’une infection du sang. Trente minutes suffisent à l’équipe soignante pour intervenir, sauver ainsi des milliers de vies et économiser des milliards de dollars. Une telle avancée est le fruit de la collaboration entre l’expert en intelligence artificielle Antoine Blondeau, fondateur de  Sentient Technologies, et les chercheurs du MIT . On est bien loin du buzz que des entreprises peu scrupuleuses font parfois, en estampillant « IA » des solutions technologiques qui pour certaines n’ont rien à voir avec l’intelligence artificielle, pour attirer les investisseurs et les clients. Après le « green washing », consistant à donner un vernis durable à des produits et des services qui ne le sont pas, l’« AI washing » nous promet monts et merveilles avec des solutions qui ne sont que des gadgets. C’est que derrière le succès actuel du terme « intelligence artificielle » – d’ailleurs choisi un peu par hasard en 1956 par John McCarthy, se cachent des technologies complexes : le « deep learning », qui permet la reconnaissance des objets et des mots, associé au « machine reasoning », qui permet d’élaborer des modèles prédictifs, les deux étant complétés par des algorithmes génétiques et des codes écrits par la machine elle-même. Si bien que le grand public a parfois du mal à comprendre les tenants et les aboutissants. D’où la difficulté à savoir ce qui relève vraiment de l’IA : de nombreux produits ou services qui disent reposer sur de l’intelligence artificielle, ne mobilisent en réalité que des logiciels d’automatisation basiques. Un autre mirage consiste à faire croire, en particulier aux chefs d’entreprises, que l’intelligence artificielle est toujours la réponse la plus adaptée pour accroître l’efficacité d’un processus. C’est loin d’être systématiquement le cas. Ainsi, lorsqu’on cherche une réponse à une question précise, les outils analytiques de Business Intelligence sont souvent plus pertinents. Mais label « IA » attire le chaland… et certains en abusent. Si, comme tous les eldorados, l’intelligence artificielle a ses charlatans, elle a aussi ses magiciens. Antoine Blondeau, Chris Boos, fondateur de la société Arago , Tomaso Poggio du MIT , Yann Le Cun de Facebook AI Research, Sean Tang, fondateur de SenseTime , Jürgen Schmidhuber du laboratoire suisse Idsia, Demis Hassabis de Deepmind … venus de tous les continents, ils travaillent ensemble autant dans les laboratoires, les universités que les entreprises. Ils forment une communauté d’experts capables de faire émerger un nouveau monde, sans bruit, loin des médias. On sait que l’intelligence artificielle sera la rupture technologique, sociale et économique des décennies à venir. Et il est certain que les prochaines licornes seront des entreprises d’intelligence artificielle. Mais la bataille ne se joue pas toujours où on le croit. Ni chez ceux qui en parlent beaucoup, ni forcément chez les GAFA ou leurs cousins chinois, les BAT. Les innovations véritables sont le fait de scientifiques et de techniciens qui n’aiment pas la lumière. Quant à ceux qui bluffent, en prétendant développer des solutions d’IA quand ce n’est pas le cas, ils pourraient bien être pris à leur propre piège. Car après DeepBlue aux échecs et Alphago au jeu de Go, le programme Libratus a envoyé au tapis, en janvier 2017, quatre joueurs de poker professionnels . En nous laissant face à ce constat vertigineux : l’intelligence artificielle sait donc bluffer, et intégrer le bluff des autres à sa propre stratégie ! Il ne lui reste plus qu’à apprendre à démasquer les bluffeurs. ».

 

Réseaux sociaux : danger pour la démocratie et l’intelligence

Réseaux sociaux : danger pour la démocratie et l’intelligence

Facebook admet que son réseau social peut véhiculer de fausses informations. Il s’engage donc à mieux réguler les contenus. Un pari impossible puisqu’il y a 2 milliards d’utilisateurs. Pour les Français c’est un peu comme à  la Samaritaine, on n’y trouve un peu tout,  le meilleur et le pire.  Pour preuve certains  sites et autres forums sont considérés comme des vecteurs d’intox. . Les réseaux sociaux sont particulièrement visés par les internautes, une critique justifiée dans la mesure où dominent souvent les avis partisans, les informations approximatives voire  la manipulation, aus si surtout des contenus indigents. Pas étonnant dans la mesure les sites constituent un véritable maquis de quelque 5 millions d’émetteurs. Sur ces 5 millions sans doute à peine quelques centaines présentent  sans doute un intérêt. Ceci étant les Français considère que globalement Internet constitue une source d’information utile.

Usage d’Internet en France

  • 85% des Français ont accès à Internet
  • 74% y accèdent tous les jours – 95% des 18-24 ans
  • En moyenne, on passe 18 heures par semaine sur Internet
  • 93% ont un mobile, 65% un smartphone, 82% un ordinateur, 40% une tablette
  • En moyenne, on passe 58 minutes par jour sur l’Internet mobile
  • 55% des Français utilisent un navigateur, 48% téléchargent des applications
  • 60% des Français ont effectué au moins un achat en ligne en 2016
  • 25% utilisent Internet pour leur recherche d’emploi
  • 56% sont inscrits sur au moins un réseau social
  • En moyenne, on passe 1h16 par jour sur les réseaux sociaux

 

Selon la 6e édition du baromètre publié lundi par l’Acsel (association de l’économie du numérique)  et La Poste, trois Français sur quatre n’ont pas confiance dans les informations qu’ils trouvent sur les réseaux sociaux. Si 75% des Français disent avoir confiance dans les informations des sites de médias en ligne traditionnels, ils ne sont plus que 32% pour celles trouvées sur les forums, et ce chiffre tombe à 25% pour les informations circulant sur les réseaux sociaux. Seule une minorité de personnes estime que les informations trouvées sur Facebook, Twitter ou encore LinkedIn sont neutres (27%) et fiables (29%). Près de neuf Français sur dix (86%) estiment cependant qu’Internet leur permet d’avoir accès à une diversité de points de vue. Au total, 85% des Français utilisent désormais Internet (contre 70% en 2009), et parmi eux, près de 9 sur 10 se connectent quotidiennement.

Intelligence artificielle : les limites

Intelligence artificielle : les limites

Dans un article de la Tribune,  James Buchanan – Directeur Stratégie, Razorfish Londres, évoque les limites de l’IA.

 

 

 

« Omniprésente cette année au salon South by Southwest, l’intelligence artificielle a tous les attributs d’une grande révolution annoncée. Son potentiel est un peu plus « réel » chaque jour, de l’ordinateur qui bat les meilleurs joueurs de Go à la voiture autonome.  Lors de cette manifestation à laquelle j’ai participé aux côtés de 3 autres experts, j’ai eu l’occasion d’aborder l’impact des services propulsés par l’IA à l’échelle de l’individu. Au cours des cinq dernières années, les objets et services intelligents se sont essayés à tous les aspects de notre vie. Depuis la rencontre amoureuse jusqu’à la livraison, en passant par la finance et le sport, des start-ups anticipent désormais le moindre de nos problèmes et nous proposent des services toujours plus personnalisés à l’aide de l’IA. Sous couvert d’être pratiques, ces services changent notre façon de voir le monde, notre manière de penser et notre propre identité. Quelle valeur accordons-nous à notre libre-arbitre ? Sommes-nous prêts à sacrifier notre autonomie ? Avec l’émergence des machines qui apprennent, notre monde devient de plus en plus inquiétant et étrange, et il est légitime de s’interroger sur son évolution.  C’est maintenant qu’il faut en parler, alors que ces outils sont encore à notre service. Personne ne veut devenir le simple prolongement de chair et d’os d’un algorithme. L’innovation a toujours modifié notre façon de penser : ce que nous créons nous influence en retour. Le cas de l’intelligence artificielle est unique. Elle se matérialise par des outils qui ont leur intelligence propre et ne se laissent pas totalement contrôler. A la poursuite de leur logique interne, ils s’améliorent au contact de millions d’utilisateurs, leur influence croissant avec leur intelligence. Ces services semblent utiles car ils résolvent nos problèmes, révèlent ce qu’il y a de meilleur en nous et minimisent nos insuffisances. Ils nous confèrent quasiment des superpouvoirs. C’est pourtant d’un œil critique que nous devrions considérer cette situation. Dans ce futur algorithmique, qu’est ce qui compte le plus ? Avoir l’opportunité de partager mon point de vue est plutôt un accomplissement pour qui, comme moi, a grandi dans une petite ville. Mais que penser d’un futur où l’IA ne me permettra plus jamais de rencontrer ceux qui ne sont pas d’accord avec moi ? Que penser d’un service financier qui, faisant passer en premier ce qu’il sait être mes intérêts à long-terme, me rendra volontairement difficile la prise de décisions d’impulsion? In fine, peut-on sincèrement croire que « le marché » prendra soin de nous ? L’option de facilité consiste à se concentrer sur les résultats : clients enrichis, volume d’engagement, indice de satisfaction… Des données simples car elles correspondent déjà aux objectifs des entreprises. Elles offrent aussi de la lisibilité sur les variables grâce auxquelles les algorithmes s’améliorent, le reflet d’une culture scientifique dans laquelle ont grandi de nombreux tech-entrepreneurs. Mais laisser de côté toute préoccupation de sécurité devrait pourtant nous inquiéter un peu plus. Même des scientifiques de renom comme Stephen Hawkins admettent que l’intelligence artificielle pourrait bientôt nous échapper… Un autre mot pour « résultat » est « fin », et l’on sait qu’elle ne justifie pas les moyens. Enrichir un client n’est pas un argument valable si, en chemin, vous détériorez un autre aspect de sa vie, ou celle de quelqu’un d’autre, de façon imprévisible. Il y a ensuite le risque de devenir dépendant. Que se passerait-il si tous ces services devenaient soudainement inaccessibles ? Serions-nous livrés à nous-mêmes ? C’est bien une question d’éthique que pose en creux l’IA… Il existe heureusement une alternative. Et si au lieu de se focaliser sur les résultats nous aidions plutôt les gens à devenir un peu plus eux-mêmes ? En encourageant la réflexion et la connaissance de soi, nous donnerions la priorité à l’enseignement plutôt qu’à l’automation. Nous donnerions aux gens les outils pour développer leurs compétences naturelles plutôt que de chercher à les remplacer. Nous passerions probablement plus de temps à réfléchir au rôle que ces services jouent au sein de la société plutôt qu’à ce qu’ils apportent à l’individu isolé. En somme, en faisant moins nous pouvons encourager les autres à en faire plus et à agir de façon éthique et responsable. Mais cela n’arrivera pas par hasard, nous devons passer par un chemin choisi délibérément. Tant dans les instances dirigeantes, où le sujet doit être mis à l’ordre du jour des agendas politiques, qu’auprès des citoyens, nous devons nous assurer que les consciences s’éveillent à ces questions. Asseyons-nous autour d’une table et engageons dès aujourd’hui la discussion sur ce que l’IA peut proposer, non seulement aux personnes que nous sommes, mais aussi à celles que nous voulons devenir. »

Intelligence artificielle : gadgets ou progrès (Charles Edouard Bouée)

Intelligence artificielle : gadgets ou progrès (Charles Edouard Bouée) 

Dans uen tribune des Échos, Charles Edouard Bouée,  président de Roland Berger, fait la part de ce qui relève réellement des avancés en matière d’intelligence artificielle et ce qui relève des gadgets.

«  La septicémie, qui représente une des premières causes de mortalité en milieu hospitalier, pourrait bientôt appartenir au passé. Comment ? Grâce à un algorithme d’intelligence artificielle capable de détecter, une demi-heure avant qu’elle ne survienne, une chute brutale de la pression artérielle très souvent indicatrice d’une infection du sang. Trente minutes suffisent à l’équipe soignante pour intervenir, sauver ainsi des milliers de vies et économiser des milliards de dollars. Une telle avancée est le fruit de la collaboration entre l’expert en intelligence artificielle Antoine Blondeau, fondateur de  Sentient Technologies, et les chercheurs du MIT .  On est bien loin du buzz que des entreprises peu scrupuleuses font parfois, en estampillant « IA » des solutions technologiques qui pour certaines n’ont rien à voir avec l’intelligence artificielle, pour attirer les investisseurs et les clients. Après le « green washing », consistant à donner un vernis durable à des produits et des services qui ne le sont pas, l’« AI washing » nous promet monts et merveilles avec des solutions qui ne sont que des gadgets. C’est que derrière le succès actuel du terme « intelligence artificielle » – d’ailleurs choisi un peu par hasard en 1956 par John McCarthy, se cachent des technologies complexes : le « deep learning », qui permet la reconnaissance des objets et des mots, associé au « machine reasoning », qui permet d’élaborer des modèles prédictifs, les deux étant complétés par des algorithmes génétiques et des codes écrits par la machine elle-même. Si bien que le grand public a parfois du mal à comprendre les tenants et les aboutissants. D’où la difficulté à savoir ce qui relève vraiment de l’IA : de nombreux produits ou services qui disent reposer sur de l’intelligence artificielle, ne mobilisent en réalité que des logiciels d’automatisation basiques. Un autre mirage consiste à faire croire, en particulier aux chefs d’entreprises, que l’intelligence artificielle est toujours la réponse la plus adaptée pour accroître l’efficacité d’un processus. C’est loin d’être systématiquement le cas. Ainsi, lorsqu’on cherche une réponse à une question précise, les outils analytiques de Business Intelligence sont souvent plus pertinents. Mais label « IA » attire le chaland… et certains en abusent. Si, comme tous les eldorados, l’intelligence artificielle a ses charlatans, elle a aussi ses magiciens. Antoine Blondeau, Chris Boos, fondateur de la société Arago , Tomaso Poggio du MIT , Yann Le Cun de Facebook AI Research, Sean Tang, fondateur de SenseTime , Jürgen Schmidhuber du laboratoire suisse Idsia, Demis Hassabis de Deepmind … venus de tous les continents, ils travaillent ensemble autant dans les laboratoires, les universités que les entreprises. Ils forment une communauté d’experts capables de faire émerger un nouveau monde, sans bruit, loin des médias. On sait que l’intelligence artificielle sera la rupture technologique, sociale et économique des décennies à venir. Et il est certain que les prochaines licornes seront des entreprises d’intelligence artificielle. Mais la bataille ne se joue pas toujours où on le croit. Ni chez ceux qui en parlent beaucoup, ni forcément chez les GAFA ou leurs cousins chinois, les BAT. Les innovations véritables sont le fait de scientifiques et de techniciens qui n’aiment pas la lumière. Quant à ceux qui bluffent, en prétendant développer des solutions d’IA quand ce n’est pas le cas, ils pourraient bien être pris à leur propre piège. Car après DeepBlue aux échecs et Alphago au jeu de Go, le programme Libratus a envoyé au tapis, en janvier 2017, quatre joueurs de poker professionnels . En nous laissant face à ce constat vertigineux : l’intelligence artificielle sait donc bluffer, et intégrer le bluff des autres à sa propre stratégie ! Il ne lui reste plus qu’à apprendre à démasquer les bluffeurs. ».

Les gadgets de l’ intelligence artificielle (Charles Edouard Bouée)

Les gadgets de l’ intelligence artificielle (Charles Edouard Bouée)  

Dans un tribune des Échos, Charles Edouard Bouée,  président de Roland Berger, fait la part de ce qui relève réellement des avancés en matière d’intelligence artificielle et ce qui relève des gadgets.

«  La septicémie, qui représente une des premières causes de mortalité en milieu hospitalier, pourrait bientôt appartenir au passé. Comment ? Grâce à un algorithme d’intelligence artificielle capable de détecter, une demi-heure avant qu’elle ne survienne, une chute brutale de la pression artérielle très souvent indicatrice d’une infection du sang. Trente minutes suffisent à l’équipe soignante pour intervenir, sauver ainsi des milliers de vies et économiser des milliards de dollars. Une telle avancée est le fruit de la collaboration entre l’expert en intelligence artificielle Antoine Blondeau, fondateur de  Sentient Technologies, et les chercheurs du MIT .  On est bien loin du buzz que des entreprises peu scrupuleuses font parfois, en estampillant « IA » des solutions technologiques qui pour certaines n’ont rien à voir avec l’intelligence artificielle, pour attirer les investisseurs et les clients. Après le « green washing », consistant à donner un vernis durable à des produits et des services qui ne le sont pas, l’« AI washing » nous promet monts et merveilles avec des solutions qui ne sont que des gadgets. C’est que derrière le succès actuel du terme « intelligence artificielle » – d’ailleurs choisi un peu par hasard en 1956 par John McCarthy, se cachent des technologies complexes : le « deep learning », qui permet la reconnaissance des objets et des mots, associé au « machine reasoning », qui permet d’élaborer des modèles prédictifs, les deux étant complétés par des algorithmes génétiques et des codes écrits par la machine elle-même. Si bien que le grand public a parfois du mal à comprendre les tenants et les aboutissants. D’où la difficulté à savoir ce qui relève vraiment de l’IA : de nombreux produits ou services qui disent reposer sur de l’intelligence artificielle, ne mobilisent en réalité que des logiciels d’automatisation basiques. Un autre mirage consiste à faire croire, en particulier aux chefs d’entreprises, que l’intelligence artificielle est toujours la réponse la plus adaptée pour accroître l’efficacité d’un processus. C’est loin d’être systématiquement le cas. Ainsi, lorsqu’on cherche une réponse à une question précise, les outils analytiques de Business Intelligence sont souvent plus pertinents. Mais label « IA » attire le chaland… et certains en abusent. Si, comme tous les eldorados, l’intelligence artificielle a ses charlatans, elle a aussi ses magiciens. Antoine Blondeau, Chris Boos, fondateur de la société Arago , Tomaso Poggio du MIT , Yann Le Cun de Facebook AI Research, Sean Tang, fondateur de SenseTime , Jürgen Schmidhuber du laboratoire suisse Idsia, Demis Hassabis de Deepmind … venus de tous les continents, ils travaillent ensemble autant dans les laboratoires, les universités que les entreprises. Ils forment une communauté d’experts capables de faire émerger un nouveau monde, sans bruit, loin des médias. On sait que l’intelligence artificielle sera la rupture technologique, sociale et économique des décennies à venir. Et il est certain que les prochaines licornes seront des entreprises d’intelligence artificielle. Mais la bataille ne se joue pas toujours où on le croit. Ni chez ceux qui en parlent beaucoup, ni forcément chez les GAFA ou leurs cousins chinois, les BAT. Les innovations véritables sont le fait de scientifiques et de techniciens qui n’aiment pas la lumière. Quant à ceux qui bluffent, en prétendant développer des solutions d’IA quand ce n’est pas le cas, ils pourraient bien être pris à leur propre piège. Car après DeepBlue aux échecs et Alphago au jeu de Go, le programme Libratus a envoyé au tapis, en janvier 2017, quatre joueurs de poker professionnels . En nous laissant face à ce constat vertigineux : l’intelligence artificielle sait donc bluffer, et intégrer le bluff des autres à sa propre stratégie ! Il ne lui reste plus qu’à apprendre à démasquer les bluffeurs. ».

 

« Le tsunami de l’intelligence artificielle (Charles-Édouard Bouée)

« Le tsunami de  l’intelligence artificielle (Charles-Édouard Bouée)

Charles-Édouard Bouée, le président du cabinet de conseil Roland Berger, explique les défis qui nous attendent avec l’arrivée de l’intelligence artificielle dans une interview à la Tribune

 

Sommes-nous en train de vivre un tournant avec l’arrivée de l’intelligence artificielle dans nos vies ?

CHARLES-ÉDOUARD BOUÉE - À l’évidence, oui ! Tous les indices que nous observons depuis deux ans le montrent. Nous entrons dans l’âge des machines intelligentes. En 2016, il y a eu des prises de position très claires de personnages emblématiques des nouvelles technologies – Elon Musk, Bill Gates, etc. – et des victoires hautement symboliques de l’IA contre les champions du monde du jeu de go, de poker ou du jeu Civilisation, qui est un jeu de stratégie encore plus complexe. On a aussi vu émerger de nouveaux acteurs de l’IA, comme Nvidia qui a doublé de valeur boursière en un an. Le vrai point d’inflexion a eu lieu il y a dix ans, en 2005-2006. C’est là que les premières puces Nvidia et les premières applications de machine learning sont apparues. Mais le mot intelligence artificielle n’est entré dans le vocabulaire des entreprises que depuis 2016. La France s’en est rendu compte avec retard mais a lancé en janvier dernier France IA, une initiative intéressante dotée d’une enveloppe de 1,5 milliard d’euros sur dix ans, et qu’il faut désormais développer. Tous les grands pays en ont fait une priorité : dès 2016 aux États-Unis, un rapport très complet sur les enjeux de l’IA a été remis à Barack Obama. Les Chinois aussi en ont fait leur nouvel objectif national prioritaire. Les entreprises en parlent, les États s’en préoccupent et le sujet commence aussi à intéresser le grand public, à voir les nombreuses unes de la presse qui y sont consacrées.

Il y a donc une accélération ces deux dernières années…

L’intelligence artificielle coïncide avec la prise de conscience de l’impact des technologies nouvelles sur le travail, et sans être au coeur des enjeux des élections dans les différents pays, elle percute le débat politique parce qu’elle aura des conséquences pour l’économie et l’emploi. En mai 2014, Roland Berger avait fait une étude remarquée selon laquelle la robotisation pourrait menacer 42 % des emplois. C’était très prospectif. Les débats restaient très académiques. C’est aujourd’hui devenu un sujet de l’actualité. Tout le monde en parle. Il y a une accélération du temps. Pas seulement celui des technologies mais de tout. Hartmut Rosa, le philosophe allemand, a raison : le temps s’accélère.

Quels scénarios envisager pour l’arrivée de l’IA dans nos vies ?

Elle est déjà présente mais cela reste peu visible. Dans mon livre, j’essaie de décrire ce qui va se passer à un double horizon de dix ans et de vingt ans. 2026-2036, c’est à la fois loin et très proche. Cela va être selon moi un tsunami, en deux vagues. La première, sur la période 2016-2026, va être marquée par le basculement dans l’intelligence artificielle portative, intégrée dans les téléphones mobiles et également dans tous les autres équipements que nous utilisons. L’intelligence artificielle portative pour tous, cela veut dire que notre vie va changer encore davantage dans les dix prochaines années que dans les dix précédentes. L’IA portative va nous faire gagner du temps, en réalisant à notre place tout une série de tâches simultanément et rapidement. L’homme augmenté avec son smartphone intelligent sera capable de gérer plusieurs dimensions en parallèle : notre intelligence artificielle portative pourra en même temps faire nos courses sur plusieurs sites Internet et nous faire livrer à domicile au meilleur prix les meilleurs produits, réserver nos vacances, comparer les prix des abonnements de téléphone tout en vérifiant que nos données personnelles ne sont pas utilisées par des tiers sans notre accord – car notre IA portative effectuera elle-même les recherches et les achats, disruptant ainsi des secteurs entiers comme la grande distribution ou la publicité. Elle se connectera aussi avec l’IA portative de nos voisins, par exemple pour acheter de l’électricité au distributeur local. Notre vie quotidienne et toutes les industries vont être radicalement transformées.

Il y a un gros débat sur la productivité à l’heure du numérique, car on ne la voit pas dans les statistiques. Cette IA portative va tout changer ?

Oui, et elle va faire disparaître la fracture numérique, le fameux digital divide, à part pour ceux qui ne sauront pas se servir d’un smartphone… C’est comme l’énergie. On est tous égaux devant l’électricité. L’IA portative entraînera aussi un rééquilibrage du rapport de force entre les entreprises et les particuliers. Aujourd’hui, l’entreprise, même traditionnelle, a le pouvoir sur nos données et sur la technologie. Demain, avec l’IA portative, l’écart va se combler car tout le monde aura accès à cette puissance informatique. Avec la montée des cadres nomades et des freelancers, les rapports de force sociaux et le monde du travail pourraient évoluer sensiblement : nous tous, salariés comme consommateurs, serons « augmentés » et pourrons postuler aux nouveaux emplois, nous procurer les nouveaux produits et services avec l’appui de notre IA personnelle.

Qui seront les acteurs de cette intelligence artificielle portative ?

Selon moi, les leaders de cette nouvelle révolution ne seront pas les Gafa. Ni Google ni Apple ni Facebook ni Amazon, ni même les Chinois des Bat (Baidu, Alibaba et Tencent). Il y aura un rééquilibrage entre les grands acteurs de l’Internet, les entreprises et les individus. La question de la sécurité des données, des data, sera cruciale. On crée tous les deux ans autant de données que celles qui ont été produites avant par l’humanité. C’est vertigineux. Celui qui pourra avoir accès à des données « fraîches » sera très rapidement au même niveau que celui qui l’a précédé. Avec une IA portative, personne ne voudra avoir affaire à un commerçant qui dispose de son historique de données. Tout nouvel acteur capable de garantir cette protection des données aura donc une prime sur les autres. Ce pourra être un spin off des Gafa, ou bien un nouvel acteur encore inconnu. Les données n’auront plus la même valeur économique. Les futurs nouveaux algorithmes seront probablement moins consommateurs de données car l’IA sera de plus en plus élaborée. Aujourd’hui le machine learning [apprentissage automatique ou apprentissage statistique, Ndlr] a besoin d’une masse considérable de data et de capacité de calcul. Demain, nous passerons au machine reasoning avec une IA interprétative ayant une plus forte capacité de raisonnement. La dernière preuve empirique que les Gafa ne seront pas forcément les gagnants de la bataille de l’IA, c’est l’observation du passé. Il y a eu trois vagues technologiques depuis les années 1990 : la vague de l’ordinateur portable avec Microsoft et IBM ; la vague d’Internet avec les grands opérateurs fournisseurs d’accès à Internet, comme AOL (America Online). Et enfin, on a eu la vague des Gafa avec Apple, Google, Facebook et Amazon.

En dix ans, les Gafa ont atteint en Bourse l’équivalent du PIB de la France… Comment imaginer leur disparition ?

Ces entreprises ne vont pas disparaître mais elles peuvent connaître le même sort que celui des opérateurs télécoms. Dans dix ans, il y aura des sociétés qui auront une capitalisation boursière de plus de 1 000 milliards de dollars mais selon moi, ce ne seront pas les Gafa. Les nouveaux acteurs dominants seront ceux qui fourniront l’IA portative en protégeant les données personnelles. L’histoire a montré qu’à chaque transition, les consommateurs ont cherché un nouveau produit et une nouvelle marque. Google au début était un service neutre qui n’essayait pas de nous vendre quelque chose. Le moteur de recherche s’est imposé et est ensuite devenu un service marchand. Il y a donc beaucoup de présomptions que les dernières années ne sont pas une garantie pour le futur. On peut imaginer que la prochaine disruption technologique, qui est la plus grosse, se fera avec de nouveaux acteurs.

Cela veut dire que tout le monde repart du même point. Mais les Gafa sont tellement riches qu’ils pourraient aspirer tous les cerveaux. N’a-t-on pas atteint un point de non-retour ?

Ce n’est pas qu’une question de puissance et d’argent mais d’algorithmes et de créativité pour engendrer de nouveaux business. Ceux qui ont fait fortune, ce ne sont pas les créateurs d’Internet, mais ceux qui ont suivi, qui ont su créer les services, fait un comparateur, un site de vente en ligne ou de voyage ou de rencontres… Au début des années 1990, les étudiants d’Harvard allaient chez Microsoft qui attirait tous les talents et pourtant ce sont d’autres qui ont gagné la bataille de l’Internet. Donc rien ne garantit que les Gafa seront les gagnants pour l’éternité. En dix ans, un nouvel entrant avec peu de capitaux mais les bons cerveaux peut prendre leur place.

Donc, c’est la révolution des cerveaux… humains ?

Oui, heureusement… mais cela sera différent dans les dix années qui suivent. Dans la séquence 2026-2036, les progrès de l’IA seront encore plus spectaculaires : machine learning, machine reasoning, la machine qui apprend, celle qui raisonne ; puis viendront les algorithmes génétiques qui se corrigent et se transforment, c’est-à-dire une machine capable d’évoluer génétiquement, comme un cerveau humain.

On va donc vers l’IA forte ?

Progressivement, de plus en plus d’applications utiliseront l’IA portative. Ma thèse est qu’à un moment donné, de manière aléatoire, une machine va s’éveiller. Dans le livre, je date cet événement, qui correspond au fameux point de singularité, au 15 août 2038. Cela peut arriver n’importe où, n’importe quand. Ce sera un « accident ». Ce n’est pas nécessairement celui qui cherche qui trouvera. Dans la thèse du livre, c’est une mise à jour de routine de l’IA qui déclenche son éveil.

Oui, et cela pose dès lors toute une série de questions philosophiques. Comment se comporte l’IA devenue consciente ?

Il y a deux écoles. Ceux qui pensent que la machine aura tous les caractéristiques humaines. Les bonnes et les mauvaises… Elle sera cupide, voudra du pouvoir et asservir les autres. Et il y a ceux, les plus nombreux, qui pensent que la machine raisonnera par rapport à son propre empire. Elle voudra sécuriser son accès à l’énergie, la stocker et survivre. Elle va donc s’assurer que l’environnement climatique et énergétique est sécurisé. C’est tout ce dont elle a besoin. Elle cherchera à éviter les guerres et tout ce qui pourrait perturber ses infrastructures.

Elle va gouverner la planète Terre… Ce sera « la chute de l’empire humain » ?

Elle va s’assurer de sa survie sur Terre. La machine ne raisonnera pas selon les critères humains, mais en fonction de ses besoins propres. La chute de l’empire humain à l’ère de l’intelligence artificielle forte, ce sera du Gengis Khan ludique et indolore. Comme le décrit Elon Musk, l’homme vivra dans un énorme jeu vidéo, une sorte de Matrix – car pour la machine ce sera le meilleur endroit où mettre les humains.

Les gens en auront-ils conscience ?

Non. Pour l’instant les gens sont sur la plage : ils contemplent les vaguelettes et ne voient pas l’énorme tsunami qui arrive.

Pourtant on voit poindre un début de révolte contre les technologies…

Empiriquement, on sait qu’on ne peut pas arrêter les technologies. Même le nucléaire ne l’a pas été. La question est de savoir dans quel monde nous voulons vivre et comment nous souhaitons contrôler la technologie, ou pas. Mais le vrai problème est que nous n’avons pas conscience de la situation. Si l’être humain savait avec certitude qu’une machine prend le contrôle, alors il se battrait pour sa souveraineté. Mais la probabilité que nous ne soyons pas dans une immense simulation est d’une sur un milliard, a dit Elon Musk. Sa thèse est que la chute de l’empire humain, nous ne la verrons pas. Il se pourrait que nous y soyons déjà.

Sans aller aussi loin dans la prospective, l’intelligence artificielle est aussi une énorme opportunité de business ?

Je ne suis pas d’accord avec ceux qui pensent qu’on est coincé dans un monde de raréfaction du travail et où le revenu universel va s’imposer. Il nous reste dix ans devant nous pendant lesquels nous pouvons encore gagner la bataille. On est à l’aube d’un âge d’or si on sait s’adapter.

Pourtant le patron de Microsoft dit, comme certains hommes et femmes politiques, qu’il faudra taxer les robots pour financer un revenu universel…

Nous avons encore dix ans devant nous pendant lesquels nous pouvons gagner. Le revenu universel, c’est beaucoup trop tôt pour l’envisager. C’est reconnaître qu’on va perdre la bataille de l’IA. C’est exactement l’inverse de ce qu’il faut faire. Nos hommes et femmes politiques sont loin d’être les seuls à tenir ce discours, il y a aussi des représentants de la Silicon Valley qui en parlent. Mais la différence est que ceux-ci sont persuadés qu’ils vont gagner la bataille de l’IA. Le revenu universel, c’est pour expliquer aux gens qu’il faut qu’ils se préparent à être d’éternels perdants, qu’ils ne pourront qu’être pauvres, et subventionnés pour ne pas travailler. Au contraire, les syndicalistes devraient s’emparer de l’IA pour réclamer un effort massif d’éducation et de formation, et permettre aux étudiants et aux travailleurs français d’être les meilleurs. Aujourd’hui, il faut regrouper nos forces : travailler avec les Allemands ainsi qu’avec les autres pays européens, et faire effet de levier face aux Américains qui sont actuellement un peu affaiblis en raison de leurs clivages internes.

Et les entreprises, que font-elles pour se préparer ?

La prise de conscience a commencé. Depuis deux ans, les entreprises se sont lancées à marche forcée dans la transformation digitale. Elles sont en train de comprendre que ce n’est qu’une promenade de santé au regard de la montagne à gravir. Mais je leur dis que c’est une opportunité incroyable pour une entreprise de la vieille économie, car cela rebat toutes les cartes. En ayant une stratégie IA, elles peuvent rattraper leur retard. Aujourd’hui, tous nos clients se sentent menacés par les Gafa. Leur dire que même les Gafa peuvent disparaître avec l’arrivée en dix ans de nouveaux acteurs, c’est de nature à leur redonner l’espoir.

L’Europe a sa chance dans cette nouvelle bataille ?

Oui, parce qu’on a les mathématiciens, les ingénieurs, les cerveaux. Et on n’a pas les Gafa. Pourquoi les Gafa ont-ils gagné contre les opérateurs télécoms ? Parce que les opérateurs étaient persuadés qu’ils avaient la maîtrise du débit et du client. Les fournisseurs d’accès Internet ont cru qu’ils allaient gagner parce qu’ils avaient les abonnés. Mais lorsque les Gafa ont débarqué avec des applications qui ont été d’emblée adoptées par les clients, c’était fini pour eux. Ils sont passés de très riches à très pauvres. C’est une des raisons pour lesquelles l’Europe a raté le virage. Les opérateurs télécoms européens étaient les maîtres du monde et ils ont été vaincus : Vodafone, Deutsche Telekom, France Telecom avaient une stratégie d’expansion mondiale. C’étaient des cash machines qui émettaient de la monnaie papier car ils contrôlaient les consommateurs en les équipant de portables. Et les Gafa les ont remplacés en dix ans. C’est la preuve empirique que tout reste possible. On n’est pas assez stratèges en Europe. Les Chinois ont gagné la bataille suivante parce qu’ils sont partis de zéro. Il faut sortir de notre complexe d’infériorité vis-à-vis de la Silicon Valley. La bonne nouvelle, c’est que les grands groupes européens, dans l’automobile, l’industrie, les cosmétiques, n’ont pas peur des Gafa. L’IA est une opportunité pour eux. Ensuite, c’est aux gouvernements nationaux et à l’Europe de fournir les moyens de cette transformation. L’Europe doit lancer une plateforme IA en open source. Si l’Europe, qui a créé le GSM, sait définir les normes de l’intelligence artificielle portative, elle deviendra la référence, au moins pour l’Europe continentale.

Ceux qui auront donné le tempo sur les normes auront un avantage compétitif fort.

Aujourd’hui le problème de l’IA, c’est qu’elle n’est pas portable. C’est la forêt, ça foisonne, on est avant que Microsoft n’impose son système d’exploitation pour tous les ordinateurs. Celui qui saura développer l’OS de l’IA va emporter la mise.

Une stratégie IA pour une entreprise, c’est quoi ?

C’est très différent d’une stratégie classique où l’on regarde la concurrence, le marché, les produits, les clients, etc. La première étape est de visualiser le futur, un futur assez lointain, au moins 2030. Dans ce futur, il faut analyser tout ce qui dans son activité peut être impacté par l’IA. Ensuite, il faut développer une stratégie de conquête. Il faut apprendre à se projeter dans le futur : qu’est que ce qu’on va fournir au consommateur de 2036, qui aura accès à l’IA comme celui de 2017 a accès à l’Internet haut débit ? La seconde étape est d’analyser ses actifs, et déterminer ceux qui sont utiles et ceux qui ne le sont pas.

C’est simple à dire, pas à réaliser…

C’est beaucoup plus simple quand on a pris conscience des conséquences de l’arrivée de l’IA. C’est écrire avec le comex les futurs possibles et voir comment on peut les préempter et prendre de l’avance. C’est pour cela que les groupes traditionnels ont encore leur chance. Ils ont un avantage beaucoup plus grand qu’ils ne le pensent…

« Appel à l’intelligence des Français »(Hollande). ….. il serait temps

« Appel à l’intelligence des Français »(Hollande). ….. il serait temps

 

 

 

François Hollande lance un appel à l’intelligence des Français en vue de l’élection de 2017. Appel  utile sans doute mais qui aurait été plus crédible si le même appel avait été lancé au début de son mandat.  En effet, ce qui caractérise son bilan ce sont des résultats médiocres dus essentiellement à une incompréhension des acteurs économiques et des Français. En même temps Hollande  condamne le principe des primaires qui ont conduit à choisir les candidats les plus radicaux et qui risquent  d’aboutir à l’absence d’une majorité gouvernementale à l’assemblée nationale.  Au terme d’une campagne marquée par de multiples rebondissements, dont les victoires surprises de François Fillon et Benoît Hamon aux primaires de la droite et de la gauche, le chef de l’Etat considère que ces scrutins internes n’ont plus lieu d’être. « Il ne doit plus y avoir de primaires dans des partis de gouvernement », estime le vainqueur de la primaire de 2011 du Parti socialiste. « Sinon, il n’y aura bientôt plus de parti de gouvernement dans ce pays. Ils sont devenus fragiles et doivent retrouver une légitimité par eux-mêmes, pas en choisissant leurs candidats à vau-l’eau, comme aurait dit le général de Gaulle ». Le président, qui a renoncé à briguer un second mandat le 1er décembre, juge en outre qu’une primaire « est totalement antinomique de la fonction présidentielle ». « Il est impossible d’être président et en même temps candidat à une primaire, dans les formes que nous avons connues », ajoute-t-il. Revenant dans Le Point sur le paysage politique actuel, François Hollande déplore un climat de « suspicion » qui « mine la démocratie » et « fait le jeu du Front national ». « Et il y a péril face aux simplifications et aux falsifications qui font que l’on regarde le spectacle du tribun plutôt que le contenu de son texte, dit-il. François Hollande ne fait quasiment aucun commentaire sur le candidat socialiste, l’ancien « frondeur » Benoît Hamon, dont il se contente de rappeler la victoire à la primaire.

 

Intelligence artificielle : menace pour l’emploi

Intelligence artificielle : menace pour l’emploi

L’intelligence artificielle qui pourrait supprimer de l’ordre de 3 millions d’emplois dans les dix ans en France inquiète évidemment les Français très partagés sur cette question. Selon le baromètre « Les rendez-vous de l’innovation » d’Odoxa en partenariat avec BFM Business, les Français sont partagés sur l’intelligence artificielle. Si pour certains elle est l’avenir de l’industrie, elle continue d’être perçue par d’autres comme une menace économique. Selon l’OCDE, 9% des emplois en France présentent un « risque élevé de substitution » par des robots. Cela représente 2,4 millions d’emplois. Au total, près de 30% des emplois devront, au minimum, évoluer sérieusement. Il est cependant vraisemblable que les emplois supprimés pour des raisons technologiques seront aux moins compensés à d’autres emplois notamment dans les services. Selon une autre  étude de Roland Berger paru dans le Journal du dimanche. Les robots seraient responsables de la suppression de 3 millions d’emplois en France, d’ici à 2025 en raison de 20% des tâches devenues automatisées. Ainsi, « le taux de chômage en pertes brutes s’élèverait à 18% ». Quelques secteurs seraient épargnés, d’après l’étude. Pour la santé, la culture et l’éducation, aucune perte d’emploi ne serait à déplorer à cause des robots. L’environnement, la relation clients et les nouvelles technologies devraient encore mieux s’en sortir puisque 500.000 postes seraient créés dans ces domaines. A contrario, le bâtiment, l’industrie, l’agriculture, l’administration publique, l’armée, la police et le service aux entreprises devraient être particulièrement touchés. Toutefois avec l’automatisation, 30 milliards d’euros (recettes et économies) seraient engrangés et 13 milliards d’euros de pouvoir d’achat seraient libérés (en dividende et baisse de prix), d’après le cabinet de conseil Roland Berger. La robotisation va toucher « les classes moyennes, y compris les classes moyennes supérieures », explique Hakim El Karoui, associé au cabinet Roland Berger, dont les propos sont rapportés par le JDD. Il s’agirait des professions intellectuelles comme les comptables, les journalistes, les juristes, dont certaines tâches pourront être accomplies par des machines. Les économistes de l’OCDE ne croient manifestement pas au risque de « chômage technologique », évoqué par Keynes dès 1931 et mis en avant récemment par des experts comme McAfee (2014), qui anticipe une chute de l’emploi global. Pour l’OCDE, Le risque de chômage technologique massif peut être écarté pour plusieurs raisons. Tout d’abord, bien que le nombre de nouveaux emplois directement créés dans le secteur des TIC ne permette pas forcément de compenser complètement les emplois supprimés par ailleurs, de nouveaux emplois sont susceptibles d’apparaître parallèlement au développement des applications technologiques et à l’expansion d’autres secteurs, dans le sillage de la baisse des coûts et de la hausse des revenus et du patrimoine, même si ces deux facteurs prennent du temps à se matérialiser. En effet, selon certaines estimations, chaque emploi créé par le secteur de la haute technologie entraîne la création d’environ cinq emplois complémentaires ». Pour autant, l’OCDE ne sous-estime pas l’impact de la révolution numérique. Les experts estiment que près de 30% des « travailleurs » devront en France faire face à un changement de la nature de leur travail, une évolution plus ou marquée liée au numérique. Le dernier baromètre d’Odoxa/BFM Business prouve que les Français sont partagés sur la question. Lorsqu’on leur demande si l’IA leur fait peur ou si c’est une chance pour l’avenir économique du pays, les pessimistes sont 50%, mais ne l’emportent que d’un point sur les optimistes, 1% des personnes interrogées ne se prononçant pas. Sur la place que la France pourrait s’octroyer sur cette nouvelle révolution technologique, les Français ont une opinion peu encourageante. Seulement 8% pensent que l’Hexagone pourrait être un leader mondial du secteur. Les autres pensent soit que la France pourrait jouer un rôle sans être leader (57%), soit que ce sera un nouvel échec pour l’innovation tricolore (34%).

 




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol