Archive pour le Tag 'Intelligence'

Quelle compatibilité entre Intelligence artificielle et éthique ?

Quelle compatibilité entre Intelligence artificielle et  éthique

 

Un Livre blanc européen sur l’intelligence artificielle, publié le 19 février, insiste d’abord sur l’importance du respect des droits fondamentaux des citoyens et met par exemple en garde contre des distorsions dans les algorithmes de recrutement conduisant à des discriminations.

D’après le site pwc.fr , les intelligences artificielles (IA) se font de plus en plus présentes – voitures autonomes, algorithmes de recommandation, drones, etc. – et la question de la moralité de leurs actions commence à se poser. Celles qui s’appuient sur les réseaux de neurones artificiels (deep learning) sont particulièrement critiquées : on leur reproche d’être opaques, de ne pas laisser voir le raisonnement qui permet aux algorithmes d’arriver au résultat final. Une science naissante s’applique d’ailleurs à développer des outils pour regarder à l’intérieur de ces boîtes noires que sont les réseaux neuronaux. À ce travail à rebours pour scruter le code des IA s’ajoute, en parallèle, la volonté affichée par de nombreux experts d’intégrer des préceptes éthiques très en amont, directement au cœur de l’IA.

En s’appuyant sur d’énormes quantités de données, les systèmes de deep learning sont capables d’effectuer un très grand nombre de tâches : reconnaître et analyser des images ou des voix, proposer une police d’assurance sur mesure, accepter ou refuser une offre de prêt, piloter un véhicule… Mais comment avoir confiance dans les décisions de l’IA si nous ne sommes pas en mesure de les comprendre ?

« L’intelligence doit être augmentée, c’est-à-dire au service de l’humain, plutôt qu’autonome. Nous devons construire un binôme humain-machine où l’IA devra offrir une compréhension intuitive pour l’humain. Elle devra être capable d’expliquer ses recommandations de façon simple et immédiate. » François Royer, directeur consulting Data Intelligence, PwC France

Le développement d’une telle IA a par exemple déjà été initié aux États-Unis par la DARPA (département de R&D militaire du ministère de la Défense) : les premiers résultats du projet XAI (Explainable AI) sont attendus en novembre 2018.

Si XAI vise à développer des techniques de machine learning qui permettent de construire des modèles d’IA plus compréhensibles, capables d’expliquer aux humains en bout de ligne leur raisonnement, c’est loin d’être le cas de toutes les IA. Le fonctionnement des réseaux de neurones artificiels est particulièrement opaque. Les géants du digital, boostés par des mécanismes de collecte de données très efficaces, disposent de quantités de données phénoménales ce qui les encourage à développer massivement les réseaux de neurones artificiels. Ces réseaux se nourrissent des corrélations qu’ils détectent entre des jeux de données préexistants, ce qui peut poser problème.

 

Bruxelles recommande donc  que les futurs systèmes d’intelligence artificielle à haut risque (concernant la santé par exemple) soient certifiés, testés et contrôlés, comme le sont les voitures, les cosmétiques et les jouets.

 

Theodorous Evgueniou, professeur de la prestigieuse école de management Insead, a rendu avec plusieurs autres chercheurs européens et américains un avis mettant en garde contre les risques d’une approche européenne trop centrée sur ses valeurs.

« Il semble que l’esprit du Livre blanc soit que l’Europe utilise ses valeurs comme une arme stratégique pour rattraper la Chine et les États-Unis », et se rendre attractive dans la course mondiale à l’intelligence artificielle, affirme-t-il. Mais « pourquoi penser que des pays non-européens préféreront des intelligences artificielles formées aux valeurs européennes ? Je ne suis pas sûr que ça marche », explique-t-il.

 

Par exemple, le Livre blanc affiche « l’explicabilité » comme valeur cardinale: il doit être possible de comprendre exactement pourquoi un système d’intelligence artificielle arrive à telle conclusion – comme le fait de refuser un prêt à quelqu’un.

Mais obliger des intelligences artificielles à expliquer leur choix « peut réduire leur performance de 20%, si ce n’est plus », affirme-t-il.

De son côté, Guillaume Avrin, responsable de l’intelligence artificielle au sein du Laboratoire national de métrologie et d’essais (LNE), ne remet pas en cause les impératifs éthiques dans le Livre blanc. Mais il regrette que la Commission s’avance peu sur les moyens de vérifier la conformité des intelligences artificielles auxdites valeurs.

« Comment fait-on pour s’assurer de la conformité des systèmes d’intelligence artificielle » à une réglementation, alors qu’ils sont souvent évolutifs et adaptatifs et ont des comportements  »non linéaires », voire « chaotiques », explique-t-il.

Intelligence artificielle et éthique: un livre blanc

Intelligence artificielle et  éthique: un livre blanc

Le Livre blanc européen sur l’intelligence artificielle, publié le 19 février, insiste d’abord sur l’importance du respect des droits fondamentaux des citoyens et met par exemple en garde contre des distorsions dans les algorithmes de recrutement conduisant à des discriminations.

D’après le site pwc.fr , les intelligences artificielles (IA) se font de plus en plus présentes – voitures autonomes, algorithmes de recommandation, drones, etc. – et la question de la moralité de leurs actions commence à se poser. Celles qui s’appuient sur les réseaux de neurones artificiels (deep learning) sont particulièrement critiquées : on leur reproche d’être opaques, de ne pas laisser voir le raisonnement qui permet aux algorithmes d’arriver au résultat final. Une science naissante s’applique d’ailleurs à développer des outils pour regarder à l’intérieur de ces boîtes noires que sont les réseaux neuronaux. À ce travail à rebours pour scruter le code des IA s’ajoute, en parallèle, la volonté affichée par de nombreux experts d’intégrer des préceptes éthiques très en amont, directement au cœur de l’IA.

En s’appuyant sur d’énormes quantités de données, les systèmes de deep learning sont capables d’effectuer un très grand nombre de tâches : reconnaître et analyser des images ou des voix, proposer une police d’assurance sur mesure, accepter ou refuser une offre de prêt, piloter un véhicule… Mais comment avoir confiance dans les décisions de l’IA si nous ne sommes pas en mesure de les comprendre ?

« L’intelligence doit être augmentée, c’est-à-dire au service de l’humain, plutôt qu’autonome. Nous devons construire un binôme humain-machine où l’IA devra offrir une compréhension intuitive pour l’humain. Elle devra être capable d’expliquer ses recommandations de façon simple et immédiate. » François Royer, directeur consulting Data Intelligence, PwC France

Le développement d’une telle IA a par exemple déjà été initié aux États-Unis par la DARPA (département de R&D militaire du ministère de la Défense) : les premiers résultats du projet XAI (Explainable AI) sont attendus en novembre 2018.

Si XAI vise à développer des techniques de machine learning qui permettent de construire des modèles d’IA plus compréhensibles, capables d’expliquer aux humains en bout de ligne leur raisonnement, c’est loin d’être le cas de toutes les IA. Le fonctionnement des réseaux de neurones artificiels est particulièrement opaque. Les géants du digital, boostés par des mécanismes de collecte de données très efficaces, disposent de quantités de données phénoménales ce qui les encourage à développer massivement les réseaux de neurones artificiels. Ces réseaux se nourrissent des corrélations qu’ils détectent entre des jeux de données préexistants, ce qui peut poser problème.

 

Bruxelles recommande donc  que les futurs systèmes d’intelligence artificielle à haut risque (concernant la santé par exemple) soient certifiés, testés et contrôlés, comme le sont les voitures, les cosmétiques et les jouets.

 

Theodorous Evgueniou, professeur de la prestigieuse école de management Insead, a rendu avec plusieurs autres chercheurs européens et américains un avis mettant en garde contre les risques d’une approche européenne trop centrée sur ses valeurs.

« Il semble que l’esprit du Livre blanc soit que l’Europe utilise ses valeurs comme une arme stratégique pour rattraper la Chine et les États-Unis », et se rendre attractive dans la course mondiale à l’intelligence artificielle, affirme-t-il. Mais « pourquoi penser que des pays non-européens préféreront des intelligences artificielles formées aux valeurs européennes ? Je ne suis pas sûr que ça marche », explique-t-il.

 

Par exemple, le Livre blanc affiche « l’explicabilité » comme valeur cardinale: il doit être possible de comprendre exactement pourquoi un système d’intelligence artificielle arrive à telle conclusion – comme le fait de refuser un prêt à quelqu’un.

Mais obliger des intelligences artificielles à expliquer leur choix « peut réduire leur performance de 20%, si ce n’est plus », affirme-t-il.

De son côté, Guillaume Avrin, responsable de l’intelligence artificielle au sein du Laboratoire national de métrologie et d’essais (LNE), ne remet pas en cause les impératifs éthiques dans le Livre blanc. Mais il regrette que la Commission s’avance peu sur les moyens de vérifier la conformité des intelligences artificielles auxdites valeurs.

« Comment fait-on pour s’assurer de la conformité des systèmes d’intelligence artificielle » à une réglementation, alors qu’ils sont souvent évolutifs et adaptatifs et ont des comportements  »non linéaires », voire « chaotiques », explique-t-il.

Intelligence artificielle ou technolâtrie ?

 Intelligence artificielle ou  technolâtrie ?

Un article forcément très marqué diffusé par l’ACIA (association française contre intelligence artificielle),  sans doute excessif, mais qui mérite d’être lu.

« Que les individus soient en perte de repères dans un monde déboussolé, c’est à fois un cliché et un constat certainement globalement juste. Mais il est un vieux repère de la modernité qui a résisté contre vents et marées et constituera peut-être l’ultime d’entre eux : l’enthousiasme, la foi, voire la vénération pour l’évolution technique, qui prend aujourd’hui la forme des technologies numériques. Propagé par les politiques, les économistes et les médias, cet optimisme technologique (ou technoptimisme) nous aveugle et nous empêche de prendre la mesure des conséquences humaines et écologiques du déferlement numérique et robotique qui saisit l’humanité depuis une vingtaine d’années. Bertrand Méheust, nous sommes face à un « nouvel âge de l’esprit » que plus rien ne pourra arrêter sur sa lancée… sauf un effondrement de la mégamachine (ce qui ne saurait tarder). Savoir que tout cela se terminera un jour ne nous prémunit pas hic et nunc contre la dangereuse mutation anthropologique que cela implique, même si l’on fait partie – ce qui est mon cas – des derniers réfractaires du smartphone, condamnés à vivre avec amertume l’évanouissement à marche forcée d’un monde qui nous était jusqu’il y a peu familier. L’économie numérique représente bien une rupture majeure, et il serait vain de vouloir nous comparer aux époques antérieures. Rien de cyclique ici, sous le soleil de l’innovation, rien que du nouveau, comme l’on bien vu les camarades de Pièces et main d’œuvre. Entre fantasme et réalité, le transhumanisme, l’extropianisme et la singularité technologique représentent les bonheurs et accomplissements que nous promettent les techno-prophètes dans le courant de ce siècle. Pour ce, ils peuvent compter sur l’appui des « progressistes » de gauche comme de droite, qui voient dans toute extension des droits individuels des bienfaits que seuls des réactionnaires pourraient critiquer, même si ces droits passent de plus en plus par le truchement de la technoscience, comme, par exemple, les nouvelles techniques de procréation. Que faire ? D’abord décréter un moratoire sur l’innovation incontrôlée, puis organiser une désescalade technique, voilà une condition nécessaire pour reconstruire la cohésion sociale dans une société qui se voudrait démocratique, écologique et décente.

L’actualité des livres vient à la rescousse.

Dans Seuls ensembleDe plus en plus de technologies, de moins en moins de relations humaines (éd. L’Echappée, 2015), la psychologue et anthropologue du MIT Sherry Turkle (née en 1948) a étudié l’impact des nouvelles technologies en Intelligence Artificielle sur la « façon dont nous nous pensons, dont nous pensons nos relations avec autrui et le sens de notre humanité » (p.20). Pour ce, elle s’est appuyée sur deux cent cinquante observations cliniques, principalement d’enfants, d’adolescents et de personnes âgées.

La première partie traite de leur rapport avec les robots – aux doux noms de Tamagochis, Furby, AIBO, My Real Baby, etc… – pour constater la facilité avec laquelle nous projetons sur eux nos sentiments et avons des attentes démesurées sur ce qu’ils pourraient nous apporter en terme d’aide, mais aussi de réconfort, d’amitié et même de sexualité !

D’une part, la notion d’authenticité perd de sa substance au profit d’une nouvelle définition de la vie « à mi-chemin entre le programme inanimé et la créature vivante » (p.61). D’autre part, les êtres humains sont remis en cause dans leur capacité à prendre soin les uns des autres. Les robots, « nous sommes aujourd’hui prêts, émotionnellement et je dirais même philosophiquement, à les accueillir » (p.31). Ces « créatures » robotiques sont traitées comme des égaux et non plus comme des machines, elles sont placées sur le terrain du sens, « alors qu’elles n’en dégagent aucun. » Elles sont de plus en plus présentes dans les maisons de retraite où elles remplacent le personnel manquant ou défaillant. En majorité, les pensionnaires s’y attachent, rentrent en intimité avec elles. A l’argument selon lequel les machines ne peuvent éprouver d’affects, les roboticiens répondent sans rire qu’ils en fabriqueront un jour de manière synthétique.

« Il est tellement aisé d’être obnubilé par la technologie et de ne plus chercher à développer notre compréhension de la vie », conclut l’auteure (p.170).

La seconde partie concerne l’internet avec ses réseaux sociaux, ses jeux en ligne, sa Second Life et ses sites de confession. Les effets de leur omniprésence dans notre quotidien sont loin d’être négligeables. D’abord celui d’une attention fragmentée permanente aboutissant au multitasking (multitâches) chez les jeunes, cette faculté qui impressionne tant les aînés, alors que les études en psychologie montrent que lorsque l’on fait plusieurs choses à la fois, on fractionne son attention et on les fait toutes moins bien. Ensuite, un effacement de la frontière entre la vie professionnelle et la vie privée, quand le smartphone reste allumé jour et nuit. Même en vacances, le cadre américain reçoit environ 500 courriels, plusieurs centaines de textos et 40 appels par jour !

Résultat : faute de temps, tous nos interlocuteurs sont réifiés, nous les traitons comme des objets. Turkle a aussi étudié le cas des natifs numériques (digital natives), les générations nées après 1990 pour lesquelles le web représente un liquide amniotique non questionné. « Je suis connecté, donc je suis ! » Et alors ?, répondront les technoptimistes.

« Ce n’est pas parce qu’un comportement devient normal qu’il perd la dimension problématique qui l’avait auparavant fait considérer comme pathologique », précise l’auteure (p.283).

Les jeux en ligne et Second Life nous entraînent dans un monde virtuel fait de simulacres, qu’on finit par préférer à notre vie réelle, les plus accros y passant la moitié de leur temps de veille ! Nous en demandons moins aux êtres humains et plus à la technologie, à laquelle nous appliquons une pensée magique : tant que je suis connecté, je suis en sécurité, et les gens que j’aime ne disparaîtront pas. Facebook est un fauve insatiable qu’il faut alimenter en permanence de nouvelles « positives » sous forme de textes, de photos, de vidéos, qui envahissent la vie privée, dans une simplification et un appauvrissement de nos relations.

A la fin du livre, nous apprenons qu’aujourd’hui de plus en plus de jeunes Américains ont la nostalgie du monde d’avant la connexion généralisée, quand les parents étaient attentifs, investis et engagés envers leurs enfants. Un début d’espoir de révolte ? Ce copieux essai de 523 pages fait le point sur un phénomène toujours sous-estimé dans ses retombées sociétales. Et encore, Turkle n’aborde pas ici l’aspect anti-écologique de ces technologies. Que resterait-il bien pour les défendre ? Chers lecteurs de France, voilà un excellent sujet pour le bac ! »

Bernard Legros

Article paru à l’origine dans Kairos, revue technocritique belge, n°19 avril/mai 2015

Bernard Legros est enseignant, essayiste, membre de l’Appel pour une Ecole Démocratique et membre fondateur du Mouvement politique des Objecteurs de Croissance (Belgique)

Intelligence artificielle : préserver la dimension humaine

Intelligence artificielle : préserver la dimension humaine

Dans une tribune au « Monde », le consultant Jacques Marceau explique que si le numérique s’impose comme un formidable moyen de décupler les possibles dans tous les domaines, un moyen d’accéder à une société plus durable et plus juste, il reste un outil.

« Cette crainte soudaine du numérique qui entraîne parfois son rejet pourrait se révéler dangereuse si elle venait à perdurer et à s’amplifier car ça nous priverait de solutions précieuses propres à nous aider à relever les défis de notre temps. »

Tribune.

 

 » De tout temps, les échanges entre les individus, avec les entreprises ou les Etats se sont fondés sur des relations rendues propices par la confiance réciproque. Relation et confiance sont ainsi les deux attributs indissociables, non seulement de toute économie, mais encore de toute vie politique ou sociale. Une architecture relationnelle que Paul Valéry (1871-1945) qualifie de « structure fiduciaire », une toile tissée de relations de confiance qui forment « l’édifice de la civilisation », comme l’explique le philosophe Pierre Musso, dans La Religion industrielle (Fayard, 2017).

On ne peut en effet « faire société » sans avoir besoin les uns les autres et se faire confiance. On ne peut non plus « vivre en société » sans faire confiance aux institutions et croire en la valeur de concepts parfaitement immatériels, comme notre monnaie, nos lois, nos traditions ou nos fameuses valeurs républicaines, qui, toujours pour Valéry, relèvent de « l’empire des fictions ». Des fictions néanmoins indispensables à la cohésion sociale et au fonctionnement de notre société.

Même programmée par des humains, la réponse de la machine reste artificielle et par essence arbitraire. Soit le degré zéro d’un rapport prenant en considération l’individu dans toute sa complexité et ses particularismes

Dans ce contexte, le développement d’une société dont les fonctions sont de plus en plus numérisées et virtualisées, pose la question de la transformation du lien, autrefois humain et souvent personnel, en une relation certes personnalisée, mais dorénavant désincarnée, dans laquelle la conversation avec la machine s’est substituée à la relation humaine. Une machine qui est, de surcroît et toujours davantage, investie, à la faveur du développement de l’intelligence artificielle, du pouvoir exorbitant de prendre une décision concernant son « interlocuteur » sur la base d’une mystérieuse formule appelée algorithme. Une décision vue comme un confort quand il s’agit de définir l’itinéraire routier le plus fluide ou de recommander une lecture ou un morceau de musique, mais qui devient suspecte et parfois insupportable quand il s’agit de l’obtention d’une place en université, d’un crédit immobilier ou, pourquoi pas demain, d’un traitement médical personnalisé.

 

Même programmée par des humains, la réponse de la machine reste artificielle et par essence arbitraire. Soit le degré zéro d’un rapport prenant en considération l’individu dans toute sa complexité et ses particularismes, et un terreau favorable à l’expression de ce que le sociologue allemand Hartmut Rosa désigne dans Résonance (La Découverte, 2019) comme des « protestations d’inspiration républicaine contre une politique qui ne se conçoit plus que comme la gestionnaire administrative et juridique d’un monde muet ». Et que nous appelons dorénavant, chez nous, des « gilets jaunes » ! Un monde muet qui, pour Rosa, est la conséquence de l’incapacité des politiques et de la sphère administrative d’entretenir un rapport responsif avec les individus. Il ajoute « la démocratie moderne repose (…) sur l’idée que sa forme politique donne une voix à chaque individu et la rend audible ». 

 

 

 

Intelligence artificielle : une consultation citoyenne indispensable

Intelligence artificielle : une consultation citoyenne indispensable

 

C’est l’avis de  Didier Baichère  , député LREM, sur franceinfo mercredi 19 février. Il s’exprime après la présentation par la Commission européenne de son Livre blanc sur l’intelligence artificielle (IA). « Sur l’intelligence artificielle, on a une voix française, une voix européenne qui doit se faire entendre », appuie-t-il.

Didier Baichère souhaite une loi d’expérimentation et une consultation des citoyens concernant l’IA.  »Proposer une loi d’expérimentation, c’est s’arrêter deux minutes sur les usages qui nous ont envahis. Il faut prendre le temps de se poser la question avec des scientifiques. La science permet des choses mais est-ce qu’on est prêt à avancer en termes de valeur et d’éthique ? », demande-t-il.

L’intelligence artificielle regroupe plusieurs éléments comme les données, le machine-learning ou la reconnaissance faciale. Même sur ce dernier point, Didier Baichère prévient qu’il ne faut pas tout mélanger : « on ne peut pas raisonner ‘reconnaissance faciale’ de manière générique et globale. Il faut regarder usage par usage. »

Pour Didier Baichère, « il faut s’assurer que les bases de données qui sont utilisées ne sont pas réutilisables, ce qui est le cas aujourd’hui ». La protection des données personnelles et industrielles reste donc une priorité. L’Europe est l’un des seuls ensemble de pays qui a voté un texte spécialement pour protéger les données avec le RGPD.

 

Intelligence artificielle ou technolâtrie ?

Intelligence artificielle ou  technolâtrie ?

Un article forcément très marqué diffusé par l’ACIA (association française contre intelligence artificielle),  sans doute excessif, mais qui mérite d’être lu.

« Que les individus soient en perte de repères dans un monde déboussolé, c’est à fois un cliché et un constat certainement globalement juste. Mais il est un vieux repère de la modernité qui a résisté contre vents et marées et constituera peut-être l’ultime d’entre eux : l’enthousiasme, la foi, voire la vénération pour l’évolution technique, qui prend aujourd’hui la forme des technologies numériques. Propagé par les politiques, les économistes et les médias, cet optimisme technologique (ou technoptimisme) nous aveugle et nous empêche de prendre la mesure des conséquences humaines et écologiques du déferlement numérique et robotique qui saisit l’humanité depuis une vingtaine d’années. Bertrand Méheust, nous sommes face à un « nouvel âge de l’esprit » que plus rien ne pourra arrêter sur sa lancée… sauf un effondrement de la mégamachine (ce qui ne saurait tarder). Savoir que tout cela se terminera un jour ne nous prémunit pas hic et nunc contre la dangereuse mutation anthropologique que cela implique, même si l’on fait partie – ce qui est mon cas – des derniers réfractaires du smartphone, condamnés à vivre avec amertume l’évanouissement à marche forcée d’un monde qui nous était jusqu’il y a peu familier. L’économie numérique représente bien une rupture majeure, et il serait vain de vouloir nous comparer aux époques antérieures. Rien de cyclique ici, sous le soleil de l’innovation, rien que du nouveau, comme l’on bien vu les camarades de Pièces et main d’œuvre. Entre fantasme et réalité, le transhumanisme, l’extropianisme et la singularité technologique représentent les bonheurs et accomplissements que nous promettent les techno-prophètes dans le courant de ce siècle. Pour ce, ils peuvent compter sur l’appui des « progressistes » de gauche comme de droite, qui voient dans toute extension des droits individuels des bienfaits que seuls des réactionnaires pourraient critiquer, même si ces droits passent de plus en plus par le truchement de la technoscience, comme, par exemple, les nouvelles techniques de procréation. Que faire ? D’abord décréter un moratoire sur l’innovation incontrôlée, puis organiser une désescalade technique, voilà une condition nécessaire pour reconstruire la cohésion sociale dans une société qui se voudrait démocratique, écologique et décente.

L’actualité des livres vient à la rescousse.

Dans Seuls ensembleDe plus en plus de technologies, de moins en moins de relations humaines (éd. L’Echappée, 2015), la psychologue et anthropologue du MIT Sherry Turkle (née en 1948) a étudié l’impact des nouvelles technologies en Intelligence Artificielle sur la « façon dont nous nous pensons, dont nous pensons nos relations avec autrui et le sens de notre humanité » (p.20). Pour ce, elle s’est appuyée sur deux cent cinquante observations cliniques, principalement d’enfants, d’adolescents et de personnes âgées.

La première partie traite de leur rapport avec les robots – aux doux noms de Tamagochis, Furby, AIBO, My Real Baby, etc… – pour constater la facilité avec laquelle nous projetons sur eux nos sentiments et avons des attentes démesurées sur ce qu’ils pourraient nous apporter en terme d’aide, mais aussi de réconfort, d’amitié et même de sexualité !

D’une part, la notion d’authenticité perd de sa substance au profit d’une nouvelle définition de la vie « à mi-chemin entre le programme inanimé et la créature vivante » (p.61). D’autre part, les êtres humains sont remis en cause dans leur capacité à prendre soin les uns des autres. Les robots, « nous sommes aujourd’hui prêts, émotionnellement et je dirais même philosophiquement, à les accueillir » (p.31). Ces « créatures » robotiques sont traitées comme des égaux et non plus comme des machines, elles sont placées sur le terrain du sens, « alors qu’elles n’en dégagent aucun. » Elles sont de plus en plus présentes dans les maisons de retraite où elles remplacent le personnel manquant ou défaillant. En majorité, les pensionnaires s’y attachent, rentrent en intimité avec elles. A l’argument selon lequel les machines ne peuvent éprouver d’affects, les roboticiens répondent sans rire qu’ils en fabriqueront un jour de manière synthétique.

« Il est tellement aisé d’être obnubilé par la technologie et de ne plus chercher à développer notre compréhension de la vie », conclut l’auteure (p.170).

La seconde partie concerne l’internet avec ses réseaux sociaux, ses jeux en ligne, sa Second Life et ses sites de confession. Les effets de leur omniprésence dans notre quotidien sont loin d’être négligeables. D’abord celui d’une attention fragmentée permanente aboutissant au multitasking (multitâches) chez les jeunes, cette faculté qui impressionne tant les aînés, alors que les études en psychologie montrent que lorsque l’on fait plusieurs choses à la fois, on fractionne son attention et on les fait toutes moins bien. Ensuite, un effacement de la frontière entre la vie professionnelle et la vie privée, quand le smartphone reste allumé jour et nuit. Même en vacances, le cadre américain reçoit environ 500 courriels, plusieurs centaines de textos et 40 appels par jour !

Résultat : faute de temps, tous nos interlocuteurs sont réifiés, nous les traitons comme des objets. Turkle a aussi étudié le cas des natifs numériques (digital natives), les générations nées après 1990 pour lesquelles le web représente un liquide amniotique non questionné. « Je suis connecté, donc je suis ! » Et alors ?, répondront les technoptimistes.

« Ce n’est pas parce qu’un comportement devient normal qu’il perd la dimension problématique qui l’avait auparavant fait considérer comme pathologique », précise l’auteure (p.283).

Les jeux en ligne et Second Life nous entraînent dans un monde virtuel fait de simulacres, qu’on finit par préférer à notre vie réelle, les plus accros y passant la moitié de leur temps de veille ! Nous en demandons moins aux êtres humains et plus à la technologie, à laquelle nous appliquons une pensée magique : tant que je suis connecté, je suis en sécurité, et les gens que j’aime ne disparaîtront pas. Facebook est un fauve insatiable qu’il faut alimenter en permanence de nouvelles « positives » sous forme de textes, de photos, de vidéos, qui envahissent la vie privée, dans une simplification et un appauvrissement de nos relations.

A la fin du livre, nous apprenons qu’aujourd’hui de plus en plus de jeunes Américains ont la nostalgie du monde d’avant la connexion généralisée, quand les parents étaient attentifs, investis et engagés envers leurs enfants. Un début d’espoir de révolte ? Ce copieux essai de 523 pages fait le point sur un phénomène toujours sous-estimé dans ses retombées sociétales. Et encore, Turkle n’aborde pas ici l’aspect anti-écologique de ces technologies. Que resterait-il bien pour les défendre ? Chers lecteurs de France, voilà un excellent sujet pour le bac ! »

Bernard Legros

Article paru à l’origine dans Kairos, revue technocritique belge, n°19 avril/mai 2015

Bernard Legros est enseignant, essayiste, membre de l’Appel pour une Ecole Démocratique et membre fondateur du Mouvement politique des Objecteurs de Croissance (Belgique)

 

Intelligence artificielle: le contrôle par des algorithmes responsables ? ( Nozha Boujemaa )

Intelligence artificielle: le contrôle par des algorithmes responsables ?  (  Nozha Boujemaa )

 

Nozha Boujemaa, directrice science & innovation chez Median Technologies essaie de rassurer à propos des dérives possibles de l’IA et cela  grâce aux algorithmes responsables . Un concept encore un peu flou !

 

 Tribune dans le Monde (extraits)

 

«  Des chercheurs des universités Stanford et du Massachusetts ont publié, le 22 novembre, dans la revue Science une nouvelle approche en apprentissage automatique permettant de prévenir les comportements indésirables éventuels de l’intelligence artificielle. Ils ont montré leurs résultats dans deux cas applicatifs : la discrimination du genre et la gestion du diabète.

Le cadre proposé permet de mettre en place des algorithmes dits « seldoniens », en référence au personnage de Hari Seldon, créé par l’auteur de science-fiction Isaac Asimov. Ce dernier avait inventé les « robots positroniques », gouvernés par trois lois protégeant les êtres humains, connues depuis comme les « lois d’Asimov ».

En réalité, il s’agit d’une famille d’approches qui intègrent, dans leurs fonctions objectives à optimiser, des contraintes à respecter pour éviter de causer des dommages à l’humain. Ainsi, le respect de son intégrité physique est transféré au concepteur de l’algorithme d’apprentissage plutôt qu’à celui qui l’utilise ou le déploie. Il s’agit d’algorithmes « responsables par conception », dont la publication a été bien théâtralisée par l’équipe américaine avec la référence à Seldon et à Asimov.

Cela nous renvoie vers un imaginaire de science-fiction qui éveille à la fois curiosité et étonnement. L’idée essentielle est d’anticiper la responsabilité dans la conception plutôt que de contrôler a posteriori le comportement de l’algorithme par un mécanisme d’auditabilité. Ces approches s’opposent à l’école de pensée considérant que les biais viennent uniquement des données et que les algorithmes sont irréprochables.

Ce qui prime par-dessus tout, c’est la préservation de l’intégrité physique et mentale de l’humain. C’est bien la règle d’or pour tout développement technologique incluant l’intelligence artificielle. Si on regarde de près ses implications, on y trouve la sécurité physique (par exemple pour les véhicules autonomes), la protection des données personnelles, mais aussi la préservation du libre arbitre et l’évitement du nudging (l’« influence d’opinion »). Nous avons vu récemment que ce dernier, dans le cas du marketing politique, a des impacts préjudiciables sur nos démocraties, alors qu’il n’est pas illégal. C’est un bel exemple du fossé entre le droit et la responsabilité et l’éthique.

Il est crucial d’avoir une interprétabilité du comportement algorithmique et de disposer des moyens de contrôle (a priori ou a posteriori) de leurs capacités à respecter les règles éthiques, morales et juridiques. L’explicabilité est aussi essentielle : c’est la capacité de justifier le processus de décision d’un algorithme. Cette explicabilité, qui a été popularisée par le programme Explainable AI (XAI) de la Defense Advanced Research Projects Agency, est multiforme et pas toujours réalisable d’un point de vue technique. »

 

Intelligence artificielle : « Les humains sont loin d’avoir perdu leur place en entreprise »

Intelligence artificielle : « Les humains sont loin d’avoir perdu leur place en entreprise »

Sur cette question très complexe et très controversée, Cyril Le Mat, responsable data & IA dans une société spécialisée en ressources humaines, l’intelligence artificielle sert à humaniser le travail et non à le remplacer, dit-il dans une tribune au « Monde ».Un vision qui mérite attention mais peut être un peu idyllique car personne ne sait vraiment quelles seront les conséquences de l’IA notamment en matière d’emplois.

Tribune. Nous sommes aujourd’hui submergés d’articles, d’entretiens et de Tweet sur l’intelligence artificielle (IA) émanant de personnes déconnectées de la réalité technique, mais qui puisent sans vergogne dans un imaginaire de concurrence et de soumission afin de générer toujours plus d’émotion et de clics.

En tant qu’expert et praticien de l’IA en entreprise, ma volonté est ici d’éclairer sur les enjeux du développement de ces nouveaux outils, qui se révèlent plus humains qu’on ne pourrait le penser. Car la réalité est là : ce qu’on appelle l’intelligence artificielle n’est qu’une succession d’outils spécialisés, chacun consacré à l’optimisation d’une unique tâche répétitive. Exemple classique : l’imagerie médicale, où un algorithme va analyser pour un cancer précis des centaines d’images afin de proposer au médecin un diagnostic. Œuvre de l’humain, l’IA n’est rien de plus que ce que l’on décide d’y mettre.

 

L’IA permet avant tout d’automatiser des actions souvent répétitives, parfois ingrates, jusque-là opérées par des collaborateurs. Il faut en finir avec l’idée reçue qui remettrait aux mains des machines la majorité de l’activité humaine de l’entreprise. L’IA doit être abordée comme une opportunité technologique qui permet de dégager du temps au salarié et de l’aider à prendre des décisions. 

Le collaborateur va donc pouvoir se concentrer sur d’autres missions plus « humaines », où il aura plus de valeur ajoutée. Il pourra d’un côté se focaliser sur sa créativité, son innovation et son analyse ; de l’autre, se consacrer aux relations humaines, qu’elles soient internes ou externes à l’entreprise : par exemple, une infirmière pourra passer plus de temps avec ses patients. En cela, l’IA redonne du sens au travail, quête essentielle pour les jeunes générations.

 

Opaque dans son fonctionnement, l’IA est un outil qui nécessite une interaction par certains aspects similaire à celle entre humains. Sur ce point, les solutions connues du grand public sont encore loin de la maturité. En effet, les GAFA [Google, Apple, Facebook et Amazon] ont pour principal but de garder captifs leurs utilisateurs en ne leur fournissant ni outils de pilotage ni justification. Il faut pourtant s’assurer qu’humains et IA se comprennent tant sur les questions que sur les réponses ! La collaboration avec l’humain est un enjeu phare pour les solutions d’entreprise dont la progression va affecter positivement la réalité du travail. 

Ne soyons pas naïfs, des suppressions d’emplois causés par l’IA auront lieu. Mais la réalité sera loin des nombreuses prédictions de certains groupes de réflexion ou d’essayistes hors sol annonçant, selon les cas, la suppression de 30 % à 90 % des emplois actuels. Les humains sont loin d’avoir perdu leur place en entreprise. Avec le développement des solutions IA au travail, les salariés se tourneront vers des missions plus enrichissantes pour des carrières plus épanouissantes.

Intelligence artificielle: la démocratisation par l’auto apprentissage ?

La  défense corporatiste de l’ENA

 

 

Dans une interview au journal l’Opinion, l’actuel directeur de l’ENA, Patrick Gérard, défend  avec vigueur cette fabrique d’élites  donc dit-il la France devrait être fière. Une Argumentation de nature très corporatiste qui ne pose absolument pas la problématique du champ et de la nature régalienne de l’État. En effet, c’est parce qu’ils sont beaucoup trop nombreux que les énarques se  reproduisent  dans des structures qu’ils pérennisent et même développent. Il n’y a même pas assez de postes pour caser de manière satisfaisante les élèves. On ajoute donc des directions aux directions, des postes de directeur adjoint à des postes de directeur, bref des structures administratives à des structures administratives quand il faudrait sans doute en réduire la moitié. L’intéressé oublie aussi d’indiquer que les énarques envahissent le monde économique et politique et que l’ENA n’a pas cette vocation première.

Interview

La suppression de l’ENA est à l’ordre du jour. Quels sont les arguments pour la défense de l’école ?

Ce sera évidemment au président de la République et au Premier ministre de prendre des décisions à l’issue du rapport Thiriez. Il m’appartient, comme directeur, de rétablir quelques vérités. Car l’image, souvent répandue, d’une institution coupée des réalités, fournissant des bataillons de hauts fonctionnaires inconscients des difficultés de leurs concitoyens, est tout simplement fausse.

Prenons le symbole des grands corps (Inspection des finances, Cour des comptes, Conseil d’État). Les jeunes gens qui les intègrent ne sont-ils pas assurés d’une belle carrière, confortée par l’entre-soi, du seul fait d’avoir été bien classés à la sortie de l’ENA ?

D’abord, contrairement aux clichés, les énarques ne sont pas de jeunes blancs-becs de 25 ans. Ils ont en moyenne 31 ans et la moitié d’entre eux ont exercé des responsabilités professionnelles avant leur entrée à l’ENA. Sur la question des corps d’inspection et de contrôle, les avis sont partagés. Certains voudraient créer un parcours où les élèves sortant de l’ENA passeraient d’abord cinq ans comme administrateur dans un ministère avant de tenter un nouveau concours, à 35-36 ans, pour intégrer un tel corps. D’autres font valoir que ces corps ont besoin de sang neuf et que dans le secteur privé les cabinets d’audit font confiance aux juniors. Je pense que l’accès direct à ces corps compte pour beaucoup dans l’attractivité de l’école. Mais il faut faire en sorte qu’il y ait davantage de brassage dans leurs effectifs, par exemple en ouvrant ces corps de façon significative aux sous-directeurs d’administration.

Le vrai sujet n’est-il pas le manque de RH dans la fonction publique ?

Sans doute peut-on améliorer la gestion des carrières, les perspectives de mobilité, valoriser davantage le travail des administrateurs civils au cours de leur carrière. On a encore trop tendance à laisser un énarque dans le même service, dans la même administration sans faire de gestion personnalisée.

Le procès en « déconnexion » de la haute fonction publique a resurgi avec la crise des Gilets jaunes…

Ce pays est fier de ses élites culturelles, sportives mais a un peu de mal avec ses élites administratives… Les Français sont-ils mécontents de leurs préfets, de leurs sous-préfets ? De leurs diplomates ? De leurs juges administratifs ? J’analyse plutôt ces critiques comme une demande supplémentaire d’Etat et, donc, un besoin de renforcer la présence des cadres de l’Etat par plus de mobilité sur le terrain.

Le manque de diversité sociale est souvent pointé du doigt. Est-ce cette image de « reproduction des élites » qui colle à l’ENA ?

Première remarque : quarante étudiants sont recrutés via le concours externe aujourd’hui. Ils étaient cent il y a quarante ans, comme à l’époque de la promotion Voltaire. En réduisant les effectifs, on diminue forcément la diversité. L’ENA accueille 26 % d’élèves qui étaient boursiers, plus que d’autres grandes écoles. Mais il faut faire mieux. C’est pourquoi nous ouvrons cette année à Strasbourg – il en existe déjà une à Paris depuis dix ans – une seconde classe prépa « égalité des chances » destinée aux étudiants d’origine modeste, très bons et, si possible, venant de province. Ces diplômés de master sont coachés par nos jeunes anciens élèves. L’idéal serait d’en créer une par région.

Pour quels résultats ?

La plupart réussissent les concours difficiles d’administrateur de l’Assemblée, de l’Institut nationale des études territoriales (INET), de la Banque de France ou de commissaire de police. En moyenne, sur dix-sept candidats de cette classe, un intègre l’ENA. Il subsiste encore une tendance chez ces étudiants, je le regrette, à penser que l’ENA « ce n’est pas pour elles ou eux »… C’est ce plafond de verre et cette autocensure qu’il faut parvenir à percer.

Parmi les pistes évoquées par Frédéric Thiriez pour « décloisonner » : la création d’un enseignement commun à tous les futurs hauts fonctionnaires (ENA, fonction publique territoriale, hospitalière, magistrats, commissaires de police) mais aussi aux quatre corps techniques (Mines, Ponts, armement, Insee). Est-ce une bonne idée ?

C’est une bonne idée d’avoir des enseignements communs. Par exemple, nos élèves travaillent sur les politiques territoriales avec ceux de l’INET et sont en scolarité avec des officiers de gendarmerie ou de l’armée de terre reçus à l’Ecole de guerre. A partir de l’an prochain, ils travailleront aussi avec l’Ecole nationale de la magistrature. En revanche, je verrais trois écueils à rallonger la scolarité d’un an. Celui de créer une sorte de « 6 année de Sciences Po » alors que les élèves, lorsqu’ils arrivent à l’ENA ou dans d’autres grandes écoles, ont envie de se préparer à leur métier. Le risque de renforcer la critique sur le mode : « Ils sont tous formatés de la même façon ». Enfin, toute année supplémentaire a un coût budgétaire… Ma préférence serait d’imaginer des travaux communs pour les élèves quand ils sont en stage.

Emmanuel Macron avait souhaité mettre en place, en début de quinquennat, un « spoil system » à la française. Près de deux tiers des directeurs d’administration centrale ont été changés depuis 2017, moins que sous ses prédécesseurs. La « technostructure » est accusée de « bloquer la France ». A juste titre ?

Les directeurs d’administration centrale ont un devoir de loyauté à l’égard du gouvernement. Quand un ministre donne des ordres, ils sont appliqués. Gérald Darmanin a instauré le prélèvement à la source, Jean-Michel Blanquer le dédoublement des classes dans les zones d’éducation prioritaires, le projet de loi pour la restauration de Notre-Dame de Paris a été écrit en quelques jours. L’image de directeurs plus puissants que les ministres qu’ils voient passer est un cliché.

L’ENA attire-t-elle toujours autant ?

Il n’y a jamais eu autant de candidatures : 1 731 cette année, record depuis 2013 ! Mais il est vrai qu’à Sciences Po comme dans les Instituts d’études politiques en région, les étudiants semblent moins attirés par le service public que par le monde des grandes entreprises, de la communication, de la finance, des start-up. Quand l’Etat, et les fonctionnaires qui le servent, sont critiqués tous les jours, ce n’est pas très engageant pour un jeune d’une vingtaine d’années… Par ailleurs, les vocations pour la politique se raréfient. Depuis la création de l’ENA en 1945, moins de 3 % des anciens élèves ont fait de la politique. Un taux encore plus bas aujourd’hui. Quant au fameux pantouflage, il concerne 20 % des élèves qui, à un moment ou un autre de leur carrière, vont dans le privé. Près de la moitié revient ensuite dans le public.

Finalement, faut-il juste changer le nom de l’ENA ?

La marque ENA bénéficie dans le monde d’un prestige considérable. Oxford, la London school of economics, le MIT n’imaginent pas changer de nom. L’administration française est admirée dans le monde entier pour l’impartialité de son recrutement, sa compétence et son intégrité. Depuis sa création, l’école a formé 3 700 élèves étrangers. Parmi ceux aujourd’hui en fonction : les ambassadeurs du Japon et de Malte en France, l’ambassadeur du Liban, qui était d’ailleurs dans la même promotion qu’Emmanuel Macron, la vice-première ministre des Pays-Bas, deux ministres belges, le directeur de cabinet du Grand-Duc du Luxembourg, le directeur du protocole de l’empereur du Japon, plusieurs dizaines de ministres africains, le secrétaire général du Tribunal constitutionnel de Karlsruhe… Au titre de la formation continue, l’ENA forme chaque année plus de 4 000 auditeurs étrangers.

« L’ENA bashing » serait donc un travers bien français ?

Peut-être… Il faut sans doute améliorer beaucoup de choses, transformer l’école mais faisons attention à ne pas se priver d’un outil précieux.

 

 

Intelligence artificielle: la démocratisation par l’auto apprentissage ?

La spécialiste en intelligence artificielle Nozha Boujemaa décrit l’émergence de l’apprentissage machine automatisé, qui va modifier les métiers liés à l’IA dans une tribune au Monde. Un vision toutefois peut-être un peu rapide, en tout cas qui peut être discutée sur ce qu’on entend vraiment par Intelligence artificielle.« Le développement de l’intelligence artificielle (IA) est assez ironique : il faut beaucoup d’efforts manuels et parfois ad hoc pour la construction de modèles prédictifs précis. Une technologie qui se veut entièrement dans l’automatisation de tâches humaines implique en effet plusieurs étapes fastidieuses : annotation et étiquetage des données d’apprentissage, qui nécessitent parfois un travail humain colossal ; exploration et sélection de données représentatives ; sélection de modèles ; réglages des paramètres du modèle en plus des phases de tests et de généralisation. Le cheminement à travers toute la chaîne de développement est complexe, même pour les spécialistes et les experts en sciences des données. Dans de nombreux contextes industriels, la mise sur le marché d’une solution fondée sur des modèles prédictifs est assez longue.

Cette impasse est en train de disparaître avec l’émergence de l’auto-apprentissage (AutoML, ou Automated Machine Learning), qui consiste à automatiser la recherche de l’architecture optimale d’un réseau de neurones. La maturité technologique de l’IA permet aujourd’hui de mettre au point des architectures de réseaux de neurones profonds plus efficacement que ne le feraient les experts humains, par exemple en reconnaissance d’objets et en vision par ordinateur.

Double ironie : on va pouvoir se passer en partie de certaines expertises en sciences des données et les automatiser. Dans le contexte d’AutoML, les ingénieurs vont pouvoir se consacrer à des phases plus critiques qui ont davantage besoin de l’intelligence humaine, comme l’analyse de situations de métiers complexes et les questions commerciales, au lieu de se perdre dans le processus fastidieux de construction de la solution. En réalité, cette démarche va aider les développeurs non spécialistes des données à réaliser des solutions d’IA plus facilement. Les scientifiques spécialisés vont, eux, pouvoir effectuer un travail complexe plus rapidement, grâce à la technologie AutoML, qui pourrait bien placer l’IA au cœur de l’essor des entreprises.

AutoML est une tendance qui va fondamentalement changer le paysage des solutions fondées sur l’apprentissage par machine. Elle se concentre sur deux aspects : l’acquisition de données et la prédiction. Toutes les étapes qui se déroulent entre ces deux phases seront prises en charge par les processus d’AutoML. Les utilisateurs apportent leur propre jeu de données, identifient les catégories et appuient sur un bouton pour générer un modèle parfaitement entraîné et optimisé, prêt à prédire. Ces approches d’AutoML vont faciliter la démocratisation de l’IA au service du plus grand nombre.

Intelligence artificielle: au niveau de l’humain ? (Yann Le Cun )

Intelligence artificielle: au niveau de l’humain ?

(Yann Le Cun )

Dans une interview aux Échos, Yann Le Cun analyses les possibilités et les limites de l’IA.  Yann Le Cun  est  responsable de la recherche en intelligence artificielle (IA) de Facebook et professeur à New York University, Yann Le Cun a reçu le prix Turing 2019, équivalent du Nobel d’informatique. Il vient de publier un livre retraçant son parcours et ses travaux.

 

Dans votre livre, vous vous montrez fier des progrès accomplis par l’intelligence artificielle (IA). Mais vous dites aussi qu’elle est loin de l’intelligence d’un rat. Diriez-vous, comme un autre expert français, Luc Julia (*), que l’intelligence artificielle n’existe pas ?

Non ! Ce n’est pas qu’elle n’existe pas, mais il y a une confusion fréquente : quand on voit une machine qui a des compétences surhumaines sur une tâche particulière, on lui attribue les compétences qu’elle aurait si cette intelligence venait d’une personne. Et donc on se dit : « la machine peut nous battre à plate couture au jeu de go, donc elle peut nous battre partout » ou bien « elle peut traduire dans une centaine de langues, donc elle est plus intelligente que n’importe quel humain ». Ce n’est pas vrai, car ces systèmes sont très spécialisés, très étroits.

Ce n’est donc pas la même intelligence que les humains…

Certaines personnes estiment que ce qui caractérise l’intelligence humaine, c’est qu’elle est générale. Je dis dans mon livre que ce n’est pas vrai non plus. L’intelligence humaine est, elle aussi, spécialisée, mais moins spécialisée que l’intelligence artificielle. Je crois à ce qu’on appelle l’intelligence artificielle de niveau humain (« human level intelligence »). Pour moi, il ne fait aucun doute que les machines arriveront tôt ou tard à des niveaux d’intelligence aussi performante et générale que les humains et, probablement, nous dépasseront assez vite.

Et l’intelligence de niveau humain, ce serait quoi ? Qu’une machine soit capable de tenir la conversation que nous avons en ce moment ?

Oui, qu’elle puisse faire toutes les tâches intellectuelles que fait un être humain, à peu près aussi bien, à l’exception de ce qui relève de l’expérience humaine.

Pensez-vous que vous verrez bientôt les machines atteindre ce niveau d’intelligence ?

Je pense que je le verrai un jour, mais pas bientôt. C’est un peu difficile de le dire. Il y a des obstacles qu’il faudra franchir, et certaines personnes ne voient pas ces obstacles et pensent qu’il suffira de prendre les techniques actuelles, et d’avoir plus de données et plus de puissance pour arriver à une intelligence de niveau humain. Je n’y crois pas du tout. Je pense qu’il faudra des progrès conceptuels qui sont du ressort de la science, pas de la technologie.

Quel genre de progrès ?

Pour moi, le premier obstacle à franchir est de permettre aux machines d’apprendre par elles-mêmes, un peu à la manière des enfants ou des animaux. Un enfant acquiert une quantité gigantesque de savoirs sur le fonctionnement du monde simplement par l’observation.

Comme celui d’intelligence artificielle, le terme d’apprentissage automatique (« machine learning », en anglais) est trompeur car une machine n’apprend pas du tout comme un humain…

Absolument. Pour qu’une machine reconnaisse des chaises, des chiens ou des chats, il faut d’abord lui montrer des milliers d’images étiquetées, dans chaque catégorie. Alors qu’un petit enfant auquel on montre trois dessins d’un éléphant saura ensuite reconnaître un éléphant dans une photo. Qu’est-ce qui fait qu’il y parvient sans avoir vu des milliers d’images ? Permettre aux machines d’apprendre de cette manière est d’autant plus important que l’on se lance dans des problèmes complexes : on veut apprendre aux voitures à se conduire toutes seules, par exemple, et cela n’est pas possible avec les méthodes traditionnelles.

Comment faire autrement ?

Ce qui manque, c’est de permettre à la machine, par un apprentissage autosupervisé, de se construire un modèle du monde. Qu’elle sache prédire que, si elle roule au bord d’un ravin et qu’elle donne un coup de volant, elle va finir au fond, et que ce n’est pas bon. Apprendre un modèle du monde, cela revient à prédire le futur à partir du passé et du présent, et peut-être d’une séquence d’actions que l’on a l’intention de faire. Pouvoir prédire, c’est un peu l’essence de l’intelligence.

Ce qui est étonnant, en lisant votre livre, c’est à quel point vous êtes fasciné par les neurosciences, par la façon dont le cerveau apprend…

C’est une inspiration. Il y a des gens qui disent que l’on peut faire de l’intelligence artificielle sans se référer du tout à l’intelligence humaine. Cela a été un des courants classiques de l’IA, fondé sur la logique, et cela a conduit aux systèmes experts, qui ont montré leurs limites notamment pour l’apprentissage car il faut entrer toutes les données « à la main ». Et puis il y a l’autre approche, qui consiste à essayer de copier ce qui se passe dans le cerveau. Mais là, il y a un autre danger, qui est de reproduire de trop près ce qui se passe, sans en comprendre les principes.

Les réseaux de neurones profonds, que vous avez contribué à inventer, sont particulièrement performants pour la reconnaissance faciale, qui est en train de se répandre partout, parfois de façon inquiétante. Qu’est-ce que cela vous inspire ?

C’est vrai pour toutes les technologies. Les technologies sont neutres, elles peuvent être utilisées à des fins bénéfiques ou moins bénéfiques. Ce qui fait qu’elles seront principalement utilisées à des fins bénéfiques, c’est la force de nos institutions démocratiques. Ceci dit, si on retourne plusieurs siècles en arrière, personne ne peut contester les bénéfices de l’invention de l’imprimerie, même si elle a permis de disséminer les écrits de Calvin et Luther qui ont causé deux cents ans de persécutions en Europe. C’est vrai que  les systèmes de reconnaissance du visage qui sont utilisés en Chine sont directement inspirés d’un de mes articles sur les réseaux convolutifs publiés en 2014. Mais la même invention sert aussi dans la sécurité routière, pour des systèmes d’aide à la conduite, ou dans l’analyse d’imagerie médicale pour augmenter la fiabilité. Elle sert à beaucoup de choses utiles, y compris chez Facebook pour lutter contre les images terroristes.

 (*) Luc Julia, aujourd’hui responsable de la recherche de Samsung, est à l’origine de Siri, l’assistant vocal d’Apple. Il a publié l’an dernier « L’intelligence artificielle n’existe pas » (First Editions).

« Quand la machine apprend », Yann Le Cun, éditions Odile Jacob, 396 pages, 22,90 euros.

Intelligence artificielle : limites, potentiels et dangers

Intelligence artificielle :  limites, potentiels et dangers

 

James Buchanan – Directeur Stratégie, Razorfish Londres, évoque les limites de l’IA.( Dans un article de la Tribune)

 

 

 

« L’intelligence artificielle a tous les attributs d’une grande révolution annoncée. Son potentiel est un peu plus « réel » chaque jour, de l’ordinateur qui bat les meilleurs joueurs de Go à la voiture autonome.  Lors de cette manifestation à laquelle j’ai participé aux côtés de 3 autres experts, j’ai eu l’occasion d’aborder l’impact des services propulsés par l’IA à l’échelle de l’individu. Au cours des cinq dernières années, les objets et services intelligents se sont essayés à tous les aspects de notre vie. Depuis la rencontre amoureuse jusqu’à la livraison, en passant par la finance et le sport, des start-ups anticipent désormais le moindre de nos problèmes et nous proposent des services toujours plus personnalisés à l’aide de l’IA. Sous couvert d’être pratiques, ces services changent notre façon de voir le monde, notre manière de penser et notre propre identité. Quelle valeur accordons-nous à notre libre-arbitre ? Sommes-nous prêts à sacrifier notre autonomie ? Avec l’émergence des machines qui apprennent, notre monde devient de plus en plus inquiétant et étrange, et il est légitime de s’interroger sur son évolution.  C’est maintenant qu’il faut en parler, alors que ces outils sont encore à notre service. Personne ne veut devenir le simple prolongement de chair et d’os d’un algorithme. L’innovation a toujours modifié notre façon de penser : ce que nous créons nous influence en retour. Le cas de l’intelligence artificielle est unique. Elle se matérialise par des outils qui ont leur intelligence propre et ne se laissent pas totalement contrôler. A la poursuite de leur logique interne, ils s’améliorent au contact de millions d’utilisateurs, leur influence croissant avec leur intelligence. Ces services semblent utiles car ils résolvent nos problèmes, révèlent ce qu’il y a de meilleur en nous et minimisent nos insuffisances. Ils nous confèrent quasiment des superpouvoirs. C’est pourtant d’un œil critique que nous devrions considérer cette situation. Dans ce futur algorithmique, qu’est ce qui compte le plus ? Avoir l’opportunité de partager mon point de vue est plutôt un accomplissement pour qui, comme moi, a grandi dans une petite ville. Mais que penser d’un futur où l’IA ne me permettra plus jamais de rencontrer ceux qui ne sont pas d’accord avec moi ? Que penser d’un service financier qui, faisant passer en premier ce qu’il sait être mes intérêts à long-terme, me rendra volontairement difficile la prise de décisions d’impulsion? In fine, peut-on sincèrement croire que « le marché » prendra soin de nous ? L’option de facilité consiste à se concentrer sur les résultats : clients enrichis, volume d’engagement, indice de satisfaction… Des données simples car elles correspondent déjà aux objectifs des entreprises. Elles offrent aussi de la lisibilité sur les variables grâce auxquelles les algorithmes s’améliorent, le reflet d’une culture scientifique dans laquelle ont grandi de nombreux tech-entrepreneurs. Mais laisser de côté toute préoccupation de sécurité devrait pourtant nous inquiéter un peu plus. Même des scientifiques de renom comme Stephen Hawkins admettent que l’intelligence artificielle pourrait bientôt nous échapper… Un autre mot pour « résultat » est « fin », et l’on sait qu’elle ne justifie pas les moyens. Enrichir un client n’est pas un argument valable si, en chemin, vous détériorez un autre aspect de sa vie, ou celle de quelqu’un d’autre, de façon imprévisible. Il y a ensuite le risque de devenir dépendant. Que se passerait-il si tous ces services devenaient soudainement inaccessibles ? Serions-nous livrés à nous-mêmes ? C’est bien une question d’éthique que pose en creux l’IA… Il existe heureusement une alternative. Et si au lieu de se focaliser sur les résultats nous aidions plutôt les gens à devenir un peu plus eux-mêmes ? En encourageant la réflexion et la connaissance de soi, nous donnerions la priorité à l’enseignement plutôt qu’à l’automation. Nous donnerions aux gens les outils pour développer leurs compétences naturelles plutôt que de chercher à les remplacer. Nous passerions probablement plus de temps à réfléchir au rôle que ces services jouent au sein de la société plutôt qu’à ce qu’ils apportent à l’individu isolé. En somme, en faisant moins nous pouvons encourager les autres à en faire plus et à agir de façon éthique et responsable. Mais cela n’arrivera pas par hasard, nous devons passer par un chemin choisi délibérément. Tant dans les instances dirigeantes, où le sujet doit être mis à l’ordre du jour des agendas politiques, qu’auprès des citoyens, nous devons nous assurer que les consciences s’éveillent à ces questions. Asseyons-nous autour d’une table et engageons dès aujourd’hui la discussion sur ce que l’IA peut proposer, non seulement aux personnes que nous sommes, mais aussi à celles que nous voulons devenir. »

Intelligence artificielle : science ou art ?

 

Intelligence artificielle : science ou art ?

Un  article intéressant de Raphael Bertholet, Vice-Président R&D de Symphony Retail AI France dans le journal la Tribune évoque les possibilités d’intégration de la sensibilité humaine dans l’intelligence artificielle au point que cette dernière pourrait être considérée comme un art. Un article qui s’attarde cependant seulement sur les problèmes méthodologiques et qui n’évoque pas les phénomènes d’aliénation et de domination de ces nouvelles technologies sur la pensée humaine, sur les comportements et pas seulement dans le domaine marchand.

 

 

Tribune

 

« Alors que l’on croyait, il y a encore peu, que l’une des limites de l’IA était la créativité – notamment artistique -, nous savons à présent qu’il n’en est rien et que l’homme peut être challengé aussi dans ce domaine. En témoigne la première exposition qui se tient en ce moment en Angleterre, rassemblant les œuvres d’AI-Da, humanoïde doté d’une intelligence artificielle. Il n’aura fallu que quelques jours pour que tous ses dessins, tableaux et sculptures se vendent, pour plus d’un million d’euros. Preuve, s’il était besoin, que l’IA est un placement d’avenir !

Au-delà de son caractère médiatique, cet évènement montre un point capital : l’IA lève le voile sur des domaines que l’on croyait hors du champ de la rationalité et des sciences, des domaines où seuls l’instinct et le talent humains pouvaient agir et apporter des réponses. L’IA montre que ce n’est pas si vrai et que les algorithmes peuvent, contre certaines certitudes, trouver des réponses à des questions qui étaient censées échapper à la science.

La prévision de la demande est, pour partie, l’un de ces domaines.

Jusqu’à récemment, l’approche en matière de prévision de la demande dans le retail a consisté à s’appuyer sur des outils statistiques et analytiques pour une grande partie des catégories de produits – et sur l’expérience et l’instinct des prévisionnistes pour ce qui sortait du cadre des modèles bien établis.

Bien que très performants, les outils statistiques classiques touchent, en effet, à leurs limites dès que l’on n’est plus dans une situation habituelle. Comment anticiper, par exemple, la demande d’un produit qui va faire l’objet d’une importante promotion le mois prochain alors que le vécu de ce même produit est vide de ce genre d’expérience ? Comment savoir à quel point le lancement d’un nouveau produit – pour lequel il n’y a pas de données existantes – va susciter la demande ?

Pour toutes ces situations inhabituelles pour lesquelles les statistiques ne peuvent plus venir en aide au travail des prévisionnistes, ces derniers se fient généralement à leur expérience. C’est l’intuition qui prend le relai. C’est le point au-delà duquel la prévision de la demande cesse d’être une science et devient un art.

Or c’est précisément ce point où l’IA est aujourd’hui en train de renverser la situation. En analysant des corrélations et des probabilités de corrélations avec d’autres articles, d’autres lieux de vente, d’autres données contextuelles, l’IA va se comporter comme l’instinct ou l’intuition du prévisionniste et permettre à la prévision de la demande de continuer à être une science, là où l’on pensait qu’elle restait un art.

Dans le retail comme ailleurs, la valeur d’une prévision se mesure à sa fiabilité et sa précision. Si la prévision de la demande pour les produits connus atteint des niveaux de précision élevés, celle des produits ou situations inhabituels fait chuter le taux de précision global, qui se heurte à une limite que l’on croyait difficile, pour ne pas dire impossible, à briser.

Parce qu’elle sait non seulement traiter des volumes de données immenses et hétérogènes, mais aussi faire les corrélations qui permettent d’expliquer l’inhabituel, l’IA gomme aujourd’hui cette limite. Elle donne aux prévisionnistes les moyens de passer une étape supérieure majeure dans leur travail, en leur fournissant les pistes et les corrélations qui leur permettent d’expliquer l’inhabituel et en industrialisant le bénéfice de l’intuition pour anticiper, avec une précision inédite, les situations pour lesquelles il n’existe pas ou peu de données directement reliées à l’évènement.

Avec l’IA, le talent des prévisionnistes peut ainsi être mis au profit de cette nouvelle marge de progression du taux de précision des prévisions. Leur intuition servira à proposer et tester de nouvelles données contextuelles aux évènements, de nouveaux attributs descriptifs pour enrichir l’IA et améliorer ses performances. Sans être encore une science exacte, la prévision de la demande s’en rapproche de plus en plus avec l’IA, et pourrait bien tendre à le devenir. »

INTELLIGENCE ARTIFICIELLE : PARIS ET BERLIN POUR UN FONDS COMMUN .

Intelligence artificielle : Paris et Berlin pour  un fonds commun

La France et l’Allemagne viennent  d’annoncer la mise en place d’un fonds commun pour développer  la filière de l’intelligence artificielle. Il était temps car ni en Allemagne, ni en France il n’existe de stratégies à la hauteur des enjeux dans ce domaine. Pour tout dire,  on a nettement sous-estimé le développement exponentiel des  algorithmes qui vont nourrir les transformations du mode de production mais aussi du mode de consommation voir même influencer le domaine naturel. Certes la France ne manque pas de bidouilleurs de génie capable de développer une start-up dans un domaine particulier mais souvent revendues en quelques années  à des firmes américaines voire chinoises. Cette émergence un peu spontané de ne saurait constituer une stratégie. Les insuffisances françaises et allemandes dans ce domaine du numérique sont à l’image des mêmes carences qui concernent cette autre filière que sont les batteries électriques.

Notons que le projet sur l’intelligence artificielle s’inspirera du modèle retenu pour financer le développement d’une filière européenne de batteries de quatrième génération pour les véhicules électriques, déjà fruit d’une initiative franco-allemande, qui vise à contrer le quasi-monopole actuel de la Chine dans ce domaine.

Bruno Le Maire plaide régulièrement pour une plus grande coordination européenne sur les questions industrielles et technologiques, indispensable à ses yeux pour favoriser l’émergence de “géants européens” à même de garantir la “souveraineté technologique” de l’Europe face aux Etats-Unis et à la Chine.

Il est soutenu dans ce projet par le ministre allemand de l’Economie et de l’Energie, Peter Altmaier, qui a jugé dans son discours devant les patrons français que l’intérêt de l’Europe était de se donner les moyens de conserver les données de ses citoyens et de “créer une infrastructure souveraine de données”.

Intelligence artificielle : les limites

Intelligence artificielle : les limites

James Buchanan – Directeur Stratégie, Razorfish Londres, évoque les limites de l’IA.( Dans un article de la Tribune)

 

 

 

« Omniprésente cette année au salon South by Southwest, l’intelligence artificielle a tous les attributs d’une grande révolution annoncée. Son potentiel est un peu plus « réel » chaque jour, de l’ordinateur qui bat les meilleurs joueurs de Go à la voiture autonome.  Lors de cette manifestation à laquelle j’ai participé aux côtés de 3 autres experts, j’ai eu l’occasion d’aborder l’impact des services propulsés par l’IA à l’échelle de l’individu. Au cours des cinq dernières années, les objets et services intelligents se sont essayés à tous les aspects de notre vie. Depuis la rencontre amoureuse jusqu’à la livraison, en passant par la finance et le sport, des start-ups anticipent désormais le moindre de nos problèmes et nous proposent des services toujours plus personnalisés à l’aide de l’IA. Sous couvert d’être pratiques, ces services changent notre façon de voir le monde, notre manière de penser et notre propre identité. Quelle valeur accordons-nous à notre libre-arbitre ? Sommes-nous prêts à sacrifier notre autonomie ? Avec l’émergence des machines qui apprennent, notre monde devient de plus en plus inquiétant et étrange, et il est légitime de s’interroger sur son évolution.  C’est maintenant qu’il faut en parler, alors que ces outils sont encore à notre service. Personne ne veut devenir le simple prolongement de chair et d’os d’un algorithme. L’innovation a toujours modifié notre façon de penser : ce que nous créons nous influence en retour. Le cas de l’intelligence artificielle est unique. Elle se matérialise par des outils qui ont leur intelligence propre et ne se laissent pas totalement contrôler. A la poursuite de leur logique interne, ils s’améliorent au contact de millions d’utilisateurs, leur influence croissant avec leur intelligence. Ces services semblent utiles car ils résolvent nos problèmes, révèlent ce qu’il y a de meilleur en nous et minimisent nos insuffisances. Ils nous confèrent quasiment des superpouvoirs. C’est pourtant d’un œil critique que nous devrions considérer cette situation. Dans ce futur algorithmique, qu’est ce qui compte le plus ? Avoir l’opportunité de partager mon point de vue est plutôt un accomplissement pour qui, comme moi, a grandi dans une petite ville. Mais que penser d’un futur où l’IA ne me permettra plus jamais de rencontrer ceux qui ne sont pas d’accord avec moi ? Que penser d’un service financier qui, faisant passer en premier ce qu’il sait être mes intérêts à long-terme, me rendra volontairement difficile la prise de décisions d’impulsion? In fine, peut-on sincèrement croire que « le marché » prendra soin de nous ? L’option de facilité consiste à se concentrer sur les résultats : clients enrichis, volume d’engagement, indice de satisfaction… Des données simples car elles correspondent déjà aux objectifs des entreprises. Elles offrent aussi de la lisibilité sur les variables grâce auxquelles les algorithmes s’améliorent, le reflet d’une culture scientifique dans laquelle ont grandi de nombreux tech-entrepreneurs. Mais laisser de côté toute préoccupation de sécurité devrait pourtant nous inquiéter un peu plus. Même des scientifiques de renom comme Stephen Hawkins admettent que l’intelligence artificielle pourrait bientôt nous échapper… Un autre mot pour « résultat » est « fin », et l’on sait qu’elle ne justifie pas les moyens. Enrichir un client n’est pas un argument valable si, en chemin, vous détériorez un autre aspect de sa vie, ou celle de quelqu’un d’autre, de façon imprévisible. Il y a ensuite le risque de devenir dépendant. Que se passerait-il si tous ces services devenaient soudainement inaccessibles ? Serions-nous livrés à nous-mêmes ? C’est bien une question d’éthique que pose en creux l’IA… Il existe heureusement une alternative. Et si au lieu de se focaliser sur les résultats nous aidions plutôt les gens à devenir un peu plus eux-mêmes ? En encourageant la réflexion et la connaissance de soi, nous donnerions la priorité à l’enseignement plutôt qu’à l’automation. Nous donnerions aux gens les outils pour développer leurs compétences naturelles plutôt que de chercher à les remplacer. Nous passerions probablement plus de temps à réfléchir au rôle que ces services jouent au sein de la société plutôt qu’à ce qu’ils apportent à l’individu isolé. En somme, en faisant moins nous pouvons encourager les autres à en faire plus et à agir de façon éthique et responsable. Mais cela n’arrivera pas par hasard, nous devons passer par un chemin choisi délibérément. Tant dans les instances dirigeantes, où le sujet doit être mis à l’ordre du jour des agendas politiques, qu’auprès des citoyens, nous devons nous assurer que les consciences s’éveillent à ces questions. Asseyons-nous autour d’une table et engageons dès aujourd’hui la discussion sur ce que l’IA peut proposer, non seulement aux personnes que nous sommes, mais aussi à celles que nous voulons devenir. »

 

Intelligence artificielle : l’esquisse d’une stratégie

Intelligence artificielle : l’esquisse d’une stratégie

 

 

Comme on le sait, la mode n’est pas aux réflexions stratégiques dans ce gouvernement qui lui préfère une sorte de l’idéologie du court terme. Pourtant pour certains grands sujets industriels ou autres, la complexité de la problématique et l’ampleur des moyens à mettre en œuvre exigent  nécessairement une vision à long terme et la mise en place de synergies entre les acteurs concernés. Faute de ce type de démarche, la France et l’Europe ont perdu la maîtrise de la technologie 5G  au profit seulement des Chinois et des Américains. Concernant l’intelligence artificielle là aussi chinois et américains ont engagé des moyens considérables pour maîtriser cette révolution technologique. On peut donc se réjouir que Huit  grands groupes industriels français de secteurs aussi variés que l’aérospatiale, l’énergie et l’automobile aient  annoncé mercredi avoir signé un manifeste pour préparer l’utilisation de l’intelligence artificielle (IA) dans leurs activités respectives. Air Liquide, Dassault Aviation, EDF, Renault, Safran, Thales, Total et Valeo précisent dans un communiqué commun vouloir définir d’ici la fin d’année un “plan d’action coordonné avec l’écosystème français de l’IA». Les groupes industriels ont signé ce manifeste avec le ministère de l’Economie et des Finances dans le cadre de la stratégie “AI for Humanity” du gouvernement. “L’objectif est d’atteindre plus rapidement une masse critique sur les sujets de recherche prioritaires”, soulignent-ils pour expliquer leur volonté de coopérer, tout en invitant d’autres acteurs publics ou privés à les rejoindre. Le groupe de télécoms Orange, le fabricant de semi-conducteurs STMicroelectronics, le groupe de services pétroliers Schlumberger et l’éditeur de jeux vidéo Ubisoft ont déjà franchi le pas ces derniers jours en participant eux aussi au manifeste, a précisé Marko Erman, directeur technique de Thales. “La rupture technologique fondatrice pour les économies du 21e siècle, ce sera l’intelligence artificielle”, a souligné lors d’un discours le ministre de l’Economie et des Finances Bruno Le Maire. “C’est pour ça qu’il est absolument impératif (…) que ce soit une technologie que nous maîtrisions et non pas une technologie que nous subissions”, a-t-il ajouté. On peut cependant regretter que le rapprochement des compétences et les moyens de recherche sur le sujet n’ait  pas une dimension européenne

Intelligence artificielle : enjeux (rapport Villani)

Intelligence artificielle : enjeux (rapport Villani)

 

Un rapport parlementaire sorti il y a un an mais qui demeure d actualité (www.aiforhumanity.fr/pdfs/9782111457089_Rapport_Villani_accessible.pd).  Introduction.

« Définir l’intelligence artificielle n’est pas chose facile. Depuis ses origines comme domaine de recherche spécifique, au milieu du XXe siècle, elle a toujours constitué une frontière, incessamment repoussée. L’intelligence artificielle désigne en effet moins un champ de recherches bien défini qu’un programme, fondé autour d’un objectif ambitieux : comprendre comment fonctionne la cognition humaine et la reproduire ; créer des processus cognitifs comparables à ceux de l’être humain. Le champ est donc naturellement extrêmement vaste, tant en ce qui concerne les procédures techniques utilisées que les disciplines convoquées : mathématiques, informatiques, sciences cognitives… Les méthodes d’IA sont très nombreuses et diverses (ontologique, apprentissage par renforcement, apprentissage adversarial, réseaux de neurones…) et ne sont pas nouvelles : beaucoup d’algorithmes utilisés aujourd’hui ont été développés il y a plusieurs dizaines d’années. Depuis la conférence de Dartmouth de 1956, l’intelligence artificielle s’est développée, au gré des périodes d’enthousiasme et de désillusion qui se sont succédées, repoussant toujours un peu plus les limites de ce qu’on croyait pouvoir n’être fait que par des humains. En poursuivant son projet initial, la recherche en IA a donné lieu à des vrais succès (victoire au jeu d’échecs, au jeu de go, compréhension du langage naturel…) et a nourri largement l’histoire des mathématiques et de l’informatique : combien de dispositifs que nous considérons aujourd’hui comme banals étaient à l’origine une avancée majeure en IA – une application de jeux d’échecs, un programme de traduction en ligne… ? Du fait de ses ambitions, qui en font un des programmes scientifiques les plus fascinants de notre époque, la discipline de l’IA s’est toujours développée de concert avec les imaginaires les plus délirants, les plus angoissants et les plus fantastiques, qui ont façonné les rapports qu’entretient le grand public avec l’IA mais également ceux des chercheurs eux-mêmes avec leur propre discipline. La (science) fiction, les fantasmes et les projections collectives ont accompagné l’essor de l’intelligence artificielle et guident parfois ses objectifs de long terme : en témoignent les productions fictionnelles abondantes sur le sujet, de 2001 l’Odyssée de l’espace, à Her en passant Blade Runner et une grande partie de la littérature de science-fiction. Finalement, c’est probablement cette alliance entre des projections fictionnelles et la recherche scientifique qui constitue l’essence de ce qu’on appelle l’IA. Les imaginaires, souvent ethno-centrés et organisés autour d’idéologies politiques sous-jacentes, jouent donc un rôle majeur, bien que souvent négligé, dans la direction que prend le développement de cette discipline. L’intelligence artificielle est entrée, depuis quelques années, dans une nouvelle ère, qui donne lieu à de nombreux espoirs. C’est en particulier dû à l’essor de l’apprentissage automatique. Rendues possibles par des algorithmes nouveaux, par la multiplication des jeux de données et le décuplement des puissances L’intelligence artificielle est entrée, depuis quelques années, dans une nouvelle ère, qui donne lieu à de nombreux espoirs 10 Introduction de calcul, les applications se multiplient : traduction, voiture autonome, détection de cancer,… Le développement de l’IA se fait dans un contexte technologique marqué par la « mise en données » du monde (datafication), qui touche l’ensemble des domaines et des secteurs, la robotique, la blockchain1, le supercalcul et le stockage massif. Au contact de ces différentes réalités technologiques se jouera sûrement le devenir de l’intelligence artificielle. Ces applications nouvelles nourrissent de nouveaux récits et de nouvelles peurs, autour, entre autres, de la toute-puissance de l’intelligence artificielle, du mythe de la Singularité et du transhumanisme. Depuis quelques années, ces représentations sont largement investies par ceux qui la développent et participent à en forger les contours. Le cœur politique et économique de l’intelligence artificielle bat toujours dans la Silicon Valley, qui fait encore office de modèle pour tout ce que l’Europe compte d’innovateurs. Plus qu’un lieu, davantage qu’un écosystème particulier, elle est, pour beaucoup d’acteurs publics et privés, un état d’esprit qu’il conviendrait de répliquer. La domination californienne, qui subsiste dans les discours et dans les têtes, nourrit l’idée d’une voie unique, d’un déterminisme technologique. Si le développement de l’intelligence artificielle est pensé par des acteurs privés hors de nos frontières, la France et l’Europe n’auraient d’autre choix que de prendre le train en marche. Les illustrations sont nombreuses : rien qu’en France, l’accord signé entre Microsoft et l’éducation nationale sous le précédent quinquennat ou l’utilisation par la DGSI de logiciels fournis par Palantir, une startup liée à la CIA, ne disent finalement pas autre chose. On observe la même tentation chez les entreprises européennes qui, persuadées d’avoir déjà perdu la course, cèdent bien souvent aux sirènes des géants de la discipline, parfois au détriment de nos pépites numériques. Contrairement aux dernières grandes périodes d’emballement de la recherche en intelligence artificielle, le sujet a très largement dépassé la seule sphère scientifique et est sur toutes les lèvres. Les investissements dans la recherche et dans l’industrie atteignent des sommes extraordinaires, notamment en Chine. Les responsables politiques du monde entier l’évoquent dans les discours de politique générale comme un levier de pouvoir majeur : l’emblématique interview à Wired de Barack Obama en octobre 2016 montrait que ce dernier avait bien compris l’intérêt de faire de l’avance américaine en intelligence artificielle un outil redoutable de soft power. Le Président russe Vladimir Poutine a quant à lui affirmé que « celui qui deviendra le leader dans ce domaine sera le maître du monde », comparant l’intelligence artificielle aux technologies nucléaires. S’il s’agissait vraisemblablement pour lui de compenser le retard de la Russie en matière d’intelligence artificielle par un discours musclé sur le sujet, cette affirmation est révélatrice de l’importance géostratégique prise par ces technologies. Dans la mesure où les chaînes de valeur, surtout dans le secteur numérique, sont désormais mondiales, les pays qui seront les leaders dans le domaine de l’intelligence artificielle seront amenés à capter une grande partie de la valeur des systèmes qu’ils transforment, mais également à contrôler ces mêmes systèmes, mettant en cause l’indépendance des autres pays. C’est que l’intelligence artificielle va désormais jouer un rôle bien plus important que celui qu’elle jouait jusqu’alors. Elle n’est plus seulement un programme 1. La blockchain correspond à un registre distribué qui permet d’éviter de recourir à un tiers de confiance lors de transactions et qui est notamment au fondement du bitcoin. 11 Introduction Donner un sens, c’est-à-dire donner un cap, une signification et des explications. Voilà l’objectif de ce rapport de recherche confiné aux laboratoires ou à une application précise. Elle va devenir une des clés du monde à venir. En effet nous sommes dans un monde numérique, de plus en plus, de part en part. Un monde de données. Ces données qui sont au cœur du fonctionnement des intelligences artificielles actuelles. Dans ce monde-là, qui est désormais le nôtre, ces technologies représentent beaucoup plus qu’un programme de recherche : elles déterminent notre capacité à organiser les connaissances, à leur donner un sens, à augmenter nos facultés de prise de décision et de contrôle des systèmes. Et notamment à tirer de la valeur des données. L’intelligence artificielle est donc une des clés du pouvoir de demain dans un monde numérique. Voilà pourquoi il est d’intérêt général que nous nous saisissions collectivement de cette question. Et que la France et l’Europe puissent faire entendre leur voix. Il est nécessaire de tout faire pour rester indépendants. Or la concurrence est rude : les États-Unis et la Chine sont à la pointe de ces technologies et leurs investissements dépassent largement ceux consentis en Europe. Le Canada, le Royaume-Uni et, tout particulièrement, Israël, tiennent également une place essentielle dans cet écosystème naissant. Parce qu’à bien des égards, la France et l’Europe peuvent déjà faire figure de « colonies numériques »2, il est nécessaire de ne céder à aucune forme de déterminisme, en proposant une réponse coordonnée au niveau européen. C’est pourquoi le rôle de l’État doit être réaffirmé : le jeu du marché seul montre ses limites pour assurer une véritable politique d’indépendance. De plus les règles qui régissent les échanges internationaux et l’ouverture des marchés intérieurs ne servent pas toujours les intérêts économiques des États européens – qui l’appliquent trop souvent à sens unique. Plus que jamais, l’État doit donner un sens au développement de l’intelligence artificielle. Donner un sens, c’est-à-dire donner un cap, une signification et des explications. Voilà l’objectif de ce rapport »

L’intelligence artificielle : chance ou menace ?

L’intelligence artificielle : chance ou menace ?

  • ·        

 

Lintelligence artificielle constitue-t-elle une chance pour notre économie et où une menace pour les libertés démocratiques. C’était le thème dun débat du Forum Europe 1 organisé au Bataclan. (Source Europe 1) 

« L’intelligence artificielle (IA) souffre-t-elle d’une mauvaise image dans l’Hexagone ? « On vit en France une vraie schizophrénie sur ce sujet », estime Eric Hazan, directeur associé chez McKinsey, cabinet de conseil en intelligence artificielle, interrogé lors du Forum Europe 1 Liberté, Egalité, Fraternité, organisé mardi au Bataclan.

Quatre fois plus de chômage sans l’IA ?  »On veut plus de vie privée et en même temps on est sur trois ou quatre réseaux sociaux. On vit avec le stress d’être écouté et on est bien content d’avoir des logiciels de traduction », énumère ce spécialiste pour qui l’intelligence artificielle est l’un des enjeux économiques majeurs des décennies à venir. « Si on déploie l’Intelligence artificielle, on va croître de 0,1 à 0,2% par an la croissance des pays développés. On créerait quatre fois plus de chômage en n’utilisant pas l’IA. On estime en effet à 5 à 10% des emplois qui seront supprimés à cause de l’IA. Mais il y aura aussi beaucoup de créations d’emploi ». Selon Eric Hazan, les bénéfices pourront toucher tous les secteurs. Détection ultraprécise du diabète, lutte contre le braconnage en Afrique, identification des prémices d’un ouragan, réduction des déchets de production dans l’industrie, analyse des capacités de remboursement de dette des ménages… « L’intelligence artificielle est un facteur de segmentation, de détails dans la compréhension des choses. On peut optimiser énormément de choses », conclut-il.

« La société de consommation existait bien avant l’intelligence artificielle »

Une incitation à la consommation ? L’intelligence artificielle est-elle pour autant une panacée ? Ne menace-t-elle pas notre vie privée et notre liberté ? « Ne risque-t-elle pas de nous pousser à consommer non-stop ? Aujourd’hui, je peux recevoir des publicités (ciblées) dans mes toilettes avec mon téléphone. Cela ne pousse-t-il pas à son maximum notre asservissement à la société de consommation ? », interroge pour sa part David Abiker, journaliste à Europe 1 et animateur du forum Europe 1. « La société de consommation existait bien avant l’intelligence artificielle », balaye pour sa part Eric Hazan, qui reconnaît que les enjeux éthiques sont importants et que l’IA devra être encadrée.

Pour Marie-Laure Denis, présidente de la CNIL, « les consommateurs d’IA doivent avoir conscience que leurs données sont enregistrées, comprendre comment elles sont enregistrées et utilisées » par l’IA. Si elle assure que la France est bien armée pour lutter contre les dérives en matière de protections des données, elle s’étonne encore de recevoir certains types de publicités : « Des publicités pour de l’alcool par exemple. Cela risque de poser problèmes pour ceux qui luttent contre une addiction… »

« L’économie de la connaissance, on y va ».  »Il y a des enjeux éthiques très importants. Si tous les logiciels d’intelligence artificielle sont faits par des hommes blancs, pour des hommes blancs, cela peut poser des problèmes » de discrimination, ajoute pour sa part Olivier Derrien, directeur général de Salesforce, éditeur de logiciels, participants aussi au débat. Mais pour Eric Hazan, toutes ces questions, légitimes, ne freineront pas le développement de l’IA. Elles devront être résolues mais il est désormais impossible de revenir en arrière. « L’intelligence artificielle, l’économie de la connaissance, on y va », conclut-il.

 

Vers le remplacement de l’homme par l’intelligence artificielle ?

Vers le remplacement de l’homme par l’intelligence artificielle ?

 

L’intelligence artificielle est un thème très à la mode c’est aussi l’occasion de faire un amalgame très approximatif de toutes les évolutions notamment technologiques, biologiques et sociétales. De ce point,  un article du site Atlantico (pourtant souvent intéressant) rend compte d’un ouvrage sur la question dans la lecture mérite le détour. Pas vraiment une analyse et une prospective scientifique mais plutôt une approche scientiste qui brasse des concepts mal maîtrisés et qui constituent plutôt une sorte de science-fiction alimentée par l’observation du marc de café et le courant transhumaniste.

 

«  Engagés depuis des milliards d’années dans une implacable course aux armements, nos gènes ont fini par se montrer plus malins. Ils ont fabriqué une arme si puissante que dans cette lutte il n’y aura ni gagnants ni perdants. Il ne s’agit pas de la bombe à hydrogène, car un conflit nucléaire généralisé ne ferait que retarder ce qui se trame et qui est immensément plus intéressant. Ce qui nous attend, ce n’est pas l’anéantissement. C’est plutôt un futur qui, vu de la position privilégiée qui est la nôtre aujourd’hui, mérite d’être qualifié de « postbiologique », voire de « surnaturel ». C’est un monde dans lequel le genre humain sera balayé par une mutation culturelle et détrôné par sa propre progéniture artificielle. Les conséquences ultimes de ce bouleversement ne sont pas connues, bien que nombre d’étapes intermédiaires puissent être prévues et, pour certaines, aient déjà été franchies. Aujourd’hui, nos machines restent des créations élémentaires : elles exigent les soins maternels et l’attention constante que l’on doit aux nouveau-nés et ne méritent guère d’être qualifiées d’« intelligentes ». Mais, dès le siècle prochain, elles deviendront des entités aussi complexes que nous-mêmes, puis, bientôt, elles transcenderont tout ce que nous connaissons. Nous pourrons alors être fiers qu’elles se disent nos descendants.

 

Délivrés des pesantes contraintes de l’évolution biologique, ces enfants de notre esprit pourront se mesurer aux grands défis de l’univers. Nous autres humains bénéficierons un temps de leurs efforts, mais, tôt ou tard, tels des enfants biologiques, ils iront chercher fortune pour leur propre compte, tandis que nous, leurs vieux parents, nous éteindrons doucement. Perdra-t-on beaucoup à ce passage du flambeau ? Pas nécessairement, car nos rejetons pourront garder en mémoire presque tout ce qui nous concerne, peut-être même jusqu’aux détails du fonctionnement des esprits humains individuels.

Ce processus a commencé il y a environ cent millions d’années, lorsque certaines lignées génétiques ont trouvé le moyen de donner naissance à des animaux capables d’apprendre durant leur vie certains comportements de leurs aînés durant leur vie, au lieu d’en hériter en bloc à la conception. Une première étape a été franchie il y a dix millions d’années, lorsque nos ancêtres primates ont commencé à se servir d’outils faits d’os, de bâtons et de pierres. Le processus s’est à nouveau accéléré avec la maîtrise du feu et le développement de langages complexes, il y a environ un million d’années. Au moment où notre espèce est apparue, il y a environ cent mille ans, l’évolution culturelle, la mécanique implacable que nos gènes avaient involontairement fabriquée, avait acquis une dynamique irrésistible.

Au cours des derniers dix mille ans, les changements intervenus au sein du patrimoine génétique humain ont été dérisoires en regard des progrès foudroyants de la culture humaine. Nous avons d’abord assisté à une révolution agricole, suivie de l’établissement de vastes bureaucraties capables de lever des impôts pour subvenir à leurs besoins, du développement de l’écriture et, enfin, de l’émergence de classes oisives disposant du temps et de l’énergie nécessaires pour se consacrer à des occupations intellectuelles. Au cours du dernier millénaire, les inventions, à commencer par celle de l’imprimerie à l’aide de caractères mobiles, ont grandement accéléré le flot de l’information culturelle, et donc le rythme de son évolution.

Avec l’arrivée de la révolution industrielle, il y a deux cents ans, nous sommes entrés dans la phase finale, celle au cours de laquelle les substituts artificiels aux fonctions du corps humain, telles que soulever ou porter, sont devenus de plus en plus économiquement intéressants – et même indispensables. Puis, il y a une centaine  d’années, avec l’invention des premières machines à calculer réellement utilisables, nous avons, pour la première fois, été capables de reproduire quelques-unes des fonctions élémentaires, mais tout de même délicates, de l’esprit humain. Le pouvoir de calcul des machines a depuis été multiplié par un facteur mille tous les vingt ans.

Aujourd’hui, nous sommes très proches du moment où toutes les fonctions humaines, qu’elles soient physiques ou intellectuelles, connaîtront leur équivalent artificiel. Cette convergence des développements culturels aura pour incarnation le robot intelligent, machine capable de penser et de réagir comme un humain, bien que certaines de ses caractéristiques physiques ou intellectuelles puissent être non humaines. De telles machines seraient capables de mener plus loin notre évolution culturelle, de parfaire leur construction et leur sophistication, sans nous et sans les gènes qui nous constituent. Quand cela se produira, notre ADN se retrouvera au chômage : il aura perdu la course de l’évolution au profit d’une nouvelle forme de compétition. »

Extrait du livre de Hans Moravec,  »L’avenir des robots et l’intelligence humaine », publié aux éditions Odile Jacob.

Macron : un président a fort intellect mais à faible intelligence

 

 

Les grands médias habitués aux sentences réductrices considèrent en général que le président de la république est intelligent. C’est évidemment confondre l’intellect et l’intelligence. L’intellect est une capacité à enregistrer des connaissances tandis que l’intelligence est la capacité de résoudre une question ou un problème. Au fond, Macron est un exceptionnel répétiteur de leçons et de mode. Une sorte d’éponge qui absorbe l’enseignement dispensé et qui le restitue sans modification quand on la presse. En fait, l’archétype de l’énarque comme l’ont prouvé différentes évaluations de cette institution dont les élèves se caractérisent par un grand déficit de créativité et de contestation des choses établies. Par contre, la capacité de Macron à régler des problèmes complexes à dimension systémique est assez insignifiante. Finalement, Macon reprend les vieilles recettes de l’ultra libéralisme et confie au seul marché le soin de résoudre non seulement les problèmes économiques mais aussi sociaux voire sociétaux. (Voir par exemple la question du climat envisagé essentiellement sous l’angle de la fiscalité voir aussi la manière dont le rapport de Borloo sur les banlieues a été jeté aux orties). S’ajoutent à ces déficiences de Macron, son absence de formation dans le domaine économique puisque son cursus est essentiellement littéraire. L’intelligence suppose évidemment de prendre en compte les aspects technologiques mais également les dimensions humaines qui vont gérer, utiliser, bénéficier ou subir ces évolutions techniques. Cela suppose un minimum de vécu et pas simplement une culture livresque. Un vécu dans le monde réel des Français et non dans le monde confiné des salons parisiens dont la réassurance identitaire est fondée sur la répétition en boucle des tares du peuple. Tout dans la posture de Macron démontre cette grande insuffisance d’intelligence. Pour preuve, il ne sait pas écouter. Pour preuve, il ne sait s’exprimer que de manière professorale un peu comme un évangéliste mais de façon mécanique sans aucune humanité. On ne sent pas chez Macron la moindre ouverture sur l’autre. C’est l’égocentrisme porté au plus haut niveau. Notons par exemple le nombre de « «  ou de « je » dans ses discours. Quand les médias auront compris qu’il y a une grande différence entre l’intellect et l’intelligence, on aura peut-être fait un progrès en France pour comprendre et éventuellement modifier la sociologie politique.

Les risques de l’intelligence artificielle non maîtrisée

Les risques de l’intelligence artificielle non maîtrisée

 

Cédric Sauviat, polytechnicien, président de l’Association Française contre l’Intelligence Artificielle (AFCIA) critique les conséquences de l’IA dont il pense qu’elle absolument pas maîtrisée (tribune dans sciences critiques)

 

« Il y a  quelques semaines, un groupe de travail constitué de plusieurs institutions anglaises et américaines, dont les universités d’Oxford et de Cambridge, a publié un rapport édifiant intitulé « The Malicious Use of Artificial Intelligence » (« De l’Usage malveillant de l’IA » 1).

Une vingtaine d’experts y décrivent les nouveaux dangers auxquels nous expose la technologie dans les cinq prochaines années.

Essaims de drones tueurs à reconnaissance faciale, rançongiciel profilant leurs cibles de manière automatique et sur une grande échelle, détournement de vidéos ou création de deepfakes (vidéo-montages hyperréalistes) aux fins de manipulation et de propagande, etc. Les scénarios ne manquent pas, limités par notre seul pouvoir d’imagination.

Disponibles un peu partout en libre accès, les algorithmes d’Intelligence Artificielle (IA) changent radicalement la donne en matière de sécurité. Là où une organisation malveillante devait investir du temps et de l’expertise pour préparer et mener à bien un petit nombre d’actions criminelles, il suffit désormais de quelques algorithmes courants et de la puissance de calcul de quelques serveurs pour agir avec efficacité et précision sur une vaste échelle.

POUR LA PREMIÈRE FOIS, LA QUESTION DE LA LIBRE DIFFUSION DES ALGORITHMES EST POSÉE.

Hier, l’investissement personnel des malfrats les exposait au risque d’être repérés et identifiés. Aujourd’hui, la délégation du travail à des « bots » garantit aux commanditaires un redoutable anonymat.

Contre ces nouvelles menaces, le panel d’experts reconnaît qu’il n’existe guère de parade évidente. Seule, disent-ils, la mise au point de systèmes défensifs plus intelligents encore pourrait permettre, sinon de prévenir, du moins d’endiguer les attaques. Incitant à une fuite en avant technologique dont les conséquences seront de fournir toujours davantage de moyens aux criminels potentiels.

Pour la première fois, la question de la libre diffusion des algorithmes est posée. Mais est-il vraiment possible de restreindre la diffusion de codes informatiques ?

 

LES EXPERTS DÉPASSÉS

 

Au même moment, diverses associations lancent une campagne pour obtenir l’interdiction des armes autonomes. L’un de leurs membres, l’informaticien Stuart Russell, a d’ailleurs présenté à l’Organisation des Nations-Unies (ONU), en novembre 2017, une sorte de docu-fiction 2, très impressionnant, dans lequel on voit des essaims de drones tueurs plonger le monde dans un climat de terreur, en l’espace de quelques semaines.

La conclusion de Stuart Russell est sans appel : il faut d’urgence interdire les armes autonomes par convention internationale. Qui oserait le contredire ?

 

 

Le raisonnement, toutefois, souffre d’un petit problème. Pour être efficace, une interdiction légale exigerait que ces fameux drones n’utilisent pas une technologie en vente libre ! GPS, système de pilotage automatique, logiciel de reconnaissance faciale, tous ces gadgets figurent déjà dans votre smartphone. Il ne vous reste plus qu’à récupérer la poudre d’une balle de fusil, ou à accrocher une grenade, un cocktail Molotov ou carrément une paire de ciseaux sur votre drone pour en faire une arme intelligente !

On le voit donc, l’IA semble poser des problèmes insurmontables, même à ceux qui en sont, en principe, les experts – et c’est le cas de Stuart Russell.

 

UNE CONFIANCE EN DÉLIQUESCENCE

 

Si le champ des dérives criminelles s’annonce très vaste, que dire de celui des pratiques nuisibles, mais pas nécessairement illégales, qui deviendront possibles pour les individus, les associations ou les entreprises ? Dans un monde où la responsabilité juridique, ou même simplement morale, se dilue à proportion de la distance qu’intercalent Internet et algorithmes entre un acte et son auteur, ne faut-il pas craindre une déliquescence totale de la confiance en l’autre ? 3

GARANT DE LA CONFIANCE QUI PERMET LE LIEN SOCIAL, L’ÉTAT DE DROIT DEVRA, DE PLUS EN PLUS, S’EFFACER DERRIÈRE LES ENTREPRISES TECHNOLOGIQUES QUI MAÎTRISENT LA « BONNE » INTELLIGENCE ARTIFICIELLE.

On discerne alors le rôle que seront appelées à jouer les grandes entreprises technologiques dans la préservation de la confiance et la défense contre la malveillance. Elles seules détiendront les moyens de contrecarrer les pratiques nuisibles, comme par exemple d’authentifier une vidéo, de bloquer des infiltrations de virus informatiques générés automatiquement ou encore de protéger la multitude des objets connectés dont nous sommes, de plus en plus, entourés et dépendants. Déjà, ces entreprises disposent de leviers considérables, et en grande partie discrétionnaires, sur la visibilité d’une société ou la diffusion d’une information.

Garant de la confiance qui permet le lien social, l’État de droit devra, de plus en plus, s’effacer derrière les entreprises technologiques, celles qui maîtrisent la « bonne » IA et peuvent assurer cette mission. Tendance en tout point comparable aux conditions d’émergence de la féodalité dans l’Europe médiévale.

 

UNE FUITE EN AVANT DÉBRIDÉE

 

Alléguant la sauvegarde de la souveraineté politique ou économique, la plupart des responsables politiques estiment qu’il est crucial de favoriser le développement d’une « industrie nationale » de l’Intelligence Artificielle. C’est qu’ils redoutent la mainmise des géants technologiques étrangers sur les données, et donc sur les personnes.

LE DÉVELOPPEMENT TECHNIQUE EST TOTALEMENT DÉBRIDÉ PARCE QUE, NULLE PART ET À AUCUN MOMENT, LES CONCEPTEURS D’INTELLIGENCE ARTIFICIELLE ET LES LÉGISLATEURS NE FIXENT LA MOINDRE LIMITE.

Ils craignent, en outre, l’effet des destructions d’emplois liées à la robotisation 4, et brandissent désormais comme une vérité indiscutable l’argument-choc selon lequel « les économies les plus équipées en intelligence artificielle et en robotique sont celles qui connaissent le moins de chômage ». 5

Mais le rêve de donner naissance à des champions européens de l’IA n’est pas sans contradiction dans une économie ouverte et globalisée, où lesdits champions peuvent, à tout moment, passer sous contrôle étranger.

Les entreprises technologiques promouvant l’IA, largement transnationales, l’ont bien compris puisqu’elles omettent soigneusement toute référence à une bien illusoire défense de souveraineté. Il n’est guère besoin d’invoquer celle-ci, au demeurant, pour que la compétition économique et la promesse de miracles techniques suffisent à alimenter une fuite en avant totalement débridée. »

 

Il s’agit donc de doubler les capacités installées d’énergies renouvelables d’ici à 2050, en multipliant par 2,5 les capacités installées d’éolien, et par 5 ou 6 celles de photovoltaïque. Le ministère souligne que ces ambitions ne posent pas de problème en termes d’usage des sols ou de pression foncière, puisqu’il s’agit de passer de 8.000 éoliennes installées aujourd’hui à moins de 15.000 (du fait des gains de performances), et pour le solaire, d’occuper 365 kilomètres carrés supplémentaires au sol et 175 kilomètres carrés de toitures pour le photovoltaïque.

Concernant la biomasse, sur laquelle nous pourrions connaître un déficit entre des besoins évalués à 460 TWh et un potentiel de 430 TWh, et qu’il pourrait être difficile d’importer dans la mesure où nos voisins pourraient se trouver dans des situations similaires, la PPE prévoit que le soutien financier soit réservé aux seules installations visant à produire de la chaleur.

Le biométhane (produit par méthanisation à partir de déchets organiques ménagers ou agricoles) voit ses ambitions stoppées nettes. Alors que le coût de production actuel est d’environ 95 euros par mégawattheure (MWh) produit, le gouvernement conditionne l’objectif de 10% de gaz vert dans le réseau en 2030 à une baisse des coûts à hauteur de 67 euros/MWh. Sinon, l’objectif restera limité à 7%, à comparer avec les ambitions d’un GRDF qui proposait 30%. Cette position, justifiée par une attention toute particulière portée aux coûts de la transition écologique sur fond de mouvement des gilets jaunes, semble assez antagoniste avec le constat d’électricité éolienne et photovoltaïque qui ont vu leurs coûts divisés par dix en dix ans pour des puissances équivalentes… précisément grâce aux économies d’échelle. Celles réalisées au niveau de la fabrication de panneaux solaires en Chine, mais aussi dans une certaine mesure, celles autorisées par le volume total des appels d’offres. On peut craindre que ces perspectives modestes ne suscitent pas suffisamment d’investissements pour permettre de telles baisses de coûts. Et plus largement que cette préférence aux technologies matures sur lesquelles la France – et même l’Europe – ont laissé le leadership à d’autres régions du monde n’entrave le développement de filières industrielles domestiques sur des technologies encore émergentes.

123



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol