Archive pour le Tag 'Intelligence'

Intelligence artificielle: le contrôle par des algorithmes responsables ? ( Nozha Boujemaa )

Intelligence artificielle: le contrôle par des algorithmes responsables ?  (  Nozha Boujemaa )

 

Nozha Boujemaa, directrice science & innovation chez Median Technologies essaie de rassurer à propos des dérives possibles de l’IA et cela  grâce aux algorithmes responsables . Un concept encore un peu flou !

 

 Tribune dans le Monde (extraits)

 

«  Des chercheurs des universités Stanford et du Massachusetts ont publié, le 22 novembre, dans la revue Science une nouvelle approche en apprentissage automatique permettant de prévenir les comportements indésirables éventuels de l’intelligence artificielle. Ils ont montré leurs résultats dans deux cas applicatifs : la discrimination du genre et la gestion du diabète.

Le cadre proposé permet de mettre en place des algorithmes dits « seldoniens », en référence au personnage de Hari Seldon, créé par l’auteur de science-fiction Isaac Asimov. Ce dernier avait inventé les « robots positroniques », gouvernés par trois lois protégeant les êtres humains, connues depuis comme les « lois d’Asimov ».

En réalité, il s’agit d’une famille d’approches qui intègrent, dans leurs fonctions objectives à optimiser, des contraintes à respecter pour éviter de causer des dommages à l’humain. Ainsi, le respect de son intégrité physique est transféré au concepteur de l’algorithme d’apprentissage plutôt qu’à celui qui l’utilise ou le déploie. Il s’agit d’algorithmes « responsables par conception », dont la publication a été bien théâtralisée par l’équipe américaine avec la référence à Seldon et à Asimov.

Cela nous renvoie vers un imaginaire de science-fiction qui éveille à la fois curiosité et étonnement. L’idée essentielle est d’anticiper la responsabilité dans la conception plutôt que de contrôler a posteriori le comportement de l’algorithme par un mécanisme d’auditabilité. Ces approches s’opposent à l’école de pensée considérant que les biais viennent uniquement des données et que les algorithmes sont irréprochables.

Ce qui prime par-dessus tout, c’est la préservation de l’intégrité physique et mentale de l’humain. C’est bien la règle d’or pour tout développement technologique incluant l’intelligence artificielle. Si on regarde de près ses implications, on y trouve la sécurité physique (par exemple pour les véhicules autonomes), la protection des données personnelles, mais aussi la préservation du libre arbitre et l’évitement du nudging (l’« influence d’opinion »). Nous avons vu récemment que ce dernier, dans le cas du marketing politique, a des impacts préjudiciables sur nos démocraties, alors qu’il n’est pas illégal. C’est un bel exemple du fossé entre le droit et la responsabilité et l’éthique.

Il est crucial d’avoir une interprétabilité du comportement algorithmique et de disposer des moyens de contrôle (a priori ou a posteriori) de leurs capacités à respecter les règles éthiques, morales et juridiques. L’explicabilité est aussi essentielle : c’est la capacité de justifier le processus de décision d’un algorithme. Cette explicabilité, qui a été popularisée par le programme Explainable AI (XAI) de la Defense Advanced Research Projects Agency, est multiforme et pas toujours réalisable d’un point de vue technique. »

 

Intelligence artificielle : « Les humains sont loin d’avoir perdu leur place en entreprise »

Intelligence artificielle : « Les humains sont loin d’avoir perdu leur place en entreprise »

Sur cette question très complexe et très controversée, Cyril Le Mat, responsable data & IA dans une société spécialisée en ressources humaines, l’intelligence artificielle sert à humaniser le travail et non à le remplacer, dit-il dans une tribune au « Monde ».Un vision qui mérite attention mais peut être un peu idyllique car personne ne sait vraiment quelles seront les conséquences de l’IA notamment en matière d’emplois.

Tribune. Nous sommes aujourd’hui submergés d’articles, d’entretiens et de Tweet sur l’intelligence artificielle (IA) émanant de personnes déconnectées de la réalité technique, mais qui puisent sans vergogne dans un imaginaire de concurrence et de soumission afin de générer toujours plus d’émotion et de clics.

En tant qu’expert et praticien de l’IA en entreprise, ma volonté est ici d’éclairer sur les enjeux du développement de ces nouveaux outils, qui se révèlent plus humains qu’on ne pourrait le penser. Car la réalité est là : ce qu’on appelle l’intelligence artificielle n’est qu’une succession d’outils spécialisés, chacun consacré à l’optimisation d’une unique tâche répétitive. Exemple classique : l’imagerie médicale, où un algorithme va analyser pour un cancer précis des centaines d’images afin de proposer au médecin un diagnostic. Œuvre de l’humain, l’IA n’est rien de plus que ce que l’on décide d’y mettre.

 

L’IA permet avant tout d’automatiser des actions souvent répétitives, parfois ingrates, jusque-là opérées par des collaborateurs. Il faut en finir avec l’idée reçue qui remettrait aux mains des machines la majorité de l’activité humaine de l’entreprise. L’IA doit être abordée comme une opportunité technologique qui permet de dégager du temps au salarié et de l’aider à prendre des décisions. 

Le collaborateur va donc pouvoir se concentrer sur d’autres missions plus « humaines », où il aura plus de valeur ajoutée. Il pourra d’un côté se focaliser sur sa créativité, son innovation et son analyse ; de l’autre, se consacrer aux relations humaines, qu’elles soient internes ou externes à l’entreprise : par exemple, une infirmière pourra passer plus de temps avec ses patients. En cela, l’IA redonne du sens au travail, quête essentielle pour les jeunes générations.

 

Opaque dans son fonctionnement, l’IA est un outil qui nécessite une interaction par certains aspects similaire à celle entre humains. Sur ce point, les solutions connues du grand public sont encore loin de la maturité. En effet, les GAFA [Google, Apple, Facebook et Amazon] ont pour principal but de garder captifs leurs utilisateurs en ne leur fournissant ni outils de pilotage ni justification. Il faut pourtant s’assurer qu’humains et IA se comprennent tant sur les questions que sur les réponses ! La collaboration avec l’humain est un enjeu phare pour les solutions d’entreprise dont la progression va affecter positivement la réalité du travail. 

Ne soyons pas naïfs, des suppressions d’emplois causés par l’IA auront lieu. Mais la réalité sera loin des nombreuses prédictions de certains groupes de réflexion ou d’essayistes hors sol annonçant, selon les cas, la suppression de 30 % à 90 % des emplois actuels. Les humains sont loin d’avoir perdu leur place en entreprise. Avec le développement des solutions IA au travail, les salariés se tourneront vers des missions plus enrichissantes pour des carrières plus épanouissantes.

Intelligence artificielle: la démocratisation par l’auto apprentissage ?

La  défense corporatiste de l’ENA

 

 

Dans une interview au journal l’Opinion, l’actuel directeur de l’ENA, Patrick Gérard, défend  avec vigueur cette fabrique d’élites  donc dit-il la France devrait être fière. Une Argumentation de nature très corporatiste qui ne pose absolument pas la problématique du champ et de la nature régalienne de l’État. En effet, c’est parce qu’ils sont beaucoup trop nombreux que les énarques se  reproduisent  dans des structures qu’ils pérennisent et même développent. Il n’y a même pas assez de postes pour caser de manière satisfaisante les élèves. On ajoute donc des directions aux directions, des postes de directeur adjoint à des postes de directeur, bref des structures administratives à des structures administratives quand il faudrait sans doute en réduire la moitié. L’intéressé oublie aussi d’indiquer que les énarques envahissent le monde économique et politique et que l’ENA n’a pas cette vocation première.

Interview

La suppression de l’ENA est à l’ordre du jour. Quels sont les arguments pour la défense de l’école ?

Ce sera évidemment au président de la République et au Premier ministre de prendre des décisions à l’issue du rapport Thiriez. Il m’appartient, comme directeur, de rétablir quelques vérités. Car l’image, souvent répandue, d’une institution coupée des réalités, fournissant des bataillons de hauts fonctionnaires inconscients des difficultés de leurs concitoyens, est tout simplement fausse.

Prenons le symbole des grands corps (Inspection des finances, Cour des comptes, Conseil d’État). Les jeunes gens qui les intègrent ne sont-ils pas assurés d’une belle carrière, confortée par l’entre-soi, du seul fait d’avoir été bien classés à la sortie de l’ENA ?

D’abord, contrairement aux clichés, les énarques ne sont pas de jeunes blancs-becs de 25 ans. Ils ont en moyenne 31 ans et la moitié d’entre eux ont exercé des responsabilités professionnelles avant leur entrée à l’ENA. Sur la question des corps d’inspection et de contrôle, les avis sont partagés. Certains voudraient créer un parcours où les élèves sortant de l’ENA passeraient d’abord cinq ans comme administrateur dans un ministère avant de tenter un nouveau concours, à 35-36 ans, pour intégrer un tel corps. D’autres font valoir que ces corps ont besoin de sang neuf et que dans le secteur privé les cabinets d’audit font confiance aux juniors. Je pense que l’accès direct à ces corps compte pour beaucoup dans l’attractivité de l’école. Mais il faut faire en sorte qu’il y ait davantage de brassage dans leurs effectifs, par exemple en ouvrant ces corps de façon significative aux sous-directeurs d’administration.

Le vrai sujet n’est-il pas le manque de RH dans la fonction publique ?

Sans doute peut-on améliorer la gestion des carrières, les perspectives de mobilité, valoriser davantage le travail des administrateurs civils au cours de leur carrière. On a encore trop tendance à laisser un énarque dans le même service, dans la même administration sans faire de gestion personnalisée.

Le procès en « déconnexion » de la haute fonction publique a resurgi avec la crise des Gilets jaunes…

Ce pays est fier de ses élites culturelles, sportives mais a un peu de mal avec ses élites administratives… Les Français sont-ils mécontents de leurs préfets, de leurs sous-préfets ? De leurs diplomates ? De leurs juges administratifs ? J’analyse plutôt ces critiques comme une demande supplémentaire d’Etat et, donc, un besoin de renforcer la présence des cadres de l’Etat par plus de mobilité sur le terrain.

Le manque de diversité sociale est souvent pointé du doigt. Est-ce cette image de « reproduction des élites » qui colle à l’ENA ?

Première remarque : quarante étudiants sont recrutés via le concours externe aujourd’hui. Ils étaient cent il y a quarante ans, comme à l’époque de la promotion Voltaire. En réduisant les effectifs, on diminue forcément la diversité. L’ENA accueille 26 % d’élèves qui étaient boursiers, plus que d’autres grandes écoles. Mais il faut faire mieux. C’est pourquoi nous ouvrons cette année à Strasbourg – il en existe déjà une à Paris depuis dix ans – une seconde classe prépa « égalité des chances » destinée aux étudiants d’origine modeste, très bons et, si possible, venant de province. Ces diplômés de master sont coachés par nos jeunes anciens élèves. L’idéal serait d’en créer une par région.

Pour quels résultats ?

La plupart réussissent les concours difficiles d’administrateur de l’Assemblée, de l’Institut nationale des études territoriales (INET), de la Banque de France ou de commissaire de police. En moyenne, sur dix-sept candidats de cette classe, un intègre l’ENA. Il subsiste encore une tendance chez ces étudiants, je le regrette, à penser que l’ENA « ce n’est pas pour elles ou eux »… C’est ce plafond de verre et cette autocensure qu’il faut parvenir à percer.

Parmi les pistes évoquées par Frédéric Thiriez pour « décloisonner » : la création d’un enseignement commun à tous les futurs hauts fonctionnaires (ENA, fonction publique territoriale, hospitalière, magistrats, commissaires de police) mais aussi aux quatre corps techniques (Mines, Ponts, armement, Insee). Est-ce une bonne idée ?

C’est une bonne idée d’avoir des enseignements communs. Par exemple, nos élèves travaillent sur les politiques territoriales avec ceux de l’INET et sont en scolarité avec des officiers de gendarmerie ou de l’armée de terre reçus à l’Ecole de guerre. A partir de l’an prochain, ils travailleront aussi avec l’Ecole nationale de la magistrature. En revanche, je verrais trois écueils à rallonger la scolarité d’un an. Celui de créer une sorte de « 6 année de Sciences Po » alors que les élèves, lorsqu’ils arrivent à l’ENA ou dans d’autres grandes écoles, ont envie de se préparer à leur métier. Le risque de renforcer la critique sur le mode : « Ils sont tous formatés de la même façon ». Enfin, toute année supplémentaire a un coût budgétaire… Ma préférence serait d’imaginer des travaux communs pour les élèves quand ils sont en stage.

Emmanuel Macron avait souhaité mettre en place, en début de quinquennat, un « spoil system » à la française. Près de deux tiers des directeurs d’administration centrale ont été changés depuis 2017, moins que sous ses prédécesseurs. La « technostructure » est accusée de « bloquer la France ». A juste titre ?

Les directeurs d’administration centrale ont un devoir de loyauté à l’égard du gouvernement. Quand un ministre donne des ordres, ils sont appliqués. Gérald Darmanin a instauré le prélèvement à la source, Jean-Michel Blanquer le dédoublement des classes dans les zones d’éducation prioritaires, le projet de loi pour la restauration de Notre-Dame de Paris a été écrit en quelques jours. L’image de directeurs plus puissants que les ministres qu’ils voient passer est un cliché.

L’ENA attire-t-elle toujours autant ?

Il n’y a jamais eu autant de candidatures : 1 731 cette année, record depuis 2013 ! Mais il est vrai qu’à Sciences Po comme dans les Instituts d’études politiques en région, les étudiants semblent moins attirés par le service public que par le monde des grandes entreprises, de la communication, de la finance, des start-up. Quand l’Etat, et les fonctionnaires qui le servent, sont critiqués tous les jours, ce n’est pas très engageant pour un jeune d’une vingtaine d’années… Par ailleurs, les vocations pour la politique se raréfient. Depuis la création de l’ENA en 1945, moins de 3 % des anciens élèves ont fait de la politique. Un taux encore plus bas aujourd’hui. Quant au fameux pantouflage, il concerne 20 % des élèves qui, à un moment ou un autre de leur carrière, vont dans le privé. Près de la moitié revient ensuite dans le public.

Finalement, faut-il juste changer le nom de l’ENA ?

La marque ENA bénéficie dans le monde d’un prestige considérable. Oxford, la London school of economics, le MIT n’imaginent pas changer de nom. L’administration française est admirée dans le monde entier pour l’impartialité de son recrutement, sa compétence et son intégrité. Depuis sa création, l’école a formé 3 700 élèves étrangers. Parmi ceux aujourd’hui en fonction : les ambassadeurs du Japon et de Malte en France, l’ambassadeur du Liban, qui était d’ailleurs dans la même promotion qu’Emmanuel Macron, la vice-première ministre des Pays-Bas, deux ministres belges, le directeur de cabinet du Grand-Duc du Luxembourg, le directeur du protocole de l’empereur du Japon, plusieurs dizaines de ministres africains, le secrétaire général du Tribunal constitutionnel de Karlsruhe… Au titre de la formation continue, l’ENA forme chaque année plus de 4 000 auditeurs étrangers.

« L’ENA bashing » serait donc un travers bien français ?

Peut-être… Il faut sans doute améliorer beaucoup de choses, transformer l’école mais faisons attention à ne pas se priver d’un outil précieux.

 

 

Intelligence artificielle: la démocratisation par l’auto apprentissage ?

La spécialiste en intelligence artificielle Nozha Boujemaa décrit l’émergence de l’apprentissage machine automatisé, qui va modifier les métiers liés à l’IA dans une tribune au Monde. Un vision toutefois peut-être un peu rapide, en tout cas qui peut être discutée sur ce qu’on entend vraiment par Intelligence artificielle.« Le développement de l’intelligence artificielle (IA) est assez ironique : il faut beaucoup d’efforts manuels et parfois ad hoc pour la construction de modèles prédictifs précis. Une technologie qui se veut entièrement dans l’automatisation de tâches humaines implique en effet plusieurs étapes fastidieuses : annotation et étiquetage des données d’apprentissage, qui nécessitent parfois un travail humain colossal ; exploration et sélection de données représentatives ; sélection de modèles ; réglages des paramètres du modèle en plus des phases de tests et de généralisation. Le cheminement à travers toute la chaîne de développement est complexe, même pour les spécialistes et les experts en sciences des données. Dans de nombreux contextes industriels, la mise sur le marché d’une solution fondée sur des modèles prédictifs est assez longue.

Cette impasse est en train de disparaître avec l’émergence de l’auto-apprentissage (AutoML, ou Automated Machine Learning), qui consiste à automatiser la recherche de l’architecture optimale d’un réseau de neurones. La maturité technologique de l’IA permet aujourd’hui de mettre au point des architectures de réseaux de neurones profonds plus efficacement que ne le feraient les experts humains, par exemple en reconnaissance d’objets et en vision par ordinateur.

Double ironie : on va pouvoir se passer en partie de certaines expertises en sciences des données et les automatiser. Dans le contexte d’AutoML, les ingénieurs vont pouvoir se consacrer à des phases plus critiques qui ont davantage besoin de l’intelligence humaine, comme l’analyse de situations de métiers complexes et les questions commerciales, au lieu de se perdre dans le processus fastidieux de construction de la solution. En réalité, cette démarche va aider les développeurs non spécialistes des données à réaliser des solutions d’IA plus facilement. Les scientifiques spécialisés vont, eux, pouvoir effectuer un travail complexe plus rapidement, grâce à la technologie AutoML, qui pourrait bien placer l’IA au cœur de l’essor des entreprises.

AutoML est une tendance qui va fondamentalement changer le paysage des solutions fondées sur l’apprentissage par machine. Elle se concentre sur deux aspects : l’acquisition de données et la prédiction. Toutes les étapes qui se déroulent entre ces deux phases seront prises en charge par les processus d’AutoML. Les utilisateurs apportent leur propre jeu de données, identifient les catégories et appuient sur un bouton pour générer un modèle parfaitement entraîné et optimisé, prêt à prédire. Ces approches d’AutoML vont faciliter la démocratisation de l’IA au service du plus grand nombre.

Intelligence artificielle: au niveau de l’humain ? (Yann Le Cun )

Intelligence artificielle: au niveau de l’humain ?

(Yann Le Cun )

Dans une interview aux Échos, Yann Le Cun analyses les possibilités et les limites de l’IA.  Yann Le Cun  est  responsable de la recherche en intelligence artificielle (IA) de Facebook et professeur à New York University, Yann Le Cun a reçu le prix Turing 2019, équivalent du Nobel d’informatique. Il vient de publier un livre retraçant son parcours et ses travaux.

 

Dans votre livre, vous vous montrez fier des progrès accomplis par l’intelligence artificielle (IA). Mais vous dites aussi qu’elle est loin de l’intelligence d’un rat. Diriez-vous, comme un autre expert français, Luc Julia (*), que l’intelligence artificielle n’existe pas ?

Non ! Ce n’est pas qu’elle n’existe pas, mais il y a une confusion fréquente : quand on voit une machine qui a des compétences surhumaines sur une tâche particulière, on lui attribue les compétences qu’elle aurait si cette intelligence venait d’une personne. Et donc on se dit : « la machine peut nous battre à plate couture au jeu de go, donc elle peut nous battre partout » ou bien « elle peut traduire dans une centaine de langues, donc elle est plus intelligente que n’importe quel humain ». Ce n’est pas vrai, car ces systèmes sont très spécialisés, très étroits.

Ce n’est donc pas la même intelligence que les humains…

Certaines personnes estiment que ce qui caractérise l’intelligence humaine, c’est qu’elle est générale. Je dis dans mon livre que ce n’est pas vrai non plus. L’intelligence humaine est, elle aussi, spécialisée, mais moins spécialisée que l’intelligence artificielle. Je crois à ce qu’on appelle l’intelligence artificielle de niveau humain (« human level intelligence »). Pour moi, il ne fait aucun doute que les machines arriveront tôt ou tard à des niveaux d’intelligence aussi performante et générale que les humains et, probablement, nous dépasseront assez vite.

Et l’intelligence de niveau humain, ce serait quoi ? Qu’une machine soit capable de tenir la conversation que nous avons en ce moment ?

Oui, qu’elle puisse faire toutes les tâches intellectuelles que fait un être humain, à peu près aussi bien, à l’exception de ce qui relève de l’expérience humaine.

Pensez-vous que vous verrez bientôt les machines atteindre ce niveau d’intelligence ?

Je pense que je le verrai un jour, mais pas bientôt. C’est un peu difficile de le dire. Il y a des obstacles qu’il faudra franchir, et certaines personnes ne voient pas ces obstacles et pensent qu’il suffira de prendre les techniques actuelles, et d’avoir plus de données et plus de puissance pour arriver à une intelligence de niveau humain. Je n’y crois pas du tout. Je pense qu’il faudra des progrès conceptuels qui sont du ressort de la science, pas de la technologie.

Quel genre de progrès ?

Pour moi, le premier obstacle à franchir est de permettre aux machines d’apprendre par elles-mêmes, un peu à la manière des enfants ou des animaux. Un enfant acquiert une quantité gigantesque de savoirs sur le fonctionnement du monde simplement par l’observation.

Comme celui d’intelligence artificielle, le terme d’apprentissage automatique (« machine learning », en anglais) est trompeur car une machine n’apprend pas du tout comme un humain…

Absolument. Pour qu’une machine reconnaisse des chaises, des chiens ou des chats, il faut d’abord lui montrer des milliers d’images étiquetées, dans chaque catégorie. Alors qu’un petit enfant auquel on montre trois dessins d’un éléphant saura ensuite reconnaître un éléphant dans une photo. Qu’est-ce qui fait qu’il y parvient sans avoir vu des milliers d’images ? Permettre aux machines d’apprendre de cette manière est d’autant plus important que l’on se lance dans des problèmes complexes : on veut apprendre aux voitures à se conduire toutes seules, par exemple, et cela n’est pas possible avec les méthodes traditionnelles.

Comment faire autrement ?

Ce qui manque, c’est de permettre à la machine, par un apprentissage autosupervisé, de se construire un modèle du monde. Qu’elle sache prédire que, si elle roule au bord d’un ravin et qu’elle donne un coup de volant, elle va finir au fond, et que ce n’est pas bon. Apprendre un modèle du monde, cela revient à prédire le futur à partir du passé et du présent, et peut-être d’une séquence d’actions que l’on a l’intention de faire. Pouvoir prédire, c’est un peu l’essence de l’intelligence.

Ce qui est étonnant, en lisant votre livre, c’est à quel point vous êtes fasciné par les neurosciences, par la façon dont le cerveau apprend…

C’est une inspiration. Il y a des gens qui disent que l’on peut faire de l’intelligence artificielle sans se référer du tout à l’intelligence humaine. Cela a été un des courants classiques de l’IA, fondé sur la logique, et cela a conduit aux systèmes experts, qui ont montré leurs limites notamment pour l’apprentissage car il faut entrer toutes les données « à la main ». Et puis il y a l’autre approche, qui consiste à essayer de copier ce qui se passe dans le cerveau. Mais là, il y a un autre danger, qui est de reproduire de trop près ce qui se passe, sans en comprendre les principes.

Les réseaux de neurones profonds, que vous avez contribué à inventer, sont particulièrement performants pour la reconnaissance faciale, qui est en train de se répandre partout, parfois de façon inquiétante. Qu’est-ce que cela vous inspire ?

C’est vrai pour toutes les technologies. Les technologies sont neutres, elles peuvent être utilisées à des fins bénéfiques ou moins bénéfiques. Ce qui fait qu’elles seront principalement utilisées à des fins bénéfiques, c’est la force de nos institutions démocratiques. Ceci dit, si on retourne plusieurs siècles en arrière, personne ne peut contester les bénéfices de l’invention de l’imprimerie, même si elle a permis de disséminer les écrits de Calvin et Luther qui ont causé deux cents ans de persécutions en Europe. C’est vrai que  les systèmes de reconnaissance du visage qui sont utilisés en Chine sont directement inspirés d’un de mes articles sur les réseaux convolutifs publiés en 2014. Mais la même invention sert aussi dans la sécurité routière, pour des systèmes d’aide à la conduite, ou dans l’analyse d’imagerie médicale pour augmenter la fiabilité. Elle sert à beaucoup de choses utiles, y compris chez Facebook pour lutter contre les images terroristes.

 (*) Luc Julia, aujourd’hui responsable de la recherche de Samsung, est à l’origine de Siri, l’assistant vocal d’Apple. Il a publié l’an dernier « L’intelligence artificielle n’existe pas » (First Editions).

« Quand la machine apprend », Yann Le Cun, éditions Odile Jacob, 396 pages, 22,90 euros.

Intelligence artificielle : limites, potentiels et dangers

Intelligence artificielle :  limites, potentiels et dangers

 

James Buchanan – Directeur Stratégie, Razorfish Londres, évoque les limites de l’IA.( Dans un article de la Tribune)

 

 

 

« L’intelligence artificielle a tous les attributs d’une grande révolution annoncée. Son potentiel est un peu plus « réel » chaque jour, de l’ordinateur qui bat les meilleurs joueurs de Go à la voiture autonome.  Lors de cette manifestation à laquelle j’ai participé aux côtés de 3 autres experts, j’ai eu l’occasion d’aborder l’impact des services propulsés par l’IA à l’échelle de l’individu. Au cours des cinq dernières années, les objets et services intelligents se sont essayés à tous les aspects de notre vie. Depuis la rencontre amoureuse jusqu’à la livraison, en passant par la finance et le sport, des start-ups anticipent désormais le moindre de nos problèmes et nous proposent des services toujours plus personnalisés à l’aide de l’IA. Sous couvert d’être pratiques, ces services changent notre façon de voir le monde, notre manière de penser et notre propre identité. Quelle valeur accordons-nous à notre libre-arbitre ? Sommes-nous prêts à sacrifier notre autonomie ? Avec l’émergence des machines qui apprennent, notre monde devient de plus en plus inquiétant et étrange, et il est légitime de s’interroger sur son évolution.  C’est maintenant qu’il faut en parler, alors que ces outils sont encore à notre service. Personne ne veut devenir le simple prolongement de chair et d’os d’un algorithme. L’innovation a toujours modifié notre façon de penser : ce que nous créons nous influence en retour. Le cas de l’intelligence artificielle est unique. Elle se matérialise par des outils qui ont leur intelligence propre et ne se laissent pas totalement contrôler. A la poursuite de leur logique interne, ils s’améliorent au contact de millions d’utilisateurs, leur influence croissant avec leur intelligence. Ces services semblent utiles car ils résolvent nos problèmes, révèlent ce qu’il y a de meilleur en nous et minimisent nos insuffisances. Ils nous confèrent quasiment des superpouvoirs. C’est pourtant d’un œil critique que nous devrions considérer cette situation. Dans ce futur algorithmique, qu’est ce qui compte le plus ? Avoir l’opportunité de partager mon point de vue est plutôt un accomplissement pour qui, comme moi, a grandi dans une petite ville. Mais que penser d’un futur où l’IA ne me permettra plus jamais de rencontrer ceux qui ne sont pas d’accord avec moi ? Que penser d’un service financier qui, faisant passer en premier ce qu’il sait être mes intérêts à long-terme, me rendra volontairement difficile la prise de décisions d’impulsion? In fine, peut-on sincèrement croire que « le marché » prendra soin de nous ? L’option de facilité consiste à se concentrer sur les résultats : clients enrichis, volume d’engagement, indice de satisfaction… Des données simples car elles correspondent déjà aux objectifs des entreprises. Elles offrent aussi de la lisibilité sur les variables grâce auxquelles les algorithmes s’améliorent, le reflet d’une culture scientifique dans laquelle ont grandi de nombreux tech-entrepreneurs. Mais laisser de côté toute préoccupation de sécurité devrait pourtant nous inquiéter un peu plus. Même des scientifiques de renom comme Stephen Hawkins admettent que l’intelligence artificielle pourrait bientôt nous échapper… Un autre mot pour « résultat » est « fin », et l’on sait qu’elle ne justifie pas les moyens. Enrichir un client n’est pas un argument valable si, en chemin, vous détériorez un autre aspect de sa vie, ou celle de quelqu’un d’autre, de façon imprévisible. Il y a ensuite le risque de devenir dépendant. Que se passerait-il si tous ces services devenaient soudainement inaccessibles ? Serions-nous livrés à nous-mêmes ? C’est bien une question d’éthique que pose en creux l’IA… Il existe heureusement une alternative. Et si au lieu de se focaliser sur les résultats nous aidions plutôt les gens à devenir un peu plus eux-mêmes ? En encourageant la réflexion et la connaissance de soi, nous donnerions la priorité à l’enseignement plutôt qu’à l’automation. Nous donnerions aux gens les outils pour développer leurs compétences naturelles plutôt que de chercher à les remplacer. Nous passerions probablement plus de temps à réfléchir au rôle que ces services jouent au sein de la société plutôt qu’à ce qu’ils apportent à l’individu isolé. En somme, en faisant moins nous pouvons encourager les autres à en faire plus et à agir de façon éthique et responsable. Mais cela n’arrivera pas par hasard, nous devons passer par un chemin choisi délibérément. Tant dans les instances dirigeantes, où le sujet doit être mis à l’ordre du jour des agendas politiques, qu’auprès des citoyens, nous devons nous assurer que les consciences s’éveillent à ces questions. Asseyons-nous autour d’une table et engageons dès aujourd’hui la discussion sur ce que l’IA peut proposer, non seulement aux personnes que nous sommes, mais aussi à celles que nous voulons devenir. »

Intelligence artificielle : science ou art ?

 

Intelligence artificielle : science ou art ?

Un  article intéressant de Raphael Bertholet, Vice-Président R&D de Symphony Retail AI France dans le journal la Tribune évoque les possibilités d’intégration de la sensibilité humaine dans l’intelligence artificielle au point que cette dernière pourrait être considérée comme un art. Un article qui s’attarde cependant seulement sur les problèmes méthodologiques et qui n’évoque pas les phénomènes d’aliénation et de domination de ces nouvelles technologies sur la pensée humaine, sur les comportements et pas seulement dans le domaine marchand.

 

 

Tribune

 

« Alors que l’on croyait, il y a encore peu, que l’une des limites de l’IA était la créativité – notamment artistique -, nous savons à présent qu’il n’en est rien et que l’homme peut être challengé aussi dans ce domaine. En témoigne la première exposition qui se tient en ce moment en Angleterre, rassemblant les œuvres d’AI-Da, humanoïde doté d’une intelligence artificielle. Il n’aura fallu que quelques jours pour que tous ses dessins, tableaux et sculptures se vendent, pour plus d’un million d’euros. Preuve, s’il était besoin, que l’IA est un placement d’avenir !

Au-delà de son caractère médiatique, cet évènement montre un point capital : l’IA lève le voile sur des domaines que l’on croyait hors du champ de la rationalité et des sciences, des domaines où seuls l’instinct et le talent humains pouvaient agir et apporter des réponses. L’IA montre que ce n’est pas si vrai et que les algorithmes peuvent, contre certaines certitudes, trouver des réponses à des questions qui étaient censées échapper à la science.

La prévision de la demande est, pour partie, l’un de ces domaines.

Jusqu’à récemment, l’approche en matière de prévision de la demande dans le retail a consisté à s’appuyer sur des outils statistiques et analytiques pour une grande partie des catégories de produits – et sur l’expérience et l’instinct des prévisionnistes pour ce qui sortait du cadre des modèles bien établis.

Bien que très performants, les outils statistiques classiques touchent, en effet, à leurs limites dès que l’on n’est plus dans une situation habituelle. Comment anticiper, par exemple, la demande d’un produit qui va faire l’objet d’une importante promotion le mois prochain alors que le vécu de ce même produit est vide de ce genre d’expérience ? Comment savoir à quel point le lancement d’un nouveau produit – pour lequel il n’y a pas de données existantes – va susciter la demande ?

Pour toutes ces situations inhabituelles pour lesquelles les statistiques ne peuvent plus venir en aide au travail des prévisionnistes, ces derniers se fient généralement à leur expérience. C’est l’intuition qui prend le relai. C’est le point au-delà duquel la prévision de la demande cesse d’être une science et devient un art.

Or c’est précisément ce point où l’IA est aujourd’hui en train de renverser la situation. En analysant des corrélations et des probabilités de corrélations avec d’autres articles, d’autres lieux de vente, d’autres données contextuelles, l’IA va se comporter comme l’instinct ou l’intuition du prévisionniste et permettre à la prévision de la demande de continuer à être une science, là où l’on pensait qu’elle restait un art.

Dans le retail comme ailleurs, la valeur d’une prévision se mesure à sa fiabilité et sa précision. Si la prévision de la demande pour les produits connus atteint des niveaux de précision élevés, celle des produits ou situations inhabituels fait chuter le taux de précision global, qui se heurte à une limite que l’on croyait difficile, pour ne pas dire impossible, à briser.

Parce qu’elle sait non seulement traiter des volumes de données immenses et hétérogènes, mais aussi faire les corrélations qui permettent d’expliquer l’inhabituel, l’IA gomme aujourd’hui cette limite. Elle donne aux prévisionnistes les moyens de passer une étape supérieure majeure dans leur travail, en leur fournissant les pistes et les corrélations qui leur permettent d’expliquer l’inhabituel et en industrialisant le bénéfice de l’intuition pour anticiper, avec une précision inédite, les situations pour lesquelles il n’existe pas ou peu de données directement reliées à l’évènement.

Avec l’IA, le talent des prévisionnistes peut ainsi être mis au profit de cette nouvelle marge de progression du taux de précision des prévisions. Leur intuition servira à proposer et tester de nouvelles données contextuelles aux évènements, de nouveaux attributs descriptifs pour enrichir l’IA et améliorer ses performances. Sans être encore une science exacte, la prévision de la demande s’en rapproche de plus en plus avec l’IA, et pourrait bien tendre à le devenir. »

INTELLIGENCE ARTIFICIELLE : PARIS ET BERLIN POUR UN FONDS COMMUN .

Intelligence artificielle : Paris et Berlin pour  un fonds commun

La France et l’Allemagne viennent  d’annoncer la mise en place d’un fonds commun pour développer  la filière de l’intelligence artificielle. Il était temps car ni en Allemagne, ni en France il n’existe de stratégies à la hauteur des enjeux dans ce domaine. Pour tout dire,  on a nettement sous-estimé le développement exponentiel des  algorithmes qui vont nourrir les transformations du mode de production mais aussi du mode de consommation voir même influencer le domaine naturel. Certes la France ne manque pas de bidouilleurs de génie capable de développer une start-up dans un domaine particulier mais souvent revendues en quelques années  à des firmes américaines voire chinoises. Cette émergence un peu spontané de ne saurait constituer une stratégie. Les insuffisances françaises et allemandes dans ce domaine du numérique sont à l’image des mêmes carences qui concernent cette autre filière que sont les batteries électriques.

Notons que le projet sur l’intelligence artificielle s’inspirera du modèle retenu pour financer le développement d’une filière européenne de batteries de quatrième génération pour les véhicules électriques, déjà fruit d’une initiative franco-allemande, qui vise à contrer le quasi-monopole actuel de la Chine dans ce domaine.

Bruno Le Maire plaide régulièrement pour une plus grande coordination européenne sur les questions industrielles et technologiques, indispensable à ses yeux pour favoriser l’émergence de “géants européens” à même de garantir la “souveraineté technologique” de l’Europe face aux Etats-Unis et à la Chine.

Il est soutenu dans ce projet par le ministre allemand de l’Economie et de l’Energie, Peter Altmaier, qui a jugé dans son discours devant les patrons français que l’intérêt de l’Europe était de se donner les moyens de conserver les données de ses citoyens et de “créer une infrastructure souveraine de données”.

Intelligence artificielle : les limites

Intelligence artificielle : les limites

James Buchanan – Directeur Stratégie, Razorfish Londres, évoque les limites de l’IA.( Dans un article de la Tribune)

 

 

 

« Omniprésente cette année au salon South by Southwest, l’intelligence artificielle a tous les attributs d’une grande révolution annoncée. Son potentiel est un peu plus « réel » chaque jour, de l’ordinateur qui bat les meilleurs joueurs de Go à la voiture autonome.  Lors de cette manifestation à laquelle j’ai participé aux côtés de 3 autres experts, j’ai eu l’occasion d’aborder l’impact des services propulsés par l’IA à l’échelle de l’individu. Au cours des cinq dernières années, les objets et services intelligents se sont essayés à tous les aspects de notre vie. Depuis la rencontre amoureuse jusqu’à la livraison, en passant par la finance et le sport, des start-ups anticipent désormais le moindre de nos problèmes et nous proposent des services toujours plus personnalisés à l’aide de l’IA. Sous couvert d’être pratiques, ces services changent notre façon de voir le monde, notre manière de penser et notre propre identité. Quelle valeur accordons-nous à notre libre-arbitre ? Sommes-nous prêts à sacrifier notre autonomie ? Avec l’émergence des machines qui apprennent, notre monde devient de plus en plus inquiétant et étrange, et il est légitime de s’interroger sur son évolution.  C’est maintenant qu’il faut en parler, alors que ces outils sont encore à notre service. Personne ne veut devenir le simple prolongement de chair et d’os d’un algorithme. L’innovation a toujours modifié notre façon de penser : ce que nous créons nous influence en retour. Le cas de l’intelligence artificielle est unique. Elle se matérialise par des outils qui ont leur intelligence propre et ne se laissent pas totalement contrôler. A la poursuite de leur logique interne, ils s’améliorent au contact de millions d’utilisateurs, leur influence croissant avec leur intelligence. Ces services semblent utiles car ils résolvent nos problèmes, révèlent ce qu’il y a de meilleur en nous et minimisent nos insuffisances. Ils nous confèrent quasiment des superpouvoirs. C’est pourtant d’un œil critique que nous devrions considérer cette situation. Dans ce futur algorithmique, qu’est ce qui compte le plus ? Avoir l’opportunité de partager mon point de vue est plutôt un accomplissement pour qui, comme moi, a grandi dans une petite ville. Mais que penser d’un futur où l’IA ne me permettra plus jamais de rencontrer ceux qui ne sont pas d’accord avec moi ? Que penser d’un service financier qui, faisant passer en premier ce qu’il sait être mes intérêts à long-terme, me rendra volontairement difficile la prise de décisions d’impulsion? In fine, peut-on sincèrement croire que « le marché » prendra soin de nous ? L’option de facilité consiste à se concentrer sur les résultats : clients enrichis, volume d’engagement, indice de satisfaction… Des données simples car elles correspondent déjà aux objectifs des entreprises. Elles offrent aussi de la lisibilité sur les variables grâce auxquelles les algorithmes s’améliorent, le reflet d’une culture scientifique dans laquelle ont grandi de nombreux tech-entrepreneurs. Mais laisser de côté toute préoccupation de sécurité devrait pourtant nous inquiéter un peu plus. Même des scientifiques de renom comme Stephen Hawkins admettent que l’intelligence artificielle pourrait bientôt nous échapper… Un autre mot pour « résultat » est « fin », et l’on sait qu’elle ne justifie pas les moyens. Enrichir un client n’est pas un argument valable si, en chemin, vous détériorez un autre aspect de sa vie, ou celle de quelqu’un d’autre, de façon imprévisible. Il y a ensuite le risque de devenir dépendant. Que se passerait-il si tous ces services devenaient soudainement inaccessibles ? Serions-nous livrés à nous-mêmes ? C’est bien une question d’éthique que pose en creux l’IA… Il existe heureusement une alternative. Et si au lieu de se focaliser sur les résultats nous aidions plutôt les gens à devenir un peu plus eux-mêmes ? En encourageant la réflexion et la connaissance de soi, nous donnerions la priorité à l’enseignement plutôt qu’à l’automation. Nous donnerions aux gens les outils pour développer leurs compétences naturelles plutôt que de chercher à les remplacer. Nous passerions probablement plus de temps à réfléchir au rôle que ces services jouent au sein de la société plutôt qu’à ce qu’ils apportent à l’individu isolé. En somme, en faisant moins nous pouvons encourager les autres à en faire plus et à agir de façon éthique et responsable. Mais cela n’arrivera pas par hasard, nous devons passer par un chemin choisi délibérément. Tant dans les instances dirigeantes, où le sujet doit être mis à l’ordre du jour des agendas politiques, qu’auprès des citoyens, nous devons nous assurer que les consciences s’éveillent à ces questions. Asseyons-nous autour d’une table et engageons dès aujourd’hui la discussion sur ce que l’IA peut proposer, non seulement aux personnes que nous sommes, mais aussi à celles que nous voulons devenir. »

 

Intelligence artificielle : l’esquisse d’une stratégie

Intelligence artificielle : l’esquisse d’une stratégie

 

 

Comme on le sait, la mode n’est pas aux réflexions stratégiques dans ce gouvernement qui lui préfère une sorte de l’idéologie du court terme. Pourtant pour certains grands sujets industriels ou autres, la complexité de la problématique et l’ampleur des moyens à mettre en œuvre exigent  nécessairement une vision à long terme et la mise en place de synergies entre les acteurs concernés. Faute de ce type de démarche, la France et l’Europe ont perdu la maîtrise de la technologie 5G  au profit seulement des Chinois et des Américains. Concernant l’intelligence artificielle là aussi chinois et américains ont engagé des moyens considérables pour maîtriser cette révolution technologique. On peut donc se réjouir que Huit  grands groupes industriels français de secteurs aussi variés que l’aérospatiale, l’énergie et l’automobile aient  annoncé mercredi avoir signé un manifeste pour préparer l’utilisation de l’intelligence artificielle (IA) dans leurs activités respectives. Air Liquide, Dassault Aviation, EDF, Renault, Safran, Thales, Total et Valeo précisent dans un communiqué commun vouloir définir d’ici la fin d’année un “plan d’action coordonné avec l’écosystème français de l’IA». Les groupes industriels ont signé ce manifeste avec le ministère de l’Economie et des Finances dans le cadre de la stratégie “AI for Humanity” du gouvernement. “L’objectif est d’atteindre plus rapidement une masse critique sur les sujets de recherche prioritaires”, soulignent-ils pour expliquer leur volonté de coopérer, tout en invitant d’autres acteurs publics ou privés à les rejoindre. Le groupe de télécoms Orange, le fabricant de semi-conducteurs STMicroelectronics, le groupe de services pétroliers Schlumberger et l’éditeur de jeux vidéo Ubisoft ont déjà franchi le pas ces derniers jours en participant eux aussi au manifeste, a précisé Marko Erman, directeur technique de Thales. “La rupture technologique fondatrice pour les économies du 21e siècle, ce sera l’intelligence artificielle”, a souligné lors d’un discours le ministre de l’Economie et des Finances Bruno Le Maire. “C’est pour ça qu’il est absolument impératif (…) que ce soit une technologie que nous maîtrisions et non pas une technologie que nous subissions”, a-t-il ajouté. On peut cependant regretter que le rapprochement des compétences et les moyens de recherche sur le sujet n’ait  pas une dimension européenne

Intelligence artificielle : enjeux (rapport Villani)

Intelligence artificielle : enjeux (rapport Villani)

 

Un rapport parlementaire sorti il y a un an mais qui demeure d actualité (www.aiforhumanity.fr/pdfs/9782111457089_Rapport_Villani_accessible.pd).  Introduction.

« Définir l’intelligence artificielle n’est pas chose facile. Depuis ses origines comme domaine de recherche spécifique, au milieu du XXe siècle, elle a toujours constitué une frontière, incessamment repoussée. L’intelligence artificielle désigne en effet moins un champ de recherches bien défini qu’un programme, fondé autour d’un objectif ambitieux : comprendre comment fonctionne la cognition humaine et la reproduire ; créer des processus cognitifs comparables à ceux de l’être humain. Le champ est donc naturellement extrêmement vaste, tant en ce qui concerne les procédures techniques utilisées que les disciplines convoquées : mathématiques, informatiques, sciences cognitives… Les méthodes d’IA sont très nombreuses et diverses (ontologique, apprentissage par renforcement, apprentissage adversarial, réseaux de neurones…) et ne sont pas nouvelles : beaucoup d’algorithmes utilisés aujourd’hui ont été développés il y a plusieurs dizaines d’années. Depuis la conférence de Dartmouth de 1956, l’intelligence artificielle s’est développée, au gré des périodes d’enthousiasme et de désillusion qui se sont succédées, repoussant toujours un peu plus les limites de ce qu’on croyait pouvoir n’être fait que par des humains. En poursuivant son projet initial, la recherche en IA a donné lieu à des vrais succès (victoire au jeu d’échecs, au jeu de go, compréhension du langage naturel…) et a nourri largement l’histoire des mathématiques et de l’informatique : combien de dispositifs que nous considérons aujourd’hui comme banals étaient à l’origine une avancée majeure en IA – une application de jeux d’échecs, un programme de traduction en ligne… ? Du fait de ses ambitions, qui en font un des programmes scientifiques les plus fascinants de notre époque, la discipline de l’IA s’est toujours développée de concert avec les imaginaires les plus délirants, les plus angoissants et les plus fantastiques, qui ont façonné les rapports qu’entretient le grand public avec l’IA mais également ceux des chercheurs eux-mêmes avec leur propre discipline. La (science) fiction, les fantasmes et les projections collectives ont accompagné l’essor de l’intelligence artificielle et guident parfois ses objectifs de long terme : en témoignent les productions fictionnelles abondantes sur le sujet, de 2001 l’Odyssée de l’espace, à Her en passant Blade Runner et une grande partie de la littérature de science-fiction. Finalement, c’est probablement cette alliance entre des projections fictionnelles et la recherche scientifique qui constitue l’essence de ce qu’on appelle l’IA. Les imaginaires, souvent ethno-centrés et organisés autour d’idéologies politiques sous-jacentes, jouent donc un rôle majeur, bien que souvent négligé, dans la direction que prend le développement de cette discipline. L’intelligence artificielle est entrée, depuis quelques années, dans une nouvelle ère, qui donne lieu à de nombreux espoirs. C’est en particulier dû à l’essor de l’apprentissage automatique. Rendues possibles par des algorithmes nouveaux, par la multiplication des jeux de données et le décuplement des puissances L’intelligence artificielle est entrée, depuis quelques années, dans une nouvelle ère, qui donne lieu à de nombreux espoirs 10 Introduction de calcul, les applications se multiplient : traduction, voiture autonome, détection de cancer,… Le développement de l’IA se fait dans un contexte technologique marqué par la « mise en données » du monde (datafication), qui touche l’ensemble des domaines et des secteurs, la robotique, la blockchain1, le supercalcul et le stockage massif. Au contact de ces différentes réalités technologiques se jouera sûrement le devenir de l’intelligence artificielle. Ces applications nouvelles nourrissent de nouveaux récits et de nouvelles peurs, autour, entre autres, de la toute-puissance de l’intelligence artificielle, du mythe de la Singularité et du transhumanisme. Depuis quelques années, ces représentations sont largement investies par ceux qui la développent et participent à en forger les contours. Le cœur politique et économique de l’intelligence artificielle bat toujours dans la Silicon Valley, qui fait encore office de modèle pour tout ce que l’Europe compte d’innovateurs. Plus qu’un lieu, davantage qu’un écosystème particulier, elle est, pour beaucoup d’acteurs publics et privés, un état d’esprit qu’il conviendrait de répliquer. La domination californienne, qui subsiste dans les discours et dans les têtes, nourrit l’idée d’une voie unique, d’un déterminisme technologique. Si le développement de l’intelligence artificielle est pensé par des acteurs privés hors de nos frontières, la France et l’Europe n’auraient d’autre choix que de prendre le train en marche. Les illustrations sont nombreuses : rien qu’en France, l’accord signé entre Microsoft et l’éducation nationale sous le précédent quinquennat ou l’utilisation par la DGSI de logiciels fournis par Palantir, une startup liée à la CIA, ne disent finalement pas autre chose. On observe la même tentation chez les entreprises européennes qui, persuadées d’avoir déjà perdu la course, cèdent bien souvent aux sirènes des géants de la discipline, parfois au détriment de nos pépites numériques. Contrairement aux dernières grandes périodes d’emballement de la recherche en intelligence artificielle, le sujet a très largement dépassé la seule sphère scientifique et est sur toutes les lèvres. Les investissements dans la recherche et dans l’industrie atteignent des sommes extraordinaires, notamment en Chine. Les responsables politiques du monde entier l’évoquent dans les discours de politique générale comme un levier de pouvoir majeur : l’emblématique interview à Wired de Barack Obama en octobre 2016 montrait que ce dernier avait bien compris l’intérêt de faire de l’avance américaine en intelligence artificielle un outil redoutable de soft power. Le Président russe Vladimir Poutine a quant à lui affirmé que « celui qui deviendra le leader dans ce domaine sera le maître du monde », comparant l’intelligence artificielle aux technologies nucléaires. S’il s’agissait vraisemblablement pour lui de compenser le retard de la Russie en matière d’intelligence artificielle par un discours musclé sur le sujet, cette affirmation est révélatrice de l’importance géostratégique prise par ces technologies. Dans la mesure où les chaînes de valeur, surtout dans le secteur numérique, sont désormais mondiales, les pays qui seront les leaders dans le domaine de l’intelligence artificielle seront amenés à capter une grande partie de la valeur des systèmes qu’ils transforment, mais également à contrôler ces mêmes systèmes, mettant en cause l’indépendance des autres pays. C’est que l’intelligence artificielle va désormais jouer un rôle bien plus important que celui qu’elle jouait jusqu’alors. Elle n’est plus seulement un programme 1. La blockchain correspond à un registre distribué qui permet d’éviter de recourir à un tiers de confiance lors de transactions et qui est notamment au fondement du bitcoin. 11 Introduction Donner un sens, c’est-à-dire donner un cap, une signification et des explications. Voilà l’objectif de ce rapport de recherche confiné aux laboratoires ou à une application précise. Elle va devenir une des clés du monde à venir. En effet nous sommes dans un monde numérique, de plus en plus, de part en part. Un monde de données. Ces données qui sont au cœur du fonctionnement des intelligences artificielles actuelles. Dans ce monde-là, qui est désormais le nôtre, ces technologies représentent beaucoup plus qu’un programme de recherche : elles déterminent notre capacité à organiser les connaissances, à leur donner un sens, à augmenter nos facultés de prise de décision et de contrôle des systèmes. Et notamment à tirer de la valeur des données. L’intelligence artificielle est donc une des clés du pouvoir de demain dans un monde numérique. Voilà pourquoi il est d’intérêt général que nous nous saisissions collectivement de cette question. Et que la France et l’Europe puissent faire entendre leur voix. Il est nécessaire de tout faire pour rester indépendants. Or la concurrence est rude : les États-Unis et la Chine sont à la pointe de ces technologies et leurs investissements dépassent largement ceux consentis en Europe. Le Canada, le Royaume-Uni et, tout particulièrement, Israël, tiennent également une place essentielle dans cet écosystème naissant. Parce qu’à bien des égards, la France et l’Europe peuvent déjà faire figure de « colonies numériques »2, il est nécessaire de ne céder à aucune forme de déterminisme, en proposant une réponse coordonnée au niveau européen. C’est pourquoi le rôle de l’État doit être réaffirmé : le jeu du marché seul montre ses limites pour assurer une véritable politique d’indépendance. De plus les règles qui régissent les échanges internationaux et l’ouverture des marchés intérieurs ne servent pas toujours les intérêts économiques des États européens – qui l’appliquent trop souvent à sens unique. Plus que jamais, l’État doit donner un sens au développement de l’intelligence artificielle. Donner un sens, c’est-à-dire donner un cap, une signification et des explications. Voilà l’objectif de ce rapport »

L’intelligence artificielle : chance ou menace ?

L’intelligence artificielle : chance ou menace ?

  • ·        

 

Lintelligence artificielle constitue-t-elle une chance pour notre économie et où une menace pour les libertés démocratiques. C’était le thème dun débat du Forum Europe 1 organisé au Bataclan. (Source Europe 1) 

« L’intelligence artificielle (IA) souffre-t-elle d’une mauvaise image dans l’Hexagone ? « On vit en France une vraie schizophrénie sur ce sujet », estime Eric Hazan, directeur associé chez McKinsey, cabinet de conseil en intelligence artificielle, interrogé lors du Forum Europe 1 Liberté, Egalité, Fraternité, organisé mardi au Bataclan.

Quatre fois plus de chômage sans l’IA ?  »On veut plus de vie privée et en même temps on est sur trois ou quatre réseaux sociaux. On vit avec le stress d’être écouté et on est bien content d’avoir des logiciels de traduction », énumère ce spécialiste pour qui l’intelligence artificielle est l’un des enjeux économiques majeurs des décennies à venir. « Si on déploie l’Intelligence artificielle, on va croître de 0,1 à 0,2% par an la croissance des pays développés. On créerait quatre fois plus de chômage en n’utilisant pas l’IA. On estime en effet à 5 à 10% des emplois qui seront supprimés à cause de l’IA. Mais il y aura aussi beaucoup de créations d’emploi ». Selon Eric Hazan, les bénéfices pourront toucher tous les secteurs. Détection ultraprécise du diabète, lutte contre le braconnage en Afrique, identification des prémices d’un ouragan, réduction des déchets de production dans l’industrie, analyse des capacités de remboursement de dette des ménages… « L’intelligence artificielle est un facteur de segmentation, de détails dans la compréhension des choses. On peut optimiser énormément de choses », conclut-il.

« La société de consommation existait bien avant l’intelligence artificielle »

Une incitation à la consommation ? L’intelligence artificielle est-elle pour autant une panacée ? Ne menace-t-elle pas notre vie privée et notre liberté ? « Ne risque-t-elle pas de nous pousser à consommer non-stop ? Aujourd’hui, je peux recevoir des publicités (ciblées) dans mes toilettes avec mon téléphone. Cela ne pousse-t-il pas à son maximum notre asservissement à la société de consommation ? », interroge pour sa part David Abiker, journaliste à Europe 1 et animateur du forum Europe 1. « La société de consommation existait bien avant l’intelligence artificielle », balaye pour sa part Eric Hazan, qui reconnaît que les enjeux éthiques sont importants et que l’IA devra être encadrée.

Pour Marie-Laure Denis, présidente de la CNIL, « les consommateurs d’IA doivent avoir conscience que leurs données sont enregistrées, comprendre comment elles sont enregistrées et utilisées » par l’IA. Si elle assure que la France est bien armée pour lutter contre les dérives en matière de protections des données, elle s’étonne encore de recevoir certains types de publicités : « Des publicités pour de l’alcool par exemple. Cela risque de poser problèmes pour ceux qui luttent contre une addiction… »

« L’économie de la connaissance, on y va ».  »Il y a des enjeux éthiques très importants. Si tous les logiciels d’intelligence artificielle sont faits par des hommes blancs, pour des hommes blancs, cela peut poser des problèmes » de discrimination, ajoute pour sa part Olivier Derrien, directeur général de Salesforce, éditeur de logiciels, participants aussi au débat. Mais pour Eric Hazan, toutes ces questions, légitimes, ne freineront pas le développement de l’IA. Elles devront être résolues mais il est désormais impossible de revenir en arrière. « L’intelligence artificielle, l’économie de la connaissance, on y va », conclut-il.

 

Vers le remplacement de l’homme par l’intelligence artificielle ?

Vers le remplacement de l’homme par l’intelligence artificielle ?

 

L’intelligence artificielle est un thème très à la mode c’est aussi l’occasion de faire un amalgame très approximatif de toutes les évolutions notamment technologiques, biologiques et sociétales. De ce point,  un article du site Atlantico (pourtant souvent intéressant) rend compte d’un ouvrage sur la question dans la lecture mérite le détour. Pas vraiment une analyse et une prospective scientifique mais plutôt une approche scientiste qui brasse des concepts mal maîtrisés et qui constituent plutôt une sorte de science-fiction alimentée par l’observation du marc de café et le courant transhumaniste.

 

«  Engagés depuis des milliards d’années dans une implacable course aux armements, nos gènes ont fini par se montrer plus malins. Ils ont fabriqué une arme si puissante que dans cette lutte il n’y aura ni gagnants ni perdants. Il ne s’agit pas de la bombe à hydrogène, car un conflit nucléaire généralisé ne ferait que retarder ce qui se trame et qui est immensément plus intéressant. Ce qui nous attend, ce n’est pas l’anéantissement. C’est plutôt un futur qui, vu de la position privilégiée qui est la nôtre aujourd’hui, mérite d’être qualifié de « postbiologique », voire de « surnaturel ». C’est un monde dans lequel le genre humain sera balayé par une mutation culturelle et détrôné par sa propre progéniture artificielle. Les conséquences ultimes de ce bouleversement ne sont pas connues, bien que nombre d’étapes intermédiaires puissent être prévues et, pour certaines, aient déjà été franchies. Aujourd’hui, nos machines restent des créations élémentaires : elles exigent les soins maternels et l’attention constante que l’on doit aux nouveau-nés et ne méritent guère d’être qualifiées d’« intelligentes ». Mais, dès le siècle prochain, elles deviendront des entités aussi complexes que nous-mêmes, puis, bientôt, elles transcenderont tout ce que nous connaissons. Nous pourrons alors être fiers qu’elles se disent nos descendants.

 

Délivrés des pesantes contraintes de l’évolution biologique, ces enfants de notre esprit pourront se mesurer aux grands défis de l’univers. Nous autres humains bénéficierons un temps de leurs efforts, mais, tôt ou tard, tels des enfants biologiques, ils iront chercher fortune pour leur propre compte, tandis que nous, leurs vieux parents, nous éteindrons doucement. Perdra-t-on beaucoup à ce passage du flambeau ? Pas nécessairement, car nos rejetons pourront garder en mémoire presque tout ce qui nous concerne, peut-être même jusqu’aux détails du fonctionnement des esprits humains individuels.

Ce processus a commencé il y a environ cent millions d’années, lorsque certaines lignées génétiques ont trouvé le moyen de donner naissance à des animaux capables d’apprendre durant leur vie certains comportements de leurs aînés durant leur vie, au lieu d’en hériter en bloc à la conception. Une première étape a été franchie il y a dix millions d’années, lorsque nos ancêtres primates ont commencé à se servir d’outils faits d’os, de bâtons et de pierres. Le processus s’est à nouveau accéléré avec la maîtrise du feu et le développement de langages complexes, il y a environ un million d’années. Au moment où notre espèce est apparue, il y a environ cent mille ans, l’évolution culturelle, la mécanique implacable que nos gènes avaient involontairement fabriquée, avait acquis une dynamique irrésistible.

Au cours des derniers dix mille ans, les changements intervenus au sein du patrimoine génétique humain ont été dérisoires en regard des progrès foudroyants de la culture humaine. Nous avons d’abord assisté à une révolution agricole, suivie de l’établissement de vastes bureaucraties capables de lever des impôts pour subvenir à leurs besoins, du développement de l’écriture et, enfin, de l’émergence de classes oisives disposant du temps et de l’énergie nécessaires pour se consacrer à des occupations intellectuelles. Au cours du dernier millénaire, les inventions, à commencer par celle de l’imprimerie à l’aide de caractères mobiles, ont grandement accéléré le flot de l’information culturelle, et donc le rythme de son évolution.

Avec l’arrivée de la révolution industrielle, il y a deux cents ans, nous sommes entrés dans la phase finale, celle au cours de laquelle les substituts artificiels aux fonctions du corps humain, telles que soulever ou porter, sont devenus de plus en plus économiquement intéressants – et même indispensables. Puis, il y a une centaine  d’années, avec l’invention des premières machines à calculer réellement utilisables, nous avons, pour la première fois, été capables de reproduire quelques-unes des fonctions élémentaires, mais tout de même délicates, de l’esprit humain. Le pouvoir de calcul des machines a depuis été multiplié par un facteur mille tous les vingt ans.

Aujourd’hui, nous sommes très proches du moment où toutes les fonctions humaines, qu’elles soient physiques ou intellectuelles, connaîtront leur équivalent artificiel. Cette convergence des développements culturels aura pour incarnation le robot intelligent, machine capable de penser et de réagir comme un humain, bien que certaines de ses caractéristiques physiques ou intellectuelles puissent être non humaines. De telles machines seraient capables de mener plus loin notre évolution culturelle, de parfaire leur construction et leur sophistication, sans nous et sans les gènes qui nous constituent. Quand cela se produira, notre ADN se retrouvera au chômage : il aura perdu la course de l’évolution au profit d’une nouvelle forme de compétition. »

Extrait du livre de Hans Moravec,  »L’avenir des robots et l’intelligence humaine », publié aux éditions Odile Jacob.

Macron : un président a fort intellect mais à faible intelligence

 

 

Les grands médias habitués aux sentences réductrices considèrent en général que le président de la république est intelligent. C’est évidemment confondre l’intellect et l’intelligence. L’intellect est une capacité à enregistrer des connaissances tandis que l’intelligence est la capacité de résoudre une question ou un problème. Au fond, Macron est un exceptionnel répétiteur de leçons et de mode. Une sorte d’éponge qui absorbe l’enseignement dispensé et qui le restitue sans modification quand on la presse. En fait, l’archétype de l’énarque comme l’ont prouvé différentes évaluations de cette institution dont les élèves se caractérisent par un grand déficit de créativité et de contestation des choses établies. Par contre, la capacité de Macron à régler des problèmes complexes à dimension systémique est assez insignifiante. Finalement, Macon reprend les vieilles recettes de l’ultra libéralisme et confie au seul marché le soin de résoudre non seulement les problèmes économiques mais aussi sociaux voire sociétaux. (Voir par exemple la question du climat envisagé essentiellement sous l’angle de la fiscalité voir aussi la manière dont le rapport de Borloo sur les banlieues a été jeté aux orties). S’ajoutent à ces déficiences de Macron, son absence de formation dans le domaine économique puisque son cursus est essentiellement littéraire. L’intelligence suppose évidemment de prendre en compte les aspects technologiques mais également les dimensions humaines qui vont gérer, utiliser, bénéficier ou subir ces évolutions techniques. Cela suppose un minimum de vécu et pas simplement une culture livresque. Un vécu dans le monde réel des Français et non dans le monde confiné des salons parisiens dont la réassurance identitaire est fondée sur la répétition en boucle des tares du peuple. Tout dans la posture de Macron démontre cette grande insuffisance d’intelligence. Pour preuve, il ne sait pas écouter. Pour preuve, il ne sait s’exprimer que de manière professorale un peu comme un évangéliste mais de façon mécanique sans aucune humanité. On ne sent pas chez Macron la moindre ouverture sur l’autre. C’est l’égocentrisme porté au plus haut niveau. Notons par exemple le nombre de « «  ou de « je » dans ses discours. Quand les médias auront compris qu’il y a une grande différence entre l’intellect et l’intelligence, on aura peut-être fait un progrès en France pour comprendre et éventuellement modifier la sociologie politique.

Les risques de l’intelligence artificielle non maîtrisée

Les risques de l’intelligence artificielle non maîtrisée

 

Cédric Sauviat, polytechnicien, président de l’Association Française contre l’Intelligence Artificielle (AFCIA) critique les conséquences de l’IA dont il pense qu’elle absolument pas maîtrisée (tribune dans sciences critiques)

 

« Il y a  quelques semaines, un groupe de travail constitué de plusieurs institutions anglaises et américaines, dont les universités d’Oxford et de Cambridge, a publié un rapport édifiant intitulé « The Malicious Use of Artificial Intelligence » (« De l’Usage malveillant de l’IA » 1).

Une vingtaine d’experts y décrivent les nouveaux dangers auxquels nous expose la technologie dans les cinq prochaines années.

Essaims de drones tueurs à reconnaissance faciale, rançongiciel profilant leurs cibles de manière automatique et sur une grande échelle, détournement de vidéos ou création de deepfakes (vidéo-montages hyperréalistes) aux fins de manipulation et de propagande, etc. Les scénarios ne manquent pas, limités par notre seul pouvoir d’imagination.

Disponibles un peu partout en libre accès, les algorithmes d’Intelligence Artificielle (IA) changent radicalement la donne en matière de sécurité. Là où une organisation malveillante devait investir du temps et de l’expertise pour préparer et mener à bien un petit nombre d’actions criminelles, il suffit désormais de quelques algorithmes courants et de la puissance de calcul de quelques serveurs pour agir avec efficacité et précision sur une vaste échelle.

POUR LA PREMIÈRE FOIS, LA QUESTION DE LA LIBRE DIFFUSION DES ALGORITHMES EST POSÉE.

Hier, l’investissement personnel des malfrats les exposait au risque d’être repérés et identifiés. Aujourd’hui, la délégation du travail à des « bots » garantit aux commanditaires un redoutable anonymat.

Contre ces nouvelles menaces, le panel d’experts reconnaît qu’il n’existe guère de parade évidente. Seule, disent-ils, la mise au point de systèmes défensifs plus intelligents encore pourrait permettre, sinon de prévenir, du moins d’endiguer les attaques. Incitant à une fuite en avant technologique dont les conséquences seront de fournir toujours davantage de moyens aux criminels potentiels.

Pour la première fois, la question de la libre diffusion des algorithmes est posée. Mais est-il vraiment possible de restreindre la diffusion de codes informatiques ?

 

LES EXPERTS DÉPASSÉS

 

Au même moment, diverses associations lancent une campagne pour obtenir l’interdiction des armes autonomes. L’un de leurs membres, l’informaticien Stuart Russell, a d’ailleurs présenté à l’Organisation des Nations-Unies (ONU), en novembre 2017, une sorte de docu-fiction 2, très impressionnant, dans lequel on voit des essaims de drones tueurs plonger le monde dans un climat de terreur, en l’espace de quelques semaines.

La conclusion de Stuart Russell est sans appel : il faut d’urgence interdire les armes autonomes par convention internationale. Qui oserait le contredire ?

 

 

Le raisonnement, toutefois, souffre d’un petit problème. Pour être efficace, une interdiction légale exigerait que ces fameux drones n’utilisent pas une technologie en vente libre ! GPS, système de pilotage automatique, logiciel de reconnaissance faciale, tous ces gadgets figurent déjà dans votre smartphone. Il ne vous reste plus qu’à récupérer la poudre d’une balle de fusil, ou à accrocher une grenade, un cocktail Molotov ou carrément une paire de ciseaux sur votre drone pour en faire une arme intelligente !

On le voit donc, l’IA semble poser des problèmes insurmontables, même à ceux qui en sont, en principe, les experts – et c’est le cas de Stuart Russell.

 

UNE CONFIANCE EN DÉLIQUESCENCE

 

Si le champ des dérives criminelles s’annonce très vaste, que dire de celui des pratiques nuisibles, mais pas nécessairement illégales, qui deviendront possibles pour les individus, les associations ou les entreprises ? Dans un monde où la responsabilité juridique, ou même simplement morale, se dilue à proportion de la distance qu’intercalent Internet et algorithmes entre un acte et son auteur, ne faut-il pas craindre une déliquescence totale de la confiance en l’autre ? 3

GARANT DE LA CONFIANCE QUI PERMET LE LIEN SOCIAL, L’ÉTAT DE DROIT DEVRA, DE PLUS EN PLUS, S’EFFACER DERRIÈRE LES ENTREPRISES TECHNOLOGIQUES QUI MAÎTRISENT LA « BONNE » INTELLIGENCE ARTIFICIELLE.

On discerne alors le rôle que seront appelées à jouer les grandes entreprises technologiques dans la préservation de la confiance et la défense contre la malveillance. Elles seules détiendront les moyens de contrecarrer les pratiques nuisibles, comme par exemple d’authentifier une vidéo, de bloquer des infiltrations de virus informatiques générés automatiquement ou encore de protéger la multitude des objets connectés dont nous sommes, de plus en plus, entourés et dépendants. Déjà, ces entreprises disposent de leviers considérables, et en grande partie discrétionnaires, sur la visibilité d’une société ou la diffusion d’une information.

Garant de la confiance qui permet le lien social, l’État de droit devra, de plus en plus, s’effacer derrière les entreprises technologiques, celles qui maîtrisent la « bonne » IA et peuvent assurer cette mission. Tendance en tout point comparable aux conditions d’émergence de la féodalité dans l’Europe médiévale.

 

UNE FUITE EN AVANT DÉBRIDÉE

 

Alléguant la sauvegarde de la souveraineté politique ou économique, la plupart des responsables politiques estiment qu’il est crucial de favoriser le développement d’une « industrie nationale » de l’Intelligence Artificielle. C’est qu’ils redoutent la mainmise des géants technologiques étrangers sur les données, et donc sur les personnes.

LE DÉVELOPPEMENT TECHNIQUE EST TOTALEMENT DÉBRIDÉ PARCE QUE, NULLE PART ET À AUCUN MOMENT, LES CONCEPTEURS D’INTELLIGENCE ARTIFICIELLE ET LES LÉGISLATEURS NE FIXENT LA MOINDRE LIMITE.

Ils craignent, en outre, l’effet des destructions d’emplois liées à la robotisation 4, et brandissent désormais comme une vérité indiscutable l’argument-choc selon lequel « les économies les plus équipées en intelligence artificielle et en robotique sont celles qui connaissent le moins de chômage ». 5

Mais le rêve de donner naissance à des champions européens de l’IA n’est pas sans contradiction dans une économie ouverte et globalisée, où lesdits champions peuvent, à tout moment, passer sous contrôle étranger.

Les entreprises technologiques promouvant l’IA, largement transnationales, l’ont bien compris puisqu’elles omettent soigneusement toute référence à une bien illusoire défense de souveraineté. Il n’est guère besoin d’invoquer celle-ci, au demeurant, pour que la compétition économique et la promesse de miracles techniques suffisent à alimenter une fuite en avant totalement débridée. »

 

Il s’agit donc de doubler les capacités installées d’énergies renouvelables d’ici à 2050, en multipliant par 2,5 les capacités installées d’éolien, et par 5 ou 6 celles de photovoltaïque. Le ministère souligne que ces ambitions ne posent pas de problème en termes d’usage des sols ou de pression foncière, puisqu’il s’agit de passer de 8.000 éoliennes installées aujourd’hui à moins de 15.000 (du fait des gains de performances), et pour le solaire, d’occuper 365 kilomètres carrés supplémentaires au sol et 175 kilomètres carrés de toitures pour le photovoltaïque.

Concernant la biomasse, sur laquelle nous pourrions connaître un déficit entre des besoins évalués à 460 TWh et un potentiel de 430 TWh, et qu’il pourrait être difficile d’importer dans la mesure où nos voisins pourraient se trouver dans des situations similaires, la PPE prévoit que le soutien financier soit réservé aux seules installations visant à produire de la chaleur.

Le biométhane (produit par méthanisation à partir de déchets organiques ménagers ou agricoles) voit ses ambitions stoppées nettes. Alors que le coût de production actuel est d’environ 95 euros par mégawattheure (MWh) produit, le gouvernement conditionne l’objectif de 10% de gaz vert dans le réseau en 2030 à une baisse des coûts à hauteur de 67 euros/MWh. Sinon, l’objectif restera limité à 7%, à comparer avec les ambitions d’un GRDF qui proposait 30%. Cette position, justifiée par une attention toute particulière portée aux coûts de la transition écologique sur fond de mouvement des gilets jaunes, semble assez antagoniste avec le constat d’électricité éolienne et photovoltaïque qui ont vu leurs coûts divisés par dix en dix ans pour des puissances équivalentes… précisément grâce aux économies d’échelle. Celles réalisées au niveau de la fabrication de panneaux solaires en Chine, mais aussi dans une certaine mesure, celles autorisées par le volume total des appels d’offres. On peut craindre que ces perspectives modestes ne suscitent pas suffisamment d’investissements pour permettre de telles baisses de coûts. Et plus largement que cette préférence aux technologies matures sur lesquelles la France – et même l’Europe – ont laissé le leadership à d’autres régions du monde n’entrave le développement de filières industrielles domestiques sur des technologies encore émergentes.

Intelligence artificielle : L’analyse prédictive la nouvelle mode

Intelligence artificielle : L’analyse prédictive la nouvelle mode

 

 

  • Dans un papier (sponsorisé par Orange !) l’intelligence artificielle est encore mise à toutes les sauces ; cette fois au service de l’analyse prédictive, la nouvelle mode. Une mode pourtant ancienne puisqu’il s’agit ni plus ni moins que d’exploiter des statistiques. L’analyse prédictive utilise en effet différentes méthodologies statistiquse à partir de données et de la théorie des jeux qui analysent des faits présents et passés pour faire des hypothèses prédictives. En faite une analyse de données passées en tenant compte des comportements pour faire de la prospective au service par exemple d’études de marché, de suivi d’installation ou encore de suivi de la santé. Un mélange de technologies nouvelles de l’information articulée avec une analyse des statistiques et des comportements. Pas vraiment un exploit de l’intelligence artificielle car ces techniques statistiques sont connues depuis au moins 30 ans.
  • (Extrait de l’article de l’article)

 

« Les avancées de l’intelligence artificielle (IA) conjuguées au big data ouvrent sans cesse de nouvelles perspectives. Parmi elles : l’analyse prédictive. De plus en plus performante grâce au machine learning, cette dernière est capable, en croisant des données de différentes sources, de prédire l’impact de phénomènes ou d’inventer de nouveaux services. Portrait d’une technologie de prédiction qui ne laisse rien au hasard.

Des progrès époustouflants… fondés sur la confiance des clients

Les progrès des modèles prédictifs s’accélèrent et génèrent sans cesse de nouvelles applications dans de nombreux secteurs économiques. En matière d’agriculture, il est ainsi possible d’anticiper les dépenses énergétiques des machines et d’être alerté en cas de besoin d’une maintenance préventive. Citons aussi le compteur intelligent Linky qui permet de fournir des recommandations pour optimiser la consommation grâce aux données collectées. Sans oublier l’industrie automobile et les véhicules connectés, qui marient intelligence artificielle et data science pour toujours plus d’autonomie. L’analyse prédictive repose sur l’exploitation de la data en échange d’un service facilitateur à valeur ajoutée pour les clients. La question de la confiance est donc primordiale. Un environnement où les utilisateurs peuvent partager leurs données en toute sécurité et confidentialité est crucial pour la réussite des modèles prédictifs. Le RGPD* va dans ce sens.

E-santé : quand l’IA aide à la prévention

L’IA et ses capacités prédictives améliorent la qualité des soins, la prévention ou l’aide au diagnostic du médecin. Un exemple ? La prévention de crises de certaines maladies et la télémédecine. Les poussées de rhumatismes inflammatoires peuvent ainsi être détectées grâce à un capteur d’activité sur le patient, couplé au machine learning. Les data scientists des Orange Labs, en partenariat avec l’hôpital de la Pitié-Salpêtrière et Sanoïa, ont développé un modèle repérant ces poussées avec une fiabilité de 96 %.

Maintenance prédictive : vers une industrie et une énergie intelligentes

Dans le secteur industriel, l’IA permet également, grâce aux modèles prédictifs, de prévoir les pannes avant qu’elles ne se produisent. L’ascensoriste ThyssenKrupp peut ainsi remplacer les pièces avant leur usure.

Autre exemple : le fabricant de chaudières et chauffe-eau à gaz, e.l.m. leblanc, propose grâce à l’IoT et l’IA un service de contrôle à distance et de maintenance curative et prédictive de ses chaudières. La solution déployée collecte les données de la chaudière et alerte les techniciens en cas de problème. Leurs interventions sont plus efficaces, car l’IA permet de cibler les causes probables du dysfonctionnement en analysant les données en temps réel. La plateforme génère aussi elle-même des alertes par anticipation, via des algorithmes de maintenance prédictive.

Smart city : l’IA au service des citoyens

L’IA permet aussi aux collectivités d’optimiser la performance énergétique des bâtiments publics et de simplifier l’usage des services de la collectivité, comme les transports. Un exemple : la commune de Cenon, près de Bordeaux, a installé des capteurs connectés dans les chaudières des bâtiments municipaux les plus énergivores pour améliorer leur performance énergétique.

Ressources humaines : quand le recrutement passe au 4.0

En matière de gestion des ressources humaines, l’analyse prédictive peut aider à prévoir les évolutions du marché de l’emploi, comme chez Adecco. Mais aussi à recruter les candidats possédant les comportements et soft skills adéquats pour un poste, grâce notamment à l’analyse de données et des tests de personnalité.

Autre application RH : anticiper des risques d’absentéisme en croisant des données épidémiologiques, de santé et de transports pour faire de la prévention.

Retail : prédire pour toujours plus personnaliser

Connaître le parcours client est la clé du succès dans le domaine du retail. Les modèles prédictifs par l’analyse et le croisement des données permet aux acteurs du secteur de pousser automatiquement des produits potentiellement pertinents aux consommateurs. Une société de l’agroalimentaire pourrait ainsi suggérer des listes de courses en fonction des données remontées par un réfrigérateur connecté par exemple. Avec l’accord et la confiance du client, il est aussi possible de croiser des données de l’entreprise avec des informations disponibles en open data. Résultats : des recommandations personnalisées, de loisirs, de sports, de vêtements, de voyages… ». Finalement surtout des études de marché ! »

Intelligence artificielle ou technolâtrie ?

Intelligence artificielle ou  technolâtrie ?

Un article forcément très marqué diffusé par l’ACIA (association française contre intelligence artificielle),  sans doute excessif, mais qui mérite d’être lu.

« Que les individus soient en perte de repères dans un monde déboussolé, c’est à fois un cliché et un constat certainement globalement juste. Mais il est un vieux repère de la modernité qui a résisté contre vents et marées et constituera peut-être l’ultime d’entre eux : l’enthousiasme, la foi, voire la vénération pour l’évolution technique, qui prend aujourd’hui la forme des technologies numériques. Propagé par les politiques, les économistes et les médias, cet optimisme technologique (ou technoptimisme) nous aveugle et nous empêche de prendre la mesure des conséquences humaines et écologiques du déferlement numérique et robotique qui saisit l’humanité depuis une vingtaine d’années. Bertrand Méheust, nous sommes face à un « nouvel âge de l’esprit » que plus rien ne pourra arrêter sur sa lancée… sauf un effondrement de la mégamachine (ce qui ne saurait tarder). Savoir que tout cela se terminera un jour ne nous prémunit pas hic et nunc contre la dangereuse mutation anthropologique que cela implique, même si l’on fait partie – ce qui est mon cas – des derniers réfractaires du smartphone, condamnés à vivre avec amertume l’évanouissement à marche forcée d’un monde qui nous était jusqu’il y a peu familier. L’économie numérique représente bien une rupture majeure, et il serait vain de vouloir nous comparer aux époques antérieures. Rien de cyclique ici, sous le soleil de l’innovation, rien que du nouveau, comme l’on bien vu les camarades de Pièces et main d’œuvre. Entre fantasme et réalité, le transhumanisme, l’extropianisme et la singularité technologique représentent les bonheurs et accomplissements que nous promettent les techno-prophètes dans le courant de ce siècle. Pour ce, ils peuvent compter sur l’appui des « progressistes » de gauche comme de droite, qui voient dans toute extension des droits individuels des bienfaits que seuls des réactionnaires pourraient critiquer, même si ces droits passent de plus en plus par le truchement de la technoscience, comme, par exemple, les nouvelles techniques de procréation. Que faire ? D’abord décréter un moratoire sur l’innovation incontrôlée, puis organiser une désescalade technique, voilà une condition nécessaire pour reconstruire la cohésion sociale dans une société qui se voudrait démocratique, écologique et décente.

L’actualité des livres vient à la rescousse.

Dans Seuls ensembleDe plus en plus de technologies, de moins en moins de relations humaines (éd. L’Echappée, 2015), la psychologue et anthropologue du MIT Sherry Turkle (née en 1948) a étudié l’impact des nouvelles technologies en Intelligence Artificielle sur la « façon dont nous nous pensons, dont nous pensons nos relations avec autrui et le sens de notre humanité » (p.20). Pour ce, elle s’est appuyée sur deux cent cinquante observations cliniques, principalement d’enfants, d’adolescents et de personnes âgées.

La première partie traite de leur rapport avec les robots – aux doux noms de Tamagochis, Furby, AIBO, My Real Baby, etc… – pour constater la facilité avec laquelle nous projetons sur eux nos sentiments et avons des attentes démesurées sur ce qu’ils pourraient nous apporter en terme d’aide, mais aussi de réconfort, d’amitié et même de sexualité !

D’une part, la notion d’authenticité perd de sa substance au profit d’une nouvelle définition de la vie « à mi-chemin entre le programme inanimé et la créature vivante » (p.61). D’autre part, les êtres humains sont remis en cause dans leur capacité à prendre soin les uns des autres. Les robots, « nous sommes aujourd’hui prêts, émotionnellement et je dirais même philosophiquement, à les accueillir » (p.31). Ces « créatures » robotiques sont traitées comme des égaux et non plus comme des machines, elles sont placées sur le terrain du sens, « alors qu’elles n’en dégagent aucun. » Elles sont de plus en plus présentes dans les maisons de retraite où elles remplacent le personnel manquant ou défaillant. En majorité, les pensionnaires s’y attachent, rentrent en intimité avec elles. A l’argument selon lequel les machines ne peuvent éprouver d’affects, les roboticiens répondent sans rire qu’ils en fabriqueront un jour de manière synthétique.

« Il est tellement aisé d’être obnubilé par la technologie et de ne plus chercher à développer notre compréhension de la vie », conclut l’auteure (p.170).

La seconde partie concerne l’internet avec ses réseaux sociaux, ses jeux en ligne, sa Second Life et ses sites de confession. Les effets de leur omniprésence dans notre quotidien sont loin d’être négligeables. D’abord celui d’une attention fragmentée permanente aboutissant au multitasking (multitâches) chez les jeunes, cette faculté qui impressionne tant les aînés, alors que les études en psychologie montrent que lorsque l’on fait plusieurs choses à la fois, on fractionne son attention et on les fait toutes moins bien. Ensuite, un effacement de la frontière entre la vie professionnelle et la vie privée, quand le smartphone reste allumé jour et nuit. Même en vacances, le cadre américain reçoit environ 500 courriels, plusieurs centaines de textos et 40 appels par jour !

Résultat : faute de temps, tous nos interlocuteurs sont réifiés, nous les traitons comme des objets. Turkle a aussi étudié le cas des natifs numériques (digital natives), les générations nées après 1990 pour lesquelles le web représente un liquide amniotique non questionné. « Je suis connecté, donc je suis ! » Et alors ?, répondront les technoptimistes.

« Ce n’est pas parce qu’un comportement devient normal qu’il perd la dimension problématique qui l’avait auparavant fait considérer comme pathologique », précise l’auteure (p.283).

Les jeux en ligne et Second Life nous entraînent dans un monde virtuel fait de simulacres, qu’on finit par préférer à notre vie réelle, les plus accros y passant la moitié de leur temps de veille ! Nous en demandons moins aux êtres humains et plus à la technologie, à laquelle nous appliquons une pensée magique : tant que je suis connecté, je suis en sécurité, et les gens que j’aime ne disparaîtront pas. Facebook est un fauve insatiable qu’il faut alimenter en permanence de nouvelles « positives » sous forme de textes, de photos, de vidéos, qui envahissent la vie privée, dans une simplification et un appauvrissement de nos relations.

A la fin du livre, nous apprenons qu’aujourd’hui de plus en plus de jeunes Américains ont la nostalgie du monde d’avant la connexion généralisée, quand les parents étaient attentifs, investis et engagés envers leurs enfants. Un début d’espoir de révolte ? Ce copieux essai de 523 pages fait le point sur un phénomène toujours sous-estimé dans ses retombées sociétales. Et encore, Turkle n’aborde pas ici l’aspect anti-écologique de ces technologies. Que resterait-il bien pour les défendre ? Chers lecteurs de France, voilà un excellent sujet pour le bac ! »

Bernard Legros

Article paru à l’origine dans Kairos, revue technocritique belge, n°19 avril/mai 2015

Bernard Legros est enseignant, essayiste, membre de l’Appel pour une Ecole Démocratique et membre fondateur du Mouvement politique des Objecteurs de Croissance (Belgique)

Intelligence artificielle : le risque des technoprophètes » (Alexandre Templier)

 Intelligence artificielle : le risque des technoprophètes » (Alexandre Templier)

Débarrasser l’intelligence artificielle de tous ses oripeaux mystico-religieux pour une approche  au service de l’humain, recommande  l’expert en IA, Alexandre Templier, dans une tribune au « Monde ». Extrait :

« . Qui eût cru, qu’un jour, la technologie se parerait des atours de la religion ? Une parure sémantique et symbolique qui suscite l’étonnement et mérite l’examen. Par exemple, lorsqu’il cofonda la Singularity University en 2008, Ray Kurzweil, le pape de l’intelligence artificielle (IA), a établi une charte d’engagement dont certains termes semblent sortis tout droit d’un livre religieux. On y parle de « communauté », de « chapitre », un rassemblement de religieux, ou encore de « credo », une formule contenant les articles fondamentaux d’une foi religieuse. Il y a quelques mois, Anthony Lewandoski, ex-ingénieur chez Google et Uber, fondait « The way of the future ». Une organisation religieuse dont le but est, selon son fondateur, « de développer et promouvoir la prise de conscience d’une divinité basée sur l’intelligence artificielle pour améliorer la société ». S’il est pour le moment difficile d’identifier les intentions réelles – ironie ou buzz – de l’ex-ingénieur en chef de Google, cette initiative ajoute du concret aux appropriations évoquées précédemment. Toutefois, pour devenir une « religion », l’intelligence artificielle présente deux lacunes de taille : l’absence de transcendance et le manque d’une perspective claire. S’il fallait trouver un équivalent au mot transcendance dans notre société matérialiste, le terme d’autorité régulatrice conviendrait parfaitement. Dans le monde religieux, la divinité dit le Ciel et la Terre, dans celui de l’intelligence artificielle il en va autrement. Aucune autorité n’est parvenue à en définir le périmètre. Conscients de son potentiel, les Etats commencent à forger des plans pour en favoriser le développement, à défaut de la réguler. …. cette notion d’encadrement semble loin dans l’agenda. »

Intelligence artificielle : réalités et gadgets (Charles Edouard Bouée)

 

 Dans une tribune des Échos, Charles Edouard Bouée,  président de Roland Berger, fait la part de ce qui relève réellement des avancés en matière d’intelligence artificielle et ce qui relève des gadgets.

«  La septicémie, qui représente une des premières causes de mortalité en milieu hospitalier, pourrait bientôt appartenir au passé. Comment ? Grâce à un algorithme d’intelligence artificielle capable de détecter, une demi-heure avant qu’elle ne survienne, une chute brutale de la pression artérielle très souvent indicatrice d’une infection du sang. Trente minutes suffisent à l’équipe soignante pour intervenir, sauver ainsi des milliers de vies et économiser des milliards de dollars. Une telle avancée est le fruit de la collaboration entre l’expert en intelligence artificielle Antoine Blondeau, fondateur de  Sentient Technologies, et les chercheurs du MIT . On est bien loin du buzz que des entreprises peu scrupuleuses font parfois, en estampillant « IA » des solutions technologiques qui pour certaines n’ont rien à voir avec l’intelligence artificielle, pour attirer les investisseurs et les clients. Après le « green washing », consistant à donner un vernis durable à des produits et des services qui ne le sont pas, l’« AI washing » nous promet monts et merveilles avec des solutions qui ne sont que des gadgets. C’est que derrière le succès actuel du terme « intelligence artificielle » – d’ailleurs choisi un peu par hasard en 1956 par John McCarthy, se cachent des technologies complexes : le « deep learning », qui permet la reconnaissance des objets et des mots, associé au « machine reasoning », qui permet d’élaborer des modèles prédictifs, les deux étant complétés par des algorithmes génétiques et des codes écrits par la machine elle-même. Si bien que le grand public a parfois du mal à comprendre les tenants et les aboutissants. D’où la difficulté à savoir ce qui relève vraiment de l’IA : de nombreux produits ou services qui disent reposer sur de l’intelligence artificielle, ne mobilisent en réalité que des logiciels d’automatisation basiques. Un autre mirage consiste à faire croire, en particulier aux chefs d’entreprises, que l’intelligence artificielle est toujours la réponse la plus adaptée pour accroître l’efficacité d’un processus. C’est loin d’être systématiquement le cas. Ainsi, lorsqu’on cherche une réponse à une question précise, les outils analytiques de Business Intelligence sont souvent plus pertinents. Mais label « IA » attire le chaland… et certains en abusent. Si, comme tous les eldorados, l’intelligence artificielle a ses charlatans, elle a aussi ses magiciens. Antoine Blondeau, Chris Boos, fondateur de la société Arago , Tomaso Poggio du MIT , Yann Le Cun de Facebook AI Research, Sean Tang, fondateur de SenseTime , Jürgen Schmidhuber du laboratoire suisse Idsia, Demis Hassabis de Deepmind … venus de tous les continents, ils travaillent ensemble autant dans les laboratoires, les universités que les entreprises. Ils forment une communauté d’experts capables de faire émerger un nouveau monde, sans bruit, loin des médias. On sait que l’intelligence artificielle sera la rupture technologique, sociale et économique des décennies à venir. Et il est certain que les prochaines licornes seront des entreprises d’intelligence artificielle. Mais la bataille ne se joue pas toujours où on le croit. Ni chez ceux qui en parlent beaucoup, ni forcément chez les GAFA ou leurs cousins chinois, les BAT. Les innovations véritables sont le fait de scientifiques et de techniciens qui n’aiment pas la lumière. Quant à ceux qui bluffent, en prétendant développer des solutions d’IA quand ce n’est pas le cas, ils pourraient bien être pris à leur propre piège. Car après DeepBlue aux échecs et Alphago au jeu de Go, le programme Libratus a envoyé au tapis, en janvier 2017, quatre joueurs de poker professionnels . En nous laissant face à ce constat vertigineux : l’intelligence artificielle sait donc bluffer, et intégrer le bluff des autres à sa propre stratégie ! Il ne lui reste plus qu’à apprendre à démasquer les bluffeurs. ».

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA, pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune)

)

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historique comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

La programmation des véhicules autonomes en cas d’accident inévitable est un exemple de cas concret qui traduit inévitablement un choix moral. La recherche scientifique sur les préférences morales des individus peut aider à identifier les critères éthiques pour fonder ce choix moral. L’automatisation des décisions grâce à l’IA peut donner lieu à de réels progrès, tels que des décisions plus transparentes et moins partiales. Aussi, se posent des questions fondamentales sur les conséquences économiques, les enjeux éthiques, et l’encadrement juridique de cette évolution. »

Intelligence artificielle : grosses offres d’emplois

Intelligence artificielle : grosses offres d’emplois

La demande a plus que doublé en 2017 par rapport à l’année précédente, a annoncé l’APEC jeudi.

Au total, l’APEC a diffusé 2.398 offres de postes de cadres en intelligence artificielle l’an dernier, contre 1.127 offres en 2016, précises l’association dans une étude sur la « tendance des métiers dans l’industrie ».

« Les opportunités d’emploi sont réelles auprès des entreprises de services du numérique (ESN), des cabinets de conseil et gestion des entreprises ou d’ingénierie-recherche et développement », selon les résultats de cette étude. Au cours des années 2016 et 2017, quatre offres d’emploi de cadres en intelligence artificielle sur dix (42%) provenaient de « sociétés d’activités informatiques (ESN notamment) », principale source de ces offres, « loin devant les activités de conseil et gestion des entreprises (19%) et les sociétés d’ingénierie-recherche et développement (11%) », souligne l’APEC. Au cours des années 2016 et 2017, « près des deux tiers » (63%) des offres ont été émises par des entreprises installées en Île-de-France, loin devant les autres régions, selon l’étude. Viennent ensuite Auvergne-Rhône-Alpes et Occitanie, qui rassemblent à elles deux « 16% des offres ».

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol