Archive pour le Tag 'Intelligence'

Technologies-Intelligence artificielle : limites et mythes

Technologies-Intelligence artificielle : limites et mythes

 

 

Luc Julia fut un des créateurs de Siri, l’assistant virtuel de l’iPhone. Il dirige depuis 2012 le centre de recherche de Samsung, en Californie, mais il passe une partie de son temps à Paris. Considéré comme une des stars mondiales de l’intelligence artificielle, il a pourtant clamé, dans un livre paru en janvier 2019, que celle-ci… n’existe pas ! (Interview dans l’opinion)

Vous êtes le créateur de Siri, un des outils les plus aboutis d’intelligence artificielle appliqué à la reconnaissance vocale. Et pourtant, vous soutenez cette thèse surprenante : l’intelligence artificielle n’existe pas !

Non, cela n’existe pas ; et d’ailleurs, j’appelle cela de l’innovation avancée ou de l’intelligence augmentée, ce qui signifie que l’on peut garder le même sigle sans utiliser l’expression intelligence artificielle. Ce à quoi on a assisté depuis les années 1970, après un premier « hiver de l’intelligence artificielle » qui a découlé de l’échec des premières tentatives de reconnaissance du sens des textes écrits avec une machine et de l’assèchement des financements qui a suivi. Ce que nous observons aujourd’hui, ce sont surtout des systèmes experts, qui suivent de la logique, des règles. Ce sont des super arbres décisionnels qui reposent sur des capacités de stockage de plus en plus importantes. En 1997, lorsque l’ordinateur Deep Blue d’IBM bat le champion d’échec Gary Kasparov, il n’y parvient que parce qu’il est doté d’une mémoire énorme qui stocke les 10 49 coups possibles aux échecs. C’est beaucoup, mais c’est un nombre fini.

L’intelligence artificielle a pourtant démontré des capacités d’apprentissage…

Elle n’a démontré que sa capacité à apprendre très lentement. J’aime citer cet exemple. La naissance d’Internet, en 1994, a offert au monde la plus importante base de données jamais compilée et la notion de « big data ». On a pu prouver la capacité d’un système informatique à apprendre. La première expérience menée, entre 1997 et 2000, a été d’apprendre à un ordinateur à reconnaître un chat, en observant des centaines de milliers de photos étiquetées « chat » postées par des humains ; c’était la première base qualifiée et bien labellisée que l’on possédait, parce que les propriétaires de chats aiment poster des photos de leurs animaux. Et c’est ainsi qu’entre 2000 et 2005, des machines ont pu reconnaître des chats… à 98 %. Un enfant humain a, lui, besoin de voir un chat deux fois en moyenne pour intégrer le concept. Cela relativise totalement la notion de machine learning.

La machine a besoin, pour gager, de s’appuyer sur l’équivalent de la puissance de calcul de 2000 ordinateurs domestiques. Un petit data center qui dépense 440 kWh ! Une énergie folle pour jouer au go quand, dans le même temps, l’esprit humain dépense 20 Wh, l’équivalent d’une ampoule de faible puissance

L’intelligence artificielle a appris à faire des choses vraiment plus difficiles, comme jouer au très complexe jeu de go, dont on peine à évaluer le nombre de combinaisons possibles. N’est-ce pas remarquable ?

Le jeu de go est un jeu originaire de Chine dont le but est de contrôler le plan de jeu en y construisant des « territoires » avec des pierres noires et blanches, tout en faisant des prisonniers. Ce jeu pourrait comporter entre 10 172 et 10 592 configurations. On ne sait pas exactement. On sait désormais avoir une machine avec une puissance de calcul suffisante pour prendre en compte cette incroyable masse de combinaisons. Le programme Alphago développé par Google DeepMind a battu un humain en 2016. Elle n’est pas plus créative que l’homme. Elle est simplement plus surprenante. Et elle a besoin, pour gagner, de s’appuyer sur l’équivalent de la puissance de calcul de 2000 ordinateurs domestiques. Un petit data center qui dépense 440 kWh ! Une énergie folle pour jouer au go quand, dans le même temps, l’esprit humain dépense 20 Wh, l’équivalent d’une ampoule de faible puissance. Et l’esprit humain ne fait pas que jouer au go, il sait faire des quantités d’autres choses. Il faut se calmer, avec l’intelligence artificielle. Pour l’instant, cela se résume à une débauche de data et d’énergie pour faire des choses très limitées.

Pourquoi l’intelligence artificielle – ou l’innovation avancée comme vous l’appelez – fait-elle si peur ?

Parce que l’on raconte n’importe quoi sur ce sujet. Pour certains, l’IA – et j’utilise ces lettres à dessein – c’est Hollywood, c’est de la science-fiction, c’est « Terminator », le robot qui remplace l’homme et prend seul des décisions mauvaises, qui est incontrôlable. Or, nous sommes actuellement en contrôle total de l’IA. Ou alors, on fait rêver. C’est un autre genre de film, c’est « Her », le film de Spike Jonze, l’IA séduisante, qui devient notre moitié. Or, cela n’existera jamais avec les mathématiques et les statistiques qui servent actuellement de base à l’IA. Il faudrait utiliser d’autres sciences pour simuler un cerveau. Peut-être de l’informatique quantique… Mais cela reste une totale hypothèse, puisque nous ne savons pas comment fonctionne un cerveau, ou ce qu’est l’intelligence. On veut donc imiter un modèle que l’on ne connaît pas. L’intelligence émotionnelle, par exemple, personne ne sait ce que c’est.

Il y a pourtant des inquiétudes légitimes avec l’IA. En 2016, par exemple, le chatbot de Microsoft Tay, qui était supposé aider les clients à choisir leur matériel, est devenu raciste et sexiste en à peine 16 heures d’usage…

Tay était une expérience marketing qui a dû très vite être débranchée. Cet échec a souligné deux choses. D’abord, le fait que les algorithmes doivent comprendre le public et s’y adapter pour répondre à ses questions. Cela n’a pas été le cas avec Tay, qui a raconté autre chose que ce qu’il devait. Ensuite, pour pouvoir prendre en compte des conversations et répondre, un chatbot doit s’appuyer sur des conversations préexistantes annotées. Il y a des quantités considérables dans une base appelée Switchboard, qui recense des conversations enregistrées de call center. Il est probable que la base utilisée par Tay n’était pas de bonne qualité et à conduit Tay à dériver. C’est toujours l’homme qui décide ! Il n’y a pas d’erreurs de la machine les erreurs sont toujours celles de l’homme.

La technologie informatique est sans doute une des inventions les plus puissantes de l’humanité. Plus puissante, sans doute, que la maîtrise de l’atome. Mais elle n’est finalement pas si différente des autres inventions

Quelle attitude les autorités politiques doivent-elles adopter face à l’intelligence artificielle ?

Il faut évidemment une régulation, mais qui ait avant tout une valeur éducative. Pour l’instant les tentatives sont arrivées en retard. Le Règlement européen sur la protection des données personnelles, le RGPD, est très louable, mais il arrive quinze ans après les premiers problèmes. La régulation, c’est avant tout la régulation de chacun. La technologie informatique est sans doute une des inventions les plus puissantes de l’humanité. Plus puissante, sans doute, que la maîtrise de l’atome. Mais elle n’est finalement pas si différente des autres inventions. On a mis du temps à réguler l’usage du couteau ou de la poudre. Tous les outils peuvent être utilisés à bon ou à mauvais escient. Lorsque l’Humain invente quelque chose, c’est généralement pour le bien. Mais il est possible que cela dérape ici où là.

Est-il cependant à craindre que l’intelligence artificielle et ses applications finissent par grignoter nos libertés individuelles ?

L’IA aura les effets que les individus et les groupes décideront qu’elle aura. C’est une question éthique, philosophique autant que politique. Elle peut servir à éviter les accidents de voiture, à diagnostiquer les cancers. Le temps libéré par la technologie peut être utilisé pour nous éduquer, pour créer des liens. Les abus de la technologie peuvent aussi aboutir à des scénarios comme celui d’« Idiocracy », film sorti en 2005. Mike Judge y dépeint une société qui a tout lâché et la technologie aboutit à réduire une partie de l’humanité en esclavage. Notre rapport à la technologie doit être une négociation permanente : qu’est-ce qu’elle m’apporte ou pas ? Il faut choisir ses batailles.

Vous êtes une figure incontournable de la Tech aux Etats-Unis. Et vous n’êtes pas le seul français à briller dans la Silicon Valley. Comment se fait-il, selon vous, que la France et l’Europe comptent aussi peu de licornes ?

Je suis un franco-franchouillard de base ! Je crois en la France de Pascal, de Descartes, en l’héritage des Lumières. Notre pays produit des ingénieurs doués en maths et en technologie… Mais cela ne se traduit pas en termes économiques par la création d’entreprises. Cela n’a rien à voir avec les compétences, mais avec le marché. Il a beau exister un marché commun en Europe, du point de vue technologique, ce marché n’existe pas. Trop de langues cohabitent, trop de régulations, trop de barrières administratives différentes ; l’Europe a, de ce point de vue là, tout fait pour se pénaliser elle-même. Résultat : pour une société technologique française, le marché se limite à 60 millions d’habitants quand il est de 330 millions de personnes aux Etats-Unis avec un langage unique et d’un milliard de personnes en Chine. La démographie et la géographie font finalement tout. Il va être très compliqué d’inverser la tendance, même si, depuis deux ou trois ans, la French tech a redonné une fibre entrepreneuriale à la France. Les pépites que nous exportons sont en fait nos cerveaux, puisque tous les chefs de l’intelligence artificielle dans la Silicon Valley sont des Français.

Intelligence artificielle : limites et mythes

 

Intelligence artificielle : limites et mythes

 

 

Luc Julia fut un des créateurs de Siri, l’assistant virtuel de l’iPhone. Il dirige depuis 2012 le centre de recherche de Samsung, en Californie, mais il passe une partie de son temps à Paris. Considéré comme une des stars mondiales de l’intelligence artificielle, il a pourtant clamé, dans un livre paru en janvier 2019, que celle-ci… n’existe pas ! (Interview dans l’opinion)

Vous êtes le créateur de Siri, un des outils les plus aboutis d’intelligence artificielle appliqué à la reconnaissance vocale. Et pourtant, vous soutenez cette thèse surprenante : l’intelligence artificielle n’existe pas !

Non, cela n’existe pas ; et d’ailleurs, j’appelle cela de l’innovation avancée ou de l’intelligence augmentée, ce qui signifie que l’on peut garder le même sigle sans utiliser l’expression intelligence artificielle. Ce à quoi on a assisté depuis les années 1970, après un premier « hiver de l’intelligence artificielle » qui a découlé de l’échec des premières tentatives de reconnaissance du sens des textes écrits avec une machine et de l’assèchement des financements qui a suivi. Ce que nous observons aujourd’hui, ce sont surtout des systèmes experts, qui suivent de la logique, des règles. Ce sont des super arbres décisionnels qui reposent sur des capacités de stockage de plus en plus importantes. En 1997, lorsque l’ordinateur Deep Blue d’IBM bat le champion d’échec Gary Kasparov, il n’y parvient que parce qu’il est doté d’une mémoire énorme qui stocke les 10 49 coups possibles aux échecs. C’est beaucoup, mais c’est un nombre fini.

L’intelligence artificielle a pourtant démontré des capacités d’apprentissage…

Elle n’a démontré que sa capacité à apprendre très lentement. J’aime citer cet exemple. La naissance d’Internet, en 1994, a offert au monde la plus importante base de données jamais compilée et la notion de « big data ». On a pu prouver la capacité d’un système informatique à apprendre. La première expérience menée, entre 1997 et 2000, a été d’apprendre à un ordinateur à reconnaître un chat, en observant des centaines de milliers de photos étiquetées « chat » postées par des humains ; c’était la première base qualifiée et bien labellisée que l’on possédait, parce que les propriétaires de chats aiment poster des photos de leurs animaux. Et c’est ainsi qu’entre 2000 et 2005, des machines ont pu reconnaître des chats… à 98 %. Un enfant humain a, lui, besoin de voir un chat deux fois en moyenne pour intégrer le concept. Cela relativise totalement la notion de machine learning.

La machine a besoin, pour gager, de s’appuyer sur l’équivalent de la puissance de calcul de 2000 ordinateurs domestiques. Un petit data center qui dépense 440 kWh ! Une énergie folle pour jouer au go quand, dans le même temps, l’esprit humain dépense 20 Wh, l’équivalent d’une ampoule de faible puissance

L’intelligence artificielle a appris à faire des choses vraiment plus difficiles, comme jouer au très complexe jeu de go, dont on peine à évaluer le nombre de combinaisons possibles. N’est-ce pas remarquable ?

Le jeu de go est un jeu originaire de Chine dont le but est de contrôler le plan de jeu en y construisant des « territoires » avec des pierres noires et blanches, tout en faisant des prisonniers. Ce jeu pourrait comporter entre 10 172 et 10 592 configurations. On ne sait pas exactement. On sait désormais avoir une machine avec une puissance de calcul suffisante pour prendre en compte cette incroyable masse de combinaisons. Le programme Alphago développé par Google DeepMind a battu un humain en 2016. Elle n’est pas plus créative que l’homme. Elle est simplement plus surprenante. Et elle a besoin, pour gagner, de s’appuyer sur l’équivalent de la puissance de calcul de 2000 ordinateurs domestiques. Un petit data center qui dépense 440 kWh ! Une énergie folle pour jouer au go quand, dans le même temps, l’esprit humain dépense 20 Wh, l’équivalent d’une ampoule de faible puissance. Et l’esprit humain ne fait pas que jouer au go, il sait faire des quantités d’autres choses. Il faut se calmer, avec l’intelligence artificielle. Pour l’instant, cela se résume à une débauche de data et d’énergie pour faire des choses très limitées.

Pourquoi l’intelligence artificielle – ou l’innovation avancée comme vous l’appelez – fait-elle si peur ?

Parce que l’on raconte n’importe quoi sur ce sujet. Pour certains, l’IA – et j’utilise ces lettres à dessein – c’est Hollywood, c’est de la science-fiction, c’est « Terminator », le robot qui remplace l’homme et prend seul des décisions mauvaises, qui est incontrôlable. Or, nous sommes actuellement en contrôle total de l’IA. Ou alors, on fait rêver. C’est un autre genre de film, c’est « Her », le film de Spike Jonze, l’IA séduisante, qui devient notre moitié. Or, cela n’existera jamais avec les mathématiques et les statistiques qui servent actuellement de base à l’IA. Il faudrait utiliser d’autres sciences pour simuler un cerveau. Peut-être de l’informatique quantique… Mais cela reste une totale hypothèse, puisque nous ne savons pas comment fonctionne un cerveau, ou ce qu’est l’intelligence. On veut donc imiter un modèle que l’on ne connaît pas. L’intelligence émotionnelle, par exemple, personne ne sait ce que c’est.

Il y a pourtant des inquiétudes légitimes avec l’IA. En 2016, par exemple, le chatbot de Microsoft Tay, qui était supposé aider les clients à choisir leur matériel, est devenu raciste et sexiste en à peine 16 heures d’usage…

Tay était une expérience marketing qui a dû très vite être débranchée. Cet échec a souligné deux choses. D’abord, le fait que les algorithmes doivent comprendre le public et s’y adapter pour répondre à ses questions. Cela n’a pas été le cas avec Tay, qui a raconté autre chose que ce qu’il devait. Ensuite, pour pouvoir prendre en compte des conversations et répondre, un chatbot doit s’appuyer sur des conversations préexistantes annotées. Il y a des quantités considérables dans une base appelée Switchboard, qui recense des conversations enregistrées de call center. Il est probable que la base utilisée par Tay n’était pas de bonne qualité et à conduit Tay à dériver. C’est toujours l’homme qui décide ! Il n’y a pas d’erreurs de la machine les erreurs sont toujours celles de l’homme.

La technologie informatique est sans doute une des inventions les plus puissantes de l’humanité. Plus puissante, sans doute, que la maîtrise de l’atome. Mais elle n’est finalement pas si différente des autres inventions

Quelle attitude les autorités politiques doivent-elles adopter face à l’intelligence artificielle ?

Il faut évidemment une régulation, mais qui ait avant tout une valeur éducative. Pour l’instant les tentatives sont arrivées en retard. Le Règlement européen sur la protection des données personnelles, le RGPD, est très louable, mais il arrive quinze ans après les premiers problèmes. La régulation, c’est avant tout la régulation de chacun. La technologie informatique est sans doute une des inventions les plus puissantes de l’humanité. Plus puissante, sans doute, que la maîtrise de l’atome. Mais elle n’est finalement pas si différente des autres inventions. On a mis du temps à réguler l’usage du couteau ou de la poudre. Tous les outils peuvent être utilisés à bon ou à mauvais escient. Lorsque l’Humain invente quelque chose, c’est généralement pour le bien. Mais il est possible que cela dérape ici où là.

Est-il cependant à craindre que l’intelligence artificielle et ses applications finissent par grignoter nos libertés individuelles ?

L’IA aura les effets que les individus et les groupes décideront qu’elle aura. C’est une question éthique, philosophique autant que politique. Elle peut servir à éviter les accidents de voiture, à diagnostiquer les cancers. Le temps libéré par la technologie peut être utilisé pour nous éduquer, pour créer des liens. Les abus de la technologie peuvent aussi aboutir à des scénarios comme celui d’« Idiocracy », film sorti en 2005. Mike Judge y dépeint une société qui a tout lâché et la technologie aboutit à réduire une partie de l’humanité en esclavage. Notre rapport à la technologie doit être une négociation permanente : qu’est-ce qu’elle m’apporte ou pas ? Il faut choisir ses batailles.

Vous êtes une figure incontournable de la Tech aux Etats-Unis. Et vous n’êtes pas le seul français à briller dans la Silicon Valley. Comment se fait-il, selon vous, que la France et l’Europe comptent aussi peu de licornes ?

Je suis un franco-franchouillard de base ! Je crois en la France de Pascal, de Descartes, en l’héritage des Lumières. Notre pays produit des ingénieurs doués en maths et en technologie… Mais cela ne se traduit pas en termes économiques par la création d’entreprises. Cela n’a rien à voir avec les compétences, mais avec le marché. Il a beau exister un marché commun en Europe, du point de vue technologique, ce marché n’existe pas. Trop de langues cohabitent, trop de régulations, trop de barrières administratives différentes ; l’Europe a, de ce point de vue là, tout fait pour se pénaliser elle-même. Résultat : pour une société technologique française, le marché se limite à 60 millions d’habitants quand il est de 330 millions de personnes aux Etats-Unis avec un langage unique et d’un milliard de personnes en Chine. La démographie et la géographie font finalement tout. Il va être très compliqué d’inverser la tendance, même si, depuis deux ou trois ans, la French tech a redonné une fibre entrepreneuriale à la France. Les pépites que nous exportons sont en fait nos cerveaux, puisque tous les chefs de l’intelligence artificielle dans la Silicon Valley sont des Français.

Intelligence artificielle : la question de l’éthique pour Google

Intelligence artificielle : la question de l’éthique pour Google

Pour Google comme pour la plupart des grands du numérique intervenant dans le domaine de l’intelligence artificielle la problématique est de rechercher une éthique compatible avec les développements commerciaux immenses. De ce point de vue, Google tente avec un peu de mal de prendre en compte la problématique complexe des conséquences considérables des algorithmes sur nombreux de dimensions de la vie professionnelle et de la vie privée. (Un papier du Wall Street Journal)

Au cours des dix-huit derniers mois, la maison mère de Google a dû faire face à une succession de controverses impliquant ses meilleurs chercheurs et dirigeants dans le domaine.

Le mois dernier, Google s’est séparé d’une éminente chercheuse en IA, Timnit Gebru. Elle avait dénoncé, dans une étude, l’approche de l’entreprise en matière d’IA et s’était plainte auprès de ses collègues des initiatives de l’entreprise en matière de diversité. Ses recherches concluaient que Google n’était pas assez vigilant dans le déploiement d’une technologie aussi puissante et qu’il était indifférent à l’impact environnemental de la conception de superordinateurs.

M. Pichai s’est engagé à mener une enquête sur les circonstances de son départ et a déclaré qu’il allait chercher à rétablir un climat de confiance. Le patron de Mme Gebru, Jeff Dean, a affirmé aux employés qu’il jugeait que ses recherches n’étaient pas suffisamment rigoureuses.

L’approche d’Alphabet en matière d’IA est scrutée de près car le conglomérat est communément considéré comme le leader du secteur en termes de financement de la recherche — interne et externe — et de développement de nouvelles utilisations, qui vont des enceintes intelligentes aux assistants virtuels, pour cette technologie

Depuis, près de 2 700 employés de Google ont signé une lettre ouverte affirmant que le départ de Mme Gebru « augure d’une menace pour les personnes travaillant en faveur d’une IA éthique et intègre — en particulier les noirs et les gens de couleur — à tous les échelons de Google ».

La semaine dernière, Google a annoncé enquêter sur la codirectrice de son équipe chargée de l’IA éthique, Margaret Mitchell, soupçonnée d’avoir téléchargé et partagé des documents internes avec des personnes extérieures à l’entreprise. Mme Mitchell, qui a critiqué M. Pichai sur Twitter pour sa gestion des questions de diversité, n’a pas répondu aux demandes de commentaires.

L’approche d’Alphabet en matière d’IA est scrutée de près car le conglomérat est communément considéré comme le leader du secteur en termes de financement de la recherche — interne et externe — et de développement de nouvelles utilisations, qui vont des enceintes intelligentes aux assistants virtuels, pour cette technologie. Ce secteur émergent soulève des questions complexes sur l’influence croissante des algorithmes informatiques dans un grand nombre d’aspects de la vie professionnelle et privée.

Google a cherché à se positionner comme un champion de l’IA éthique. « L’histoire est pleine d’exemples montrant que les bienfaits de nouvelles technologies ne sont pas garantis », avait déclaré M. Pichai lors d’une intervention devant un think tank à Bruxelles l’année dernière. « Si l’IA peut être source d’immenses promesses pour l’Europe et le monde, il existe de réelles inquiétudes sur ses conséquences négatives potentielles. »

La stratégie de développement de Google dans l’IA via des acquisitions a également amplifié ses difficultés en termes de management. De manière inattendue, Mustafa Suleyman, cofondateur de DeepMind, la division d’intelligence artificielle de Google basée à Londres, s’est vu enlevé fin 2019 la plupart de ses responsabilités de direction après avoir fait l’objet de plaintes pour intimidation de la part de membres du personnel, selon des sources bien informées.

DeepMind, que Google a acheté en 2014, a engagé un cabinet d’avocats indépendants pour mener une enquête sur les plaintes. Fin 2019, M. Suleyman a été muté à un autre poste de direction au sein de l’équipe d’IA de Google.

Dans un communiqué commun, DeepMind et Google ont confirmé la tenue d’une enquête sur le comportement de M. Suleyman mais ont refusé d’en révéler les conclusions. Ils se sont contentés d’indiquer qu’à la suite de l’investigation, il « a entamé un module de formation professionnelle — qu’il suit toujours — centré sur les sujets concernés, et ne gère plus de grandes équipes ». Les entreprises ont déclaré que dans le cadre de son rôle actuel de vice-président de la politique d’intelligence artificielle chez Google, « [M. Suleyman] fournit des contributions précieuses sur la politique et la réglementation en matière d’IA ».

En réponse aux questions du Wall Street Journal, M. Suleyman a précisé qu’il « acceptait les critiques affirmant qu’en tant que cofondateur de DeepMind, [il] dirigeait les gens trop durement et que [son] style de management n’était parfois pas constructif ». Il a ajouté : « Je m’excuse sans ambiguïté auprès de ceux qui ont été blessés. »

La nomination de M. Suleyman à un poste de haut niveau chez Google a contrarié certains membres du personnel de DeepMind, tout comme un tweet de M. Dean lui souhaitant la bienvenue dans ses nouvelles fonctions chez Google, selon des employés actuels et anciens.

« Je me réjouis de travailler plus étroitement avec vous », a écrit M. Dean dans ce tweet.

Contrairement au moteur de recherche de Google, où l’intelligence artificielle est utilisée pour réorganiser et faire remonter des informations existantes à caractère public, DeepMind se concentre surtout sur des questions de santé, comme le traitement de vastes quantités de données sur les patients afin de trouver de nouvelles méthodes pour combattre les maladies.

DeepMind peine à atteindre ses objectifs financiers. L’unité a subi une perte de 649 millions de dollars en 2019, selon le document officiel déposé au Royaume-Uni le mois dernier. Google, qui lui avait prêté plus d’un milliard de dollars au cours de la même période, a abandonné cette créance, indique ce rapport.

Google a essayé à plusieurs reprises de mettre en place une supervision plus étroite de ses projets d’intelligence artificielle, avec un succès mitigé.

Un conseil d’éthique externe sur l’IA créé par Google a été dissous au bout d’une semaine d’existence. Des employés avaient signé une pétition visant certains de ses membres, politiquement marqués à droite

Chez DeepMind, un comité d’évaluation indépendant censé contrôler cette filiale et produire un rapport public annuel, a été dissous fin 2018 après les protestations de ses membres qui considéraient ne pas disposer d’un accès complet aux recherches et aux projets stratégiques de l’entreprise.

Quelques mois plus tard, un conseil d’éthique externe sur l’IA créé par Google a également été dissous au bout d’une semaine d’existence. Des employés avaient signé une pétition visant certains de ses membres, politiquement marqués à droite. Un porte-parole de Google avait déclaré à l’époque que l’entreprise « allait trouver d’autres moyens pour obtenir des avis indépendants sur ces sujets ».

Si les projets de Google en matière d’intelligence artificielle remontent à au moins une décennie, ce secteur n’est devenu une division autonome sous la direction de M. Dean que depuis 2017. M. Pichai, en annonçant la création de cette nouvelle structure cette année-là, avait déclaré que l’intelligence artificielle serait au cœur de la stratégie et des activités de Google, et que l’informatique avancée — également appelée apprentissage automatique — serait déployée au sein de toute l’entreprise.

Pedro Domingos, professeur d’informatique à l’Université de Washington, estime que Google était bien conscient des nombreux pièges liés à l’IA. Il se souvient qu’il y a plusieurs années, au cours d’une discussion, le président du conseil d’administration d’Alphabet, John Hennessy, lui avait fait part de toute l’étendue de ses craintes à une période où le géant de la recherche intensifiait son développement dans le domaine.

M. Domingos ajoute que M. Hennessy lui avait également dit que si quelque chose tournait mal avec l’IA — même dans d’autres entreprises —, Google en serait tenu pour responsable.

« Un seul faux pas et tout nous explose au visage », avait confié M. Hennessy, selon M. Domingos. M. Hennessy affirme ne pas se souvenir des détails de la conversation, mais reconnaît que les propos rapportés par M. Domingos sont probablement exacts.

Une première faute a été commise en 2015, lorsque plusieurs utilisateurs noirs de Google ont eu la surprise de constater que la technologie d’intelligence artificielle du logiciel photo gratuit de la société avait automatiquement apposé le tag « gorille » sur un de leurs albums de photos humaines, en se basant sur la couleur de la peau.

Google s’est excusé, a réglé le problème, puis a publiquement assuré qu’il allait redoubler d’efforts pour mettre en place, en interne, des protocoles de sécurité afin de s’assurer que son logiciel était configuré de manière éthique.

« Google est la maman poule par excellence. Ses employés sont tellement choyés qu’ils se sentent en droit d’exiger toujours plus » sur la manière dont l’entreprise aborde l’IA et les problématiques qui y sont liées

Cette décision a nécessité le recrutement de chercheurs tels que Mme Gebru, l’ancienne codirectrice de l’équipe d’intelligence artificielle éthique de l’entreprise, qui s’est publiquement exprimée sur les limites des logiciels de reconnaissance faciale pour identifier les personnes à la peau plus foncée.

Elle faisait partie des centaines de collaborateurs qui ont produit des recherches sur l’IA, parfois avec des institutions universitaires. Contrairement aux autres ingénieurs de Google, le groupe dédié à l’IA fonctionnait davantage sur le modèle d’un département académique : il était chargé de débattre de questions plus générales plutôt que de résoudre des problèmes sur des produits déterminés.

Reuters a révélé ultérieurement qu’avant le départ de Mme Gebru, Google avait lancé une étude sur des sujets sensibles et, dans au moins trois cas, avait demandé à son personnel de ne pas présenter sa technologie sous un jour négatif. Google a refusé de faire des commentaires à ce sujet.

Mme Gebru et M. Dean n’ont pas répondu aux demandes de réactions dans le cadre de cet article.

Google a déclaré que ses avancées en matière d’intelligence artificielle ont permis la rapidité et la précision des résultats de son moteur de recherche — et la pertinence des publicités.

M. Domingos estime que la plupart des problèmes de Google liés à l’IA sont imputables aux principes de management de l’entreprise, et ajoute que c’est la science, et non l’idéologie, qui devrait guider les débats éthiques.

« Google est la maman poule par excellence », poursuit-il. « Ses employés sont tellement choyés qu’ils se sentent en droit d’exiger toujours plus » sur la manière dont l’entreprise aborde l’IA et les problématiques qui y sont liées.

Le départ de Mme Gebru illustre le défi que doit relever la direction de Google : les deux parties ne sont même pas d’accord sur le fait de savoir si elle a démissionné, ce que prétend la société, ou si elle a été licenciée pendant ses vacances, comme l’intéressée l’affirme.

Traduit à partir de la version originale en anglais

Intelligence artificielle : l’Europe en retard

 Intelligence artificielle : l’Europe en retard

D’après l’étude annuelle de la Fondation pour les technologies de l’information (Information Technology and Innovation Foundation), parue lundi 25 janvier, les États-Unis mènent la course au développement et à l’utilisation de l’intelligence artificielle (IA), tandis que la Chine progresse rapidement au point de « challenger la domination américaine« , et que l’Union européenne est… à la traîne.

Domaines de l’intelligence artificielle d’après http://www.intelligenceartificielle.fr/:

 

Systèmes experts :

soit un logiciel capable de simuler le comportement d’un humain effectuant une tâche très précise. C’est un domaine où l’intelligence artificielle est incontestablement un succès, dû au caractère très précis de l’activité demandée à simuler.

Calcul formel (opposé au calcul numérique) :

traiter les expressions symboliques. Des logiciels sur le marché, comme Mathematica, Maple, etc., effectuent tous des calculs formels.

Représentation des connaissances :

on entend la représentation symbolique de la connaissance pour que le logiciel soit capable de la manipuler. Un des secteurs de recherche en intelligence artificielle qui est le plus important.

Simulation du raisonnement humain :

tenter de mettre au point des logiques qui formalisent le mode de raisonnement (logiques modales, floues, temporelles, etc.).

Traitement du langage naturel :

c’est la compréhension qui reste le problème majeur à la traduction ou au résumé d’un texte dans une autre langue. De grands progrès ont été faits pour obtenir une représentation sous une forme indépendante de la langue dans laquelle l’original est écrit. Certains traducteurs orientés dans des domaines spécialisés donnent de meilleurs résultats grâce à leurs spécificités.

Résolution de problèmes :

représentation, analyse et résolution de problèmes concrets. C’est le cas des jeux de réflexion tels que les échecs, le backgammon ou les dames. Dans le cas du backgammon le champion du monde est un programme. Ils restent quelques jeux qui résistent aux efforts des programmeurs.

Reconnaissance de la parole :

beaucoup de progrès ont été effectués. Un logiciel comme Naturaly Speaking permet la dictée. Cependant, la compréhension d’un mot ou d’une phrase requiert une grande quantité d’informations extralangagières (contexte, connaissance du sujet, etc.).

Reconnaissance de l’écriture :

la reconnaissance de l’écriture dactylographiée n’est pas facile (malgré des logiciels assez performants sur le marché), mais l’écriture manuscrite pose des problèmes beaucoup plus complexes. Cela n’est pas étonnant dans la mesure où cette tâche peut nous poser à nous aussi des problèmes insolubles. Certains chercheurs essaient de reconstituer à partir du texte le mouvement de la main afin de comprendre ce qui est écrit.

Reconnaissance des visages :

considérée de longue date comme un des problèmes de l’intelligence artificielle le plus difficile, les résultats récents deviennent intéressants avec les réseaux neuronaux.

Robotique :

la robotique dans les usines est déjà fortement répendue. La première génération est capable d’exécuter une série de mouvements préenregistrés, la deuxième génération est dotée de capteurs de perception permettant de prendre certaines décisions et la troisième génération possède une plus grande autonomie, elle peut se déplacer dans un environnement.

L’apprentissage :

un logiciel devrait avoir des capacités d’apprentissage autonome pour pouvoir être véritablement qualifié d’intelligent. Douglas Lenat travaille actuellement à la constitution d’une gigantesque base de données censée contenir toutes les connaissances partagées par les humains d’un même groupe pour leur communication. Il souhaite adjoindre un module d’apprentissage à sa base de données lui permettant de travailler seule pour collecter des informations nouvelles et réorganiser l’architecture de ses connaissances.

Réseaux neuronaux :

un réseau de neurones formels est un modèle rudimentaire du cerveau humain. Une cellule neuronale possède une sortie et des entrées reliées à d’autres neurones. Ces réseaux partagent des propriétés importantes avec le cerveau humain. Cela requiert une programmation non explicite et la répartition de l’information sur l’ensemble du réseau.

Systèmes complexes adaptatifs :

le regroupement des algorithmes génétiques et des modèles de vie artificielle. En résumé succint, l’étude des convergences vers des formes organisées des populations soumises à des lois simples et naturelles.

« Les failles affectives de Macron qui remettent en cause les résultats de son intelligence »

  • « Les failles affectives de Macron qui remettent en cause les résultats de son intelligence »
  •  L’ancien ministre de la Culture de Nicolas Sarkozy, Jack Lang livre dans l’Opinion ses vérités sur cette période d’épidémie, où la fragilité de nos vies s’est rappelée à nous.
  • Que révèle de la société française la crise sanitaire sans fin que nous traversons ?
  • Que la relation du pouvoir avec les citoyens demeure très paternaliste. Le pouvoir traite les citoyens comme de grands enfants. Les citoyens, très disciplinés, obéissent à ce qu’on leur dit de faire. Le fait qu’Emmanuel Macron se prenne pour le roi de France, qu’il ait cette nostalgie, alimente ce côté paternaliste. Ce n’est pas à lui d’expliquer tout le temps ce que l’on doit faire, comme s’il était le roi qui guérissait les écrouelles. Imagine-t-on De Gaulle ou Mitterrand donner les détails à la télévision du déconfinement ? On est toujours dans la même relation avec les présidents de la République (mais peut-être que ce sont les institutions qui le veulent) : tout procède d’eux, tout remonte à eux. Soit ils nous bluffent, soit on les haït. Ce rapport me semble dangereux.
  • Que vous inspire, après plus de trois années et demie à l’Elysée, le président Macron ?
  • En fait, je ne sais pas. Au début, j’étais totalement séduit. Je trouvais le côté adolescent qui prend la ville assez formidable. Ses premiers pas m’ont laissé pantois. Et puis après, il y a eu cette succession de petites phrases terribles, qui ont trahi autre chose. Quand il a violemment remis à sa place un jeune qui l’avait appelé « Manu » [« Tu m’appelles Monsieur ou Monsieur le président de la République. Et tu fais les choses dans le bon ordre : le jour où tu veux faire la révolution, tu apprends d’abord à avoir un diplôme et à te nourrir toi-même»], j’ai imaginé comment François Mitterrand aurait réagi. Emmanuel Macron a un amour de lui-même trop intense. Ses qualités intellectuelles sont remarquables, son énergie et son désir de bien faire évidents. Il montre une vraie résilience face à la série de crises sans précédent qu’il affronte depuis le début de son quinquennat. Mais il a des failles affectives qui viennent remettre en cause les résultats de son intelligence. Peut-être les compensera-t-il avec l’âge ? Il a la chance d’avoir à ses côtés une épouse très sympathique, qui est sa seule amie, et qui sans doute l’aide beaucoup. La haine qu’il récolte est la résultante de sa demande d’amour. Cela dit, Emmanuel Macron ne m’a jamais vu, ni parlé. Il y a chez moi certainement une part de déception personnelle, un sentiment pas très noble. Je ne suis pas le seul dans ce cas. Il y a eu un désir chez lui de passer l’aspirateur et de se débarrasser de tout le passé. Je sens le soufre pour lui. Stéphane Bern, qui est adorable, est consensuel ; moi, je le suis moins. Les gens clivants dans le domaine culturel, cela l’embête.
  • Est-il un président de droite ou de gauche ?
  • C’est un président d’ordre. C’est ce que disait Marguerite Duras : « Il est comme tous les gens de droite, il est fasciné par les gens de gauche ». Les gens de droite, ce qui les empêche de dormir, c’est la résilience de la gauche. Quand il va chez Philippe de Villiers, affiche une relation d’amitié avec lui, il montre qu’il y a en lui une connivence avec ce que cela représente, le côté scout. Parallèlement, il a à ses côtés un socialiste sincère comme Jean-Yves Le Drian. Emmanuel Macron donne plus de questions que de réponses.
  • L’Elysée a annoncé qu’après l’année De Gaulle, ce serait l’année Mitterrand. Le chef de l’Etat lui rendra hommage à plusieurs reprises. Qu’ont en commun Emmanuel Macron et François Mitterrand ?
  • La réponse la plus facile, ce serait « rien », mais je ne pense pas que cela soit vrai. Ils ont une curiosité intellectuelle commune, notamment vis-à-vis de leurs homologues étrangers. Ils savent se projeter sur la scène internationale et construire des relations fortes avec leurs interlocuteurs. Ce point commun s’explique par la haute idée que tous les deux se font de leur fonction, peut-être biaisée par leur narcissisme. Mais Mitterrand a été élu à un âge avancé. Il avait eu assez d’expérience, d’échecs dans la vie pour avoir un narcissisme plus raisonnable. La comparaison qui vient immédiatement à l’esprit est celle avec Valéry Giscard d’Estaing : le Président aimé, séduisant, qui rapte la République comme un séducteur emmenant la jeune fille dans son château, l’intelligence exceptionnelle, le désir de bien faire, la façon dont tout se retourne… Mais j’avais le sentiment que Giscard d’Estaing, que je voyais de temps en temps, ne l’aimait pas beaucoup.
  • «A l’Elysée, sous Sarkozy, passer de Claude Guéant à Jean Castex, cela a été vraiment autre chose. On passait du croque-mort de Lucky Luke au type hyper sympa. Jean Castex est courageux, il incarne la droite civilisée, si le terme existe»
  • Dans Une drôle de guerre, vous êtes plus sympathique avec Edouard Philippe ou Bruno Le Maire…
  • Heureusement que Bruno Le Maire est là. Il donne le sentiment de tenir à bout de bras notre économie. Je l’ai beaucoup pratiqué quand j’étais ministre. C’est un mec très sérieux. Il arrive assez bien à être à la fois solidaire du gouvernement, fidèle au Président et en même temps à faire entendre sa propre personnalité.
  • « Que de bons souvenirs lorsqu’il était à l’Elysée et que j’avais affaire à lui. Sympa, solide. Perdu de vue et revoilà », rapportez-vous au sujet de Jean Castex, que vous avez connu secrétaire général adjoint de Nicolas Sarkozy.…
  • A l’Elysée, passer de Claude Guéant à Jean Castex, cela a été vraiment autre chose. On passait du croque-mort de Lucky Luke au type hyper sympa. Quand il a été nommé à Matignon, j’ai cru que ce serait le Pompidou de Macron. Mais ce n’est pas cela. Il est courageux, incarne la droite civilisée, si le terme existe. J’espère que le côté sacrificiel sera mis à son crédit. Avec lui, Emmanuel Macron aura un type très loyal. Il sera le soutier du Président, dans la tradition des Premiers ministres sous la Ve République.
  • Autre remarque au détour d’une page : « Sarkozy embrasse Macron pour mieux l’étrangler »…
  • On sent tellement qu’il a envie de revenir. Il se dit que si c’est le chaos, entre l’incapacité de la droite à se mettre d’accord sur un candidat et la folie de la gauche qui court désespérément derrière Anne Hidalgo, il peut avoir une partition à jouer. Contrairement à ce que certains ont pensé, je ne partageais pas la vision du monde politique de Nicolas Sarkozy. Mais il a toujours été impeccable avec moi. Lui si interventionniste, il m’a laissé tranquille à la Culture. Récemment, je suis allé le voir et je le lui ai dit. Je crois qu’il en a été touché. On a une relation presque familiale.
  • « Presque tous les évènements qui dessinent l’aventure de ce siècle ont été pour les contemporains des surprises presque totales.» Cette citation de René Rémond figure en exergue de votre livre. C’est ce à quoi il faut s’attendre pour la présidentielle de 2022 ?
  • L’irrationnel est devenu la règle. Cette épidémie nous l’a rappelé. L’ampleur des destructions morales, citoyennes introduites par ce virus est impossible à imaginer pour l’instant. Que sortira-t-il de tout cela ? Aujourd’hui, je voterais Emmanuel Macron tout de suite malgré mes réticences.
  • Comment jugez-vous Roselyne Bachelot à la Culture ?
  • Très bien. Même si elle ne gagne pas tous les combats qu’elle mène, elle a réussi à tisser un pacte de confiance avec le monde culturel, chez qui la confiance peut être une donnée assez évanescente.
  • Le monde culturel peut-il se relever de la crise qu’il vit ? Quelles seront les conséquences ?Ce qui se passe est épouvantable. Je pense tout le temps aux artistes, comédiens, directeurs de salle, comme Laurent Bayle, le directeur de la Philharmonie de Paris, qui doivent se battre face à mille vents. Beaucoup prennent des initiatives pour mettre en ligne leur production, mais rien ne peut remplacer le spectacle vivant. On ne pourra jamais en faire une visioconférence. Et puis c’est toute la structure de la ville, vidée de son âme, qui s’en ressent. Pour l’instant, on le supporte, on fait le dos rond. Mais dans quel état le monde culturel sortira-t-il de tout cela ? Je n’ai pas la réponse.
  • Dans Le temps des tempêtes, Nicolas Sarkozy écrit : « Au ministère de la Culture, qui dispose d’un petit budget et d’une administration faible et fragmentée, le manque de charisme public devient rapidement un immense problème ». Etes-vous d’accord ?
  • C’est son côté paillettes ! S’il y a eu deux grands ministres de la Culture, Malraux et Lang, d’autres ont fait des choses et ne doivent pas être oubliés : Jacques Duhamel, Michel Guy qui, si Valéry Giscard d’Estaing ne l’avait pas sacrifié face à Raymond Barre, serait devenu son Jack Lang, Renaud Donnedieu de Vabres… Un bon ministre de la Culture est d’abord un ministre qui a des idées, parvient à les mettre en œuvre. Et puis s’il a du charisme, il s’impose. Quel Français connaissait Jack Lang quand il a été nommé ?

Nouvelles technologies-Quelle régulation de l’intelligence artificielle

Nouvelles technologies-Quelle  régulation de l’intelligence artificielle

 

Florian Ingen-Housz, partner au sein d’Altermind, et Victor Storchan, ingénieur en IA dans l’industrie financière, explique l’enjeu de la régulation de l’intelligence artificielle (IA) dans la Tribune

 

 

En février dernier, la Commission européenne a publié son livre blanc sur la régulation des applications de l’Intelligence Artificielle (IA). Plutôt que de légiférer unilatéralement sur ce sujet, la Commission a choisi, de manière novatrice, une approche consultative et participative en incitant l’ensemble des parties prenantes à cet écosystème à participer à la discussion. Cette approche doit être encouragée, approfondie et accélérée pour ajuster l’état du droit à un état de l’art technologique qui ne cesse de faire surgir des débats juridiques et normatifs inédits. Cette approche est aussi le seul moyen de faire émerger, dans la décennie qui vient, une véritable vision européenne de la Tech, tout à la fois pro-business et respectueuse des libertés individuelles.

Un défi majeur pour les régulateurs

L’IA constitue en effet un défi majeur pour les régulateurs. La vitesse prodigieuse des avancées technologiques doit inviter ces derniers à co-construire la norme avec un écosystème plus large qu’ils n’en ont l’habitude, plutôt que d’imposer celle-ci « par le haut ». Tout comme l’ont montré les débats sur la bioéthique depuis les années 1970, la régulation technologique est avant tout un choix de société et par conséquent un effort continu. La question se pose néanmoins avec une acuité particulière pour le déploiement de l’IA, compte tenu de l’ambiguïté de ses définitions, de sa nature stochastique et de l’opacité des multiples modèles sur lesquels elle est bâtie. Cette opacité est aggravée par l’hypercroissance de l’écosystème (50% de plus de papiers soumis à NeurIPS – une des conférences majeures de la discipline - en 2019 par rapport à l’année précédente), qui rend immédiatement obsolètes des savoirs difficilement acquis par des régulateurs parfois mal-équipés sur le plan technique. Si la régulation est évidemment primordiale pour permettre l’adoption, créer du consensus et de la confiance envers cette technologie, son élaboration devra donc être suffisamment (i) spécifique dans son champ d’application pour être « implémentable », (ii) inclusive et ouverte dans sa démarche et (iii) sélective dans ses priorités et son séquencement.

Il faudra donc, dans un premier temps, d’abord s’assurer de la juste définition de l’objet ciblé. Ce besoin de spécificité dans un domaine aux frontières floues soulève un premier défi : celui de la sémantique. Le concept d’IA est imprécis, même pour les experts. Contrairement aux précédentes vagues de disruption technologique, que ce soit la machine à vapeur, l’électricité, la chimie ou même les premiers programmes informatiques, les contours de l’IA sont moins tangibles. Ainsi, en 2013, l’Etat du Nevada a dû ainsi revoir sa définition de l’IA pour les véhicules autonomes car celle-ci englobait aussi certains modèles de voitures sophistiquées avec des fonctionnalités de contrôle avancées. La définition de ce qu’est un robot pour l’Union européenne n’est pas non plus satisfaisante. Contrairement à ce que semble indiquer cette dernière, les robots n’acquièrent en effet pas de capacité d’autonomie uniquement grâce aux données et aux capteurs dont ils disposeraient. Comme le montrent les travaux de Bryan Casey et Mark A. Lemley (Stanford Law School) lorsque cela est possible, une manière de contourner le problème sémantique est de s’assurer que la régulation cerne en priorité les comportements des individus et non pas les techniques, les types d’algorithmes ou les robots.

 

Faire coopérer des acteurs très divers

L’efficacité de la régulation pour l’IA se mesurera aussi à sa capacité à faire coopérer des acteurs très divers. Les usages de cette technologie doivent être appréhendés non pas in-vitro mais au sein d’écosystèmes technico-sociaux complexes où elle est déployée. Ainsi cette coopération doit à la fois s’effectuer horizontalement et verticalement. Horizontalement d’abord, par la co-construction entre juristes, techniciens, et chercheurs, mais également sociologues et citoyens qui via les décideurs publics seront les utilisateurs de ces systèmes d’IA. Ces derniers doivent être dotés d’outils pour améliorer leur capacité à contester la décision d’un modèle afin de créer de la confiance. Le dialogue doit aussi être plurilatéral, non seulement par une coordination entre pays et puissances régionales, mais aussi en incluant les ONG, la société et l’industrie.

 

Cette coopération est aussi verticale. Pour être opérant, le processus délibératif d’une gouvernance globale doit pouvoir être traduit en termes techniques par les ingénieurs et les chercheurs qui conçoivent les modèles. Cependant, pour être parfaitement efficace et agile, cette approche différenciée devra pouvoir s’incarner par une gouvernance dans les entreprises capable de guider les équipes techniques. Ces dernières sont confrontées à plusieurs dilemmes du fait des contraintes techniques, mathématiques ou algorithmiques et ont besoin d’indications précises qui tranchent des compromis entre certaines notions d’éthiques comme l’équité ou le respect de la vie privée. Il est donc nécessaire de faire un choix qui relève presque de philosophie politique. Ces choix sont sociétaux et culturels.

Enfin, lorsqu’une directive réglementaire présente une ambiguïté intrinsèque (dans le but par exemple d’anticiper des développements de technologie future ou pour pouvoir être appliquée à un spectre large d’acteurs), il est précieux que l’écosystème puisse collectivement expliciter les points d’incertitude qui sont sujets à l’interprétation. Cet effort de clarification permettrait d’aligner les efforts de gestion du risque dans les modèles d’IA sur des standards communs. Ces concertations des parties prenantes ont vocation à constituer une « soft law » pour préciser ou compléter au plus près du terrain des principes plus généraux fixant l’esprit et l’intention.

Se concentrer sur un nombre réduit de secteurs

 

Enfin, la régulation pour être efficace doit en priorité se concentrer sur un nombre réduit de secteurs et d’applications sur lesquels une attention immédiate est requise. A titre d’exemple, l’UE propose de calibrer le niveau de régulation selon le niveau de risque que représente une application de l’IA ou un secteur industriel applicatif. La commission propose ainsi une liste de plusieurs secteurs à haut risque comme les transports, la santé ou l’énergie dans lesquels certains déploiements technologiques sensibles devront respecter un ensemble de règles plus exigeant. Cette approche semble raisonnable. Le risque consubstantiel à l’innovation et un principe de précaution aveugle à la diversité des cas d’usages aboutirait à une société du statu quo vidée de sa force entrepreneuriale et créatrice. Les applications dans le secteur public (justice et éducation notamment), la santé font certainement partis des chantiers prioritaires. Les exemples récents de systèmes mal déployés sont légions : les entreprises technologiques comme IBM ou Microsoft ont stoppé leurs services de reconnaissance faciale après que des failles éthiques à répétition aient été identifiées. L’algorithme néerlandais de prédiction de fraude pour les demandeurs de sécurité sociale a été suspendu par une juridiction du pays pour violation des droits de l’homme et de la régulation RGPD sur les données.

Ainsi, les rapports entre les régulateurs et les innovateurs en IA ne peuvent être résumés à un conflit entre le glaive et le bouclier. La multidisciplinarité de cette technologie, ses évolutions rapides et disruptives doivent être accompagnées pour qu’elle serve le plus grand nombre dans la transparence et responsabilité des acteurs.

Nouvelles technologies– »Intelligence artificielle : renaissance de l’expérience humaine « !

Nouvelles technologies– »Intelligence artificielle : renaissance de l’expérience humaine « !

Un plaidoyer pour  l’intelligence artificielle par Gianmarco Monsellato, Avocat, Ancien dirigeant de Deloitte-Taj, Senior Partner Deloitte dans l’Opinion . Une vision quand même un peu réductrice du champ de l’intelligence artificielle et en même temps un peu excessive voire caricaturale.

 

Tout est écrit. Le futur peut se lire dans l’interprétation des données à notre disposition, des signes que la nature nous donne. Ces conclusions ne viennent pas d’une entreprise technologique du XXIe siècle mais des alchimistes du XVe. Serions-nous en train de vivre un retour en arrière, assisterions-nous à une nouvelle forme de pensée magique sous le couvert du vocabulaire technologique ? Les professions d’expertises et notamment les services professionnels pourraient être tentés de le croire tant leur fin, ou leur mutation complète, est souvent annoncée à cause de l’essor de l’IA. A quoi bon des experts, lorsqu’un algorithme peut vous donner toutes les réponses à vos questions ? Et pourtant…

L’IA découle de la rencontre entre la technique des algorithmes, qui n’est pas nouvelle, une masse de données immense grâce à internet, et des puissances de calcul en augmentation exponentielle. Elle constitue une formidable capacité à calculer des corrélations entre des données apparemment indépendantes, permettant de mettre en lumière des liens de causalités jusque-là ignorés. Grâce au « machine learning », les algorithmes améliorent la pertinence de leurs résultats en éliminant les corrélations aboutissant à des conclusions hors contexte, autrement dit absurdes pour un humain.

Pour les professions d’expertise (consultants, avocats, juges, auditeurs…), l’IA permet de disposer rapidement d’une analyse précise et exhaustive des précédents dans toutes leurs dimensions. Ce qui avant devait être effectué par des collaborateurs durant un temps assez long et avec un taux d’inexactitude non négligeable est désormais rapidement disponible, sans erreur et de manière exhaustive. Sur le plan du droit, l’IA permet de disposer d’analyses de précédents d’une profondeur sans équivalent, réduisant à néant le risque d’erreur ou d’omission. Elle apporte ainsi une sécurité juridique sans faille. A tel point que certaines Cours suprêmes de pays de Common Law travaillent sur des projets d’IA pour effectuer toute la préparation analytique au jugement.

Par construction, une IA ne fait que répéter le passé. Le présupposé fondateur des études de corrélation est de croire que les phénomènes passés ont vocation à se répéter dans le futur

Pour puissante qu’elle soit, l’IA n’en demeure pas moins entravée par des limites indépassables. En premier lieu, elle est sujette aux biais. Puisqu’elle traite des données existantes, ces conclusions reflètent nécessairement les a priori présents dans l’historique des environnements analysés. Plus un biais, ou une erreur de jugement sur le plan moral, a été répété de manière insidieuse dans le passé, plus il influencera les analyses de corrélations et donc les conclusions de l’IA. En second lieu, toutes les corrélations ne se valent pas. Certaines identifient des liens entre données qui sont de fausses causalités uniquement créées par la répétition non signifiante de certains aléas, ce que les mathématiciens arabes du Moyen Age ont appelé « hasard ». Enfin, par construction, une IA ne fait que répéter le passé. Le présupposé fondateur des études de corrélation est de croire que les phénomènes passés ont vocation à se répéter dans le futur. Ce qui va à l’encontre de l’aspiration humaine à la créativité qui n’est rien d’autre que le refus du déterminisme.

 

Est-ce à dire alors que l’IA serait un faux savoir à renier au même titre que l’alchimie de la fin du Moyen Age ? Bien sûr que non, ne fût-ce que parce que certains parmi les plus grands savants à l’origine de la Renaissance étaient aussi des alchimistes. Il faut en revanche l’utiliser pour ce qu’elle est sans lui prêter des capacités qu’elle ne peut avoir.

L’IA permet dès aujourd’hui, et encore plus demain, à tous les métiers de savoir, de bénéficier d’analyses techniques de plus grande qualité et plus rapidement que par le passé. Pour autant que l’on sache s’en servir. Les collaborateurs qui auparavant effectuaient les recherches techniques doivent désormais se concentrer sur le fonctionnement de l’IA pour corriger ses biais ou a minima les comprendre pour en nuancer les conclusions. Quant à ceux qui sont en position de décider, ou de conseiller, ils doivent considérer les conclusions de l’IA pour ce qu’elles sont : une vision du passé appliquée au futur, qui ne peut appréhender l’intelligence des situations si importante à la qualité de la prise décision.

C’est la responsabilité du conseil, de l’avocat ou de l’auditeur, de comprendre que décider c’est créer l’avenir et non pas répéter le passé. L’expérience permet de savoir quand il est nécessaire de s’écarter des chemins déjà tracés, ou quand une évidence provenant du passé deviendrait une erreur si elle était projetée dans le futur. Les plus grandes évolutions juridiques créatrices des droits fondamentaux qui fondent nos sociétés n’auraient jamais été possibles si les jugements ou décisions avaient été rendues par des IA, justement par ce que ces évolutions sont le fruit de décisions qui ont voulu rompre avec ce qui existait déjà.

En réalité, l’IA met sur le devant de la scène l’importance de la qualité de la prise de décision, fruit de l’expérience et de la volonté créatrice. Elle valorise la qualité du jugement humain. Et elle nous renvoie à un texte fondateur de la culture occidentale. Dans l’Odyssée, Ulysse connaît le jugement des dieux et le déterminisme qu’il impose. Il choisit de s’en départir et de tracer son propre chemin, dans un voyage qui ne cesse de nous inspirer 3 000 ans après. Finalement, le principal mérite de l’IA est de nous rappeler que nous sommes humains.

Gianmarco Monsellato, Avocat, Ancien dirigeant de Deloitte-Taj, Senior Partner Deloitte

« Intelligence artificielle : renaissance de l’expérience humaine « !. ( Gianmarco Monsellato)

« Intelligence artificielle : renaissance de l’expérience humaine « !. ( Gianmarco Monsellato)

Un plaidoyer pour  l’intelligence artificielle par Gianmarco Monsellato, Avocat, Ancien dirigeant de Deloitte-Taj, Senior Partner Deloitte dans l’Opinion . Une vision quand même un peu réductrice du champ de l’intelligence artificielle et en même temps un peu excessive.

 

Tout est écrit. Le futur peut se lire dans l’interprétation des données à notre disposition, des signes que la nature nous donne. Ces conclusions ne viennent pas d’une entreprise technologique du XXIe siècle mais des alchimistes du XVe. Serions-nous en train de vivre un retour en arrière, assisterions-nous à une nouvelle forme de pensée magique sous le couvert du vocabulaire technologique ? Les professions d’expertises et notamment les services professionnels pourraient être tentés de le croire tant leur fin, ou leur mutation complète, est souvent annoncée à cause de l’essor de l’IA. A quoi bon des experts, lorsqu’un algorithme peut vous donner toutes les réponses à vos questions ? Et pourtant…

L’IA découle de la rencontre entre la technique des algorithmes, qui n’est pas nouvelle, une masse de données immense grâce à internet, et des puissances de calcul en augmentation exponentielle. Elle constitue une formidable capacité à calculer des corrélations entre des données apparemment indépendantes, permettant de mettre en lumière des liens de causalités jusque-là ignorés. Grâce au « machine learning », les algorithmes améliorent la pertinence de leurs résultats en éliminant les corrélations aboutissant à des conclusions hors contexte, autrement dit absurdes pour un humain.

Pour les professions d’expertise (consultants, avocats, juges, auditeurs…), l’IA permet de disposer rapidement d’une analyse précise et exhaustive des précédents dans toutes leurs dimensions. Ce qui avant devait être effectué par des collaborateurs durant un temps assez long et avec un taux d’inexactitude non négligeable est désormais rapidement disponible, sans erreur et de manière exhaustive. Sur le plan du droit, l’IA permet de disposer d’analyses de précédents d’une profondeur sans équivalent, réduisant à néant le risque d’erreur ou d’omission. Elle apporte ainsi une sécurité juridique sans faille. A tel point que certaines Cours suprêmes de pays de Common Law travaillent sur des projets d’IA pour effectuer toute la préparation analytique au jugement.

Par construction, une IA ne fait que répéter le passé. Le présupposé fondateur des études de corrélation est de croire que les phénomènes passés ont vocation à se répéter dans le futur

Déterminisme. Pour puissante qu’elle soit, l’IA n’en demeure pas moins entravée par des limites indépassables. En premier lieu, elle est sujette aux biais. Puisqu’elle traite des données existantes, ces conclusions reflètent nécessairement les a priori présents dans l’historique des environnements analysés. Plus un biais, ou une erreur de jugement sur le plan moral, a été répété de manière insidieuse dans le passé, plus il influencera les analyses de corrélations et donc les conclusions de l’IA. En second lieu, toutes les corrélations ne se valent pas. Certaines identifient des liens entre données qui sont de fausses causalités uniquement créées par la répétition non signifiante de certains aléas, ce que les mathématiciens arabes du Moyen Age ont appelé « hasard ». Enfin, par construction, une IA ne fait que répéter le passé. Le présupposé fondateur des études de corrélation est de croire que les phénomènes passés ont vocation à se répéter dans le futur. Ce qui va à l’encontre de l’aspiration humaine à la créativité qui n’est rien d’autre que le refus du déterminisme.

Est-ce à dire alors que l’IA serait un faux savoir à renier au même titre que l’alchimie de la fin du Moyen Age ? Bien sûr que non, ne fût-ce que parce que certains parmi les plus grands savants à l’origine de la Renaissance étaient aussi des alchimistes. Il faut en revanche l’utiliser pour ce qu’elle est sans lui prêter des capacités qu’elle ne peut avoir.

L’IA permet dès aujourd’hui, et encore plus demain, à tous les métiers de savoir, de bénéficier d’analyses techniques de plus grande qualité et plus rapidement que par le passé. Pour autant que l’on sache s’en servir. Les collaborateurs qui auparavant effectuaient les recherches techniques doivent désormais se concentrer sur le fonctionnement de l’IA pour corriger ses biais ou a minima les comprendre pour en nuancer les conclusions. Quant à ceux qui sont en position de décider, ou de conseiller, ils doivent considérer les conclusions de l’IA pour ce qu’elles sont : une vision du passé appliquée au futur, qui ne peut appréhender l’intelligence des situations si importante à la qualité de la prise décision.

Rompre avec ce qui existait déjà. C’est la responsabilité du conseil, de l’avocat ou de l’auditeur, de comprendre que décider c’est créer l’avenir et non pas répéter le passé. L’expérience permet de savoir quand il est nécessaire de s’écarter des chemins déjà tracés, ou quand une évidence provenant du passé deviendrait une erreur si elle était projetée dans le futur. Les plus grandes évolutions juridiques créatrices des droits fondamentaux qui fondent nos sociétés n’auraient jamais été possibles si les jugements ou décisions avaient été rendues par des IA, justement par ce que ces évolutions sont le fruit de décisions qui ont voulu rompre avec ce qui existait déjà.

En réalité, l’IA met sur le devant de la scène l’importance de la qualité de la prise de décision, fruit de l’expérience et de la volonté créatrice. Elle valorise la qualité du jugement humain. Et elle nous renvoie à un texte fondateur de la culture occidentale. Dans l’Odyssée, Ulysse connaît le jugement des dieux et le déterminisme qu’il impose. Il choisit de s’en départir et de tracer son propre chemin, dans un voyage qui ne cesse de nous inspirer 3 000 ans après. Finalement, le principal mérite de l’IA est de nous rappeler que nous sommes humains.

Gianmarco Monsellato, Avocat, Ancien dirigeant de Deloitte-Taj, Senior Partner Deloitte

Quelle compatibilité entre Intelligence artificielle et éthique ?

Quelle compatibilité entre Intelligence artificielle et  éthique

 

Un Livre blanc européen sur l’intelligence artificielle, publié le 19 février, insiste d’abord sur l’importance du respect des droits fondamentaux des citoyens et met par exemple en garde contre des distorsions dans les algorithmes de recrutement conduisant à des discriminations.

D’après le site pwc.fr , les intelligences artificielles (IA) se font de plus en plus présentes – voitures autonomes, algorithmes de recommandation, drones, etc. – et la question de la moralité de leurs actions commence à se poser. Celles qui s’appuient sur les réseaux de neurones artificiels (deep learning) sont particulièrement critiquées : on leur reproche d’être opaques, de ne pas laisser voir le raisonnement qui permet aux algorithmes d’arriver au résultat final. Une science naissante s’applique d’ailleurs à développer des outils pour regarder à l’intérieur de ces boîtes noires que sont les réseaux neuronaux. À ce travail à rebours pour scruter le code des IA s’ajoute, en parallèle, la volonté affichée par de nombreux experts d’intégrer des préceptes éthiques très en amont, directement au cœur de l’IA.

En s’appuyant sur d’énormes quantités de données, les systèmes de deep learning sont capables d’effectuer un très grand nombre de tâches : reconnaître et analyser des images ou des voix, proposer une police d’assurance sur mesure, accepter ou refuser une offre de prêt, piloter un véhicule… Mais comment avoir confiance dans les décisions de l’IA si nous ne sommes pas en mesure de les comprendre ?

« L’intelligence doit être augmentée, c’est-à-dire au service de l’humain, plutôt qu’autonome. Nous devons construire un binôme humain-machine où l’IA devra offrir une compréhension intuitive pour l’humain. Elle devra être capable d’expliquer ses recommandations de façon simple et immédiate. » François Royer, directeur consulting Data Intelligence, PwC France

Le développement d’une telle IA a par exemple déjà été initié aux États-Unis par la DARPA (département de R&D militaire du ministère de la Défense) : les premiers résultats du projet XAI (Explainable AI) sont attendus en novembre 2018.

Si XAI vise à développer des techniques de machine learning qui permettent de construire des modèles d’IA plus compréhensibles, capables d’expliquer aux humains en bout de ligne leur raisonnement, c’est loin d’être le cas de toutes les IA. Le fonctionnement des réseaux de neurones artificiels est particulièrement opaque. Les géants du digital, boostés par des mécanismes de collecte de données très efficaces, disposent de quantités de données phénoménales ce qui les encourage à développer massivement les réseaux de neurones artificiels. Ces réseaux se nourrissent des corrélations qu’ils détectent entre des jeux de données préexistants, ce qui peut poser problème.

 

Bruxelles recommande donc  que les futurs systèmes d’intelligence artificielle à haut risque (concernant la santé par exemple) soient certifiés, testés et contrôlés, comme le sont les voitures, les cosmétiques et les jouets.

 

Theodorous Evgueniou, professeur de la prestigieuse école de management Insead, a rendu avec plusieurs autres chercheurs européens et américains un avis mettant en garde contre les risques d’une approche européenne trop centrée sur ses valeurs.

« Il semble que l’esprit du Livre blanc soit que l’Europe utilise ses valeurs comme une arme stratégique pour rattraper la Chine et les États-Unis », et se rendre attractive dans la course mondiale à l’intelligence artificielle, affirme-t-il. Mais « pourquoi penser que des pays non-européens préféreront des intelligences artificielles formées aux valeurs européennes ? Je ne suis pas sûr que ça marche », explique-t-il.

 

Par exemple, le Livre blanc affiche « l’explicabilité » comme valeur cardinale: il doit être possible de comprendre exactement pourquoi un système d’intelligence artificielle arrive à telle conclusion – comme le fait de refuser un prêt à quelqu’un.

Mais obliger des intelligences artificielles à expliquer leur choix « peut réduire leur performance de 20%, si ce n’est plus », affirme-t-il.

De son côté, Guillaume Avrin, responsable de l’intelligence artificielle au sein du Laboratoire national de métrologie et d’essais (LNE), ne remet pas en cause les impératifs éthiques dans le Livre blanc. Mais il regrette que la Commission s’avance peu sur les moyens de vérifier la conformité des intelligences artificielles auxdites valeurs.

« Comment fait-on pour s’assurer de la conformité des systèmes d’intelligence artificielle » à une réglementation, alors qu’ils sont souvent évolutifs et adaptatifs et ont des comportements  »non linéaires », voire « chaotiques », explique-t-il.

Intelligence artificielle et éthique: un livre blanc

Intelligence artificielle et  éthique: un livre blanc

Le Livre blanc européen sur l’intelligence artificielle, publié le 19 février, insiste d’abord sur l’importance du respect des droits fondamentaux des citoyens et met par exemple en garde contre des distorsions dans les algorithmes de recrutement conduisant à des discriminations.

D’après le site pwc.fr , les intelligences artificielles (IA) se font de plus en plus présentes – voitures autonomes, algorithmes de recommandation, drones, etc. – et la question de la moralité de leurs actions commence à se poser. Celles qui s’appuient sur les réseaux de neurones artificiels (deep learning) sont particulièrement critiquées : on leur reproche d’être opaques, de ne pas laisser voir le raisonnement qui permet aux algorithmes d’arriver au résultat final. Une science naissante s’applique d’ailleurs à développer des outils pour regarder à l’intérieur de ces boîtes noires que sont les réseaux neuronaux. À ce travail à rebours pour scruter le code des IA s’ajoute, en parallèle, la volonté affichée par de nombreux experts d’intégrer des préceptes éthiques très en amont, directement au cœur de l’IA.

En s’appuyant sur d’énormes quantités de données, les systèmes de deep learning sont capables d’effectuer un très grand nombre de tâches : reconnaître et analyser des images ou des voix, proposer une police d’assurance sur mesure, accepter ou refuser une offre de prêt, piloter un véhicule… Mais comment avoir confiance dans les décisions de l’IA si nous ne sommes pas en mesure de les comprendre ?

« L’intelligence doit être augmentée, c’est-à-dire au service de l’humain, plutôt qu’autonome. Nous devons construire un binôme humain-machine où l’IA devra offrir une compréhension intuitive pour l’humain. Elle devra être capable d’expliquer ses recommandations de façon simple et immédiate. » François Royer, directeur consulting Data Intelligence, PwC France

Le développement d’une telle IA a par exemple déjà été initié aux États-Unis par la DARPA (département de R&D militaire du ministère de la Défense) : les premiers résultats du projet XAI (Explainable AI) sont attendus en novembre 2018.

Si XAI vise à développer des techniques de machine learning qui permettent de construire des modèles d’IA plus compréhensibles, capables d’expliquer aux humains en bout de ligne leur raisonnement, c’est loin d’être le cas de toutes les IA. Le fonctionnement des réseaux de neurones artificiels est particulièrement opaque. Les géants du digital, boostés par des mécanismes de collecte de données très efficaces, disposent de quantités de données phénoménales ce qui les encourage à développer massivement les réseaux de neurones artificiels. Ces réseaux se nourrissent des corrélations qu’ils détectent entre des jeux de données préexistants, ce qui peut poser problème.

 

Bruxelles recommande donc  que les futurs systèmes d’intelligence artificielle à haut risque (concernant la santé par exemple) soient certifiés, testés et contrôlés, comme le sont les voitures, les cosmétiques et les jouets.

 

Theodorous Evgueniou, professeur de la prestigieuse école de management Insead, a rendu avec plusieurs autres chercheurs européens et américains un avis mettant en garde contre les risques d’une approche européenne trop centrée sur ses valeurs.

« Il semble que l’esprit du Livre blanc soit que l’Europe utilise ses valeurs comme une arme stratégique pour rattraper la Chine et les États-Unis », et se rendre attractive dans la course mondiale à l’intelligence artificielle, affirme-t-il. Mais « pourquoi penser que des pays non-européens préféreront des intelligences artificielles formées aux valeurs européennes ? Je ne suis pas sûr que ça marche », explique-t-il.

 

Par exemple, le Livre blanc affiche « l’explicabilité » comme valeur cardinale: il doit être possible de comprendre exactement pourquoi un système d’intelligence artificielle arrive à telle conclusion – comme le fait de refuser un prêt à quelqu’un.

Mais obliger des intelligences artificielles à expliquer leur choix « peut réduire leur performance de 20%, si ce n’est plus », affirme-t-il.

De son côté, Guillaume Avrin, responsable de l’intelligence artificielle au sein du Laboratoire national de métrologie et d’essais (LNE), ne remet pas en cause les impératifs éthiques dans le Livre blanc. Mais il regrette que la Commission s’avance peu sur les moyens de vérifier la conformité des intelligences artificielles auxdites valeurs.

« Comment fait-on pour s’assurer de la conformité des systèmes d’intelligence artificielle » à une réglementation, alors qu’ils sont souvent évolutifs et adaptatifs et ont des comportements  »non linéaires », voire « chaotiques », explique-t-il.

Intelligence artificielle ou technolâtrie ?

 Intelligence artificielle ou  technolâtrie ?

Un article forcément très marqué diffusé par l’ACIA (association française contre intelligence artificielle),  sans doute excessif, mais qui mérite d’être lu.

« Que les individus soient en perte de repères dans un monde déboussolé, c’est à fois un cliché et un constat certainement globalement juste. Mais il est un vieux repère de la modernité qui a résisté contre vents et marées et constituera peut-être l’ultime d’entre eux : l’enthousiasme, la foi, voire la vénération pour l’évolution technique, qui prend aujourd’hui la forme des technologies numériques. Propagé par les politiques, les économistes et les médias, cet optimisme technologique (ou technoptimisme) nous aveugle et nous empêche de prendre la mesure des conséquences humaines et écologiques du déferlement numérique et robotique qui saisit l’humanité depuis une vingtaine d’années. Bertrand Méheust, nous sommes face à un « nouvel âge de l’esprit » que plus rien ne pourra arrêter sur sa lancée… sauf un effondrement de la mégamachine (ce qui ne saurait tarder). Savoir que tout cela se terminera un jour ne nous prémunit pas hic et nunc contre la dangereuse mutation anthropologique que cela implique, même si l’on fait partie – ce qui est mon cas – des derniers réfractaires du smartphone, condamnés à vivre avec amertume l’évanouissement à marche forcée d’un monde qui nous était jusqu’il y a peu familier. L’économie numérique représente bien une rupture majeure, et il serait vain de vouloir nous comparer aux époques antérieures. Rien de cyclique ici, sous le soleil de l’innovation, rien que du nouveau, comme l’on bien vu les camarades de Pièces et main d’œuvre. Entre fantasme et réalité, le transhumanisme, l’extropianisme et la singularité technologique représentent les bonheurs et accomplissements que nous promettent les techno-prophètes dans le courant de ce siècle. Pour ce, ils peuvent compter sur l’appui des « progressistes » de gauche comme de droite, qui voient dans toute extension des droits individuels des bienfaits que seuls des réactionnaires pourraient critiquer, même si ces droits passent de plus en plus par le truchement de la technoscience, comme, par exemple, les nouvelles techniques de procréation. Que faire ? D’abord décréter un moratoire sur l’innovation incontrôlée, puis organiser une désescalade technique, voilà une condition nécessaire pour reconstruire la cohésion sociale dans une société qui se voudrait démocratique, écologique et décente.

L’actualité des livres vient à la rescousse.

Dans Seuls ensembleDe plus en plus de technologies, de moins en moins de relations humaines (éd. L’Echappée, 2015), la psychologue et anthropologue du MIT Sherry Turkle (née en 1948) a étudié l’impact des nouvelles technologies en Intelligence Artificielle sur la « façon dont nous nous pensons, dont nous pensons nos relations avec autrui et le sens de notre humanité » (p.20). Pour ce, elle s’est appuyée sur deux cent cinquante observations cliniques, principalement d’enfants, d’adolescents et de personnes âgées.

La première partie traite de leur rapport avec les robots – aux doux noms de Tamagochis, Furby, AIBO, My Real Baby, etc… – pour constater la facilité avec laquelle nous projetons sur eux nos sentiments et avons des attentes démesurées sur ce qu’ils pourraient nous apporter en terme d’aide, mais aussi de réconfort, d’amitié et même de sexualité !

D’une part, la notion d’authenticité perd de sa substance au profit d’une nouvelle définition de la vie « à mi-chemin entre le programme inanimé et la créature vivante » (p.61). D’autre part, les êtres humains sont remis en cause dans leur capacité à prendre soin les uns des autres. Les robots, « nous sommes aujourd’hui prêts, émotionnellement et je dirais même philosophiquement, à les accueillir » (p.31). Ces « créatures » robotiques sont traitées comme des égaux et non plus comme des machines, elles sont placées sur le terrain du sens, « alors qu’elles n’en dégagent aucun. » Elles sont de plus en plus présentes dans les maisons de retraite où elles remplacent le personnel manquant ou défaillant. En majorité, les pensionnaires s’y attachent, rentrent en intimité avec elles. A l’argument selon lequel les machines ne peuvent éprouver d’affects, les roboticiens répondent sans rire qu’ils en fabriqueront un jour de manière synthétique.

« Il est tellement aisé d’être obnubilé par la technologie et de ne plus chercher à développer notre compréhension de la vie », conclut l’auteure (p.170).

La seconde partie concerne l’internet avec ses réseaux sociaux, ses jeux en ligne, sa Second Life et ses sites de confession. Les effets de leur omniprésence dans notre quotidien sont loin d’être négligeables. D’abord celui d’une attention fragmentée permanente aboutissant au multitasking (multitâches) chez les jeunes, cette faculté qui impressionne tant les aînés, alors que les études en psychologie montrent que lorsque l’on fait plusieurs choses à la fois, on fractionne son attention et on les fait toutes moins bien. Ensuite, un effacement de la frontière entre la vie professionnelle et la vie privée, quand le smartphone reste allumé jour et nuit. Même en vacances, le cadre américain reçoit environ 500 courriels, plusieurs centaines de textos et 40 appels par jour !

Résultat : faute de temps, tous nos interlocuteurs sont réifiés, nous les traitons comme des objets. Turkle a aussi étudié le cas des natifs numériques (digital natives), les générations nées après 1990 pour lesquelles le web représente un liquide amniotique non questionné. « Je suis connecté, donc je suis ! » Et alors ?, répondront les technoptimistes.

« Ce n’est pas parce qu’un comportement devient normal qu’il perd la dimension problématique qui l’avait auparavant fait considérer comme pathologique », précise l’auteure (p.283).

Les jeux en ligne et Second Life nous entraînent dans un monde virtuel fait de simulacres, qu’on finit par préférer à notre vie réelle, les plus accros y passant la moitié de leur temps de veille ! Nous en demandons moins aux êtres humains et plus à la technologie, à laquelle nous appliquons une pensée magique : tant que je suis connecté, je suis en sécurité, et les gens que j’aime ne disparaîtront pas. Facebook est un fauve insatiable qu’il faut alimenter en permanence de nouvelles « positives » sous forme de textes, de photos, de vidéos, qui envahissent la vie privée, dans une simplification et un appauvrissement de nos relations.

A la fin du livre, nous apprenons qu’aujourd’hui de plus en plus de jeunes Américains ont la nostalgie du monde d’avant la connexion généralisée, quand les parents étaient attentifs, investis et engagés envers leurs enfants. Un début d’espoir de révolte ? Ce copieux essai de 523 pages fait le point sur un phénomène toujours sous-estimé dans ses retombées sociétales. Et encore, Turkle n’aborde pas ici l’aspect anti-écologique de ces technologies. Que resterait-il bien pour les défendre ? Chers lecteurs de France, voilà un excellent sujet pour le bac ! »

Bernard Legros

Article paru à l’origine dans Kairos, revue technocritique belge, n°19 avril/mai 2015

Bernard Legros est enseignant, essayiste, membre de l’Appel pour une Ecole Démocratique et membre fondateur du Mouvement politique des Objecteurs de Croissance (Belgique)

Intelligence artificielle : préserver la dimension humaine

Intelligence artificielle : préserver la dimension humaine

Dans une tribune au « Monde », le consultant Jacques Marceau explique que si le numérique s’impose comme un formidable moyen de décupler les possibles dans tous les domaines, un moyen d’accéder à une société plus durable et plus juste, il reste un outil.

« Cette crainte soudaine du numérique qui entraîne parfois son rejet pourrait se révéler dangereuse si elle venait à perdurer et à s’amplifier car ça nous priverait de solutions précieuses propres à nous aider à relever les défis de notre temps. »

Tribune.

 

 » De tout temps, les échanges entre les individus, avec les entreprises ou les Etats se sont fondés sur des relations rendues propices par la confiance réciproque. Relation et confiance sont ainsi les deux attributs indissociables, non seulement de toute économie, mais encore de toute vie politique ou sociale. Une architecture relationnelle que Paul Valéry (1871-1945) qualifie de « structure fiduciaire », une toile tissée de relations de confiance qui forment « l’édifice de la civilisation », comme l’explique le philosophe Pierre Musso, dans La Religion industrielle (Fayard, 2017).

On ne peut en effet « faire société » sans avoir besoin les uns les autres et se faire confiance. On ne peut non plus « vivre en société » sans faire confiance aux institutions et croire en la valeur de concepts parfaitement immatériels, comme notre monnaie, nos lois, nos traditions ou nos fameuses valeurs républicaines, qui, toujours pour Valéry, relèvent de « l’empire des fictions ». Des fictions néanmoins indispensables à la cohésion sociale et au fonctionnement de notre société.

Même programmée par des humains, la réponse de la machine reste artificielle et par essence arbitraire. Soit le degré zéro d’un rapport prenant en considération l’individu dans toute sa complexité et ses particularismes

Dans ce contexte, le développement d’une société dont les fonctions sont de plus en plus numérisées et virtualisées, pose la question de la transformation du lien, autrefois humain et souvent personnel, en une relation certes personnalisée, mais dorénavant désincarnée, dans laquelle la conversation avec la machine s’est substituée à la relation humaine. Une machine qui est, de surcroît et toujours davantage, investie, à la faveur du développement de l’intelligence artificielle, du pouvoir exorbitant de prendre une décision concernant son « interlocuteur » sur la base d’une mystérieuse formule appelée algorithme. Une décision vue comme un confort quand il s’agit de définir l’itinéraire routier le plus fluide ou de recommander une lecture ou un morceau de musique, mais qui devient suspecte et parfois insupportable quand il s’agit de l’obtention d’une place en université, d’un crédit immobilier ou, pourquoi pas demain, d’un traitement médical personnalisé.

 

Même programmée par des humains, la réponse de la machine reste artificielle et par essence arbitraire. Soit le degré zéro d’un rapport prenant en considération l’individu dans toute sa complexité et ses particularismes, et un terreau favorable à l’expression de ce que le sociologue allemand Hartmut Rosa désigne dans Résonance (La Découverte, 2019) comme des « protestations d’inspiration républicaine contre une politique qui ne se conçoit plus que comme la gestionnaire administrative et juridique d’un monde muet ». Et que nous appelons dorénavant, chez nous, des « gilets jaunes » ! Un monde muet qui, pour Rosa, est la conséquence de l’incapacité des politiques et de la sphère administrative d’entretenir un rapport responsif avec les individus. Il ajoute « la démocratie moderne repose (…) sur l’idée que sa forme politique donne une voix à chaque individu et la rend audible ». 

 

 

 

Intelligence artificielle : une consultation citoyenne indispensable

Intelligence artificielle : une consultation citoyenne indispensable

 

C’est l’avis de  Didier Baichère  , député LREM, sur franceinfo mercredi 19 février. Il s’exprime après la présentation par la Commission européenne de son Livre blanc sur l’intelligence artificielle (IA). « Sur l’intelligence artificielle, on a une voix française, une voix européenne qui doit se faire entendre », appuie-t-il.

Didier Baichère souhaite une loi d’expérimentation et une consultation des citoyens concernant l’IA.  »Proposer une loi d’expérimentation, c’est s’arrêter deux minutes sur les usages qui nous ont envahis. Il faut prendre le temps de se poser la question avec des scientifiques. La science permet des choses mais est-ce qu’on est prêt à avancer en termes de valeur et d’éthique ? », demande-t-il.

L’intelligence artificielle regroupe plusieurs éléments comme les données, le machine-learning ou la reconnaissance faciale. Même sur ce dernier point, Didier Baichère prévient qu’il ne faut pas tout mélanger : « on ne peut pas raisonner ‘reconnaissance faciale’ de manière générique et globale. Il faut regarder usage par usage. »

Pour Didier Baichère, « il faut s’assurer que les bases de données qui sont utilisées ne sont pas réutilisables, ce qui est le cas aujourd’hui ». La protection des données personnelles et industrielles reste donc une priorité. L’Europe est l’un des seuls ensemble de pays qui a voté un texte spécialement pour protéger les données avec le RGPD.

 

Intelligence artificielle ou technolâtrie ?

Intelligence artificielle ou  technolâtrie ?

Un article forcément très marqué diffusé par l’ACIA (association française contre intelligence artificielle),  sans doute excessif, mais qui mérite d’être lu.

« Que les individus soient en perte de repères dans un monde déboussolé, c’est à fois un cliché et un constat certainement globalement juste. Mais il est un vieux repère de la modernité qui a résisté contre vents et marées et constituera peut-être l’ultime d’entre eux : l’enthousiasme, la foi, voire la vénération pour l’évolution technique, qui prend aujourd’hui la forme des technologies numériques. Propagé par les politiques, les économistes et les médias, cet optimisme technologique (ou technoptimisme) nous aveugle et nous empêche de prendre la mesure des conséquences humaines et écologiques du déferlement numérique et robotique qui saisit l’humanité depuis une vingtaine d’années. Bertrand Méheust, nous sommes face à un « nouvel âge de l’esprit » que plus rien ne pourra arrêter sur sa lancée… sauf un effondrement de la mégamachine (ce qui ne saurait tarder). Savoir que tout cela se terminera un jour ne nous prémunit pas hic et nunc contre la dangereuse mutation anthropologique que cela implique, même si l’on fait partie – ce qui est mon cas – des derniers réfractaires du smartphone, condamnés à vivre avec amertume l’évanouissement à marche forcée d’un monde qui nous était jusqu’il y a peu familier. L’économie numérique représente bien une rupture majeure, et il serait vain de vouloir nous comparer aux époques antérieures. Rien de cyclique ici, sous le soleil de l’innovation, rien que du nouveau, comme l’on bien vu les camarades de Pièces et main d’œuvre. Entre fantasme et réalité, le transhumanisme, l’extropianisme et la singularité technologique représentent les bonheurs et accomplissements que nous promettent les techno-prophètes dans le courant de ce siècle. Pour ce, ils peuvent compter sur l’appui des « progressistes » de gauche comme de droite, qui voient dans toute extension des droits individuels des bienfaits que seuls des réactionnaires pourraient critiquer, même si ces droits passent de plus en plus par le truchement de la technoscience, comme, par exemple, les nouvelles techniques de procréation. Que faire ? D’abord décréter un moratoire sur l’innovation incontrôlée, puis organiser une désescalade technique, voilà une condition nécessaire pour reconstruire la cohésion sociale dans une société qui se voudrait démocratique, écologique et décente.

L’actualité des livres vient à la rescousse.

Dans Seuls ensembleDe plus en plus de technologies, de moins en moins de relations humaines (éd. L’Echappée, 2015), la psychologue et anthropologue du MIT Sherry Turkle (née en 1948) a étudié l’impact des nouvelles technologies en Intelligence Artificielle sur la « façon dont nous nous pensons, dont nous pensons nos relations avec autrui et le sens de notre humanité » (p.20). Pour ce, elle s’est appuyée sur deux cent cinquante observations cliniques, principalement d’enfants, d’adolescents et de personnes âgées.

La première partie traite de leur rapport avec les robots – aux doux noms de Tamagochis, Furby, AIBO, My Real Baby, etc… – pour constater la facilité avec laquelle nous projetons sur eux nos sentiments et avons des attentes démesurées sur ce qu’ils pourraient nous apporter en terme d’aide, mais aussi de réconfort, d’amitié et même de sexualité !

D’une part, la notion d’authenticité perd de sa substance au profit d’une nouvelle définition de la vie « à mi-chemin entre le programme inanimé et la créature vivante » (p.61). D’autre part, les êtres humains sont remis en cause dans leur capacité à prendre soin les uns des autres. Les robots, « nous sommes aujourd’hui prêts, émotionnellement et je dirais même philosophiquement, à les accueillir » (p.31). Ces « créatures » robotiques sont traitées comme des égaux et non plus comme des machines, elles sont placées sur le terrain du sens, « alors qu’elles n’en dégagent aucun. » Elles sont de plus en plus présentes dans les maisons de retraite où elles remplacent le personnel manquant ou défaillant. En majorité, les pensionnaires s’y attachent, rentrent en intimité avec elles. A l’argument selon lequel les machines ne peuvent éprouver d’affects, les roboticiens répondent sans rire qu’ils en fabriqueront un jour de manière synthétique.

« Il est tellement aisé d’être obnubilé par la technologie et de ne plus chercher à développer notre compréhension de la vie », conclut l’auteure (p.170).

La seconde partie concerne l’internet avec ses réseaux sociaux, ses jeux en ligne, sa Second Life et ses sites de confession. Les effets de leur omniprésence dans notre quotidien sont loin d’être négligeables. D’abord celui d’une attention fragmentée permanente aboutissant au multitasking (multitâches) chez les jeunes, cette faculté qui impressionne tant les aînés, alors que les études en psychologie montrent que lorsque l’on fait plusieurs choses à la fois, on fractionne son attention et on les fait toutes moins bien. Ensuite, un effacement de la frontière entre la vie professionnelle et la vie privée, quand le smartphone reste allumé jour et nuit. Même en vacances, le cadre américain reçoit environ 500 courriels, plusieurs centaines de textos et 40 appels par jour !

Résultat : faute de temps, tous nos interlocuteurs sont réifiés, nous les traitons comme des objets. Turkle a aussi étudié le cas des natifs numériques (digital natives), les générations nées après 1990 pour lesquelles le web représente un liquide amniotique non questionné. « Je suis connecté, donc je suis ! » Et alors ?, répondront les technoptimistes.

« Ce n’est pas parce qu’un comportement devient normal qu’il perd la dimension problématique qui l’avait auparavant fait considérer comme pathologique », précise l’auteure (p.283).

Les jeux en ligne et Second Life nous entraînent dans un monde virtuel fait de simulacres, qu’on finit par préférer à notre vie réelle, les plus accros y passant la moitié de leur temps de veille ! Nous en demandons moins aux êtres humains et plus à la technologie, à laquelle nous appliquons une pensée magique : tant que je suis connecté, je suis en sécurité, et les gens que j’aime ne disparaîtront pas. Facebook est un fauve insatiable qu’il faut alimenter en permanence de nouvelles « positives » sous forme de textes, de photos, de vidéos, qui envahissent la vie privée, dans une simplification et un appauvrissement de nos relations.

A la fin du livre, nous apprenons qu’aujourd’hui de plus en plus de jeunes Américains ont la nostalgie du monde d’avant la connexion généralisée, quand les parents étaient attentifs, investis et engagés envers leurs enfants. Un début d’espoir de révolte ? Ce copieux essai de 523 pages fait le point sur un phénomène toujours sous-estimé dans ses retombées sociétales. Et encore, Turkle n’aborde pas ici l’aspect anti-écologique de ces technologies. Que resterait-il bien pour les défendre ? Chers lecteurs de France, voilà un excellent sujet pour le bac ! »

Bernard Legros

Article paru à l’origine dans Kairos, revue technocritique belge, n°19 avril/mai 2015

Bernard Legros est enseignant, essayiste, membre de l’Appel pour une Ecole Démocratique et membre fondateur du Mouvement politique des Objecteurs de Croissance (Belgique)

 

Intelligence artificielle: le contrôle par des algorithmes responsables ? ( Nozha Boujemaa )

Intelligence artificielle: le contrôle par des algorithmes responsables ?  (  Nozha Boujemaa )

 

Nozha Boujemaa, directrice science & innovation chez Median Technologies essaie de rassurer à propos des dérives possibles de l’IA et cela  grâce aux algorithmes responsables . Un concept encore un peu flou !

 

 Tribune dans le Monde (extraits)

 

«  Des chercheurs des universités Stanford et du Massachusetts ont publié, le 22 novembre, dans la revue Science une nouvelle approche en apprentissage automatique permettant de prévenir les comportements indésirables éventuels de l’intelligence artificielle. Ils ont montré leurs résultats dans deux cas applicatifs : la discrimination du genre et la gestion du diabète.

Le cadre proposé permet de mettre en place des algorithmes dits « seldoniens », en référence au personnage de Hari Seldon, créé par l’auteur de science-fiction Isaac Asimov. Ce dernier avait inventé les « robots positroniques », gouvernés par trois lois protégeant les êtres humains, connues depuis comme les « lois d’Asimov ».

En réalité, il s’agit d’une famille d’approches qui intègrent, dans leurs fonctions objectives à optimiser, des contraintes à respecter pour éviter de causer des dommages à l’humain. Ainsi, le respect de son intégrité physique est transféré au concepteur de l’algorithme d’apprentissage plutôt qu’à celui qui l’utilise ou le déploie. Il s’agit d’algorithmes « responsables par conception », dont la publication a été bien théâtralisée par l’équipe américaine avec la référence à Seldon et à Asimov.

Cela nous renvoie vers un imaginaire de science-fiction qui éveille à la fois curiosité et étonnement. L’idée essentielle est d’anticiper la responsabilité dans la conception plutôt que de contrôler a posteriori le comportement de l’algorithme par un mécanisme d’auditabilité. Ces approches s’opposent à l’école de pensée considérant que les biais viennent uniquement des données et que les algorithmes sont irréprochables.

Ce qui prime par-dessus tout, c’est la préservation de l’intégrité physique et mentale de l’humain. C’est bien la règle d’or pour tout développement technologique incluant l’intelligence artificielle. Si on regarde de près ses implications, on y trouve la sécurité physique (par exemple pour les véhicules autonomes), la protection des données personnelles, mais aussi la préservation du libre arbitre et l’évitement du nudging (l’« influence d’opinion »). Nous avons vu récemment que ce dernier, dans le cas du marketing politique, a des impacts préjudiciables sur nos démocraties, alors qu’il n’est pas illégal. C’est un bel exemple du fossé entre le droit et la responsabilité et l’éthique.

Il est crucial d’avoir une interprétabilité du comportement algorithmique et de disposer des moyens de contrôle (a priori ou a posteriori) de leurs capacités à respecter les règles éthiques, morales et juridiques. L’explicabilité est aussi essentielle : c’est la capacité de justifier le processus de décision d’un algorithme. Cette explicabilité, qui a été popularisée par le programme Explainable AI (XAI) de la Defense Advanced Research Projects Agency, est multiforme et pas toujours réalisable d’un point de vue technique. »

 

Intelligence artificielle : « Les humains sont loin d’avoir perdu leur place en entreprise »

Intelligence artificielle : « Les humains sont loin d’avoir perdu leur place en entreprise »

Sur cette question très complexe et très controversée, Cyril Le Mat, responsable data & IA dans une société spécialisée en ressources humaines, l’intelligence artificielle sert à humaniser le travail et non à le remplacer, dit-il dans une tribune au « Monde ».Un vision qui mérite attention mais peut être un peu idyllique car personne ne sait vraiment quelles seront les conséquences de l’IA notamment en matière d’emplois.

Tribune. Nous sommes aujourd’hui submergés d’articles, d’entretiens et de Tweet sur l’intelligence artificielle (IA) émanant de personnes déconnectées de la réalité technique, mais qui puisent sans vergogne dans un imaginaire de concurrence et de soumission afin de générer toujours plus d’émotion et de clics.

En tant qu’expert et praticien de l’IA en entreprise, ma volonté est ici d’éclairer sur les enjeux du développement de ces nouveaux outils, qui se révèlent plus humains qu’on ne pourrait le penser. Car la réalité est là : ce qu’on appelle l’intelligence artificielle n’est qu’une succession d’outils spécialisés, chacun consacré à l’optimisation d’une unique tâche répétitive. Exemple classique : l’imagerie médicale, où un algorithme va analyser pour un cancer précis des centaines d’images afin de proposer au médecin un diagnostic. Œuvre de l’humain, l’IA n’est rien de plus que ce que l’on décide d’y mettre.

 

L’IA permet avant tout d’automatiser des actions souvent répétitives, parfois ingrates, jusque-là opérées par des collaborateurs. Il faut en finir avec l’idée reçue qui remettrait aux mains des machines la majorité de l’activité humaine de l’entreprise. L’IA doit être abordée comme une opportunité technologique qui permet de dégager du temps au salarié et de l’aider à prendre des décisions. 

Le collaborateur va donc pouvoir se concentrer sur d’autres missions plus « humaines », où il aura plus de valeur ajoutée. Il pourra d’un côté se focaliser sur sa créativité, son innovation et son analyse ; de l’autre, se consacrer aux relations humaines, qu’elles soient internes ou externes à l’entreprise : par exemple, une infirmière pourra passer plus de temps avec ses patients. En cela, l’IA redonne du sens au travail, quête essentielle pour les jeunes générations.

 

Opaque dans son fonctionnement, l’IA est un outil qui nécessite une interaction par certains aspects similaire à celle entre humains. Sur ce point, les solutions connues du grand public sont encore loin de la maturité. En effet, les GAFA [Google, Apple, Facebook et Amazon] ont pour principal but de garder captifs leurs utilisateurs en ne leur fournissant ni outils de pilotage ni justification. Il faut pourtant s’assurer qu’humains et IA se comprennent tant sur les questions que sur les réponses ! La collaboration avec l’humain est un enjeu phare pour les solutions d’entreprise dont la progression va affecter positivement la réalité du travail. 

Ne soyons pas naïfs, des suppressions d’emplois causés par l’IA auront lieu. Mais la réalité sera loin des nombreuses prédictions de certains groupes de réflexion ou d’essayistes hors sol annonçant, selon les cas, la suppression de 30 % à 90 % des emplois actuels. Les humains sont loin d’avoir perdu leur place en entreprise. Avec le développement des solutions IA au travail, les salariés se tourneront vers des missions plus enrichissantes pour des carrières plus épanouissantes.

Intelligence artificielle: la démocratisation par l’auto apprentissage ?

La  défense corporatiste de l’ENA

 

 

Dans une interview au journal l’Opinion, l’actuel directeur de l’ENA, Patrick Gérard, défend  avec vigueur cette fabrique d’élites  donc dit-il la France devrait être fière. Une Argumentation de nature très corporatiste qui ne pose absolument pas la problématique du champ et de la nature régalienne de l’État. En effet, c’est parce qu’ils sont beaucoup trop nombreux que les énarques se  reproduisent  dans des structures qu’ils pérennisent et même développent. Il n’y a même pas assez de postes pour caser de manière satisfaisante les élèves. On ajoute donc des directions aux directions, des postes de directeur adjoint à des postes de directeur, bref des structures administratives à des structures administratives quand il faudrait sans doute en réduire la moitié. L’intéressé oublie aussi d’indiquer que les énarques envahissent le monde économique et politique et que l’ENA n’a pas cette vocation première.

Interview

La suppression de l’ENA est à l’ordre du jour. Quels sont les arguments pour la défense de l’école ?

Ce sera évidemment au président de la République et au Premier ministre de prendre des décisions à l’issue du rapport Thiriez. Il m’appartient, comme directeur, de rétablir quelques vérités. Car l’image, souvent répandue, d’une institution coupée des réalités, fournissant des bataillons de hauts fonctionnaires inconscients des difficultés de leurs concitoyens, est tout simplement fausse.

Prenons le symbole des grands corps (Inspection des finances, Cour des comptes, Conseil d’État). Les jeunes gens qui les intègrent ne sont-ils pas assurés d’une belle carrière, confortée par l’entre-soi, du seul fait d’avoir été bien classés à la sortie de l’ENA ?

D’abord, contrairement aux clichés, les énarques ne sont pas de jeunes blancs-becs de 25 ans. Ils ont en moyenne 31 ans et la moitié d’entre eux ont exercé des responsabilités professionnelles avant leur entrée à l’ENA. Sur la question des corps d’inspection et de contrôle, les avis sont partagés. Certains voudraient créer un parcours où les élèves sortant de l’ENA passeraient d’abord cinq ans comme administrateur dans un ministère avant de tenter un nouveau concours, à 35-36 ans, pour intégrer un tel corps. D’autres font valoir que ces corps ont besoin de sang neuf et que dans le secteur privé les cabinets d’audit font confiance aux juniors. Je pense que l’accès direct à ces corps compte pour beaucoup dans l’attractivité de l’école. Mais il faut faire en sorte qu’il y ait davantage de brassage dans leurs effectifs, par exemple en ouvrant ces corps de façon significative aux sous-directeurs d’administration.

Le vrai sujet n’est-il pas le manque de RH dans la fonction publique ?

Sans doute peut-on améliorer la gestion des carrières, les perspectives de mobilité, valoriser davantage le travail des administrateurs civils au cours de leur carrière. On a encore trop tendance à laisser un énarque dans le même service, dans la même administration sans faire de gestion personnalisée.

Le procès en « déconnexion » de la haute fonction publique a resurgi avec la crise des Gilets jaunes…

Ce pays est fier de ses élites culturelles, sportives mais a un peu de mal avec ses élites administratives… Les Français sont-ils mécontents de leurs préfets, de leurs sous-préfets ? De leurs diplomates ? De leurs juges administratifs ? J’analyse plutôt ces critiques comme une demande supplémentaire d’Etat et, donc, un besoin de renforcer la présence des cadres de l’Etat par plus de mobilité sur le terrain.

Le manque de diversité sociale est souvent pointé du doigt. Est-ce cette image de « reproduction des élites » qui colle à l’ENA ?

Première remarque : quarante étudiants sont recrutés via le concours externe aujourd’hui. Ils étaient cent il y a quarante ans, comme à l’époque de la promotion Voltaire. En réduisant les effectifs, on diminue forcément la diversité. L’ENA accueille 26 % d’élèves qui étaient boursiers, plus que d’autres grandes écoles. Mais il faut faire mieux. C’est pourquoi nous ouvrons cette année à Strasbourg – il en existe déjà une à Paris depuis dix ans – une seconde classe prépa « égalité des chances » destinée aux étudiants d’origine modeste, très bons et, si possible, venant de province. Ces diplômés de master sont coachés par nos jeunes anciens élèves. L’idéal serait d’en créer une par région.

Pour quels résultats ?

La plupart réussissent les concours difficiles d’administrateur de l’Assemblée, de l’Institut nationale des études territoriales (INET), de la Banque de France ou de commissaire de police. En moyenne, sur dix-sept candidats de cette classe, un intègre l’ENA. Il subsiste encore une tendance chez ces étudiants, je le regrette, à penser que l’ENA « ce n’est pas pour elles ou eux »… C’est ce plafond de verre et cette autocensure qu’il faut parvenir à percer.

Parmi les pistes évoquées par Frédéric Thiriez pour « décloisonner » : la création d’un enseignement commun à tous les futurs hauts fonctionnaires (ENA, fonction publique territoriale, hospitalière, magistrats, commissaires de police) mais aussi aux quatre corps techniques (Mines, Ponts, armement, Insee). Est-ce une bonne idée ?

C’est une bonne idée d’avoir des enseignements communs. Par exemple, nos élèves travaillent sur les politiques territoriales avec ceux de l’INET et sont en scolarité avec des officiers de gendarmerie ou de l’armée de terre reçus à l’Ecole de guerre. A partir de l’an prochain, ils travailleront aussi avec l’Ecole nationale de la magistrature. En revanche, je verrais trois écueils à rallonger la scolarité d’un an. Celui de créer une sorte de « 6 année de Sciences Po » alors que les élèves, lorsqu’ils arrivent à l’ENA ou dans d’autres grandes écoles, ont envie de se préparer à leur métier. Le risque de renforcer la critique sur le mode : « Ils sont tous formatés de la même façon ». Enfin, toute année supplémentaire a un coût budgétaire… Ma préférence serait d’imaginer des travaux communs pour les élèves quand ils sont en stage.

Emmanuel Macron avait souhaité mettre en place, en début de quinquennat, un « spoil system » à la française. Près de deux tiers des directeurs d’administration centrale ont été changés depuis 2017, moins que sous ses prédécesseurs. La « technostructure » est accusée de « bloquer la France ». A juste titre ?

Les directeurs d’administration centrale ont un devoir de loyauté à l’égard du gouvernement. Quand un ministre donne des ordres, ils sont appliqués. Gérald Darmanin a instauré le prélèvement à la source, Jean-Michel Blanquer le dédoublement des classes dans les zones d’éducation prioritaires, le projet de loi pour la restauration de Notre-Dame de Paris a été écrit en quelques jours. L’image de directeurs plus puissants que les ministres qu’ils voient passer est un cliché.

L’ENA attire-t-elle toujours autant ?

Il n’y a jamais eu autant de candidatures : 1 731 cette année, record depuis 2013 ! Mais il est vrai qu’à Sciences Po comme dans les Instituts d’études politiques en région, les étudiants semblent moins attirés par le service public que par le monde des grandes entreprises, de la communication, de la finance, des start-up. Quand l’Etat, et les fonctionnaires qui le servent, sont critiqués tous les jours, ce n’est pas très engageant pour un jeune d’une vingtaine d’années… Par ailleurs, les vocations pour la politique se raréfient. Depuis la création de l’ENA en 1945, moins de 3 % des anciens élèves ont fait de la politique. Un taux encore plus bas aujourd’hui. Quant au fameux pantouflage, il concerne 20 % des élèves qui, à un moment ou un autre de leur carrière, vont dans le privé. Près de la moitié revient ensuite dans le public.

Finalement, faut-il juste changer le nom de l’ENA ?

La marque ENA bénéficie dans le monde d’un prestige considérable. Oxford, la London school of economics, le MIT n’imaginent pas changer de nom. L’administration française est admirée dans le monde entier pour l’impartialité de son recrutement, sa compétence et son intégrité. Depuis sa création, l’école a formé 3 700 élèves étrangers. Parmi ceux aujourd’hui en fonction : les ambassadeurs du Japon et de Malte en France, l’ambassadeur du Liban, qui était d’ailleurs dans la même promotion qu’Emmanuel Macron, la vice-première ministre des Pays-Bas, deux ministres belges, le directeur de cabinet du Grand-Duc du Luxembourg, le directeur du protocole de l’empereur du Japon, plusieurs dizaines de ministres africains, le secrétaire général du Tribunal constitutionnel de Karlsruhe… Au titre de la formation continue, l’ENA forme chaque année plus de 4 000 auditeurs étrangers.

« L’ENA bashing » serait donc un travers bien français ?

Peut-être… Il faut sans doute améliorer beaucoup de choses, transformer l’école mais faisons attention à ne pas se priver d’un outil précieux.

 

 

Intelligence artificielle: la démocratisation par l’auto apprentissage ?

La spécialiste en intelligence artificielle Nozha Boujemaa décrit l’émergence de l’apprentissage machine automatisé, qui va modifier les métiers liés à l’IA dans une tribune au Monde. Un vision toutefois peut-être un peu rapide, en tout cas qui peut être discutée sur ce qu’on entend vraiment par Intelligence artificielle.« Le développement de l’intelligence artificielle (IA) est assez ironique : il faut beaucoup d’efforts manuels et parfois ad hoc pour la construction de modèles prédictifs précis. Une technologie qui se veut entièrement dans l’automatisation de tâches humaines implique en effet plusieurs étapes fastidieuses : annotation et étiquetage des données d’apprentissage, qui nécessitent parfois un travail humain colossal ; exploration et sélection de données représentatives ; sélection de modèles ; réglages des paramètres du modèle en plus des phases de tests et de généralisation. Le cheminement à travers toute la chaîne de développement est complexe, même pour les spécialistes et les experts en sciences des données. Dans de nombreux contextes industriels, la mise sur le marché d’une solution fondée sur des modèles prédictifs est assez longue.

Cette impasse est en train de disparaître avec l’émergence de l’auto-apprentissage (AutoML, ou Automated Machine Learning), qui consiste à automatiser la recherche de l’architecture optimale d’un réseau de neurones. La maturité technologique de l’IA permet aujourd’hui de mettre au point des architectures de réseaux de neurones profonds plus efficacement que ne le feraient les experts humains, par exemple en reconnaissance d’objets et en vision par ordinateur.

Double ironie : on va pouvoir se passer en partie de certaines expertises en sciences des données et les automatiser. Dans le contexte d’AutoML, les ingénieurs vont pouvoir se consacrer à des phases plus critiques qui ont davantage besoin de l’intelligence humaine, comme l’analyse de situations de métiers complexes et les questions commerciales, au lieu de se perdre dans le processus fastidieux de construction de la solution. En réalité, cette démarche va aider les développeurs non spécialistes des données à réaliser des solutions d’IA plus facilement. Les scientifiques spécialisés vont, eux, pouvoir effectuer un travail complexe plus rapidement, grâce à la technologie AutoML, qui pourrait bien placer l’IA au cœur de l’essor des entreprises.

AutoML est une tendance qui va fondamentalement changer le paysage des solutions fondées sur l’apprentissage par machine. Elle se concentre sur deux aspects : l’acquisition de données et la prédiction. Toutes les étapes qui se déroulent entre ces deux phases seront prises en charge par les processus d’AutoML. Les utilisateurs apportent leur propre jeu de données, identifient les catégories et appuient sur un bouton pour générer un modèle parfaitement entraîné et optimisé, prêt à prédire. Ces approches d’AutoML vont faciliter la démocratisation de l’IA au service du plus grand nombre.

Intelligence artificielle: au niveau de l’humain ? (Yann Le Cun )

Intelligence artificielle: au niveau de l’humain ?

(Yann Le Cun )

Dans une interview aux Échos, Yann Le Cun analyses les possibilités et les limites de l’IA.  Yann Le Cun  est  responsable de la recherche en intelligence artificielle (IA) de Facebook et professeur à New York University, Yann Le Cun a reçu le prix Turing 2019, équivalent du Nobel d’informatique. Il vient de publier un livre retraçant son parcours et ses travaux.

 

Dans votre livre, vous vous montrez fier des progrès accomplis par l’intelligence artificielle (IA). Mais vous dites aussi qu’elle est loin de l’intelligence d’un rat. Diriez-vous, comme un autre expert français, Luc Julia (*), que l’intelligence artificielle n’existe pas ?

Non ! Ce n’est pas qu’elle n’existe pas, mais il y a une confusion fréquente : quand on voit une machine qui a des compétences surhumaines sur une tâche particulière, on lui attribue les compétences qu’elle aurait si cette intelligence venait d’une personne. Et donc on se dit : « la machine peut nous battre à plate couture au jeu de go, donc elle peut nous battre partout » ou bien « elle peut traduire dans une centaine de langues, donc elle est plus intelligente que n’importe quel humain ». Ce n’est pas vrai, car ces systèmes sont très spécialisés, très étroits.

Ce n’est donc pas la même intelligence que les humains…

Certaines personnes estiment que ce qui caractérise l’intelligence humaine, c’est qu’elle est générale. Je dis dans mon livre que ce n’est pas vrai non plus. L’intelligence humaine est, elle aussi, spécialisée, mais moins spécialisée que l’intelligence artificielle. Je crois à ce qu’on appelle l’intelligence artificielle de niveau humain (« human level intelligence »). Pour moi, il ne fait aucun doute que les machines arriveront tôt ou tard à des niveaux d’intelligence aussi performante et générale que les humains et, probablement, nous dépasseront assez vite.

Et l’intelligence de niveau humain, ce serait quoi ? Qu’une machine soit capable de tenir la conversation que nous avons en ce moment ?

Oui, qu’elle puisse faire toutes les tâches intellectuelles que fait un être humain, à peu près aussi bien, à l’exception de ce qui relève de l’expérience humaine.

Pensez-vous que vous verrez bientôt les machines atteindre ce niveau d’intelligence ?

Je pense que je le verrai un jour, mais pas bientôt. C’est un peu difficile de le dire. Il y a des obstacles qu’il faudra franchir, et certaines personnes ne voient pas ces obstacles et pensent qu’il suffira de prendre les techniques actuelles, et d’avoir plus de données et plus de puissance pour arriver à une intelligence de niveau humain. Je n’y crois pas du tout. Je pense qu’il faudra des progrès conceptuels qui sont du ressort de la science, pas de la technologie.

Quel genre de progrès ?

Pour moi, le premier obstacle à franchir est de permettre aux machines d’apprendre par elles-mêmes, un peu à la manière des enfants ou des animaux. Un enfant acquiert une quantité gigantesque de savoirs sur le fonctionnement du monde simplement par l’observation.

Comme celui d’intelligence artificielle, le terme d’apprentissage automatique (« machine learning », en anglais) est trompeur car une machine n’apprend pas du tout comme un humain…

Absolument. Pour qu’une machine reconnaisse des chaises, des chiens ou des chats, il faut d’abord lui montrer des milliers d’images étiquetées, dans chaque catégorie. Alors qu’un petit enfant auquel on montre trois dessins d’un éléphant saura ensuite reconnaître un éléphant dans une photo. Qu’est-ce qui fait qu’il y parvient sans avoir vu des milliers d’images ? Permettre aux machines d’apprendre de cette manière est d’autant plus important que l’on se lance dans des problèmes complexes : on veut apprendre aux voitures à se conduire toutes seules, par exemple, et cela n’est pas possible avec les méthodes traditionnelles.

Comment faire autrement ?

Ce qui manque, c’est de permettre à la machine, par un apprentissage autosupervisé, de se construire un modèle du monde. Qu’elle sache prédire que, si elle roule au bord d’un ravin et qu’elle donne un coup de volant, elle va finir au fond, et que ce n’est pas bon. Apprendre un modèle du monde, cela revient à prédire le futur à partir du passé et du présent, et peut-être d’une séquence d’actions que l’on a l’intention de faire. Pouvoir prédire, c’est un peu l’essence de l’intelligence.

Ce qui est étonnant, en lisant votre livre, c’est à quel point vous êtes fasciné par les neurosciences, par la façon dont le cerveau apprend…

C’est une inspiration. Il y a des gens qui disent que l’on peut faire de l’intelligence artificielle sans se référer du tout à l’intelligence humaine. Cela a été un des courants classiques de l’IA, fondé sur la logique, et cela a conduit aux systèmes experts, qui ont montré leurs limites notamment pour l’apprentissage car il faut entrer toutes les données « à la main ». Et puis il y a l’autre approche, qui consiste à essayer de copier ce qui se passe dans le cerveau. Mais là, il y a un autre danger, qui est de reproduire de trop près ce qui se passe, sans en comprendre les principes.

Les réseaux de neurones profonds, que vous avez contribué à inventer, sont particulièrement performants pour la reconnaissance faciale, qui est en train de se répandre partout, parfois de façon inquiétante. Qu’est-ce que cela vous inspire ?

C’est vrai pour toutes les technologies. Les technologies sont neutres, elles peuvent être utilisées à des fins bénéfiques ou moins bénéfiques. Ce qui fait qu’elles seront principalement utilisées à des fins bénéfiques, c’est la force de nos institutions démocratiques. Ceci dit, si on retourne plusieurs siècles en arrière, personne ne peut contester les bénéfices de l’invention de l’imprimerie, même si elle a permis de disséminer les écrits de Calvin et Luther qui ont causé deux cents ans de persécutions en Europe. C’est vrai que  les systèmes de reconnaissance du visage qui sont utilisés en Chine sont directement inspirés d’un de mes articles sur les réseaux convolutifs publiés en 2014. Mais la même invention sert aussi dans la sécurité routière, pour des systèmes d’aide à la conduite, ou dans l’analyse d’imagerie médicale pour augmenter la fiabilité. Elle sert à beaucoup de choses utiles, y compris chez Facebook pour lutter contre les images terroristes.

 (*) Luc Julia, aujourd’hui responsable de la recherche de Samsung, est à l’origine de Siri, l’assistant vocal d’Apple. Il a publié l’an dernier « L’intelligence artificielle n’existe pas » (First Editions).

« Quand la machine apprend », Yann Le Cun, éditions Odile Jacob, 396 pages, 22,90 euros.

Intelligence artificielle : limites, potentiels et dangers

Intelligence artificielle :  limites, potentiels et dangers

 

James Buchanan – Directeur Stratégie, Razorfish Londres, évoque les limites de l’IA.( Dans un article de la Tribune)

 

 

 

« L’intelligence artificielle a tous les attributs d’une grande révolution annoncée. Son potentiel est un peu plus « réel » chaque jour, de l’ordinateur qui bat les meilleurs joueurs de Go à la voiture autonome.  Lors de cette manifestation à laquelle j’ai participé aux côtés de 3 autres experts, j’ai eu l’occasion d’aborder l’impact des services propulsés par l’IA à l’échelle de l’individu. Au cours des cinq dernières années, les objets et services intelligents se sont essayés à tous les aspects de notre vie. Depuis la rencontre amoureuse jusqu’à la livraison, en passant par la finance et le sport, des start-ups anticipent désormais le moindre de nos problèmes et nous proposent des services toujours plus personnalisés à l’aide de l’IA. Sous couvert d’être pratiques, ces services changent notre façon de voir le monde, notre manière de penser et notre propre identité. Quelle valeur accordons-nous à notre libre-arbitre ? Sommes-nous prêts à sacrifier notre autonomie ? Avec l’émergence des machines qui apprennent, notre monde devient de plus en plus inquiétant et étrange, et il est légitime de s’interroger sur son évolution.  C’est maintenant qu’il faut en parler, alors que ces outils sont encore à notre service. Personne ne veut devenir le simple prolongement de chair et d’os d’un algorithme. L’innovation a toujours modifié notre façon de penser : ce que nous créons nous influence en retour. Le cas de l’intelligence artificielle est unique. Elle se matérialise par des outils qui ont leur intelligence propre et ne se laissent pas totalement contrôler. A la poursuite de leur logique interne, ils s’améliorent au contact de millions d’utilisateurs, leur influence croissant avec leur intelligence. Ces services semblent utiles car ils résolvent nos problèmes, révèlent ce qu’il y a de meilleur en nous et minimisent nos insuffisances. Ils nous confèrent quasiment des superpouvoirs. C’est pourtant d’un œil critique que nous devrions considérer cette situation. Dans ce futur algorithmique, qu’est ce qui compte le plus ? Avoir l’opportunité de partager mon point de vue est plutôt un accomplissement pour qui, comme moi, a grandi dans une petite ville. Mais que penser d’un futur où l’IA ne me permettra plus jamais de rencontrer ceux qui ne sont pas d’accord avec moi ? Que penser d’un service financier qui, faisant passer en premier ce qu’il sait être mes intérêts à long-terme, me rendra volontairement difficile la prise de décisions d’impulsion? In fine, peut-on sincèrement croire que « le marché » prendra soin de nous ? L’option de facilité consiste à se concentrer sur les résultats : clients enrichis, volume d’engagement, indice de satisfaction… Des données simples car elles correspondent déjà aux objectifs des entreprises. Elles offrent aussi de la lisibilité sur les variables grâce auxquelles les algorithmes s’améliorent, le reflet d’une culture scientifique dans laquelle ont grandi de nombreux tech-entrepreneurs. Mais laisser de côté toute préoccupation de sécurité devrait pourtant nous inquiéter un peu plus. Même des scientifiques de renom comme Stephen Hawkins admettent que l’intelligence artificielle pourrait bientôt nous échapper… Un autre mot pour « résultat » est « fin », et l’on sait qu’elle ne justifie pas les moyens. Enrichir un client n’est pas un argument valable si, en chemin, vous détériorez un autre aspect de sa vie, ou celle de quelqu’un d’autre, de façon imprévisible. Il y a ensuite le risque de devenir dépendant. Que se passerait-il si tous ces services devenaient soudainement inaccessibles ? Serions-nous livrés à nous-mêmes ? C’est bien une question d’éthique que pose en creux l’IA… Il existe heureusement une alternative. Et si au lieu de se focaliser sur les résultats nous aidions plutôt les gens à devenir un peu plus eux-mêmes ? En encourageant la réflexion et la connaissance de soi, nous donnerions la priorité à l’enseignement plutôt qu’à l’automation. Nous donnerions aux gens les outils pour développer leurs compétences naturelles plutôt que de chercher à les remplacer. Nous passerions probablement plus de temps à réfléchir au rôle que ces services jouent au sein de la société plutôt qu’à ce qu’ils apportent à l’individu isolé. En somme, en faisant moins nous pouvons encourager les autres à en faire plus et à agir de façon éthique et responsable. Mais cela n’arrivera pas par hasard, nous devons passer par un chemin choisi délibérément. Tant dans les instances dirigeantes, où le sujet doit être mis à l’ordre du jour des agendas politiques, qu’auprès des citoyens, nous devons nous assurer que les consciences s’éveillent à ces questions. Asseyons-nous autour d’une table et engageons dès aujourd’hui la discussion sur ce que l’IA peut proposer, non seulement aux personnes que nous sommes, mais aussi à celles que nous voulons devenir. »

Intelligence artificielle : science ou art ?

 

Intelligence artificielle : science ou art ?

Un  article intéressant de Raphael Bertholet, Vice-Président R&D de Symphony Retail AI France dans le journal la Tribune évoque les possibilités d’intégration de la sensibilité humaine dans l’intelligence artificielle au point que cette dernière pourrait être considérée comme un art. Un article qui s’attarde cependant seulement sur les problèmes méthodologiques et qui n’évoque pas les phénomènes d’aliénation et de domination de ces nouvelles technologies sur la pensée humaine, sur les comportements et pas seulement dans le domaine marchand.

 

 

Tribune

 

« Alors que l’on croyait, il y a encore peu, que l’une des limites de l’IA était la créativité – notamment artistique -, nous savons à présent qu’il n’en est rien et que l’homme peut être challengé aussi dans ce domaine. En témoigne la première exposition qui se tient en ce moment en Angleterre, rassemblant les œuvres d’AI-Da, humanoïde doté d’une intelligence artificielle. Il n’aura fallu que quelques jours pour que tous ses dessins, tableaux et sculptures se vendent, pour plus d’un million d’euros. Preuve, s’il était besoin, que l’IA est un placement d’avenir !

Au-delà de son caractère médiatique, cet évènement montre un point capital : l’IA lève le voile sur des domaines que l’on croyait hors du champ de la rationalité et des sciences, des domaines où seuls l’instinct et le talent humains pouvaient agir et apporter des réponses. L’IA montre que ce n’est pas si vrai et que les algorithmes peuvent, contre certaines certitudes, trouver des réponses à des questions qui étaient censées échapper à la science.

La prévision de la demande est, pour partie, l’un de ces domaines.

Jusqu’à récemment, l’approche en matière de prévision de la demande dans le retail a consisté à s’appuyer sur des outils statistiques et analytiques pour une grande partie des catégories de produits – et sur l’expérience et l’instinct des prévisionnistes pour ce qui sortait du cadre des modèles bien établis.

Bien que très performants, les outils statistiques classiques touchent, en effet, à leurs limites dès que l’on n’est plus dans une situation habituelle. Comment anticiper, par exemple, la demande d’un produit qui va faire l’objet d’une importante promotion le mois prochain alors que le vécu de ce même produit est vide de ce genre d’expérience ? Comment savoir à quel point le lancement d’un nouveau produit – pour lequel il n’y a pas de données existantes – va susciter la demande ?

Pour toutes ces situations inhabituelles pour lesquelles les statistiques ne peuvent plus venir en aide au travail des prévisionnistes, ces derniers se fient généralement à leur expérience. C’est l’intuition qui prend le relai. C’est le point au-delà duquel la prévision de la demande cesse d’être une science et devient un art.

Or c’est précisément ce point où l’IA est aujourd’hui en train de renverser la situation. En analysant des corrélations et des probabilités de corrélations avec d’autres articles, d’autres lieux de vente, d’autres données contextuelles, l’IA va se comporter comme l’instinct ou l’intuition du prévisionniste et permettre à la prévision de la demande de continuer à être une science, là où l’on pensait qu’elle restait un art.

Dans le retail comme ailleurs, la valeur d’une prévision se mesure à sa fiabilité et sa précision. Si la prévision de la demande pour les produits connus atteint des niveaux de précision élevés, celle des produits ou situations inhabituels fait chuter le taux de précision global, qui se heurte à une limite que l’on croyait difficile, pour ne pas dire impossible, à briser.

Parce qu’elle sait non seulement traiter des volumes de données immenses et hétérogènes, mais aussi faire les corrélations qui permettent d’expliquer l’inhabituel, l’IA gomme aujourd’hui cette limite. Elle donne aux prévisionnistes les moyens de passer une étape supérieure majeure dans leur travail, en leur fournissant les pistes et les corrélations qui leur permettent d’expliquer l’inhabituel et en industrialisant le bénéfice de l’intuition pour anticiper, avec une précision inédite, les situations pour lesquelles il n’existe pas ou peu de données directement reliées à l’évènement.

Avec l’IA, le talent des prévisionnistes peut ainsi être mis au profit de cette nouvelle marge de progression du taux de précision des prévisions. Leur intuition servira à proposer et tester de nouvelles données contextuelles aux évènements, de nouveaux attributs descriptifs pour enrichir l’IA et améliorer ses performances. Sans être encore une science exacte, la prévision de la demande s’en rapproche de plus en plus avec l’IA, et pourrait bien tendre à le devenir. »

123



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol