Archive pour le Tag 'quelle béthique ?'

Intelligence artificielle : quelle éthique ?

Intelligence artificielle : quelle éthique ?

 Pour Laetitia Pouliquen, directrice du think tank «NBIC Ethics», si la généralisation de l’IA et des algorithmes ne s’accompagne pas d’une réflexion sur la nature de l’homme, la société risque de sombrer dans des dérives dystopiques et transhumanistes. Interview dans le Figaro
Laetitia Pouliquen est directrice de «NBIC Ethics», un think tank traitant de l’éthique des technologies auprès des institutions européennes. Elle est également l’auteur de Femme 2.0: Féminisme et transhumanisme: quel avenir pour la femme? (éd. Saint-Léger, 2016).
Pour beaucoup, la généralisation de l’intelligence artificielle dans notre quotidien va profondément transformer notre mode de vie. Pensez-vous que le monopole des GAFAM dans ce domaine laisse suffisamment de place à une réflexion éthique quant à ces changements ?
Laetitia POULIQUEN. – Il est évident que notre quotidien va être profondément transformé, que ce soit dans notre rapport au réel ou à l’autre, par l’immission de la machine, de l’IA, et des algorithmes dans nos vies journalières. Le social, le sociétal, et même l’anthropologie sont en train de se refaçonner. La digitalisation de notre quotidien nous fait perdre de vue une certaine vision de l’homme. Face à ces changements, une réflexion morale est nécessaire pour établir un cadre légal, pour ne pas oublier ce qu’est l’homme et en quoi se différencie-t-il de la machine.

Cette réflexion éthique dans le domaine de l’I.A est tout à fait possible, notamment dans le cadre de l’Union européenne. Nous, européens, sommes pris entre deux feux, d’une part les GAFAM américaines, et d’autre part les BATX chinoises (Baidu, Alibaba, Tencent et Xiaomi), et nous restons limités en termes d’investissement, de recherche et de développement. Cependant, notre approche qui est plus axée sur l’éthique que sur l’investissement, nous confère un rôle tout particulier dans le développement des nouvelles technologies. L’Europe est historiquement le premier foyer de réflexion philosophique et morale, et doit continuer de l’être dans les secteurs de pointe.

L’approche morale de l’Union européenne vis-à-vis de l’IA, notamment avec son «Guide éthique de l’intelligence artificielle», est-elle toujours pertinente ?

Toute réflexion morale, que ce soit dans le domaine de la robotique ou autre, s’appuie sur une certaine conception de l’homme et du monde, qui peut être parfois totalement déconnectée. Ainsi, bien qu’elle se veuille «éthique», l’approche de l’Union européenne n’est pas nécessairement bonne, tout dépend des fondements anthropologiques sur lesquels elle s’appuie.

Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans le domaine de l’I.A.

En 2017, par exemple, le rapport Delvaux présenté auprès de la Commission européenne a provoqué beaucoup de débats. Dans ce rapport législatif, la député européenne luxembourgeoise Maddy Delvaux, proposait certaines mesures très idéalisées et idéologisées quant à la défense des robots. Certains articles présentaient l’augmentation de l’homme comme quelque chose d’essentiellement positif, d’autres établissaient la notion de personnalité morale pour les robots, afin de les faire sujets de droits… La version originale voulait même permettre aux robots d’avoir un patrimoine assurantiel et d’investir en Bourse, afin de pouvoir financer leur propre évolution, on nageait en plein délire dystopique. Ce texte s’appuyait sur une conception de l’homme et de la machine totalement déconnectée de la réalité, qui ne différenciait plus le vivant du mécanique.

Nous avons donc rédigé une lettre ouverte à la Commission européenne, avec le soutien de 300 signataires européens, afin d’alerter sur les dangers de ce projet. Et parmi ces 300 personnes, il n’y avait pas que des représentants du secteur technologique, mais aussi des philosophes, des anthropologues, des psychiatres, et même des théologiens, pour bien rappeler ce qu’est l’homme, et sa différence avec la machine. Il est nécessaire de remettre les penseurs au centre de la réflexion sur l’intelligence artificielle, et de les intégrer aux groupes d’experts de la Commission européenne. Cependant, malgré quelques modifications et une large médiatisation de notre lettre ouverte, le rapport Delvaux a fini par être adopté.

Comment l’État et l’Union européenne peuvent-ils mettre en place une éthique de l’intelligence artificielle, alors qu’ils se proclament neutre et refusent d’imposer des normes morales à l’individu ?

C’est le principal problème de notre époque. Légiférer sur des questions morales à propos de l’IA est devenu presque impossible aujourd’hui, du fait du relativisme de notre société. Il n’y a plus de socle commun, de principes universels sur lesquels s’appuyer. Quand on ne sait plus dire ce qu’est l’homme, on ne sait plus dire ce qu’est la machine. L’individu moderne ne supporte plus d’autre ordre moral et naturel que son propre désir. Le «je» est devenu la mesure de l’humanité. Et la déconnexion du réel, liée au numérique, renforce ce relativisme. Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans ce domaine.

Les comités censés être «éthiques», ont donc tendance à s’appuyer non pas sur la morale mais sur une logique capitalistique, car les bénéfices, eux, ne sont pas relatifs. Et on a vu cela très clairement dans le «Guide d’éthique de la Commission européenne» sur l’intelligence artificielle, qui a fait suite au rapport Delvaux. Parmi les 53 experts qui ont participé à ce guide, 90% d’entre eux étaient dans le business technologique, experts, ou représentants de groupes de consommateurs, mais il n’y avait presque aucun philosophe, anthropologue, ou psychiatre… L’approche n’était absolument pas humaine, mais économique. Si l’on ne se pose pas la question de ce qu’est l’homme, les guides d’éthique sur l’IA risquent de se transformer en véritables projets dystopiques et transhumanistes.
Que conseillez-vous pour encadrer l’utilisation de l’IA et répondre aux problèmes d’éthique ?

J’avais proposé plusieurs éléments lors de la rédaction du «Guide d’éthique sur l’I.A» à l’Union européenne. Une des propositions portait sur la liberté de l’individu. L’idée était de permettre à l’utilisateur, s’il ne veut pas passer par un algorithme, que ce soit pour un contrat d’assurance, un prêt ou autre, de demander une interaction humaine. Je recommandais donc une graduation, une notation, qui permet de voir si on a affaire à un service «entièrement I.A», «IA avec supervision humaine», ou «entièrement humain». Quand on parle de justice, de banque, de gestion du patrimoine, et surtout des droits de l’homme, il est essentiel de savoir à qui on a affaire, un humain ou une I.A. Mais ça n’a pas été repris, l’approche de ce guide d’éthique est restée bien plus juridique qu’éthique.

J’avais également tenté de mettre en place un label pour les algorithmes, qui s’appelait «Ethic inside», et qui garantirait le respect des règles éthiques européennes. Mais il est presque impossible de suivre le chemin par lequel un algorithme en est arrivé à telle ou telle décision, et donc de dire s’il est éthique ou non, s’il respecte les règles. Il y a également la question de la responsabilité qui complique les choses. Qui est responsable des décisions d’un algorithme : l’entreprise, le développeur, l’utilisateur, ou l’IA elle-même ? Comment objectiver le caractère moral d’un algorithme si on ne peut même pas répondre à cette question ? Les développeurs ne peuvent pas être jugés responsables d’algorithmes tellement complexes qu’ils ne les maîtrisent plus totalement. Par sa nature même, l’I.A échappe en partie à notre contrôle, et on ne va pas pour autant lui donner une personnalité morale… C’est un vrai casse-tête. Il est donc extrêmement compliqué de mettre en place des points de contrôle pour des algorithmes aussi complexes, surtout quand ils sont mondialisés sur internet.




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol