Archive pour le Tag 'éthique'

Société et Intelligence artificielle : quelle éthique ?

Société et  Intelligence artificielle : quelle éthique ?

 Pour Laetitia Pouliquen, directrice du think tank «NBIC Ethics», si la généralisation de l’IA et des algorithmes ne s’accompagne pas d’une réflexion sur la nature de l’homme, la société risque de sombrer dans des dérives dystopiques et transhumanistes. Interview dans le Figaro
Laetitia Pouliquen est directrice de «NBIC Ethics», un think tank traitant de l’éthique des technologies auprès des institutions européennes. Elle est également l’auteur de Femme 2.0: Féminisme et transhumanisme: quel avenir pour la femme? (éd. Saint-Léger, 2016).
Pour beaucoup, la généralisation de l’intelligence artificielle dans notre quotidien va profondément transformer notre mode de vie. Pensez-vous que le monopole des GAFAM dans ce domaine laisse suffisamment de place à une réflexion éthique quant à ces changements ?
Laetitia POULIQUEN. – Il est évident que notre quotidien va être profondément transformé, que ce soit dans notre rapport au réel ou à l’autre, par l’immission de la machine, de l’IA, et des algorithmes dans nos vies journalières. Le social, le sociétal, et même l’anthropologie sont en train de se refaçonner. La digitalisation de notre quotidien nous fait perdre de vue une certaine vision de l’homme. Face à ces changements, une réflexion morale est nécessaire pour établir un cadre légal, pour ne pas oublier ce qu’est l’homme et en quoi se différencie-t-il de la machine.

Cette réflexion éthique dans le domaine de l’I.A est tout à fait possible, notamment dans le cadre de l’Union européenne. Nous, européens, sommes pris entre deux feux, d’une part les GAFAM américaines, et d’autre part les BATX chinoises (Baidu, Alibaba, Tencent et Xiaomi), et nous restons limités en termes d’investissement, de recherche et de développement. Cependant, notre approche qui est plus axée sur l’éthique que sur l’investissement, nous confère un rôle tout particulier dans le développement des nouvelles technologies. L’Europe est historiquement le premier foyer de réflexion philosophique et morale, et doit continuer de l’être dans les secteurs de pointe.

L’approche morale de l’Union européenne vis-à-vis de l’IA, notamment avec son «Guide éthique de l’intelligence artificielle», est-elle toujours pertinente ?

Toute réflexion morale, que ce soit dans le domaine de la robotique ou autre, s’appuie sur une certaine conception de l’homme et du monde, qui peut être parfois totalement déconnectée. Ainsi, bien qu’elle se veuille «éthique», l’approche de l’Union européenne n’est pas nécessairement bonne, tout dépend des fondements anthropologiques sur lesquels elle s’appuie.

Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans le domaine de l’I.A.

En 2017, par exemple, le rapport Delvaux présenté auprès de la Commission européenne a provoqué beaucoup de débats. Dans ce rapport législatif, la député européenne luxembourgeoise Maddy Delvaux, proposait certaines mesures très idéalisées et idéologisées quant à la défense des robots. Certains articles présentaient l’augmentation de l’homme comme quelque chose d’essentiellement positif, d’autres établissaient la notion de personnalité morale pour les robots, afin de les faire sujets de droits… La version originale voulait même permettre aux robots d’avoir un patrimoine assurantiel et d’investir en Bourse, afin de pouvoir financer leur propre évolution, on nageait en plein délire dystopique. Ce texte s’appuyait sur une conception de l’homme et de la machine totalement déconnectée de la réalité, qui ne différenciait plus le vivant du mécanique.

Nous avons donc rédigé une lettre ouverte à la Commission européenne, avec le soutien de 300 signataires européens, afin d’alerter sur les dangers de ce projet. Et parmi ces 300 personnes, il n’y avait pas que des représentants du secteur technologique, mais aussi des philosophes, des anthropologues, des psychiatres, et même des théologiens, pour bien rappeler ce qu’est l’homme, et sa différence avec la machine. Il est nécessaire de remettre les penseurs au centre de la réflexion sur l’intelligence artificielle, et de les intégrer aux groupes d’experts de la Commission européenne. Cependant, malgré quelques modifications et une large médiatisation de notre lettre ouverte, le rapport Delvaux a fini par être adopté.

Comment l’État et l’Union européenne peuvent-ils mettre en place une éthique de l’intelligence artificielle, alors qu’ils se proclament neutre et refusent d’imposer des normes morales à l’individu ?

C’est le principal problème de notre époque. Légiférer sur des questions morales à propos de l’IA est devenu presque impossible aujourd’hui, du fait du relativisme de notre société. Il n’y a plus de socle commun, de principes universels sur lesquels s’appuyer. Quand on ne sait plus dire ce qu’est l’homme, on ne sait plus dire ce qu’est la machine. L’individu moderne ne supporte plus d’autre ordre moral et naturel que son propre désir. Le «je» est devenu la mesure de l’humanité. Et la déconnexion du réel, liée au numérique, renforce ce relativisme. Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans ce domaine.

Les comités censés être «éthiques», ont donc tendance à s’appuyer non pas sur la morale mais sur une logique capitalistique, car les bénéfices, eux, ne sont pas relatifs. Et on a vu cela très clairement dans le «Guide d’éthique de la Commission européenne» sur l’intelligence artificielle, qui a fait suite au rapport Delvaux. Parmi les 53 experts qui ont participé à ce guide, 90% d’entre eux étaient dans le business technologique, experts, ou représentants de groupes de consommateurs, mais il n’y avait presque aucun philosophe, anthropologue, ou psychiatre… L’approche n’était absolument pas humaine, mais économique. Si l’on ne se pose pas la question de ce qu’est l’homme, les guides d’éthique sur l’IA risquent de se transformer en véritables projets dystopiques et transhumanistes.
Que conseillez-vous pour encadrer l’utilisation de l’IA et répondre aux problèmes d’éthique ?

J’avais proposé plusieurs éléments lors de la rédaction du «Guide d’éthique sur l’I.A» à l’Union européenne. Une des propositions portait sur la liberté de l’individu. L’idée était de permettre à l’utilisateur, s’il ne veut pas passer par un algorithme, que ce soit pour un contrat d’assurance, un prêt ou autre, de demander une interaction humaine. Je recommandais donc une graduation, une notation, qui permet de voir si on a affaire à un service «entièrement I.A», «IA avec supervision humaine», ou «entièrement humain». Quand on parle de justice, de banque, de gestion du patrimoine, et surtout des droits de l’homme, il est essentiel de savoir à qui on a affaire, un humain ou une I.A. Mais ça n’a pas été repris, l’approche de ce guide d’éthique est restée bien plus juridique qu’éthique.

J’avais également tenté de mettre en place un label pour les algorithmes, qui s’appelait «Ethic inside», et qui garantirait le respect des règles éthiques européennes. Mais il est presque impossible de suivre le chemin par lequel un algorithme en est arrivé à telle ou telle décision, et donc de dire s’il est éthique ou non, s’il respecte les règles. Il y a également la question de la responsabilité qui complique les choses. Qui est responsable des décisions d’un algorithme : l’entreprise, le développeur, l’utilisateur, ou l’IA elle-même ? Comment objectiver le caractère moral d’un algorithme si on ne peut même pas répondre à cette question ? Les développeurs ne peuvent pas être jugés responsables d’algorithmes tellement complexes qu’ils ne les maîtrisent plus totalement. Par sa nature même, l’I.A échappe en partie à notre contrôle, et on ne va pas pour autant lui donner une personnalité morale… C’est un vrai casse-tête. Il est donc extrêmement compliqué de mettre en place des points de contrôle pour des algorithmes aussi complexes, surtout quand ils sont mondialisés sur internet.

Société- Intelligence artificielle : quelle éthique ?

Société- Intelligence artificielle : quelle éthique ?

 Pour Laetitia Pouliquen, directrice du think tank «NBIC Ethics», si la généralisation de l’IA et des algorithmes ne s’accompagne pas d’une réflexion sur la nature de l’homme, la société risque de sombrer dans des dérives dystopiques et transhumanistes. Interview dans le Figaro
Laetitia Pouliquen est directrice de «NBIC Ethics», un think tank traitant de l’éthique des technologies auprès des institutions européennes. Elle est également l’auteur de Femme 2.0: Féminisme et transhumanisme: quel avenir pour la femme? (éd. Saint-Léger, 2016).
Pour beaucoup, la généralisation de l’intelligence artificielle dans notre quotidien va profondément transformer notre mode de vie. Pensez-vous que le monopole des GAFAM dans ce domaine laisse suffisamment de place à une réflexion éthique quant à ces changements ?
Laetitia POULIQUEN. – Il est évident que notre quotidien va être profondément transformé, que ce soit dans notre rapport au réel ou à l’autre, par l’immission de la machine, de l’IA, et des algorithmes dans nos vies journalières. Le social, le sociétal, et même l’anthropologie sont en train de se refaçonner. La digitalisation de notre quotidien nous fait perdre de vue une certaine vision de l’homme. Face à ces changements, une réflexion morale est nécessaire pour établir un cadre légal, pour ne pas oublier ce qu’est l’homme et en quoi se différencie-t-il de la machine.

Cette réflexion éthique dans le domaine de l’I.A est tout à fait possible, notamment dans le cadre de l’Union européenne. Nous, européens, sommes pris entre deux feux, d’une part les GAFAM américaines, et d’autre part les BATX chinoises (Baidu, Alibaba, Tencent et Xiaomi), et nous restons limités en termes d’investissement, de recherche et de développement. Cependant, notre approche qui est plus axée sur l’éthique que sur l’investissement, nous confère un rôle tout particulier dans le développement des nouvelles technologies. L’Europe est historiquement le premier foyer de réflexion philosophique et morale, et doit continuer de l’être dans les secteurs de pointe.

L’approche morale de l’Union européenne vis-à-vis de l’IA, notamment avec son «Guide éthique de l’intelligence artificielle», est-elle toujours pertinente ?

Toute réflexion morale, que ce soit dans le domaine de la robotique ou autre, s’appuie sur une certaine conception de l’homme et du monde, qui peut être parfois totalement déconnectée. Ainsi, bien qu’elle se veuille «éthique», l’approche de l’Union européenne n’est pas nécessairement bonne, tout dépend des fondements anthropologiques sur lesquels elle s’appuie.

Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans le domaine de l’I.A.

En 2017, par exemple, le rapport Delvaux présenté auprès de la Commission européenne a provoqué beaucoup de débats. Dans ce rapport législatif, la député européenne luxembourgeoise Maddy Delvaux, proposait certaines mesures très idéalisées et idéologisées quant à la défense des robots. Certains articles présentaient l’augmentation de l’homme comme quelque chose d’essentiellement positif, d’autres établissaient la notion de personnalité morale pour les robots, afin de les faire sujets de droits… La version originale voulait même permettre aux robots d’avoir un patrimoine assurantiel et d’investir en Bourse, afin de pouvoir financer leur propre évolution, on nageait en plein délire dystopique. Ce texte s’appuyait sur une conception de l’homme et de la machine totalement déconnectée de la réalité, qui ne différenciait plus le vivant du mécanique.

Nous avons donc rédigé une lettre ouverte à la Commission européenne, avec le soutien de 300 signataires européens, afin d’alerter sur les dangers de ce projet. Et parmi ces 300 personnes, il n’y avait pas que des représentants du secteur technologique, mais aussi des philosophes, des anthropologues, des psychiatres, et même des théologiens, pour bien rappeler ce qu’est l’homme, et sa différence avec la machine. Il est nécessaire de remettre les penseurs au centre de la réflexion sur l’intelligence artificielle, et de les intégrer aux groupes d’experts de la Commission européenne. Cependant, malgré quelques modifications et une large médiatisation de notre lettre ouverte, le rapport Delvaux a fini par être adopté.

Comment l’État et l’Union européenne peuvent-ils mettre en place une éthique de l’intelligence artificielle, alors qu’ils se proclament neutre et refusent d’imposer des normes morales à l’individu ?

C’est le principal problème de notre époque. Légiférer sur des questions morales à propos de l’IA est devenu presque impossible aujourd’hui, du fait du relativisme de notre société. Il n’y a plus de socle commun, de principes universels sur lesquels s’appuyer. Quand on ne sait plus dire ce qu’est l’homme, on ne sait plus dire ce qu’est la machine. L’individu moderne ne supporte plus d’autre ordre moral et naturel que son propre désir. Le «je» est devenu la mesure de l’humanité. Et la déconnexion du réel, liée au numérique, renforce ce relativisme. Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans ce domaine.

Les comités censés être «éthiques», ont donc tendance à s’appuyer non pas sur la morale mais sur une logique capitalistique, car les bénéfices, eux, ne sont pas relatifs. Et on a vu cela très clairement dans le «Guide d’éthique de la Commission européenne» sur l’intelligence artificielle, qui a fait suite au rapport Delvaux. Parmi les 53 experts qui ont participé à ce guide, 90% d’entre eux étaient dans le business technologique, experts, ou représentants de groupes de consommateurs, mais il n’y avait presque aucun philosophe, anthropologue, ou psychiatre… L’approche n’était absolument pas humaine, mais économique. Si l’on ne se pose pas la question de ce qu’est l’homme, les guides d’éthique sur l’IA risquent de se transformer en véritables projets dystopiques et transhumanistes.
Que conseillez-vous pour encadrer l’utilisation de l’IA et répondre aux problèmes d’éthique ?

J’avais proposé plusieurs éléments lors de la rédaction du «Guide d’éthique sur l’I.A» à l’Union européenne. Une des propositions portait sur la liberté de l’individu. L’idée était de permettre à l’utilisateur, s’il ne veut pas passer par un algorithme, que ce soit pour un contrat d’assurance, un prêt ou autre, de demander une interaction humaine. Je recommandais donc une graduation, une notation, qui permet de voir si on a affaire à un service «entièrement I.A», «IA avec supervision humaine», ou «entièrement humain». Quand on parle de justice, de banque, de gestion du patrimoine, et surtout des droits de l’homme, il est essentiel de savoir à qui on a affaire, un humain ou une I.A. Mais ça n’a pas été repris, l’approche de ce guide d’éthique est restée bien plus juridique qu’éthique.

J’avais également tenté de mettre en place un label pour les algorithmes, qui s’appelait «Ethic inside», et qui garantirait le respect des règles éthiques européennes. Mais il est presque impossible de suivre le chemin par lequel un algorithme en est arrivé à telle ou telle décision, et donc de dire s’il est éthique ou non, s’il respecte les règles. Il y a également la question de la responsabilité qui complique les choses. Qui est responsable des décisions d’un algorithme : l’entreprise, le développeur, l’utilisateur, ou l’IA elle-même ? Comment objectiver le caractère moral d’un algorithme si on ne peut même pas répondre à cette question ? Les développeurs ne peuvent pas être jugés responsables d’algorithmes tellement complexes qu’ils ne les maîtrisent plus totalement. Par sa nature même, l’I.A échappe en partie à notre contrôle, et on ne va pas pour autant lui donner une personnalité morale… C’est un vrai casse-tête. Il est donc extrêmement compliqué de mettre en place des points de contrôle pour des algorithmes aussi complexes, surtout quand ils sont mondialisés sur internet.

Intelligence artificielle : quelle éthique ?

Intelligence artificielle : quelle éthique ?

 Pour Laetitia Pouliquen, directrice du think tank «NBIC Ethics», si la généralisation de l’IA et des algorithmes ne s’accompagne pas d’une réflexion sur la nature de l’homme, la société risque de sombrer dans des dérives dystopiques et transhumanistes. Interview dans le Figaro
Laetitia Pouliquen est directrice de «NBIC Ethics», un think tank traitant de l’éthique des technologies auprès des institutions européennes. Elle est également l’auteur de Femme 2.0: Féminisme et transhumanisme: quel avenir pour la femme? (éd. Saint-Léger, 2016).
Pour beaucoup, la généralisation de l’intelligence artificielle dans notre quotidien va profondément transformer notre mode de vie. Pensez-vous que le monopole des GAFAM dans ce domaine laisse suffisamment de place à une réflexion éthique quant à ces changements ?
Laetitia POULIQUEN. – Il est évident que notre quotidien va être profondément transformé, que ce soit dans notre rapport au réel ou à l’autre, par l’immission de la machine, de l’IA, et des algorithmes dans nos vies journalières. Le social, le sociétal, et même l’anthropologie sont en train de se refaçonner. La digitalisation de notre quotidien nous fait perdre de vue une certaine vision de l’homme. Face à ces changements, une réflexion morale est nécessaire pour établir un cadre légal, pour ne pas oublier ce qu’est l’homme et en quoi se différencie-t-il de la machine.

Cette réflexion éthique dans le domaine de l’I.A est tout à fait possible, notamment dans le cadre de l’Union européenne. Nous, européens, sommes pris entre deux feux, d’une part les GAFAM américaines, et d’autre part les BATX chinoises (Baidu, Alibaba, Tencent et Xiaomi), et nous restons limités en termes d’investissement, de recherche et de développement. Cependant, notre approche qui est plus axée sur l’éthique que sur l’investissement, nous confère un rôle tout particulier dans le développement des nouvelles technologies. L’Europe est historiquement le premier foyer de réflexion philosophique et morale, et doit continuer de l’être dans les secteurs de pointe.

L’approche morale de l’Union européenne vis-à-vis de l’IA, notamment avec son «Guide éthique de l’intelligence artificielle», est-elle toujours pertinente ?

Toute réflexion morale, que ce soit dans le domaine de la robotique ou autre, s’appuie sur une certaine conception de l’homme et du monde, qui peut être parfois totalement déconnectée. Ainsi, bien qu’elle se veuille «éthique», l’approche de l’Union européenne n’est pas nécessairement bonne, tout dépend des fondements anthropologiques sur lesquels elle s’appuie.

Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans le domaine de l’I.A.

En 2017, par exemple, le rapport Delvaux présenté auprès de la Commission européenne a provoqué beaucoup de débats. Dans ce rapport législatif, la député européenne luxembourgeoise Maddy Delvaux, proposait certaines mesures très idéalisées et idéologisées quant à la défense des robots. Certains articles présentaient l’augmentation de l’homme comme quelque chose d’essentiellement positif, d’autres établissaient la notion de personnalité morale pour les robots, afin de les faire sujets de droits… La version originale voulait même permettre aux robots d’avoir un patrimoine assurantiel et d’investir en Bourse, afin de pouvoir financer leur propre évolution, on nageait en plein délire dystopique. Ce texte s’appuyait sur une conception de l’homme et de la machine totalement déconnectée de la réalité, qui ne différenciait plus le vivant du mécanique.

Nous avons donc rédigé une lettre ouverte à la Commission européenne, avec le soutien de 300 signataires européens, afin d’alerter sur les dangers de ce projet. Et parmi ces 300 personnes, il n’y avait pas que des représentants du secteur technologique, mais aussi des philosophes, des anthropologues, des psychiatres, et même des théologiens, pour bien rappeler ce qu’est l’homme, et sa différence avec la machine. Il est nécessaire de remettre les penseurs au centre de la réflexion sur l’intelligence artificielle, et de les intégrer aux groupes d’experts de la Commission européenne. Cependant, malgré quelques modifications et une large médiatisation de notre lettre ouverte, le rapport Delvaux a fini par être adopté.

Comment l’État et l’Union européenne peuvent-ils mettre en place une éthique de l’intelligence artificielle, alors qu’ils se proclament neutre et refusent d’imposer des normes morales à l’individu ?

C’est le principal problème de notre époque. Légiférer sur des questions morales à propos de l’IA est devenu presque impossible aujourd’hui, du fait du relativisme de notre société. Il n’y a plus de socle commun, de principes universels sur lesquels s’appuyer. Quand on ne sait plus dire ce qu’est l’homme, on ne sait plus dire ce qu’est la machine. L’individu moderne ne supporte plus d’autre ordre moral et naturel que son propre désir. Le «je» est devenu la mesure de l’humanité. Et la déconnexion du réel, liée au numérique, renforce ce relativisme. Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans ce domaine.

Les comités censés être «éthiques», ont donc tendance à s’appuyer non pas sur la morale mais sur une logique capitalistique, car les bénéfices, eux, ne sont pas relatifs. Et on a vu cela très clairement dans le «Guide d’éthique de la Commission européenne» sur l’intelligence artificielle, qui a fait suite au rapport Delvaux. Parmi les 53 experts qui ont participé à ce guide, 90% d’entre eux étaient dans le business technologique, experts, ou représentants de groupes de consommateurs, mais il n’y avait presque aucun philosophe, anthropologue, ou psychiatre… L’approche n’était absolument pas humaine, mais économique. Si l’on ne se pose pas la question de ce qu’est l’homme, les guides d’éthique sur l’IA risquent de se transformer en véritables projets dystopiques et transhumanistes.
Que conseillez-vous pour encadrer l’utilisation de l’IA et répondre aux problèmes d’éthique ?

J’avais proposé plusieurs éléments lors de la rédaction du «Guide d’éthique sur l’I.A» à l’Union européenne. Une des propositions portait sur la liberté de l’individu. L’idée était de permettre à l’utilisateur, s’il ne veut pas passer par un algorithme, que ce soit pour un contrat d’assurance, un prêt ou autre, de demander une interaction humaine. Je recommandais donc une graduation, une notation, qui permet de voir si on a affaire à un service «entièrement I.A», «IA avec supervision humaine», ou «entièrement humain». Quand on parle de justice, de banque, de gestion du patrimoine, et surtout des droits de l’homme, il est essentiel de savoir à qui on a affaire, un humain ou une I.A. Mais ça n’a pas été repris, l’approche de ce guide d’éthique est restée bien plus juridique qu’éthique.

J’avais également tenté de mettre en place un label pour les algorithmes, qui s’appelait «Ethic inside», et qui garantirait le respect des règles éthiques européennes. Mais il est presque impossible de suivre le chemin par lequel un algorithme en est arrivé à telle ou telle décision, et donc de dire s’il est éthique ou non, s’il respecte les règles. Il y a également la question de la responsabilité qui complique les choses. Qui est responsable des décisions d’un algorithme : l’entreprise, le développeur, l’utilisateur, ou l’IA elle-même ? Comment objectiver le caractère moral d’un algorithme si on ne peut même pas répondre à cette question ? Les développeurs ne peuvent pas être jugés responsables d’algorithmes tellement complexes qu’ils ne les maîtrisent plus totalement. Par sa nature même, l’I.A échappe en partie à notre contrôle, et on ne va pas pour autant lui donner une personnalité morale… C’est un vrai casse-tête. Il est donc extrêmement compliqué de mettre en place des points de contrôle pour des algorithmes aussi complexes, surtout quand ils sont mondialisés sur internet.

Intelligence artificielle : trouver équilibre entre innovation et éthique

Intelligence artificielle : trouver équilibre entre innovation et éthique

Selon un rapport de Statista, les investissements mondiaux dans l’IA ont atteint environ 40 milliards de dollars en 2020 et devraient atteindre 110 milliards de dollars d’ici 2024. Mais alors que certaines personnalités publiques comme Elon Musk et Steve Wozniak, ainsi que des experts dépassés par les capacités de l’IA générative, ont appelé en mars dernier à une pause de six mois dans la recherche dans ce domaine, les investisseurs dans la technologie de l’IA sont confrontés à un dilemme. Par Maxim Manturov, responsable de la recherche en investissements chez Freedom Finance Europe

L’IA est un marché à croissance rapide avec un énorme potentiel de rentabilité et d’impact, attirant des milliards de dollars en capital-risque, en actions privées et en investissements d’entreprise. Les investissements des géants technologiques dans la recherche et le développement des technologies d’IA contribuent à la croissance du marché. Ces entreprises ne cessent d’innover et de développer de nouvelles applications d’IA, ce qui stimule la demande de ces technologies dans divers secteurs. Les efforts visant à améliorer son accès devraient encore stimuler la croissance du marché dans les années à venir. Le segment des logiciels représente la plus grande part du marché de l’IA en raison des améliorations apportées au stockage, au traitement parallèle et à la puissance de calcul. La demande de technologies logicielles pour le déploiement et le développement d’applications d’IA telles que l’algèbre linéaire, l’analyse vidéo, les capacités de communication matérielle, l’inférence et les matrices éparses alimente la croissance de ce segment. En outre, la nécessité pour les entreprises d’obtenir des données et des informations significatives grâce à l’analyse du contenu visuel devrait accroître la demande de solutions logicielles sur le marché mondial de l’IA.

La taille du marché mondial de l’intelligence artificielle (IA) a été estimée à 119,78 milliards de dollars en 2022 et devrait atteindre 1.591,03 milliards de dollars d’ici 2030 à un taux de croissance annuel composé de 38,1 % entre 2022 et 2030.

Mais les technologies de l’IA sont encore loin d’être parfaites et leurs limites, telles que la partialité des données, le manque de transparence et la nécessité d’un contrôle humain, peuvent constituer des risques pour l’adoption et la valeur.

Bien que les avantages potentiels de l’IA soient considérables, des inquiétudes ont été exprimées quant à ses implications éthiques, notamment en ce qui concerne les préjugés, la protection de la vie privée et les suppressions d’emplois. Des appels ont donc été lancés en faveur d’une réglementation et d’une surveillance plus stricte du développement et du déploiement des technologies d’IA. Certains experts ont appelé à une pause dans la recherche et le développement de l’IA afin de laisser le temps d’aborder ces questions et d’élaborer des réglementations appropriées. Mais d’autres estiment qu’une telle pause pourrait étouffer l’innovation et empêcher les avantages potentiels de l’IA de se concrétiser.

Il est important de noter que les appels à la suspension de la recherche sur l’IA générative se concentrent sur un sous-ensemble particulier de technologies d’IA et ne s’appliquent pas nécessairement à toutes les formes d’IA. Si l’IA générative a démontré des capacités impressionnantes dans certains domaines, elle présente également des risques potentiels en termes d’utilisation abusive ou de conséquences involontaires.

La décision de continuer à investir dans les technologies de l’IA doit donc reposer sur un examen minutieux des avantages et des risques potentiels associés à ces technologies. Il est important que les chercheurs, les entreprises et les gouvernements travaillent ensemble pour s’assurer que le développement et l’application de l’IA sont guidés par des principes éthiques et que des mesures de sécurité appropriées sont en place pour prévenir les conséquences involontaires ou l’utilisation abusive.

En conclusion, les technologies de l’IA offrent un monde d’opportunités, mais elles posent également des défis complexes qui nécessitent des solutions réfléchies et complètes. Ainsi, les investisseurs en IA doivent trouver un équilibre entre leur désir d’innover et de faire des bénéfices et leur responsabilité d’évaluer les implications éthiques, sociales et juridiques des technologies qu’ils soutiennent. Il peut s’agir de s’associer à des experts dans le domaine, de dialoguer avec les parties prenantes et d’accorder la priorité à la transparence, à la responsabilité et à la protection de la vie privée.
Maxim Manturov

Intelligence artificielle : trouver l’équilibre l’équilibre entre innovation et éthique

Intelligence artificielle : trouver l’équilibre l’équilibre entre innovation et éthique

Selon un rapport de Statista, les investissements mondiaux dans l’IA ont atteint environ 40 milliards de dollars en 2020 et devraient atteindre 110 milliards de dollars d’ici 2024. Mais alors que certaines personnalités publiques comme Elon Musk et Steve Wozniak, ainsi que des experts dépassés par les capacités de l’IA générative, ont appelé en mars dernier à une pause de six mois dans la recherche dans ce domaine, les investisseurs dans la technologie de l’IA sont confrontés à un dilemme. Par Maxim Manturov, responsable de la recherche en investissements chez Freedom Finance Europe

L’IA est un marché à croissance rapide avec un énorme potentiel de rentabilité et d’impact, attirant des milliards de dollars en capital-risque, en actions privées et en investissements d’entreprise. Les investissements des géants technologiques dans la recherche et le développement des technologies d’IA contribuent à la croissance du marché. Ces entreprises ne cessent d’innover et de développer de nouvelles applications d’IA, ce qui stimule la demande de ces technologies dans divers secteurs. Les efforts visant à améliorer son accès devraient encore stimuler la croissance du marché dans les années à venir. Le segment des logiciels représente la plus grande part du marché de l’IA en raison des améliorations apportées au stockage, au traitement parallèle et à la puissance de calcul. La demande de technologies logicielles pour le déploiement et le développement d’applications d’IA telles que l’algèbre linéaire, l’analyse vidéo, les capacités de communication matérielle, l’inférence et les matrices éparses alimente la croissance de ce segment. En outre, la nécessité pour les entreprises d’obtenir des données et des informations significatives grâce à l’analyse du contenu visuel devrait accroître la demande de solutions logicielles sur le marché mondial de l’IA.

La taille du marché mondial de l’intelligence artificielle (IA) a été estimée à 119,78 milliards de dollars en 2022 et devrait atteindre 1.591,03 milliards de dollars d’ici 2030 à un taux de croissance annuel composé de 38,1 % entre 2022 et 2030.

Mais les technologies de l’IA sont encore loin d’être parfaites et leurs limites, telles que la partialité des données, le manque de transparence et la nécessité d’un contrôle humain, peuvent constituer des risques pour l’adoption et la valeur.

Bien que les avantages potentiels de l’IA soient considérables, des inquiétudes ont été exprimées quant à ses implications éthiques, notamment en ce qui concerne les préjugés, la protection de la vie privée et les suppressions d’emplois. Des appels ont donc été lancés en faveur d’une réglementation et d’une surveillance plus stricte du développement et du déploiement des technologies d’IA. Certains experts ont appelé à une pause dans la recherche et le développement de l’IA afin de laisser le temps d’aborder ces questions et d’élaborer des réglementations appropriées. Mais d’autres estiment qu’une telle pause pourrait étouffer l’innovation et empêcher les avantages potentiels de l’IA de se concrétiser.

Il est important de noter que les appels à la suspension de la recherche sur l’IA générative se concentrent sur un sous-ensemble particulier de technologies d’IA et ne s’appliquent pas nécessairement à toutes les formes d’IA. Si l’IA générative a démontré des capacités impressionnantes dans certains domaines, elle présente également des risques potentiels en termes d’utilisation abusive ou de conséquences involontaires.

La décision de continuer à investir dans les technologies de l’IA doit donc reposer sur un examen minutieux des avantages et des risques potentiels associés à ces technologies. Il est important que les chercheurs, les entreprises et les gouvernements travaillent ensemble pour s’assurer que le développement et l’application de l’IA sont guidés par des principes éthiques et que des mesures de sécurité appropriées sont en place pour prévenir les conséquences involontaires ou l’utilisation abusive.

En conclusion, les technologies de l’IA offrent un monde d’opportunités, mais elles posent également des défis complexes qui nécessitent des solutions réfléchies et complètes. Ainsi, les investisseurs en IA doivent trouver un équilibre entre leur désir d’innover et de faire des bénéfices et leur responsabilité d’évaluer les implications éthiques, sociales et juridiques des technologies qu’ils soutiennent. Il peut s’agir de s’associer à des experts dans le domaine, de dialoguer avec les parties prenantes et d’accorder la priorité à la transparence, à la responsabilité et à la protection de la vie privée.
Maxim Manturov

Rédiger un commentaire
À lire aussi
Decathlon
www.decathlon.fr
|
Sponsorisé

IA : quel équilibre entre innovation et éthique

Intelligence artificielle : trouver équilibre entre innovation et éthique

Selon un rapport de Statista, les investissements mondiaux dans l’IA ont atteint environ 40 milliards de dollars en 2020 et devraient atteindre 110 milliards de dollars d’ici 2024. Mais alors que certaines personnalités publiques comme Elon Musk et Steve Wozniak, ainsi que des experts dépassés par les capacités de l’IA générative, ont appelé en mars dernier à une pause de six mois dans la recherche dans ce domaine, les investisseurs dans la technologie de l’IA sont confrontés à un dilemme. Par Maxim Manturov, responsable de la recherche en investissements chez Freedom Finance Europe

L’IA est un marché à croissance rapide avec un énorme potentiel de rentabilité et d’impact, attirant des milliards de dollars en capital-risque, en actions privées et en investissements d’entreprise. Les investissements des géants technologiques dans la recherche et le développement des technologies d’IA contribuent à la croissance du marché. Ces entreprises ne cessent d’innover et de développer de nouvelles applications d’IA, ce qui stimule la demande de ces technologies dans divers secteurs. Les efforts visant à améliorer son accès devraient encore stimuler la croissance du marché dans les années à venir. Le segment des logiciels représente la plus grande part du marché de l’IA en raison des améliorations apportées au stockage, au traitement parallèle et à la puissance de calcul. La demande de technologies logicielles pour le déploiement et le développement d’applications d’IA telles que l’algèbre linéaire, l’analyse vidéo, les capacités de communication matérielle, l’inférence et les matrices éparses alimente la croissance de ce segment. En outre, la nécessité pour les entreprises d’obtenir des données et des informations significatives grâce à l’analyse du contenu visuel devrait accroître la demande de solutions logicielles sur le marché mondial de l’IA.

La taille du marché mondial de l’intelligence artificielle (IA) a été estimée à 119,78 milliards de dollars en 2022 et devrait atteindre 1.591,03 milliards de dollars d’ici 2030 à un taux de croissance annuel composé de 38,1 % entre 2022 et 2030.

Mais les technologies de l’IA sont encore loin d’être parfaites et leurs limites, telles que la partialité des données, le manque de transparence et la nécessité d’un contrôle humain, peuvent constituer des risques pour l’adoption et la valeur.

Bien que les avantages potentiels de l’IA soient considérables, des inquiétudes ont été exprimées quant à ses implications éthiques, notamment en ce qui concerne les préjugés, la protection de la vie privée et les suppressions d’emplois. Des appels ont donc été lancés en faveur d’une réglementation et d’une surveillance plus stricte du développement et du déploiement des technologies d’IA. Certains experts ont appelé à une pause dans la recherche et le développement de l’IA afin de laisser le temps d’aborder ces questions et d’élaborer des réglementations appropriées. Mais d’autres estiment qu’une telle pause pourrait étouffer l’innovation et empêcher les avantages potentiels de l’IA de se concrétiser.

Il est important de noter que les appels à la suspension de la recherche sur l’IA générative se concentrent sur un sous-ensemble particulier de technologies d’IA et ne s’appliquent pas nécessairement à toutes les formes d’IA. Si l’IA générative a démontré des capacités impressionnantes dans certains domaines, elle présente également des risques potentiels en termes d’utilisation abusive ou de conséquences involontaires.

La décision de continuer à investir dans les technologies de l’IA doit donc reposer sur un examen minutieux des avantages et des risques potentiels associés à ces technologies. Il est important que les chercheurs, les entreprises et les gouvernements travaillent ensemble pour s’assurer que le développement et l’application de l’IA sont guidés par des principes éthiques et que des mesures de sécurité appropriées sont en place pour prévenir les conséquences involontaires ou l’utilisation abusive.

En conclusion, les technologies de l’IA offrent un monde d’opportunités, mais elles posent également des défis complexes qui nécessitent des solutions réfléchies et complètes. Ainsi, les investisseurs en IA doivent trouver un équilibre entre leur désir d’innover et de faire des bénéfices et leur responsabilité d’évaluer les implications éthiques, sociales et juridiques des technologies qu’ils soutiennent. Il peut s’agir de s’associer à des experts dans le domaine, de dialoguer avec les parties prenantes et d’accorder la priorité à la transparence, à la responsabilité et à la protection de la vie privée.
Maxim Manturov

Quelle éthique face à l’intelligence artificielle

Quelle éthique face à l’intelligence artificielle

Intreview d’Irene Solaiman ex experte d’ OpenAI, chercheuse sur l’impact social de l’IA dans la Tribune

LA TRIBUNE – ChatGPT a-t-il révolutionné la façon dont les chercheurs voient les modèles de langage ?

IRENE SOLAIMAN – ChatGPT relève du jamais vu par sa viralité. Mais je ne dirais pas que la technologie elle-même est sans précédent. Plus généralement, même si les modèles de langage deviennent plus puissants, c’est surtout la façon dont les utilisateurs interagissent avec qui a changé. Quand j’ai commencé à travailler sur les modèles de langage il y a quelques années, il fallait avoir un certain niveau de compétence informatique pour envoyer des requêtes, mais ce n’est plus le cas aujourd’hui. L’IA s’est démocratisée, il faut donc des interfaces qui améliorent l’accessibilité. Le problème, c’est que donner plus d’accessibilité mène à plus de potentiels usages malveillants et c’est pourquoi il nous faut intégrer des protections pour garantir que l’usage de la technologie reste éthique.

Dans votre article, vous écrivez : « puisqu’un système ne peut pas être entièrement sans danger et dépourvu de biais pour tous les groupes de personnes, et qu’il n’existe aucun standard clair pour déterminer si un système est suffisamment sûr pour une diffusion publique, des discussions supplémentaires doivent être menées avec toutes les parties prenantes ». Ce constat signifie-t-il que les modèles de langages sont condamnés à être défaillants ?

Je demande toujours pour qui nous construisons ces modèles, et à qui y donne-t-on accès. Un dicton dans le milieu est « garbage in, garbage out » [si on nourrit l'IA avec du déchet, il en sortira du déchet, ndlr]. Ce principe est à l’origine de la plupart des problèmes des modèles de langage, car les données sur lesquelles ils sont entraînés ont été récupérées sur Internet, le plus souvent sur des contenus écrits en alphabet latin. Si on ajoute à cela la question de la connectivité, on réalise que les biais des nations occidentales sont surreprésentés.

Or quand on publie un modèle, encore plus sous la forme d’un produit comme ChatGPT, on veut qu’il soit sans danger pour tout le monde. Mais ce qui est considéré comme sûr pour un groupe de personnes ne l’est pas pour un autre. C’est ici qu’entrent en compte les différences culturelles sur les questions de la beauté, de la sexualité ou encore de la violence, qui rendent l’équation très compliquée pour les chercheurs.

Comment les chercheurs font-ils pour prendre en compte et diminuer ces risques ?

C’est une des questions les plus compliquées actuellement, et la solution ne viendra pas forcément d’une méthode ou d’un outil en particulier. Il faut faire attention au solutionnisme technologique. La solution relève la fois du politique, d’un travail avec la société civile, et de beaucoup de retours d’utilisateurs. Or, les organisations qui mettent en avant des systèmes fermés n’ont pas toutes les perspectives nécessaires en interne pour répondre à ces enjeux. C’est pourquoi je défends une ouverture éthique des systèmes.

Lors des sorties successives de ChatGPT et celles de BingChat, plusieurs utilisateurs se sont empressés d’en tester les limites, et de pousser les outils à la faute. Résultat : les IA finissent par mentir, et BingChat a même pris un ton agressif avec certains utilisateurs. Les concepteurs des modèles doivent-ils prendre en compte ce genre de pratiques extrêmes avant de publier leur outil ?

En fonction de ce qui est demandé, ces comportements peuvent mener à une amélioration du système, et avoir les mêmes effets bénéfiques que le passage d’une red team [une équipe chargée de trouver les failles d'un système pour mieux les réparer, ndlr]. Quand un nouveau système est publié et qu’il attire beaucoup d’attention, il va recevoir un flot permanents de tests, encore plus que ne l’aurait fait n’importe quelle organisation dont ce serait la charge. Le problème sous-jacent, c’est qu’aucun des développeurs ne peut identifier à l’avance tous les cas d’usages possibles de ces systèmes, car ils ne sont pas construits pour une application particulière.

Pour une partie des experts, ce talon d’Achille des IA génératives comme ChatGPT, Stable Diffusion ou Midjourney, justifie un accès assez rapide au modèle, afin de mettre en place le mécanisme de feedback [retour des utilisateurs, ndlr] qui va leur permettre d’améliorer le modèle. C’est aujourd’hui la norme dans la tech : on participe par exemple à ce type de mécanisme lorsque l’on utilise le moteur de recherche de Google. C’est ensuite aux décideurs politiques de trancher si ces comportement sont bons ou mauvais.

Vous vous interrogez dans votre article sur la responsabilité en cas d’erreur ou de débordement. Qui doit prendre en charge cette responsabilité ?

J’essaie de distinguer les personnes impliquées en plusieurs catégories : les développeurs, les « déployeurs » c’est-à-dire ceux qui sont chargés de mettre en place les cas d’usage du modèle, et les utilisateurs. Un des enjeux au niveau politique est de définir qui porte le fardeau et de s’assurer que le modèle est sans danger. Mais tous les acteurs impliqués partagent la responsabilité à différents niveaux. Les développeurs vont être ceux qui ont la meilleure compréhension du modèle. En revanche, ils n’ont pas toujours les compétences, notamment celles liées aux sciences sociales, pour examiner les effets du modèle sur la société.

En conséquence, pour l’instant, la majeure partie de la pression des régulateurs est portée sur les déployeurs. Ils n’ont peut-être pas autant accès au modèle que les développeurs, mais ils peuvent avoir une bien meilleure compréhension de ses implications. En bout de chaîne, il y a l’utilisateur, qui ne devrait pas avoir à porter cette responsabilité, car il est difficile d’avoir le niveau de connaissance nécessaire pour bien comprendre les limites de ces modèles.

Vous avez mené le déploiement de GPT-2, que OpenAI définissait dans un premier temps comme « trop dangereux pour être publié dans son intégralité », avant de finalement revenir sur cette précaution. Pensez-vous que cet épisode a changé la façon d’envisager le déploiement des IA au niveau de l’industrie ?

Je pense que l’approche que nous avons pris pour GPT-2 s’avère rétrospectivement être un tournant dans la façon dont nous pensons les modèles de langage et leur publication. C’était un test, dont je suis encore aujourd’hui heureuse de l’issue. J’ai travaillé avec des juristes, avec les développeurs du modèle ou encore avec des chercheurs extérieurs et tous ont été absolument essentiels pour comprendre les complexités de la publication du modèle. Nous avons fait un déploiement graduel, qui a été possible parce que nous étions extrêmement impliqués dans la recherche et que vous surveillions attentivement ce que les gens faisaient avec GPT-2. Je pense que c’était un bon exemple de publication graduelle, mais qu’encore aujourd’hui d’autres méthodes peuvent être tout aussi pertinentes.

Satya Nadella, le CEO Microsoft, a clairement évoqué le début d’une course à l’IA. Ses concurrents, à commencer par Google et Meta, ont dit qu’ils pouvaient créer des équivalents de ChatGPT mais qu’ils voulaient prendre plus de précautions. Avez-vous peur que la course économique sacrifie l’éthique ?

C’est quelque chose que nous craignons depuis des années. Nous avons toujours mis en garde contre ce genre de concurrence précipitée, et contre la possibilité qu’il fasse émerger des standards basés sur la puissance et les capacités, aux dépens de l’éthique. Car aujourd’hui, il n’y a pas d’organisme de régulation qui détermine clairement quels sont les modèles les plus puissants, encore une fois parce qu’ils ne sont pas destinés à des tâches précises.

En parallèle, nous sommes plusieurs chercheurs à travailler sur la création de standards d’évaluation qui mettraient en avant l’impact sociétal des IA, notamment sur des sujets de divergence culturelle comme la beauté, la sexualité ou la violence, en plus de critères plus classiques comme les discriminations de genre et ethnique. Après tout, si un modèle ne fonctionne pas correctement pour tout le monde, on peut considérer qu’il ne fonctionne pas du tout. Le problème, c’est qu’en se livrant une concurrence sur la performance, il est possible que les entreprises investissent moins dans les mécanismes de sûreté et d’éthique. C’est une éventualité effrayante, qu’on ne peut pas se permettre.

Le problème, c’est que même en étant attentif à la qualité de la production du modèle d’IA et en ayant bien fait attention aux éventuels débordements, il n’est jamais facile d’empêcher les mauvais usages d’un modèle. Début 2021, des internautes ont utilisé GPT-3 pour créer un jeu vidéo avec des textes pédopornographiques. Beaucoup de personnes ont oublié cet épisode car il est très dérangeant. Mais il illustre un problème : une fois le modèle publié, Internet va l’utiliser pour faire ce qu’il fait de mieux… et ce qu’il fait de pire.

La Chine pour une éthique algorithmique

La Chine pour une éthique algorithmique

Officiellement il s’agit pour les autorités chinoises de protéger les utilisateurs. En fait il se pourrait que les autorités soient surtout inquiètes de l’immense source de données dans disposent les grandes entreprises de la tech pour modeler les mentalités et les comportements. L’enjeu est économique mais aussi politique et culturel.

Depuis plusieurs mois, la Chine s’attaque frontalement à ses champions nationaux de la Tech. Elle régule lourdement les activités d’entreprises dont le modèle repose sur la collecte et l’exploitation de données personnelles grâce à l’intelligence artificielle. Sur cette question, la Chine s’est récemment dotée d’un règlement pour la protection des données sur internet, l’équivalent du RGPD européen.

 

L’objectif chinois à moyen termesearait de réguler les algorithmes qui constituent une menace pour «la sécurité intérieure, l’ordre social et l’ordre économique», comme le présentait l’autorité chargée du cyberespace cet été. Le régulateur veut supprimer tout algorithme nuisible pour les individus comme ceux poussant le consommateur à dépenser davantage sur les sites d’e-commerce. Les plateformes devront expliquer aux consommateurs le fonctionnement de leurs outils de recommandations et permettre aux internautes de les refuser. Côté réseaux sociaux, les systèmes pouvant influencer l’opinion publique sont contraints d’obtenir une autorisation administrative.

 

Développement des algorithmes : Révolution économique ou éthique ?

 Développement des algorithmes : Révolution économique ou éthique ?

 

Un papier dans la Tribune pose la problématique de l’influence des algorithmes qui poseraient davantage de problèmes éthiques économiques (Extrait)

 

Une des craintes est que la robotisation rapide débouche sur un chômage massif. Or ce n’est pas ce qui est constaté. Certes, des métiers pénibles et répétitifs vont être supprimés, mais la robotisation permet aussi d’augmenter la productivité et de réduire les coûts, et crée aussi de nouveaux emplois que l’on ne soupçonnait pas. Le seul risque, important, est d’accroître les inégalités entre les travailleurs sous-qualifiés – les plus exposés – et ceux qui sont bien formés. Le Japon, Singapour et la Corée du Sud, qui comptent parmi les pays qui en pointe dans la robotisation, n’ont pas de taux de chômage élevés.

Pour autant, les investissements publics dans cette numérisation vont davantage compenser le ralentissement mis sur ce secteur durant la pandémie, comme l’indique la baisse de 5,5% des ventes en 2020 de l’entreprise américaine Rockwell Automation, qui compte parmi les premiers fournisseurs mondiaux de robots.

La pandémie aura aussi montré tout l’intérêt d’avoir des robots pour réaliser certaines tâches en offrant une protection sanitaire durant ce type de crise, les robots à la différence des êtres humains ne propageant pas le virus.

C’est d’ailleurs à partir d’un tel exemple que le philosophe franco-canadien Martin Gibert, chercheur au Centre de recherche en éthique (CRÉ) et à l’Institut de valorisation des données (IVADO) à Montréal soulève les problèmes posés par le développement des algorithmes est éthique avant d’être économique.

Dans son ouvrage, « Faire la morale aux robots » (éd. Flammarion) (1), il part de l’hypothèse d’un monde qui aurait possédé une super IA qui, durant la crise sanitaire, aurait eu accès à toutes les données de tous les comportements en simultané. Cette IA aurait évalué le niveau de risque de la situation et pu en anticiper l’évolution. Nos gouvernants auraient ainsi pu prendre des décisions en connaissance de cause, et probablement sauvé des milliers de vies. Mais cette intrusion dans nos vies privées ne pose-t-elle pas une atteinte à notre intégrité?

Dans son ouvrage, Martin Gibert clarifie les termes du débat, en distinguant deux aspects de la question. Aujourd’hui, le débat éthique sur l’intelligence artificielle (IA) reste souvent cantonné au fait de savoir s’il faut accepter ou non des systèmes commandés par l’IA qui sont bons pour nous. Or il faudrait plutôt se demander dans le cadre d’une éthique des algorithmes quelle est la bonne manière de programmer les machines ou les robots, alors même que les avancées en matière d’IA sont en train de remettre en cause bien des présupposés, et posent de nouveaux problèmes. Au terme d’une argumentation rigoureuse, Martin Gibert défend une éthique de la vertu, comme étant la plus à même de répondre à ces défis car « ce n’est pas demain la veille qu’on pourra se défausser sur des machines de notre responsabilité politique et morale. »

C’est dans une optique similaire que deux ingénieurs proposent de voir dans la révolution numérique l’occasion de « rendre l’intelligence artificielle robuste », sous-titre de l’ouvrage de Lê Nguyên Hoang et El Mahdi El Mhamdi, intitulé « Le fabuleux chantier » (2). Comme ils le soulignent, la « révolution algorithmique » a cette particularité après l’invention du langage et de l’imprimerie d’accentuer l’externalisation de l’information dont se servent les individus. Or, ce qui est encore aujourd’hui difficile à appréhender, ce sont les effets secondaires de ces possibilités inédites, notamment en matière de science, de santé et de protection de l’environnement. Comme on le voit par exemple avec l’utilisation des réseaux sociaux dans le débat public, ce n’est pas toujours la qualité du savoir qui est mise en avant mais davantage certains travers, comme la circulation d’idées fausses qui répétées ad nauseam conduisent à une vision biaisée du monde, à l’instar de la pensée complotiste.

Dans leur livre foisonnant d’exemples et d’initiatives, Lê Nguyên Hoang et El Mahdi El Mhamdi plaident eux aussi pour une prise en compte des enjeux éthiques, c’est-à-dire en posant des fins. Ils suggèrent nombre de pistes qui intègrent ces aspects en prenant en compte les limites et les vulnérabilités des algorithmes, dans le but de rendre le traitement de l’information « robustement bénéfique » pour le plus grand nombre, en s’inspirant notamment de la notion d’« altruisme efficace », conceptualisé par le philosophe australien Peter Singer. Un défi que l’un des auteurs, El Mahdi El Mhamdi, peut depuis la publication de l’ouvrage tester dans la réalité, puisqu’il a été recruté par Google pour plancher sur ce sujet en intégrant le projet de recherche Google Brain en Europe sur le deep learning.

 

____

(1) Martin Gibert, « Faire la morale aux robots », éditions Flammarion, collection Climats, 168 pages, 17 euros.

(2) Lê Nguyên Hoang et El Mahdi El Mhamdi « Le fabuleux chantier », éditions EDP Sciences, 296 pages, 39 euros.

Ethique de la recherche: éviter de glisser vers l’idéologie

Ethique de la recherche: éviter de glisser vers l’idéologie

Face au mélange entre science et politique, au refus du pluralisme, les chercheurs doivent pouvoir échanger de façon argumentée et réfutée, en s’employant à « éviter les fractures et les enclaves », explique le géographe Jacques Lévy dans une tribune au « Monde ».

 

 

Tribune.

 

Une des effets dommageables de la prise de position de Frédérique Vidal sur l’« islamo-gauchisme » à l’université a été de permettre à ses détracteurs d’inverser son propos et de porter la charge sur les lanceurs d’alerte. Pourtant, il existe bien des motifs d’inquiétude sur la relation entre la société et ses chercheurs, et pas seulement en sciences sociales. Pour y voir plus clair, distinguons trois plans : celui des théories, celui du mélange des genres et celui du pluralisme.

Les théories qui cherchent à expliquer le monde sont nombreuses et tant mieux ! L’une d’elles se fonde sur une vision communautaire du social : elle se représente la société comme une constellation de groupes aux appartenances non choisies et irréversibles. La fameuse « intersectionnalité » consiste en une essentialisation des identités, qu’on peut éventuellement croiser, mais sans les remettre en question.

 

Cette école de pensée tente de sauver le structuralisme marxiste, dans lequel la communauté de classe était centrale, en ajoutant de nouvelles « structures » à un édifice qui se lézarde, pris à contre-pied par l’irruption des singularités individuelles. On peut préférer, dans le sillage de Norbert Elias (1897-1990), le paradigme de la « société des individus », qui décrit un monde où les individus acteurs et une société postcommunautaire prospèrent de conserve. La différence entre ces deux conceptions est patente, mais on ne peut s’en plaindre. Cela, c’est le débat, sain parce que libre et transparent, qui caractérise la démarche scientifique.Le danger apparaît avec le mélange des genres entre science et politique. Roger Pielke (The Honest Broker, Cambridge University Press, 2007, non traduit) a montré, à propos des débats sur le climat, que lorsqu’un sujet est marqué à la fois par des controverses scientifiques et des oppositions politiques fortes, les deux dissensus peuvent s’épauler et créer des monstres : le militant choisit l’hypothèse qui l’arrange pour se parer de la légitimité scientifique, tandis que le chercheur se mue subrepticement en un politicien sans scrupule. Les chercheurs sont aussi des citoyens et ils ont bien le droit de l’être. Leurs expériences personnelles peuvent être des ressources pour la connaissance.

Si la conscience que les registres ne doivent pas se fondre les uns dans les autres fait défaut, les savants se muent tout bonnement en idéologues d’autant plus déplaisants qu’ils s’abritent derrière leur statut. On voit fleurir des novlangues dignes du 1984 de George Orwell, lorsque, au nom de la science, l’« antiracisme » couvre un nouveau type de racisme, ou lorsque la « démocratie écologique » vise une dictature des écologistes intégristes. L’enquête qu’ont menée les chercheurs britannique et américain Helen Pluckrose et James Lindsay (Cynical Theories, Pitchstone Publishing 2020, non traduit) montre que des revues universitaires prestigieuses acceptent aisément de publier des textes délirants dont on aimerait pouvoir rire mais qui sont animés par une idéologie de la haine intercommunautaire et n’hésitent pas à traiter de « négationniste » toute prise de position divergente

Technologies :« Pour une éthique des algorithmes »

Technologies :« Pour une éthique des algorithmes »

Le licenciement par Google de Timnit Gebru, chercheuse de renom en intelligence artificielle, jette une ombre sur les priorités de l’entreprise et suscite de légitimes protestations, souligne, dans une tribune au « Monde », Lê Nguyên Hoang, spécialiste de l’éthique des algorithmes à à l’Ecole polytechnique fédérale de Lausanne.

Tribune. 

Début décembre, Timnit Gebru, codirectrice de l’équipe d’éthique de l’intelligence artificielle (IA) de Google et chercheuse académique de renom, a été licenciée. Les informations au sujet de son licenciement sont encore très incomplètes. Néanmoins, cet événement semble faire suite à une contestation par la chercheuse de décisions éthiquement discutables de la direction de son entreprise. En particulier, celle-ci semble avoir exigé la rétractation d’un article de recherche, dont Timnit Gebru est coautrice, et qui questionne l’éthique des algorithmes de traitement de langage au cœur de nombreux produits de Google.

En réaction à cet événement, une lettre ouverte de soutien a été publiée. Cette lettre conteste la version des faits présentée par Google ainsi que les décisions de l’entreprise, et exige davantage de transparence et d’engagement éthique. Elle a aujourd’hui reçu 2 695 signatures d’employés de Google, et 4 302 signatures d’universitaires, d’employés de l’industrie des technologies et de membres de la société civile.

Pour comprendre l’importance de cette lettre, il est utile de prendre du recul et de mesurer l’impact mondial des algorithmes de Google. Ces algorithmes répondent quotidiennement à des milliards de requêtes d’utilisateurs, sur des thèmes parfois controversés et dangereux comme « le changement climatique est un canular », « les dangers de la vaccination » ou « événement musulman ». Ces algorithmes ont aussi une influence monumentale sur les vidéos qui seront davantage visionnées sur la plate-forme YouTube, puisque deux visionnages sur trois résultent de recommandations algorithmiques. De façon inquiétante, plusieurs études suggèrent que ces algorithmes promeuvent énormément de contenus complotistes, et ont contribué à ce que les vidéos qui nient le changement climatique fassent autant de vues que celles qui l’expliquent.

Biais préoccupants

Dans ce contexte, il semble important d’étudier davantage l’éthique de ces algorithmes. L’article rétracté par Google soulignait justement, entre autres, que des biais préoccupants avaient été assimilés par les algorithmes de traitement des langages. Ces biais avaient d’ailleurs déjà été soulignés, par exemple par Abubakar Abid, qui a montré qu’un algorithme appelé GPT-3 complétait systématiquement des débuts de phrases à propos des musulmans par des histoires de terrorisme. Si des algorithmes similaires sont déployés par Google, à moins d’une réflexion éthique préalable, il faut craindre que les réponses à des recherches comme « événement musulman » parlent eux aussi davantage de terrorisme que de ramadan.

 

 » Pour une éthique des algorithmes »

« Pour une éthique des algorithmes »

Le licenciement par Google de Timnit Gebru, chercheuse de renom en intelligence artificielle, jette une ombre sur les priorités de l’entreprise et suscite de légitimes protestations, souligne, dans une tribune au « Monde », Lê Nguyên Hoang, spécialiste de l’éthique des algorithmes à à l’Ecole polytechnique fédérale de Lausanne.

Tribune. 

Début décembre, Timnit Gebru, codirectrice de l’équipe d’éthique de l’intelligence artificielle (IA) de Google et chercheuse académique de renom, a été licenciée. Les informations au sujet de son licenciement sont encore très incomplètes. Néanmoins, cet événement semble faire suite à une contestation par la chercheuse de décisions éthiquement discutables de la direction de son entreprise. En particulier, celle-ci semble avoir exigé la rétractation d’un article de recherche, dont Timnit Gebru est coautrice, et qui questionne l’éthique des algorithmes de traitement de langage au cœur de nombreux produits de Google.

En réaction à cet événement, une lettre ouverte de soutien a été publiée. Cette lettre conteste la version des faits présentée par Google ainsi que les décisions de l’entreprise, et exige davantage de transparence et d’engagement éthique. Elle a aujourd’hui reçu 2 695 signatures d’employés de Google, et 4 302 signatures d’universitaires, d’employés de l’industrie des technologies et de membres de la société civile.

Pour comprendre l’importance de cette lettre, il est utile de prendre du recul et de mesurer l’impact mondial des algorithmes de Google. Ces algorithmes répondent quotidiennement à des milliards de requêtes d’utilisateurs, sur des thèmes parfois controversés et dangereux comme « le changement climatique est un canular », « les dangers de la vaccination » ou « événement musulman ». Ces algorithmes ont aussi une influence monumentale sur les vidéos qui seront davantage visionnées sur la plate-forme YouTube, puisque deux visionnages sur trois résultent de recommandations algorithmiques. De façon inquiétante, plusieurs études suggèrent que ces algorithmes promeuvent énormément de contenus complotistes, et ont contribué à ce que les vidéos qui nient le changement climatique fassent autant de vues que celles qui l’expliquent.

Biais préoccupants

Dans ce contexte, il semble important d’étudier davantage l’éthique de ces algorithmes. L’article rétracté par Google soulignait justement, entre autres, que des biais préoccupants avaient été assimilés par les algorithmes de traitement des langages. Ces biais avaient d’ailleurs déjà été soulignés, par exemple par Abubakar Abid, qui a montré qu’un algorithme appelé GPT-3 complétait systématiquement des débuts de phrases à propos des musulmans par des histoires de terrorisme. Si des algorithmes similaires sont déployés par Google, à moins d’une réflexion éthique préalable, il faut craindre que les réponses à des recherches comme « événement musulman » parlent eux aussi davantage de terrorisme que de ramadan.

 

« Régulation numérique, quelle éthique de responsabilité »

« Régulation numérique, quelle  éthique de responsabilité »

A une approche technique de la standardisation, les institutions européennes doivent intégrer une forte dimension juridique reposant sur un suivi des technologies dans leur évolution, estime Valérie Hernandez, spécialiste des questions d’économie du numérique, dans une tribune au « Monde ».

Tribune.

 

« Le 8 juin, l’entreprise IBM annonçait qu’elle ne vendrait, ni ne développerait plus de technologies de reconnaissance faciale. Dans la foulée, ce sont deux autres grands industriels du numérique, Amazon et Microsoft, qui lui ont emboîté le pas, annonçant désormais ne plus commercialiser ce type de technologies auprès des forces de police tant que cet usage ne serait pas encadré.

Au-delà du coup d’éclat dans un contexte politique particulièrement vif aux Etats-Unis et avec des forts échos dans le monde entier, ces annonces nous interrogent sur le rapport du secteur de la technologie à l’éthique. Si ces entreprises possédaient déjà des standards éthiques sur les technologies de reconnaissance faciale bien établis, auraient-elles en effet vendu ces technologies aux forces de l’ordre ?

Ce débat nous ramène aux deux formes d’éthique telles que définies par [le sociologue allemand] Max Weber (1864-1920) : une éthique de conviction et une éthique de responsabilité.

La première revient à agir en fonction d’une conviction supérieure qui rend certain de son action.

La seconde revient à agir en fonction des conséquences de ses actes et peut être nourrie également de conviction. L’actualité témoigne d’une incapacité à faire avancer une éthique de responsabilité dans le champ numérique.

Pourtant, les controverses n’ont souvent pas beaucoup d’utilité sociale. Elles tendent à imposer des croyances – positives ou négatives ou mal fondées – qui favorisent peu l’« empowerment » [le pouvoir d’agir] du citoyen. Elles ne permettent pas de remettre en cause des routines d’usage qu’il faudrait questionner : par exemple, des usages de loisirs – à l’instar du « face swapping » [procédé de photomontage] – qui participent de la banalisation de la reconnaissance faciale. Les acteurs sont enfermés dans des convictions et n’avancent pas dans leur responsabilité.

Dans la même veine, les discours sur la souveraineté numérique européenne qui lient l’éthique à une troisième voie européenne demeurent incantatoires. Alors que les droits et libertés fondamentaux, au plus haut niveau de la hiérarchie des normes et promus par le cadre juridique européen, notamment la Charte des droits fondamentaux, doivent être le ferment de cette approche éthique, en pratique, l’application de ce cadre juridique est marquée de profondes faiblesses.

L’Union européenne doit sortir de cette incantation et passer à une éthique de responsabilité. Pour rendre ce cadre efficient et ces principes opérants, notre continent doit se saisir politiquement des enjeux de la standardisation et ne pas la réduire à une discussion technique. Les Etats-Unis et la Chine l’ont bien compris et ont historiquement fait de la normalisation un terrain de bataille entre puissances dans le champ des technologies. »

“Distinguer l’éthique du traitement” et “l’éthique de la recherche”*

“Distinguer l’éthique du traitement” et “l’éthique de la recherche”

 »Christian Hervé et Henri-Corto Stoeklé  »

Chronique du Monde

 

« Deux camps se sont formés autour du Professeur Didier Raoult : le camp des « contre » versus le camp des « pour ». Les « contre » critiquèrent donc la faiblesse scientifique de ces études. Selon eux, en l’absence de groupe de témoin, même si la taille de l’échantillon de malades avait augmenté entre la première et la deuxième étude à l’époque (il passa de l’ordre de 20 malades à celui de 80, soit un facteur 4), celles-ci ne permettaient aucunement d’affirmer – ou d’infirmer – l’efficacité réelle du traitement. Pour cette raison, il ne devait pas être prescrit.

De leur côté, les « pour » soutinrent l’idée que, lors d’une telle urgence sanitaire, la déontologie médicale ordonnait aux cliniciens d’utiliser tous les moyens qui semblaient bon pour soigner le plus grand nombre de patients possibles. Ils justifièrent ainsi l’absence de groupe témoin : il n’était pas moralement acceptable de priver d’un traitement qui serait susceptible de marcher. Pour cette raison, même si les preuves scientifiques in vivo pouvaient manquer à ce stade, le traitement devait être prescrit à l’ensemble des malades.

Deux causes défendables. La situation était pour le moins délicate. En l’absence de certitude, les arguments des deux camps pouvaient objectivement s’entendre – et probablement encore aujourd’hui. Pour enfin sortir de cette dualité, la question de fond apparaît être la suivante : est-ce qu’en temps de crise sanitaire d’une extrême gravité, comme celle causée par la pandémie du Covid-19, et en l’absence de moyens réels efficients, l’intuition clinique peut être entendue ou non ? Et cela, avant l’établissement de standards thérapeutiques, scientifiquement démontrés et reconnus par les pairs.

La réponse à cette question est beaucoup moins évidente que certains peuvent le percevoir ou le contester, même massivement. L’idée d’une « éthique du traitement » versus une « éthique de la recherche » nous semble très réductrice vis-à-vis d’une situation où deux causes défendables s’affrontent.

L’agora, sur les plateaux de télévisions et les réseaux sociaux, n’est pas encore le lieu pour une telle discussion. D’ailleurs, tous les experts (ou non), « pour » ou « contre », qui ont pris à ce jour la parole ont-ils vraiment permis aux « profanes » visés de mieux saisir toute la complexité de l’affaire ?

Il faudrait bien plus qu’une ou plusieurs tribunes pour bien comprendre et expliquer ce qui relèverait plutôt d’un long travail académique d’éthique et d’intégrité scientifique, à mener une fois la crise derrière nous.

Christian Hervé est professeur émérite à l’Université de Paris, président de l’Académie internationale d’éthique, médecine et politique publique, responsable de la mission éthique de l’Hôpital Foch. Henri-Corto Stoeklé est docteur en éthique médicale, chargé de mission bioéthique à l’Hôpital Foch.

Quelle compatibilité entre Intelligence artificielle et éthique ?

Quelle compatibilité entre Intelligence artificielle et  éthique

 

Un Livre blanc européen sur l’intelligence artificielle, publié le 19 février, insiste d’abord sur l’importance du respect des droits fondamentaux des citoyens et met par exemple en garde contre des distorsions dans les algorithmes de recrutement conduisant à des discriminations.

D’après le site pwc.fr , les intelligences artificielles (IA) se font de plus en plus présentes – voitures autonomes, algorithmes de recommandation, drones, etc. – et la question de la moralité de leurs actions commence à se poser. Celles qui s’appuient sur les réseaux de neurones artificiels (deep learning) sont particulièrement critiquées : on leur reproche d’être opaques, de ne pas laisser voir le raisonnement qui permet aux algorithmes d’arriver au résultat final. Une science naissante s’applique d’ailleurs à développer des outils pour regarder à l’intérieur de ces boîtes noires que sont les réseaux neuronaux. À ce travail à rebours pour scruter le code des IA s’ajoute, en parallèle, la volonté affichée par de nombreux experts d’intégrer des préceptes éthiques très en amont, directement au cœur de l’IA.

En s’appuyant sur d’énormes quantités de données, les systèmes de deep learning sont capables d’effectuer un très grand nombre de tâches : reconnaître et analyser des images ou des voix, proposer une police d’assurance sur mesure, accepter ou refuser une offre de prêt, piloter un véhicule… Mais comment avoir confiance dans les décisions de l’IA si nous ne sommes pas en mesure de les comprendre ?

« L’intelligence doit être augmentée, c’est-à-dire au service de l’humain, plutôt qu’autonome. Nous devons construire un binôme humain-machine où l’IA devra offrir une compréhension intuitive pour l’humain. Elle devra être capable d’expliquer ses recommandations de façon simple et immédiate. » François Royer, directeur consulting Data Intelligence, PwC France

Le développement d’une telle IA a par exemple déjà été initié aux États-Unis par la DARPA (département de R&D militaire du ministère de la Défense) : les premiers résultats du projet XAI (Explainable AI) sont attendus en novembre 2018.

Si XAI vise à développer des techniques de machine learning qui permettent de construire des modèles d’IA plus compréhensibles, capables d’expliquer aux humains en bout de ligne leur raisonnement, c’est loin d’être le cas de toutes les IA. Le fonctionnement des réseaux de neurones artificiels est particulièrement opaque. Les géants du digital, boostés par des mécanismes de collecte de données très efficaces, disposent de quantités de données phénoménales ce qui les encourage à développer massivement les réseaux de neurones artificiels. Ces réseaux se nourrissent des corrélations qu’ils détectent entre des jeux de données préexistants, ce qui peut poser problème.

 

Bruxelles recommande donc  que les futurs systèmes d’intelligence artificielle à haut risque (concernant la santé par exemple) soient certifiés, testés et contrôlés, comme le sont les voitures, les cosmétiques et les jouets.

 

Theodorous Evgueniou, professeur de la prestigieuse école de management Insead, a rendu avec plusieurs autres chercheurs européens et américains un avis mettant en garde contre les risques d’une approche européenne trop centrée sur ses valeurs.

« Il semble que l’esprit du Livre blanc soit que l’Europe utilise ses valeurs comme une arme stratégique pour rattraper la Chine et les États-Unis », et se rendre attractive dans la course mondiale à l’intelligence artificielle, affirme-t-il. Mais « pourquoi penser que des pays non-européens préféreront des intelligences artificielles formées aux valeurs européennes ? Je ne suis pas sûr que ça marche », explique-t-il.

 

Par exemple, le Livre blanc affiche « l’explicabilité » comme valeur cardinale: il doit être possible de comprendre exactement pourquoi un système d’intelligence artificielle arrive à telle conclusion – comme le fait de refuser un prêt à quelqu’un.

Mais obliger des intelligences artificielles à expliquer leur choix « peut réduire leur performance de 20%, si ce n’est plus », affirme-t-il.

De son côté, Guillaume Avrin, responsable de l’intelligence artificielle au sein du Laboratoire national de métrologie et d’essais (LNE), ne remet pas en cause les impératifs éthiques dans le Livre blanc. Mais il regrette que la Commission s’avance peu sur les moyens de vérifier la conformité des intelligences artificielles auxdites valeurs.

« Comment fait-on pour s’assurer de la conformité des systèmes d’intelligence artificielle » à une réglementation, alors qu’ils sont souvent évolutifs et adaptatifs et ont des comportements  »non linéaires », voire « chaotiques », explique-t-il.

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol