Archive pour le Tag 'Intelligence'

Intelligence artificielle : quelle éthique ?

Intelligence artificielle : quelle éthique ?

 Pour Laetitia Pouliquen, directrice du think tank «NBIC Ethics», si la généralisation de l’IA et des algorithmes ne s’accompagne pas d’une réflexion sur la nature de l’homme, la société risque de sombrer dans des dérives dystopiques et transhumanistes. Interview dans le Figaro
Laetitia Pouliquen est directrice de «NBIC Ethics», un think tank traitant de l’éthique des technologies auprès des institutions européennes. Elle est également l’auteur de Femme 2.0: Féminisme et transhumanisme: quel avenir pour la femme? (éd. Saint-Léger, 2016).
Pour beaucoup, la généralisation de l’intelligence artificielle dans notre quotidien va profondément transformer notre mode de vie. Pensez-vous que le monopole des GAFAM dans ce domaine laisse suffisamment de place à une réflexion éthique quant à ces changements ?
Laetitia POULIQUEN. – Il est évident que notre quotidien va être profondément transformé, que ce soit dans notre rapport au réel ou à l’autre, par l’immission de la machine, de l’IA, et des algorithmes dans nos vies journalières. Le social, le sociétal, et même l’anthropologie sont en train de se refaçonner. La digitalisation de notre quotidien nous fait perdre de vue une certaine vision de l’homme. Face à ces changements, une réflexion morale est nécessaire pour établir un cadre légal, pour ne pas oublier ce qu’est l’homme et en quoi se différencie-t-il de la machine.

Cette réflexion éthique dans le domaine de l’I.A est tout à fait possible, notamment dans le cadre de l’Union européenne. Nous, européens, sommes pris entre deux feux, d’une part les GAFAM américaines, et d’autre part les BATX chinoises (Baidu, Alibaba, Tencent et Xiaomi), et nous restons limités en termes d’investissement, de recherche et de développement. Cependant, notre approche qui est plus axée sur l’éthique que sur l’investissement, nous confère un rôle tout particulier dans le développement des nouvelles technologies. L’Europe est historiquement le premier foyer de réflexion philosophique et morale, et doit continuer de l’être dans les secteurs de pointe.

L’approche morale de l’Union européenne vis-à-vis de l’IA, notamment avec son «Guide éthique de l’intelligence artificielle», est-elle toujours pertinente ?

Toute réflexion morale, que ce soit dans le domaine de la robotique ou autre, s’appuie sur une certaine conception de l’homme et du monde, qui peut être parfois totalement déconnectée. Ainsi, bien qu’elle se veuille «éthique», l’approche de l’Union européenne n’est pas nécessairement bonne, tout dépend des fondements anthropologiques sur lesquels elle s’appuie.

Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans le domaine de l’I.A.

En 2017, par exemple, le rapport Delvaux présenté auprès de la Commission européenne a provoqué beaucoup de débats. Dans ce rapport législatif, la député européenne luxembourgeoise Maddy Delvaux, proposait certaines mesures très idéalisées et idéologisées quant à la défense des robots. Certains articles présentaient l’augmentation de l’homme comme quelque chose d’essentiellement positif, d’autres établissaient la notion de personnalité morale pour les robots, afin de les faire sujets de droits… La version originale voulait même permettre aux robots d’avoir un patrimoine assurantiel et d’investir en Bourse, afin de pouvoir financer leur propre évolution, on nageait en plein délire dystopique. Ce texte s’appuyait sur une conception de l’homme et de la machine totalement déconnectée de la réalité, qui ne différenciait plus le vivant du mécanique.

Nous avons donc rédigé une lettre ouverte à la Commission européenne, avec le soutien de 300 signataires européens, afin d’alerter sur les dangers de ce projet. Et parmi ces 300 personnes, il n’y avait pas que des représentants du secteur technologique, mais aussi des philosophes, des anthropologues, des psychiatres, et même des théologiens, pour bien rappeler ce qu’est l’homme, et sa différence avec la machine. Il est nécessaire de remettre les penseurs au centre de la réflexion sur l’intelligence artificielle, et de les intégrer aux groupes d’experts de la Commission européenne. Cependant, malgré quelques modifications et une large médiatisation de notre lettre ouverte, le rapport Delvaux a fini par être adopté.

Comment l’État et l’Union européenne peuvent-ils mettre en place une éthique de l’intelligence artificielle, alors qu’ils se proclament neutre et refusent d’imposer des normes morales à l’individu ?

C’est le principal problème de notre époque. Légiférer sur des questions morales à propos de l’IA est devenu presque impossible aujourd’hui, du fait du relativisme de notre société. Il n’y a plus de socle commun, de principes universels sur lesquels s’appuyer. Quand on ne sait plus dire ce qu’est l’homme, on ne sait plus dire ce qu’est la machine. L’individu moderne ne supporte plus d’autre ordre moral et naturel que son propre désir. Le «je» est devenu la mesure de l’humanité. Et la déconnexion du réel, liée au numérique, renforce ce relativisme. Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans ce domaine.

Les comités censés être «éthiques», ont donc tendance à s’appuyer non pas sur la morale mais sur une logique capitalistique, car les bénéfices, eux, ne sont pas relatifs. Et on a vu cela très clairement dans le «Guide d’éthique de la Commission européenne» sur l’intelligence artificielle, qui a fait suite au rapport Delvaux. Parmi les 53 experts qui ont participé à ce guide, 90% d’entre eux étaient dans le business technologique, experts, ou représentants de groupes de consommateurs, mais il n’y avait presque aucun philosophe, anthropologue, ou psychiatre… L’approche n’était absolument pas humaine, mais économique. Si l’on ne se pose pas la question de ce qu’est l’homme, les guides d’éthique sur l’IA risquent de se transformer en véritables projets dystopiques et transhumanistes.
Que conseillez-vous pour encadrer l’utilisation de l’IA et répondre aux problèmes d’éthique ?

J’avais proposé plusieurs éléments lors de la rédaction du «Guide d’éthique sur l’I.A» à l’Union européenne. Une des propositions portait sur la liberté de l’individu. L’idée était de permettre à l’utilisateur, s’il ne veut pas passer par un algorithme, que ce soit pour un contrat d’assurance, un prêt ou autre, de demander une interaction humaine. Je recommandais donc une graduation, une notation, qui permet de voir si on a affaire à un service «entièrement I.A», «IA avec supervision humaine», ou «entièrement humain». Quand on parle de justice, de banque, de gestion du patrimoine, et surtout des droits de l’homme, il est essentiel de savoir à qui on a affaire, un humain ou une I.A. Mais ça n’a pas été repris, l’approche de ce guide d’éthique est restée bien plus juridique qu’éthique.

J’avais également tenté de mettre en place un label pour les algorithmes, qui s’appelait «Ethic inside», et qui garantirait le respect des règles éthiques européennes. Mais il est presque impossible de suivre le chemin par lequel un algorithme en est arrivé à telle ou telle décision, et donc de dire s’il est éthique ou non, s’il respecte les règles. Il y a également la question de la responsabilité qui complique les choses. Qui est responsable des décisions d’un algorithme : l’entreprise, le développeur, l’utilisateur, ou l’IA elle-même ? Comment objectiver le caractère moral d’un algorithme si on ne peut même pas répondre à cette question ? Les développeurs ne peuvent pas être jugés responsables d’algorithmes tellement complexes qu’ils ne les maîtrisent plus totalement. Par sa nature même, l’I.A échappe en partie à notre contrôle, et on ne va pas pour autant lui donner une personnalité morale… C’est un vrai casse-tête. Il est donc extrêmement compliqué de mettre en place des points de contrôle pour des algorithmes aussi complexes, surtout quand ils sont mondialisés sur internet.

Société et Intelligence artificielle : quelle éthique ?

Société et  Intelligence artificielle : quelle éthique ?

 Pour Laetitia Pouliquen, directrice du think tank «NBIC Ethics», si la généralisation de l’IA et des algorithmes ne s’accompagne pas d’une réflexion sur la nature de l’homme, la société risque de sombrer dans des dérives dystopiques et transhumanistes. Interview dans le Figaro
Laetitia Pouliquen est directrice de «NBIC Ethics», un think tank traitant de l’éthique des technologies auprès des institutions européennes. Elle est également l’auteur de Femme 2.0: Féminisme et transhumanisme: quel avenir pour la femme? (éd. Saint-Léger, 2016).
Pour beaucoup, la généralisation de l’intelligence artificielle dans notre quotidien va profondément transformer notre mode de vie. Pensez-vous que le monopole des GAFAM dans ce domaine laisse suffisamment de place à une réflexion éthique quant à ces changements ?
Laetitia POULIQUEN. – Il est évident que notre quotidien va être profondément transformé, que ce soit dans notre rapport au réel ou à l’autre, par l’immission de la machine, de l’IA, et des algorithmes dans nos vies journalières. Le social, le sociétal, et même l’anthropologie sont en train de se refaçonner. La digitalisation de notre quotidien nous fait perdre de vue une certaine vision de l’homme. Face à ces changements, une réflexion morale est nécessaire pour établir un cadre légal, pour ne pas oublier ce qu’est l’homme et en quoi se différencie-t-il de la machine.

Cette réflexion éthique dans le domaine de l’I.A est tout à fait possible, notamment dans le cadre de l’Union européenne. Nous, européens, sommes pris entre deux feux, d’une part les GAFAM américaines, et d’autre part les BATX chinoises (Baidu, Alibaba, Tencent et Xiaomi), et nous restons limités en termes d’investissement, de recherche et de développement. Cependant, notre approche qui est plus axée sur l’éthique que sur l’investissement, nous confère un rôle tout particulier dans le développement des nouvelles technologies. L’Europe est historiquement le premier foyer de réflexion philosophique et morale, et doit continuer de l’être dans les secteurs de pointe.

L’approche morale de l’Union européenne vis-à-vis de l’IA, notamment avec son «Guide éthique de l’intelligence artificielle», est-elle toujours pertinente ?

Toute réflexion morale, que ce soit dans le domaine de la robotique ou autre, s’appuie sur une certaine conception de l’homme et du monde, qui peut être parfois totalement déconnectée. Ainsi, bien qu’elle se veuille «éthique», l’approche de l’Union européenne n’est pas nécessairement bonne, tout dépend des fondements anthropologiques sur lesquels elle s’appuie.

Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans le domaine de l’I.A.

En 2017, par exemple, le rapport Delvaux présenté auprès de la Commission européenne a provoqué beaucoup de débats. Dans ce rapport législatif, la député européenne luxembourgeoise Maddy Delvaux, proposait certaines mesures très idéalisées et idéologisées quant à la défense des robots. Certains articles présentaient l’augmentation de l’homme comme quelque chose d’essentiellement positif, d’autres établissaient la notion de personnalité morale pour les robots, afin de les faire sujets de droits… La version originale voulait même permettre aux robots d’avoir un patrimoine assurantiel et d’investir en Bourse, afin de pouvoir financer leur propre évolution, on nageait en plein délire dystopique. Ce texte s’appuyait sur une conception de l’homme et de la machine totalement déconnectée de la réalité, qui ne différenciait plus le vivant du mécanique.

Nous avons donc rédigé une lettre ouverte à la Commission européenne, avec le soutien de 300 signataires européens, afin d’alerter sur les dangers de ce projet. Et parmi ces 300 personnes, il n’y avait pas que des représentants du secteur technologique, mais aussi des philosophes, des anthropologues, des psychiatres, et même des théologiens, pour bien rappeler ce qu’est l’homme, et sa différence avec la machine. Il est nécessaire de remettre les penseurs au centre de la réflexion sur l’intelligence artificielle, et de les intégrer aux groupes d’experts de la Commission européenne. Cependant, malgré quelques modifications et une large médiatisation de notre lettre ouverte, le rapport Delvaux a fini par être adopté.

Comment l’État et l’Union européenne peuvent-ils mettre en place une éthique de l’intelligence artificielle, alors qu’ils se proclament neutre et refusent d’imposer des normes morales à l’individu ?

C’est le principal problème de notre époque. Légiférer sur des questions morales à propos de l’IA est devenu presque impossible aujourd’hui, du fait du relativisme de notre société. Il n’y a plus de socle commun, de principes universels sur lesquels s’appuyer. Quand on ne sait plus dire ce qu’est l’homme, on ne sait plus dire ce qu’est la machine. L’individu moderne ne supporte plus d’autre ordre moral et naturel que son propre désir. Le «je» est devenu la mesure de l’humanité. Et la déconnexion du réel, liée au numérique, renforce ce relativisme. Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans ce domaine.

Les comités censés être «éthiques», ont donc tendance à s’appuyer non pas sur la morale mais sur une logique capitalistique, car les bénéfices, eux, ne sont pas relatifs. Et on a vu cela très clairement dans le «Guide d’éthique de la Commission européenne» sur l’intelligence artificielle, qui a fait suite au rapport Delvaux. Parmi les 53 experts qui ont participé à ce guide, 90% d’entre eux étaient dans le business technologique, experts, ou représentants de groupes de consommateurs, mais il n’y avait presque aucun philosophe, anthropologue, ou psychiatre… L’approche n’était absolument pas humaine, mais économique. Si l’on ne se pose pas la question de ce qu’est l’homme, les guides d’éthique sur l’IA risquent de se transformer en véritables projets dystopiques et transhumanistes.
Que conseillez-vous pour encadrer l’utilisation de l’IA et répondre aux problèmes d’éthique ?

J’avais proposé plusieurs éléments lors de la rédaction du «Guide d’éthique sur l’I.A» à l’Union européenne. Une des propositions portait sur la liberté de l’individu. L’idée était de permettre à l’utilisateur, s’il ne veut pas passer par un algorithme, que ce soit pour un contrat d’assurance, un prêt ou autre, de demander une interaction humaine. Je recommandais donc une graduation, une notation, qui permet de voir si on a affaire à un service «entièrement I.A», «IA avec supervision humaine», ou «entièrement humain». Quand on parle de justice, de banque, de gestion du patrimoine, et surtout des droits de l’homme, il est essentiel de savoir à qui on a affaire, un humain ou une I.A. Mais ça n’a pas été repris, l’approche de ce guide d’éthique est restée bien plus juridique qu’éthique.

J’avais également tenté de mettre en place un label pour les algorithmes, qui s’appelait «Ethic inside», et qui garantirait le respect des règles éthiques européennes. Mais il est presque impossible de suivre le chemin par lequel un algorithme en est arrivé à telle ou telle décision, et donc de dire s’il est éthique ou non, s’il respecte les règles. Il y a également la question de la responsabilité qui complique les choses. Qui est responsable des décisions d’un algorithme : l’entreprise, le développeur, l’utilisateur, ou l’IA elle-même ? Comment objectiver le caractère moral d’un algorithme si on ne peut même pas répondre à cette question ? Les développeurs ne peuvent pas être jugés responsables d’algorithmes tellement complexes qu’ils ne les maîtrisent plus totalement. Par sa nature même, l’I.A échappe en partie à notre contrôle, et on ne va pas pour autant lui donner une personnalité morale… C’est un vrai casse-tête. Il est donc extrêmement compliqué de mettre en place des points de contrôle pour des algorithmes aussi complexes, surtout quand ils sont mondialisés sur internet.

Intelligence artificielle et chercheurs ?

Intelligence artificielle et  chercheurs  ?

Au début des années 2000, nos directeurs de thèse nous expliquaient la chance que nous avions de bénéficier, grâce à la révolution numérique, d’un accès instantané à l’intégralité des productions scientifiques via des bases de données.  Ils nous décrivaient « le monde d’avant », celui où se procurer un ouvrage supposait de se rendre jusqu’à une bibliothèque parfois éloignée et d’y passer de longues heures à faire des photocopies. Ces superviseurs voyaient ces tâches traditionnelles comme participant à la construction des jeunes chercheurs et se demandaient ce que deviendrait ce « tour de main » avec la révolution numérique.

 

Par Cylien Gibert et Audrey Rouzies (*) dans la Tribune

Le développement rapide de l’IA nous renvoie aujourd’hui à des questionnements similaires : les futurs chercheurs risquent-ils de ne plus avoir les compétences et les savoir-faire essentiels à l’exercice de leur métier ? Si les opportunités et menaces de l’IA sur les activités d’enseignement ont été immédiatement identifiées et mises au cœur des réflexions, cette avancée technologique pose également des défis significatifs pour la formation des futurs chercheurs qui n’ont pour leur part pas encore été pris en considération.

L’acquisition de méthodes de collecte et d’analyse de données complexes constitue aujourd’hui l’un des piliers de la formation des doctorants. Il s’agit par exemple de savoir coder une grande quantité de données narratives, de développer des designs d’expérimentation adaptés, ou d’utiliser des outils statistiques complexes. Or l’IA (par exemple ChatGPT et son module « data analyst ») automatise et accélère de façon drastique ce travail de traitement des données.

Les générations futures peuvent-elles se passer d’apprendre à réaliser ces collectes et à mener ces analyses en les sous-traitant à l’IA ? Cette dépendance technologique pourrait les rendre vulnérables dans des situations où l’IA s’avèrera inadaptée ou inaccessible. Plus grave encore, elle pourrait diminuer leurs capacités critiques avec une acceptation passive des résultats générés : le doctorant qui aurait systématiquement confié ses analyses à l’IA serait incapable d’en détecter les erreurs.

D’autre part, l’utilisation d’une IA formée sur des données existantes soulève des inquiétudes. Est-il possible que le recours à l’IA pousse à reproduire des erreurs et des biais déjà présents dans les données d’entraînement, créant ainsi un risque de récursivité ? En outre, l’utilisation généralisée de l’IA basée sur des données d’entraînement préexistantes pourrait-elle conduire à des résultats qui ne remettent pas en cause le statu quo, limitant ainsi la nouveauté des futures découvertes scientifiques?

Face à ces défis, une approche équilibrée s’impose. Il est nécessaire de valoriser les nouvelles compétences techniques permettant d’utiliser l’IA, en gardant une posture critique vis-à-vis du recours à cette technologie. Il s’agit par ailleurs de continuer à transmettre aux doctorants des compétences analytiques fondamentales afin qu’ils conservent leur autonomie intellectuelle.

Dans les écoles doctorales, le renforcement des cours dédiés au développement de la pensée critique, tels que l’épistémologie et les diverses approches méthodologiques, est une piste. L’intégration de modules d’éthique de la recherche et d’intégrité scientifique directement en lien avec l’utilisation de l’IA en est une autre. In fine, il s’agit d’inculquer aux futurs chercheurs la responsabilité de l’exactitude des résultats qu’ils produisent, y compris si ces derniers sont générés par l’IA.

L’objectif est de s’assurer que l’utilisation des outils d’IA ne détruise pas à terme ce qui fait la valeur de ce métier : rigueur de la démarche méthodologique, sens critique et réflexivité. Ouvrons le dialogue au sein des centres de recherche et des écoles doctorales afin de construire des solutions collectives qui permettront de faire perdurer la capacité à créer des connaissances nouvelles.

_______

(*) Audrey Rouzies est directrice de l’Ecole doctorale de gestion à l’Université Toulouse Capitole et Cylien Gibert est chercheur en sciences de gestion à Toulouse School of Management Research.

Intelligence artificielle : de nouveaux engagements pour la sécurité ?

Intelligence artificielle : de nouveaux engagements pour la sécurité ? 

 

On peut évidemment se réjouir que les grandes entreprises aient pris de nouveaux engagements à propos de la sécurité de l’intelligence artificielle. En réalité, on semble surtout viser une certaine neutralité politique mais cela est loin de résoudre la question de l’éthique et du rapport entre l’humain et les robots.

 

Vers le développement d’une «IA sûre» ? Seize des principales entreprises mondiales d’intelligence artificielle (IA), dont les représentants sont réunis ce mardi 21 mai à Séoul, ont pris de nouveaux engagements pour assurer le développement en toute sécurité de cette science, a annoncé le gouvernement britannique. «Ces engagements garantissent que les principales entreprises d’IA du monde feront preuve de transparence et de responsabilité quant à leurs projets de développement d’une IA sûre», a déclaré le très libéral premier ministre britannique, Rishi Sunak, dans un communiqué publié par le ministère britannique de la Science, de l’Innovation et de la Technologie.

L’accord, signé notamment par OpenAI (ChatGPT), Google DeepMind et Anthropic, s’appuie sur les consensus atteints lors du premier «sommet» mondial sur la sécurité de l’IA, l’an dernier à Bletchley Park, au Royaume-Uni. Ce second «sommet» à Séoul est organisé conjointement par les gouvernements sud-coréen et britannique. Les entreprises d’IA qui n’ont pas encore rendu publique la façon dont elles évaluent la sécurité des technologies qu’elles développent s’engagent à le faire.

Parmi les entreprises qui acceptent ces règles de sécurité figurent également les géants américains de la technologie Microsoft, Amazon, IBM et Meta, le français Mistral AI et le chinois Zhipu.ai.

 

 

Société- Intelligence artificielle : quelle éthique ?

Société- Intelligence artificielle : quelle éthique ?

 Pour Laetitia Pouliquen, directrice du think tank «NBIC Ethics», si la généralisation de l’IA et des algorithmes ne s’accompagne pas d’une réflexion sur la nature de l’homme, la société risque de sombrer dans des dérives dystopiques et transhumanistes. Interview dans le Figaro
Laetitia Pouliquen est directrice de «NBIC Ethics», un think tank traitant de l’éthique des technologies auprès des institutions européennes. Elle est également l’auteur de Femme 2.0: Féminisme et transhumanisme: quel avenir pour la femme? (éd. Saint-Léger, 2016).
Pour beaucoup, la généralisation de l’intelligence artificielle dans notre quotidien va profondément transformer notre mode de vie. Pensez-vous que le monopole des GAFAM dans ce domaine laisse suffisamment de place à une réflexion éthique quant à ces changements ?
Laetitia POULIQUEN. – Il est évident que notre quotidien va être profondément transformé, que ce soit dans notre rapport au réel ou à l’autre, par l’immission de la machine, de l’IA, et des algorithmes dans nos vies journalières. Le social, le sociétal, et même l’anthropologie sont en train de se refaçonner. La digitalisation de notre quotidien nous fait perdre de vue une certaine vision de l’homme. Face à ces changements, une réflexion morale est nécessaire pour établir un cadre légal, pour ne pas oublier ce qu’est l’homme et en quoi se différencie-t-il de la machine.

Cette réflexion éthique dans le domaine de l’I.A est tout à fait possible, notamment dans le cadre de l’Union européenne. Nous, européens, sommes pris entre deux feux, d’une part les GAFAM américaines, et d’autre part les BATX chinoises (Baidu, Alibaba, Tencent et Xiaomi), et nous restons limités en termes d’investissement, de recherche et de développement. Cependant, notre approche qui est plus axée sur l’éthique que sur l’investissement, nous confère un rôle tout particulier dans le développement des nouvelles technologies. L’Europe est historiquement le premier foyer de réflexion philosophique et morale, et doit continuer de l’être dans les secteurs de pointe.

L’approche morale de l’Union européenne vis-à-vis de l’IA, notamment avec son «Guide éthique de l’intelligence artificielle», est-elle toujours pertinente ?

Toute réflexion morale, que ce soit dans le domaine de la robotique ou autre, s’appuie sur une certaine conception de l’homme et du monde, qui peut être parfois totalement déconnectée. Ainsi, bien qu’elle se veuille «éthique», l’approche de l’Union européenne n’est pas nécessairement bonne, tout dépend des fondements anthropologiques sur lesquels elle s’appuie.

Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans le domaine de l’I.A.

En 2017, par exemple, le rapport Delvaux présenté auprès de la Commission européenne a provoqué beaucoup de débats. Dans ce rapport législatif, la député européenne luxembourgeoise Maddy Delvaux, proposait certaines mesures très idéalisées et idéologisées quant à la défense des robots. Certains articles présentaient l’augmentation de l’homme comme quelque chose d’essentiellement positif, d’autres établissaient la notion de personnalité morale pour les robots, afin de les faire sujets de droits… La version originale voulait même permettre aux robots d’avoir un patrimoine assurantiel et d’investir en Bourse, afin de pouvoir financer leur propre évolution, on nageait en plein délire dystopique. Ce texte s’appuyait sur une conception de l’homme et de la machine totalement déconnectée de la réalité, qui ne différenciait plus le vivant du mécanique.

Nous avons donc rédigé une lettre ouverte à la Commission européenne, avec le soutien de 300 signataires européens, afin d’alerter sur les dangers de ce projet. Et parmi ces 300 personnes, il n’y avait pas que des représentants du secteur technologique, mais aussi des philosophes, des anthropologues, des psychiatres, et même des théologiens, pour bien rappeler ce qu’est l’homme, et sa différence avec la machine. Il est nécessaire de remettre les penseurs au centre de la réflexion sur l’intelligence artificielle, et de les intégrer aux groupes d’experts de la Commission européenne. Cependant, malgré quelques modifications et une large médiatisation de notre lettre ouverte, le rapport Delvaux a fini par être adopté.

Comment l’État et l’Union européenne peuvent-ils mettre en place une éthique de l’intelligence artificielle, alors qu’ils se proclament neutre et refusent d’imposer des normes morales à l’individu ?

C’est le principal problème de notre époque. Légiférer sur des questions morales à propos de l’IA est devenu presque impossible aujourd’hui, du fait du relativisme de notre société. Il n’y a plus de socle commun, de principes universels sur lesquels s’appuyer. Quand on ne sait plus dire ce qu’est l’homme, on ne sait plus dire ce qu’est la machine. L’individu moderne ne supporte plus d’autre ordre moral et naturel que son propre désir. Le «je» est devenu la mesure de l’humanité. Et la déconnexion du réel, liée au numérique, renforce ce relativisme. Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans ce domaine.

Les comités censés être «éthiques», ont donc tendance à s’appuyer non pas sur la morale mais sur une logique capitalistique, car les bénéfices, eux, ne sont pas relatifs. Et on a vu cela très clairement dans le «Guide d’éthique de la Commission européenne» sur l’intelligence artificielle, qui a fait suite au rapport Delvaux. Parmi les 53 experts qui ont participé à ce guide, 90% d’entre eux étaient dans le business technologique, experts, ou représentants de groupes de consommateurs, mais il n’y avait presque aucun philosophe, anthropologue, ou psychiatre… L’approche n’était absolument pas humaine, mais économique. Si l’on ne se pose pas la question de ce qu’est l’homme, les guides d’éthique sur l’IA risquent de se transformer en véritables projets dystopiques et transhumanistes.
Que conseillez-vous pour encadrer l’utilisation de l’IA et répondre aux problèmes d’éthique ?

J’avais proposé plusieurs éléments lors de la rédaction du «Guide d’éthique sur l’I.A» à l’Union européenne. Une des propositions portait sur la liberté de l’individu. L’idée était de permettre à l’utilisateur, s’il ne veut pas passer par un algorithme, que ce soit pour un contrat d’assurance, un prêt ou autre, de demander une interaction humaine. Je recommandais donc une graduation, une notation, qui permet de voir si on a affaire à un service «entièrement I.A», «IA avec supervision humaine», ou «entièrement humain». Quand on parle de justice, de banque, de gestion du patrimoine, et surtout des droits de l’homme, il est essentiel de savoir à qui on a affaire, un humain ou une I.A. Mais ça n’a pas été repris, l’approche de ce guide d’éthique est restée bien plus juridique qu’éthique.

J’avais également tenté de mettre en place un label pour les algorithmes, qui s’appelait «Ethic inside», et qui garantirait le respect des règles éthiques européennes. Mais il est presque impossible de suivre le chemin par lequel un algorithme en est arrivé à telle ou telle décision, et donc de dire s’il est éthique ou non, s’il respecte les règles. Il y a également la question de la responsabilité qui complique les choses. Qui est responsable des décisions d’un algorithme : l’entreprise, le développeur, l’utilisateur, ou l’IA elle-même ? Comment objectiver le caractère moral d’un algorithme si on ne peut même pas répondre à cette question ? Les développeurs ne peuvent pas être jugés responsables d’algorithmes tellement complexes qu’ils ne les maîtrisent plus totalement. Par sa nature même, l’I.A échappe en partie à notre contrôle, et on ne va pas pour autant lui donner une personnalité morale… C’est un vrai casse-tête. Il est donc extrêmement compliqué de mettre en place des points de contrôle pour des algorithmes aussi complexes, surtout quand ils sont mondialisés sur internet.

Intelligence artificielle : quelle éthique ?

Intelligence artificielle : quelle éthique ?

 Pour Laetitia Pouliquen, directrice du think tank «NBIC Ethics», si la généralisation de l’IA et des algorithmes ne s’accompagne pas d’une réflexion sur la nature de l’homme, la société risque de sombrer dans des dérives dystopiques et transhumanistes. Interview dans le Figaro
Laetitia Pouliquen est directrice de «NBIC Ethics», un think tank traitant de l’éthique des technologies auprès des institutions européennes. Elle est également l’auteur de Femme 2.0: Féminisme et transhumanisme: quel avenir pour la femme? (éd. Saint-Léger, 2016).
Pour beaucoup, la généralisation de l’intelligence artificielle dans notre quotidien va profondément transformer notre mode de vie. Pensez-vous que le monopole des GAFAM dans ce domaine laisse suffisamment de place à une réflexion éthique quant à ces changements ?
Laetitia POULIQUEN. – Il est évident que notre quotidien va être profondément transformé, que ce soit dans notre rapport au réel ou à l’autre, par l’immission de la machine, de l’IA, et des algorithmes dans nos vies journalières. Le social, le sociétal, et même l’anthropologie sont en train de se refaçonner. La digitalisation de notre quotidien nous fait perdre de vue une certaine vision de l’homme. Face à ces changements, une réflexion morale est nécessaire pour établir un cadre légal, pour ne pas oublier ce qu’est l’homme et en quoi se différencie-t-il de la machine.

Cette réflexion éthique dans le domaine de l’I.A est tout à fait possible, notamment dans le cadre de l’Union européenne. Nous, européens, sommes pris entre deux feux, d’une part les GAFAM américaines, et d’autre part les BATX chinoises (Baidu, Alibaba, Tencent et Xiaomi), et nous restons limités en termes d’investissement, de recherche et de développement. Cependant, notre approche qui est plus axée sur l’éthique que sur l’investissement, nous confère un rôle tout particulier dans le développement des nouvelles technologies. L’Europe est historiquement le premier foyer de réflexion philosophique et morale, et doit continuer de l’être dans les secteurs de pointe.

L’approche morale de l’Union européenne vis-à-vis de l’IA, notamment avec son «Guide éthique de l’intelligence artificielle», est-elle toujours pertinente ?

Toute réflexion morale, que ce soit dans le domaine de la robotique ou autre, s’appuie sur une certaine conception de l’homme et du monde, qui peut être parfois totalement déconnectée. Ainsi, bien qu’elle se veuille «éthique», l’approche de l’Union européenne n’est pas nécessairement bonne, tout dépend des fondements anthropologiques sur lesquels elle s’appuie.

Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans le domaine de l’I.A.

En 2017, par exemple, le rapport Delvaux présenté auprès de la Commission européenne a provoqué beaucoup de débats. Dans ce rapport législatif, la député européenne luxembourgeoise Maddy Delvaux, proposait certaines mesures très idéalisées et idéologisées quant à la défense des robots. Certains articles présentaient l’augmentation de l’homme comme quelque chose d’essentiellement positif, d’autres établissaient la notion de personnalité morale pour les robots, afin de les faire sujets de droits… La version originale voulait même permettre aux robots d’avoir un patrimoine assurantiel et d’investir en Bourse, afin de pouvoir financer leur propre évolution, on nageait en plein délire dystopique. Ce texte s’appuyait sur une conception de l’homme et de la machine totalement déconnectée de la réalité, qui ne différenciait plus le vivant du mécanique.

Nous avons donc rédigé une lettre ouverte à la Commission européenne, avec le soutien de 300 signataires européens, afin d’alerter sur les dangers de ce projet. Et parmi ces 300 personnes, il n’y avait pas que des représentants du secteur technologique, mais aussi des philosophes, des anthropologues, des psychiatres, et même des théologiens, pour bien rappeler ce qu’est l’homme, et sa différence avec la machine. Il est nécessaire de remettre les penseurs au centre de la réflexion sur l’intelligence artificielle, et de les intégrer aux groupes d’experts de la Commission européenne. Cependant, malgré quelques modifications et une large médiatisation de notre lettre ouverte, le rapport Delvaux a fini par être adopté.

Comment l’État et l’Union européenne peuvent-ils mettre en place une éthique de l’intelligence artificielle, alors qu’ils se proclament neutre et refusent d’imposer des normes morales à l’individu ?

C’est le principal problème de notre époque. Légiférer sur des questions morales à propos de l’IA est devenu presque impossible aujourd’hui, du fait du relativisme de notre société. Il n’y a plus de socle commun, de principes universels sur lesquels s’appuyer. Quand on ne sait plus dire ce qu’est l’homme, on ne sait plus dire ce qu’est la machine. L’individu moderne ne supporte plus d’autre ordre moral et naturel que son propre désir. Le «je» est devenu la mesure de l’humanité. Et la déconnexion du réel, liée au numérique, renforce ce relativisme. Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans ce domaine.

Les comités censés être «éthiques», ont donc tendance à s’appuyer non pas sur la morale mais sur une logique capitalistique, car les bénéfices, eux, ne sont pas relatifs. Et on a vu cela très clairement dans le «Guide d’éthique de la Commission européenne» sur l’intelligence artificielle, qui a fait suite au rapport Delvaux. Parmi les 53 experts qui ont participé à ce guide, 90% d’entre eux étaient dans le business technologique, experts, ou représentants de groupes de consommateurs, mais il n’y avait presque aucun philosophe, anthropologue, ou psychiatre… L’approche n’était absolument pas humaine, mais économique. Si l’on ne se pose pas la question de ce qu’est l’homme, les guides d’éthique sur l’IA risquent de se transformer en véritables projets dystopiques et transhumanistes.
Que conseillez-vous pour encadrer l’utilisation de l’IA et répondre aux problèmes d’éthique ?

J’avais proposé plusieurs éléments lors de la rédaction du «Guide d’éthique sur l’I.A» à l’Union européenne. Une des propositions portait sur la liberté de l’individu. L’idée était de permettre à l’utilisateur, s’il ne veut pas passer par un algorithme, que ce soit pour un contrat d’assurance, un prêt ou autre, de demander une interaction humaine. Je recommandais donc une graduation, une notation, qui permet de voir si on a affaire à un service «entièrement I.A», «IA avec supervision humaine», ou «entièrement humain». Quand on parle de justice, de banque, de gestion du patrimoine, et surtout des droits de l’homme, il est essentiel de savoir à qui on a affaire, un humain ou une I.A. Mais ça n’a pas été repris, l’approche de ce guide d’éthique est restée bien plus juridique qu’éthique.

J’avais également tenté de mettre en place un label pour les algorithmes, qui s’appelait «Ethic inside», et qui garantirait le respect des règles éthiques européennes. Mais il est presque impossible de suivre le chemin par lequel un algorithme en est arrivé à telle ou telle décision, et donc de dire s’il est éthique ou non, s’il respecte les règles. Il y a également la question de la responsabilité qui complique les choses. Qui est responsable des décisions d’un algorithme : l’entreprise, le développeur, l’utilisateur, ou l’IA elle-même ? Comment objectiver le caractère moral d’un algorithme si on ne peut même pas répondre à cette question ? Les développeurs ne peuvent pas être jugés responsables d’algorithmes tellement complexes qu’ils ne les maîtrisent plus totalement. Par sa nature même, l’I.A échappe en partie à notre contrôle, et on ne va pas pour autant lui donner une personnalité morale… C’est un vrai casse-tête. Il est donc extrêmement compliqué de mettre en place des points de contrôle pour des algorithmes aussi complexes, surtout quand ils sont mondialisés sur internet.

Environnement et intelligence artificielle ?

Environnement et intelligence artificielle ?

 

Autour de nous, nous observons le numérique envahir tous les autres secteurs. L’intelligence artificielle (IA) est l’un des derniers maillons de ce bouleversement technologique : elle accompagne désormais tout traitement automatique qui exploite le déluge de données numériques. Mais au vu des enjeux écologiques auxquels nous faisons face aujourd’hui, sera-t-il possible de concevoir une IA respectueuse des contraintes environnementales ? Avant de rentrer dans le sujet de l’IA frugale, il convient de poser le décor. La crise climatique sans précédent à laquelle nous faisons face a commencé avec la révolution industrielle, au milieu du XIXe siècle, qui a planté les germes de notre société de consommation actuelle. Le changement climatique n’est pas la seule menace environnementale : stress hydrique, épuisement des ressources, perte de la biodiversité… Mais c’est sans doute la plus visible et la plus documentée, et donc celle qui peut nous aider à mieux appréhender les autres.

 

par
Denis Trystram
Professeur des universités en informatique, Université Grenoble Alpes (UGA)

Thierry Ménissier
Professeur de philosophie politique, Université Grenoble Alpes (UGA) -

The Conversation
Le secteur du numérique n’est pas facile à cerner, car il est dilué partout. Selon l’ADEME, il représente 2,5 % des émissions carbone de la France en 2022. Ces dernières années, le domaine a connu une forte croissance et les études prospectives envisagent principalement des scénarios de poursuite de cette croissance, au moins à moyen terme.

Un petit calcul réalisé à partir de données publiques sur le scénario SSP1-19 du GIEC, un des plus optimistes, souligne l’aberration de cette croissance. Si le secteur croît selon la prévision la plus basse de croissance, le numérique émettrait 6 fois plus que l’objectif du scénario de décroissance des émissions mondiales de CO₂ d’ici à 2050 ! Même si la croissance du secteur stagnait au niveau d’aujourd’hui, il représenterait trois quarts des émissions totales… Dans un tel monde, que nous resterait-il pour le reste ?

Si on se focalise sur l’IA, on observe une rupture claire à partir de 2012. La croissance du secteur s’emballe alors avec un doublement des besoins en puissance de calcul tous les 5-6 mois au lieu de 24 mois, chiffre jusqu’alors stable de la classique loi empirique de Moore. Cette date correspond au développement des modèles d’IA reposant sur l’apprentissage profond, ou deep learning, rendus possibles par l’utilisation de processeurs graphiques (GPU) pour effectuer les calculs à la base de l’apprentissage profond et par le développement des données ouvertes sur Internet. Rappelons que l’IA n’est pas réduite à l’apprentissage par réseaux de neurones profonds, mais ce sont incontestablement ces derniers qui sont les plus gourmands.

Un nouveau palier a été atteint en 2023, avec l’explosion des modèles génératifs comme l’agent conversationnel ChatGPT. Même s’il est difficile d’avancer des chiffres précis, étant donné que les « géants de la tech » comme OpenAI, Meta ou Microsoft qui sont à l’origine des plus gros modèles ne communiquent plus sur ces données, cette diffusion à large échelle est très inquiétante.
ChatGPT est basé sur le modèle GPT-3, remplacé aujourd’hui par une version améliorée GPT-4. Ce n’est pas le seul, mais c’est le plus populaire et un de ceux pour lequel il existe des données. Le modèle sur lequel il s’appuie possède 176 milliards de paramètres et a nécessité 552 tonnes d’équivalent CO2 pour son entraînement en Californie. En termes de consommation électrique (indicateur plus objectif au sens où il ne dépend pas du mix énergétique), le modèle a tourné des jours sur près de 4 000 gros GPU de Nvidia dont la consommation a été estimée à 1 283 MWh (megawatt-heure, soit 1 000 kWh).

La phase d’usage est bien plus consommatrice encore ! Chaque jour, les quelque dix millions d’utilisateurs mobilisent 564 MWh d’électricité. Les annonces récentes des patrons d’OpenAI et Microsoft sur des commandes de centaines de milliers de GPU pour alimenter les futures versions sont vertigineuses en termes de consommation et d’impact environnemental. Avec sa capacité de production actuelle, le constructeur Nvidia est loin de pouvoir en produire autant.

ChatGPT n’est que l’élément visible de cette galaxie. Aujourd’hui, l’IA est un moteur de la croissance exponentielle du secteur du numérique, avec une explosion du nombre d’applications et services qui utilisent l’IA générative. Le développement de l’IA à ce rythme n’est bien entendu pas soutenable tel quel.

On ne pourra soutenir cette croissance que si l’IA permet des économies d’émissions considérables dans tous les autres secteurs. C’est la voix majoritaire qui porte le message d’une IA qui va nous aider à sortir de la crise. Malgré de trop nombreuses applications inutiles ou questionnables, il existe des apports bénéfiques pour la société notamment pour simuler et analyser des phénomènes physiques complexes comme l’étude de scénarios pour contrer la crise climatique. Encore faut-il que ces solutions ne soient pas in fine pires que le mal ! Par exemple, l’IA va permettre aux entreprises exploitant les énergies fossiles d’optimiser leur activité et donc d’émettre encore plus de CO₂.

Partout, on entend parler d’IA frugale sans que ce terme soit clairement défini. Dans le langage usuel, la sobriété est souvent entendue comme la réaction adéquate face à une consommation abusive d’alcool. Dans le contexte de l’IA, cela renvoie plutôt à la simplicité (ce qui est clairement insuffisant ici), à la modération, voire l’abstinence. Frugalité et sobriété sont souvent considérées comme synonymes ; il est également possible de considérer que la frugalité concerne le fonctionnement des systèmes techniques tandis que la sobriété renvoie à leur usage dans le cadre des pratiques sociales.

Les deux dimensions se complètent dans le sens où tout système technique s’adresse à des usages qui se trouvent de la sorte facilités et encouragés. Ainsi, plus le système apparaît propice à l’usage, plus son impact s’accroît : c’est ce que l’on appelle l’effet rebond. Cependant, le plus pertinent est la définition en creux : le contraire de la frugalité est ainsi qualifié de gloutonnerie selon Le Robert. Il est donc possible de considérer que la frugalité-sobriété comme une vertu qui s’apprécie en négative, en fonction de la quantité de ressources que l’on ne consomme pas.

Or, caractériser une IA frugale s’avère difficile pour plusieurs raisons. D’une part, les analyses existantes ciblent souvent l’entraînement des modèles et/ou la phase d’usage, mais ignorent le cycle de vie complet du service ou du produit. Cela inclut la production, l’utilisation et le stockage des données, et l’infrastructure matérielle mise en œuvre, depuis la fabrication jusqu’à la fin de vie de tous les équipements impliqués. D’autre part, pour un service reconnu comme utile pour la société, il conviendrait d’estimer les volumes de données impliquées dans le processus et les effets positifs indirects induits par son déploiement. Par exemple, un système d’optimisation énergétique pour un appartement peut permettre une augmentation de confort ou le déploiement de nouveaux services grâce aux économies réalisées.

Aujourd’hui, les termes de frugalité ou de sobriété sont souvent synonymes d’efficacité énergétique : on imagine et développe une solution sans prendre en compte son coût environnemental, puis on l’améliore de ce point de vue dans un second temps. Il faudrait au contraire s’interroger en amont sur les effets avant le déploiement du service, quitte à y renoncer.

L’IA frugale est donc caractérisée par une contradiction intrinsèque, au vu de la boulimie d’énergie et de données aujourd’hui nécessaire à l’entraînement des gros modèles et à leurs usages, au mépris des risques considérables pour l’environnement. En matière d’IA, la frugalité doit aller bien plus loin que la simple efficacité : elle doit d’abord être compatible avec les limites planétaires. Elle doit aussi interroger les usages en amont, jusqu’au renoncement de certains services et pratiques, en se basant sur des analyses de cycle de vie complètes et rigoureuses.

Les finalités que recouvrent ces développements technologiques devraient au moins être collectivement débattues. Derrière l’argument d’une efficacité accrue se cache la compétition entre souverainetés nationales ou la concurrence entre des firmes intéressées par des profits colossaux. Il n’y a rien dans ces finalités qui ne soit considéré à l’aune d’une approche éthique.

Une évaluation des systèmes d’algorithmes à l’aide des éthiques environnementales contemporaines permet même de fonder la notion de sobriété sur d’autres bases. En effet, et en dépit de leur variété, ces éthiques ne considèrent pas la Nature (l’eau, l’air, les matériaux et les vivants) comme des ressources à disposition de la seule espèce humaine, engagée dans la compétition technologique et l’hédonisme industriel. En conclusion, on pourrait affirmer que s’ouvre aujourd’hui pour la recherche responsable en IA une perspective aussi formidable que difficile à réaliser : proposer des modèles et des systèmes les plus compatibles possibles avec une telle définition « forte » de la sobriété.

Intelligence artificielle et recherche

Intelligence artificielle et recherche

 

 Le développement des outils d’intelligence artificielle bouleverse en profondeur l’enseignement supérieur. Impossible de continuer à former les futurs chercheurs sans tenir compte de ces technologies. Par Cylien Gibert et Audrey Rouzies (*) dans La Tribune.

Au début des années 2000, nos directeurs de thèse nous expliquaient la chance que nous avions de bénéficier, grâce à la révolution numérique, d’un accès instantané à l’intégralité des productions scientifiques via des bases de données.  Ils nous décrivaient « le monde d’avant », celui où se procurer un ouvrage supposait de se rendre jusqu’à une bibliothèque parfois éloignée et d’y passer de longues heures à faire des photocopies. Ces superviseurs voyaient ces tâches traditionnelles comme participant à la construction des jeunes chercheurs et se demandaient ce que deviendrait ce « tour de main » avec la révolution numérique.

Le développement rapide de l’IA nous renvoie aujourd’hui à des questionnements similaires : les futurs chercheurs risquent-ils de ne plus avoir les compétences et les savoir-faire essentiels à l’exercice de leur métier ? Si les opportunités et menaces de l’IA sur les activités d’enseignement ont été immédiatement identifiées et mises au cœur des réflexions, cette avancée technologique pose également des défis significatifs pour la formation des futurs chercheurs qui n’ont pour leur part pas encore été pris en considération.

L’acquisition de méthodes de collecte et d’analyse de données complexes constitue aujourd’hui l’un des piliers de la formation des doctorants. Il s’agit par exemple de savoir coder une grande quantité de données narratives, de développer des designs d’expérimentation adaptés, ou d’utiliser des outils statistiques complexes. Or l’IA (par exemple ChatGPT et son module « data analyst ») automatise et accélère de façon drastique ce travail de traitement des données.

Les générations futures peuvent-elles se passer d’apprendre à réaliser ces collectes et à mener ces analyses en les sous-traitant à l’IA ? Cette dépendance technologique pourrait les rendre vulnérables dans des situations où l’IA s’avèrera inadaptée ou inaccessible. Plus grave encore, elle pourrait diminuer leurs capacités critiques avec une acceptation passive des résultats générés : le doctorant qui aurait systématiquement confié ses analyses à l’IA serait incapable d’en détecter les erreurs.

D’autre part, l’utilisation d’une IA formée sur des données existantes soulève des inquiétudes. Est-il possible que le recours à l’IA pousse à reproduire des erreurs et des biais déjà présents dans les données d’entraînement, créant ainsi un risque de récursivité ? En outre, l’utilisation généralisée de l’IA basée sur des données d’entraînement préexistantes pourrait-elle conduire à des résultats qui ne remettent pas en cause le statu quo, limitant ainsi la nouveauté des futures découvertes scientifiques?

Face à ces défis, une approche équilibrée s’impose. Il est nécessaire de valoriser les nouvelles compétences techniques permettant d’utiliser l’IA, en gardant une posture critique vis-à-vis du recours à cette technologie. Il s’agit par ailleurs de continuer à transmettre aux doctorants des compétences analytiques fondamentales afin qu’ils conservent leur autonomie intellectuelle.

Dans les écoles doctorales, le renforcement des cours dédiés au développement de la pensée critique, tels que l’épistémologie et les diverses approches méthodologiques, est une piste. L’intégration de modules d’éthique de la recherche et d’intégrité scientifique directement en lien avec l’utilisation de l’IA en est une autre. In fine, il s’agit d’inculquer aux futurs chercheurs la responsabilité de l’exactitude des résultats qu’ils produisent, y compris si ces derniers sont générés par l’IA.

L’objectif est de s’assurer que l’utilisation des outils d’IA ne détruise pas à terme ce qui fait la valeur de ce métier : rigueur de la démarche méthodologique, sens critique et réflexivité. Ouvrons le dialogue au sein des centres de recherche et des écoles doctorales afin de construire des solutions collectives qui permettront de faire perdurer la capacité à créer des connaissances nouvelles.

_______

(*) Audrey Rouzies est directrice de l’Ecole doctorale de gestion à l’Université Toulouse Capitole et Cylien Gibert est chercheur en sciences de gestion à Toulouse School of Management Research.

Intelligence artificielle : nouvelle version de ChatGPT

Intelligence artificielle : nouvelle version de ChatGPT

 

 OpenAI, l’éditeur de ChatGPT, a présenté lundi 13 mai son nouveau modèle d’intelligence artificielle générative, GPT-4o, censé apporter à tous ses utilisateurs ses capacités les plus avancées en production et compréhension de texte, d’images et de sons et voix. « Nous sommes vraiment ravis d’apporter GPT-4o à tous nos utilisateurs gratuits. Les utilisateurs payants continueront à bénéficier de limites en termes d’utilisation cinq fois plus élevées que les utilisateurs gratuits », a déclaré Mira Murati, directrice technologique de la start-up californienne, lors d’une présentation vidéo diffusée en direct.

« Mais c’est la première fois que nous faisons un grand pas en avant en matière de facilité d’utilisation. C’est extrêmement important, il s’agit de l’avenir de l’interaction entre nous et les machines », a-t-elle ajouté. OpenAI a dévoilé un nouveau modèle, GPT-4o (« o » pour « omni »), qui peut  »raisonner » en temps réel via l’audio, la vision et le texte. Ces nouvelles capacités vont être progressivement ajoutées à ChatGPT, en commençant par le texte et l’image, d’abord pour les abonnés payants, ainsi que les utilisateurs gratuits, avec des limites en matière d’usage. La nouvelle version du « Voice Mode » (mode vocal) doit arriver dans les prochaines semaines pour les abonnés.

Intelligence artificielle : un peu trop d’emballement

Intelligence artificielle : un peu trop d’emballement

 

Le secteur de l’IA montre des signes d’emballement, notamment en raison du décalage entre les investissements et les revenus attendus, explique dans sa chronique Alexandre Piquard, journaliste au « Monde ».

 

L’intelligence artificielle (IA) fait-elle l’objet d’un emballement ? Les très fortes attentes placées dans cette technologie capable de créer du texte ou de l’image risquent-elles d’être déçues ? Des signes pointent en ce sens. Depuis le succès foudroyant du robot conversationnel ChatGPT, lancé le 30 novembre 2022, les géants du numérique sont engagés dans une course pour dominer ce secteur, suivis par une myriade de start-up aux valorisations parfois stratosphériques, comme OpenAI, à 80 milliards de dollars (72 milliards d’euros).Des dirigeants d’entreprises de tech décrivent l’IA comme une innovation « plus profonde que le feu ou l’électricité » (Google) ou comme une révolution technologique inédite, susceptible d’ouvrir une ère « d’abondance » où les machines libéreraient les humains d’une bonne part de leur travail (OpenAI).

« Attention à l’euphorie de l’IA », met en garde l’éditorialiste du Financial Times Rana Foroohar. « Même si vous croyez que l’IA est l’équivalent de l’électricité ou d’Internet, nous ne sommes qu’au début d’une transformation hautement complexe qui durera plusieurs décennies et est loin d’être jouée d’avance », prévient-elle.

« L’IA est une bulle », croit l’essayiste spécialiste du numérique Cory Doctorow. Se poser la question est comme se demander « si le pape est catholique », abonde le chroniqueur du Guardian John Naughton, enseignant et auteur de From Gutenberg to Zuckerberg : What You Really Need to Know About the Internet (« de Gutenberg à Zuckerberg : ce qu’il faut vraiment savoir à propos d’Internet », Quercus, 2012, non traduit).

« La “hype” autour de l’IA rappelle le boom et le crash des télécoms au début des années 2000, pendant la bulle Internet », écrit l’éditorialiste financière du Financial Times, June Yoon. Dans les cinq étapes du cycle de la « hype » (« engouement ») autour d’une technologie, théorisées par l’institut Gartner, l’IA en serait au deuxième : le « pic d’attentes exagérées », avant le « creux de la désillusion ». La « hype » autour de l’IA risque de créer des déceptions.

Sondage-Intelligence artificielle : une révolution à réguler

Sondage-Intelligence artificielle : une révolution à réguler 

Les applications d’intelligence artificielle (IA) sont une révolution technologique majeure pour l’humanité, pour six Français sur dix (61%), au même titre que l’a été l’invention de l’imprimerie par exemple. C’est ce qui ressort du Baromètre 2024 de l’esprit critique réalisé par OpinionWay pour Universcience publié jeudi 21 mars. Mais pour plus de huit Français sur dix (85%), il est nécessaire d’encadrer et de réglementer leur utilisation, car elles posent, pour les trois quarts des personnes interrogées (77%), de nouvelles questions éthiques et juridiques en matière de responsabilité et de droits. – (Franceinfo)

Sur les possibilités offertes par ces technologies, 68% des sondés estiment que les applications de l’IA ne peuvent pas prendre de décisions autonomes, puisqu’elles suivent des programmes informatiques définis. 59% des Français jugent qu’elles ne sont pas créatives et innovantes, car elles assemblent des contenus déjà existants. Selon cette enquête, seuls 19% des sondés les croient parfaitement fiables. Quant à savoir si les IA sont plus neutres que les humains, le panel étudié est plus divisé. 42% répondent que oui, elles sont plus neutres, quand 38% estiment qu’elles ne le sont pas.

Le sondage interroge également la vision qu’ont les Français sur les avantages et les risques liés à l’IA. Et ils restent assez partagés, estimant globalement qu’il y a autant de risques que d’avantages à utiliser ces applications. Dans le détail, c’est la perception du risque qui domine pour le domaine des relations humaines. 37% des Français ont ce sentiment, quand 31% estiment qu’il y a autant de risques que d’avantages à utiliser l’IA dans les relations humaines. 10% y voient essentiellement des avantages. Le risque de l’IA est également prédominant pour l’information (33%) et pour l’emploi (31%), même si 34% des sondés voient également autant de risques que d’avantages pour ces deux domaines.

La perception des Français est également très nuancée sur l’apport de l’IA pour la santé, la recherche, les sciences et les transports. Les applications ont autant de risques que d’avantages dans le domaine de la santé (35%), les sciences et la recherche scientifique (36%) et les transports (33%). Mais c’est sur ces trois domaines que les sondés voient le plus d’avantages. Ils sont 29% à percevoir cet avantage pour la santé, 28% pour les sciences et la recherche scientifique, et 26% pour les transports.

L’enquête révèle par ailleurs que les Français se fient majoritairement à l’intelligence artificielle pour détecter des erreurs dans des textes ou des programmes informatiques, pour 75% des sondés, analyser des grandes quantités de données (73%), trouver des informations (70%), approfondir ses connaissances (65%), ou même écrire un texte (64%). À l’inverse, ils sont plus méfiants quand la question de responsabilité entre en jeu. Seul un quart des personnes interrogées (25%) font confiance aux applications de l’IA pour rendre des décisions de justice. Ils sont 28% à assurer que l’IA peut piloter un avion en toute confiance, ou conduire une voiture (34%). Et ils sont 33% à avoir confiance dans l’IA pour prescrire des médicaments, ou pour réaliser un diagnostic médical (41%).

Enfin pour évaluer les risques et bénéfices de l’IA, les Français ont avant tout confiance dans les scientifiques, les musées et journalistes spécialisés. Les personnes interrogées pour le baromètre plébiscitent en priorité les scientifiques et les chercheurs en général (68%), les musées et centres de culture scientifique (59%) et les journalistes scientifiques (56%). Mais les sondés restent très méfiants envers les entreprises. Ils sont seulement 34% à leur faire confiance et même 29% pour les entreprises du numérique du type Gafam. La défiance envers les élus ou les représentants politique est également forte. Seuls 22% des Français leur font confiance pour évaluer les risques et bénéfices de l’IA. La cote de confiance des influenceurs et personnalités publiques est également basse, à 17%.

________________________________________

Le Baromètre 2024 de l’esprit critique réalisé par OpinionWay pour Universcience a été réalisé par un questionnaire en ligne du 31 janvier au 12 février, sur un échantillon de 2 004 personnes, représentatif de la population française âgée de 18 ans et plus.

voir les commentaires

Pa

Nouvelle technologie-Intelligence artificielle : « risques majeurs pour l’humanité» ?

Nouvelle technologie-Intelligence artificielle : « risques majeurs pour l’humanité» ?


IA: Des conséquences bien sûr technologiques mais aussi sociales, économiques et même démocratiques. La technique pourrait bien échapper à ses créateurs faute de régulation.

Des centaines de chercheurs dans le monde demandent une peau concernant l’utilisation de l’intelligence artificielle en attendant sa régulation. «Ces derniers mois ont vu les laboratoires d’IA s’enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable», peut-on lire dans la tribune parue sur le site de la fondation américaine Future of Life.

«Les systèmes d’IA puissants ne devraient être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables.»

Les signataires réclament donc un moratoire jusqu’à la mise en place de systèmes de sécurité, dont de nouvelles autorités réglementaires dédiées, «la surveillance et le suivi des systèmes d’IA hautement performants», «un financement public robuste pour la recherche technique sur la sécurité de l’IA », «un écosystème robuste d’audit et de certification», des techniques pour aider à distinguer le réel de l’artificiel et des institutions capables de gérer les «perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA provoquera».

«Devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? », poursuivent les signataires. «Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus.» Parmi les applications de l’intelligence artificielle figurent en particulier la rapidité de développement de GPT.

Intelligence artificielle générative et désinformation

Intelligence artificielle générative et désinformation

Les progrès récents de l’intelligence artificielle générative (ces outils qui permettent de produire du texte, du son, des images ou des vidéos de manière complètement automatique) font craindre un regain de fausses informations. Cette crainte est exacerbée par le fait que de très nombreuses élections vont avoir lieu dans les mois à venir, à commencer par les élections européennes. Qu’en est-il vraiment ?

Par   DR CNRS, École normale supérieure (ENS) – PSL

Il faut déjà observer que, même si l’idée que l’IA générative est une source de danger en matière de désinformation est largement répandue, le point de vue opposé existe aussi. Ainsi, pour les chercheurs Simon, Altay et Mercier, l’arrivée des systèmes génératifs ne change pas fondamentalement la donne, ni sur le plan qualitatif, ni sur le plan quantitatif.

Ils remarquent que les sources d’information traditionnelles continuent d’occuper le haut du pavé (la grande majorité des gens s’informent à travers les médias traditionnels, qui gardent un pouvoir d’influence supérieur). Le public qui s’informe à partir de médias alternatifs et qui « consomme » des fausses informations est, selon eux, déjà abreuvé de telles sources et ne recherche pas tant une information précise que des informations qui confirment leurs idées (fondées sur une méfiance généralisée vis-à-vis des politiques et des médias).

Leur étude contredit le point de vue courant, voyant dans l’IA une source de danger majeure pour la démocratie. Elle repose sur des enquêtes qui montrent effectivement le poids de l’idéologie en matière de consommation d’information (on est orienté en fonction de son idéologie quand on s’informe, et un biais classique consiste à vouloir confirmer ce que l’on croit, quand plusieurs interprétations d’un événement sont possibles).

Il semble que l’augmentation des capacités de production de texte ne soit pas l’élément essentiel : c’est la capacité à diffuser l’information qui joue un rôle majeur. C’est aussi vrai pour les images et les vidéos, mais l’IA générative semble quand même ici créer une vraie rupture. La prise en main d’un outil comme Photoshop est longue et complexe ; à l’inverse, des outils d’IA comme Dall-e et Midjourney pour l’image, ou Sora pour la vidéo, permettent de générer des contenus réalistes à partir de quelques mots clés seulement, et on connaît le poids de l’image dans l’information. La possibilité de créer automatiquement de fausses vidéos avec la voix, et même le mouvement des lèvres rendu de façon hyper réaliste, crée aussi un état de fait nouveau, qui n’était pas imaginable il y a encore quelques mois.

Notons enfin que les outils de détection de documents générés par IA sont très imparfaits et aucune solution ne permet à l’heure actuelle de déterminer à 100 % si un document est d’origine humaine ou non. Le marquage automatique (watermarking, code indétectable à l’œil nu, mais indiquant qu’un document a été généré par une IA) pourra aider, mais il y aura bien évidemment toujours des groupes capables de produire des fichiers sans marquage, à côté des grosses plates-formes ayant pignon sur rue (il s’agit de procédés qui ne sont pas encore mis en œuvre à large échelle, mais qui pourraient l’être avec l’évolution de la législation).

Mais, au-delà, l’argumentaire montre surtout que ce n’est pas l’IA le point essentiel dans ce problème, mais une question avant tout humaine et sociale. La consommation de fausses informations est souvent motivée par des sentiments d’opposition envers les institutions et les corps sociaux établis, perçus comme ayant failli dans leur mission. La crise du Covid en a fourni une illustration récente, avec l’émergence rapide de figures très médiatisées, en opposition frontale et systématique avec les mesures proposées, et très soutenues par leurs supporters sur les médias sociaux.

Pour de nombreux individus, la propagation et la consommation de fausses informations sont un moyen de remettre en question l’autorité et de s’opposer au statu quo. En ralliant ceux qui partagent des points de vue similaires, la diffusion de fausses informations peut également servir à créer un sentiment d’appartenance et de solidarité au sein de groupes qui s’opposent au pouvoir en place. Dans ce contexte, la désinformation devient un outil pour la construction de communautés unies par des valeurs ou des objectifs communs, renforçant ainsi leur cohésion et leur résilience face aux structures de pouvoir établies. Cette dynamique entraîne donc une polarisation accrue et des divisions au sein de la société, c’est même un objectif quasi revendiqué de certains émetteurs de fausses informations, qui ne s’en cachent pas.

La propagation de la désinformation est donc favorisée par les « fractures de la société » où les divisions sociales, politiques et économiques sont prononcées (phénomène largement étudié par Jérôme Fourquet ; Ipsos mène aussi régulièrement des enquêtes sur ce thème).

Dans ces contextes, les individus peuvent être plus enclins à croire et à propager des théories du complot, des rumeurs et des fausses informations qui correspondent à leurs préjugés, à leurs craintes ou à leurs frustrations. Une société fragmentée est caractérisée par un manque de confiance mutuelle et une polarisation croissante, ce qui crée un terrain fertile pour la propagation de la désinformation. La cohésion sociale et la confiance mutuelle jouent un rôle crucial dans la prévention de la propagation de la désinformation et dans le maintien de la santé démocratique d’une société.

Le facteur humain est enfin important dans la production de fausses informations. Les « bots » automatiques produisant en masse du texte ont une influence quasi nulle (sinon pour noyer l’information au sein d’une masse de textes). On sous-estime souvent le facteur humain, qui reste indispensable pour produire de contenu qui aura un impact, même pour de fausses informations. La découverte encore récente de réseaux efficaces, mais usant de méthodes relativement rudimentaires en est la preuve.

Le problème de la désinformation dépasse donc largement le cadre de l’IA générative ou même celui de quelques individus isolés. Il est largement alimenté par des organisations puissantes, souvent dotées de ressources quasi étatiques, qui déploient des moyens importants pour propager de fausses informations à grande échelle (par exemple l’Internet Research Agency basée à Saint-Pétersbourg).

Ces organisations mettent en place des réseaux comprenant des sites web, une forte présence sur les réseaux sociaux, des bots automatisés, mais impliquent aussi des individus réels, soudoyés ou non, chargés de relayer ces informations trompeuses (on voit donc ainsi que le réseau de propagation de l’information a autant sinon plus d’importance que la production de contenu en elle-même). Cette stratégie de désinformation vise à influencer l’opinion publique, à semer la confusion et à manipuler les processus démocratiques, mettant ainsi en péril la confiance dans les institutions et la crédibilité des élections.

Pour contrer efficacement ce phénomène, il est crucial de prendre des mesures à la fois techniques, politiques et sociales pour identifier, contrer et sensibiliser le public à la désinformation orchestrée à grande échelle. Les plates-formes en ligne sont particulièrement sollicitées.

La stratégie de propagation de fausses nouvelles poursuit un double objectif, ce qui représente un double écueil pour les institutions établies. En effet, en diffusant des informations erronées, non seulement on pollue le débat public en semant la confusion et en brouillant les pistes de la vérité, mais on nourrit également un climat général de méfiance envers toute forme d’autorité et d’information « officielle ». Les autorités en place, déjà sujettes à un fort discrédit et perçues comme étant en situation de faiblesse, peinent à réagir de manière efficace face à cette prolifération de désinformation. Le doute généralisé quant à leur capacité à agir avec transparence et impartialité renforce l’impression que leurs actions pourraient être motivées par des intérêts cachés. Ainsi, les institutions en place se retrouvent prises au piège d’un cercle vicieux où leur crédibilité est constamment remise en question, les rendant d’autant plus vulnérables face aux attaques orchestrées par ceux qui cherchent à déstabiliser l’ordre établi.

L’enjeu est donc de protéger la liberté d’opinion et la liberté d’information, tout en luttant contre la propagation de fausses informations qui peuvent nuire au fonctionnement démocratique. Cette frontière entre ces principes fondamentaux est souvent difficile à tracer, et les autorités doivent jongler avec ces enjeux complexes. Dans certains cas jugés flagrants, des mesures ont été prises pour contrer les tentatives de manipulation de l’opinion publique et de déstabilisation des processus démocratiques. Des chaînes de télévision comme RT, soupçonnées d’être sous l’influence russe, ont été fermées. Des personnalités politiques ont été interrogées en raison de soupçons de corruption et d’influence étrangère. De même, les réseaux sociaux sont étroitement surveillés, et des comptes ou des réseaux liés à des puissances étrangères ont été fermés. Ces mesures visent à protéger l’intégrité des processus démocratiques et à préserver la confiance du public dans les institutions, tout en préservant les principes fondamentaux de liberté et de pluralisme. Cependant, trouver un équilibre juste entre la protection contre la désinformation et le respect des libertés individuelles demeure un défi constant dans les sociétés démocratiques.

Intelligence artificielle : « risques majeurs pour l’humanité» ?

Intelligence artificielle : « risques majeurs pour l’humanité» ?


IA: Des conséquences bien sûr technologiques mais aussi sociales, économiques et même démocratiques. La technique pourrait bien échapper à ses créateurs faute de régulation.

Des centaines de chercheurs dans le monde demandent une peau concernant l’utilisation de l’intelligence artificielle en attendant sa régulation. «Ces derniers mois ont vu les laboratoires d’IA s’enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable», peut-on lire dans la tribune parue sur le site de la fondation américaine Future of Life.

«Les systèmes d’IA puissants ne devraient être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables.»

Les signataires réclament donc un moratoire jusqu’à la mise en place de systèmes de sécurité, dont de nouvelles autorités réglementaires dédiées, «la surveillance et le suivi des systèmes d’IA hautement performants», «un financement public robuste pour la recherche technique sur la sécurité de l’IA », «un écosystème robuste d’audit et de certification», des techniques pour aider à distinguer le réel de l’artificiel et des institutions capables de gérer les «perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA provoquera».

«Devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? », poursuivent les signataires. «Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus.» Parmi les applications de l’intelligence artificielle figurent en particulier la rapidité de développement de GPT.

Intelligence artificielle (AI Act) ) : une loi pour réguler les effets néfastes

  • Intelligence artificielle : une loi pour réguler les effets néfastes
  • L’AI Act a pour objet d’interdire les effets pervers de l’intelligence artificielle notamment en matière de liberté en Europe . Mais ce n’est forcément qu’un premier pas car on est loin de mesurer ce que seront toutes les conséquences du développement d’une telle technologie qui va s’introduire dans tous les aspects de la vie économique, sociale, politique et culturelle. Le texte européen    interdit certains usages de ces technologies, comme les systèmes de notation citoyenne et de manipulation du comportement ou l’identification biométrique à distance des personnes dans les lieux publics, sauf pour certaines missions liées à la sécurité, dont la lutte contre le terrorisme. « Cette législation n’est que le commencement », a relevé le corapporteur Dragos Tudorache (Renew) soulignant que l’intelligence artificielle continuait d’évoluer rapidement.

Le texte impose des obligations aux fournisseurs de systèmes d’IA sur le marché européen, en les classant selon le degré de risques qu’ils présentent pour les personnes. Les modèles d’IA à « usage général » devront respecter des obligations de transparence ainsi que les règles européennes en matière de droits d’auteur. À cet égard il faudra prévoir de nombreuses action d’ordre juridique dans la mesure où l’intelligence artificielle générative se contente de compiler les connaissances de producteurs et d’auteurs d’informations. Les systèmes jugés à « haut risque » (dans la santé, les infrastructures critiques, l’éducation ou les ressources humaines) seront soumis à des obligations plus strictes (maintien d’un contrôle humain, gestion des risques…).

L’AI Act interdit certains usages de ces technologies, comme les systèmes de notation citoyenne et de manipulation du comportement ou l’identification biométrique à distance des personnes dans les lieux publics, sauf pour certaines missions liées à la sécurité, dont la lutte contre le terrorisme. « Cette législation n’est que le commencement », a relevé le corapporteur Dragos Tudorache (Renew) soulignant que l’intelligence artificielle continuait d’évoluer rapidement.

 

12345...8



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol