Archive pour le Tag 'artificielle'

La fin du travail avec l’intelligence artificielle ?

La fin du travail avec l’intelligence artificielle ?

 

 

La montée en puissance de l’intelligence artificielle entraîne des révolutions technologiques qui donnent le tournis en Californie, à ses meilleurs élèves : les salariés de la tech, constate Corine Lesnes, dans sa chronique au « Monde » 

Au tournant des années 2010, l’avènement de la voiture sans chauffeur faisait les gros titres. Le phénomène était imminent. « Une réalité », annonçait le New York Times en mai 2012. Les sociologues prédisaient la « fin du travail » tel que la civilisation occidentale le concevait depuis la révolution industrielle, à la suite de l’économiste Jeremy Rifkin dont le livre de 1995, La Fin du travail (La Découverte, 1997), explorait les conséquences de l’automatisation sur le marché de l’emploi.

Rien d’aussi spectaculaire n’a immédiatement suivi. Pendant deux décennies, la voiture sans chauffeur est restée au stade d’expérimentation, pour ne pas dire de mirage. Le taux de chômage n’a pas explosé, au contraire. Nous nous sommes habitués aux effets de manche des ploutocrates de la tech : coloniser Mars, occuper le métavers… Au risque de se retrouver blasés, et de négliger de prendre acte des révolutions, bien réelles, qui sont désormais parmi nous.

Aujourd’hui, les taxis autonomes circulent dans cinq villes américaines, sans anicroche ni accident (mais pas encore par tous les temps). A San Francisco, les Waymo (voiture sans conducteur) de Google sont devenues une attraction touristique au même titre que les cable cars de la fin du XIXe siècle. Et chaque trajet urbain conduit par un chauffeur fantôme suscite le même ébahissement : « wow », comme disent les Américains.

Quant à la « fin du travail » traditionnel, celle-ci n’est plus une vue de l’esprit, mais un phénomène en voie de banalisation du fait de la fulgurante accélération de l’intelligence artificielle (IA). Faut-il s’en plaindre ? Les « techies » sont en première ligne, cette fois, de la « disruption » causée par leurs propres inventions. Depuis trois ans, les charrettes se succèdent dans le secteur des technologies : 165 000 licenciements en 2022 ; 264 000 en 2023, un record ; 141 000 encore cette année, entre janvier et le 11 octobre, émanant de 468 entreprises.

Santé : les dangers de la lumière artificielle

Santé : les dangers de la lumière artificielle

 

La lumière artificielle « peut se révéler une redoutable pollueuse » et provoquer des maladies graves, comme le cancer, particulièrement chez ceux qui ont « un travail de nuit », alerte samedi 12 octobre sur franceinfo Jean-Louis Dufier, ophtalmologue et membre de l’Académie nationale de médecine, coauteur du rapport(Nouvelle fenêtre) « Pollution lumineuse et santé publique », publié par l’Académie de médecine. À l’occasion de la 16e édition de l’opération nationale de sensibilisation à la pollution lumineuse ce samedi, l’ophtalmologue appelle à « vivre exactement selon le rythme veille-sommeil ». Selon lui, pour vivre en bonne santé, « il faut rester calé sur le rythme naturel du soleil ».
 Pourquoi les lumières artificielles sont-elles nocives pour la santé ?

Jean-Louis Duffer : Contrairement aux autres sources de pollution, la lumière est rarement dénoncée, sans doute parce qu’elle est particulièrement insidieuse. Pourtant, cette bienfaisante lumière, qui a d’ailleurs été divinisée par des Égyptiens, peut se révéler une redoutable pollueuse. Quels sont ses méfaits ? La fatigue, des troubles de l’humeur, une diminution de l’attention, de la vigilance qui peut être source d’ailleurs d’accidents de la voie publique, de la somnolence par manque de sommeil, des perturbations du sommeil…

Pourquoi ces lumières dérèglent-elles notre organisme ?

Tout ça vient du fait que, par de mauvais usages, notre exposition à une lumière artificielle jour et nuit, fait qu’en définitive, nos concitoyens manquent de sommeil, et pas seulement les adultes. La lumière a une interaction avec notre rétine. C’est évidemment par la rétine que se fait le phénomène de la vision. On a dans les cellules rétiniennes des moyens de capter la lumière pour justement entraîner la transformation des photons lumineux en électrons qui vont aller tout le long des voies visuelles jusqu’au cortex occipital pour faire ce phénomène de la vision. Non seulement la lumière permet le phénomène de la vision, mais donne au cerveau l’information du jour et de la nuit. Donc un déficit de sommeil va entraîner une dérégulation du cycle veille-sommeil qui est si important.

Ce dérèglement peut entraîner de graves maladies ?

Dans une étude sur 115 000 infirmières américaines qui ont été suivies pendant dix ans, on a montré une augmentation significative de près de 80% de risque relatif de cancer du sein, lorsqu’il existait au moins trois nuits travaillées par semaine pendant 20 ans. Évidemment, les personnes qui ont un travail de nuit sont particulièrement exposées.

Quel conseil donnez-vous aux Français pour se protéger de la lumière artificielle ?

« Nature est un doux guide », disait Ronsard. Il faut vivre exactement selon le rythme veille-sommeil, c’est-à-dire 9 h de sommeil. En gros, suivre l’arrivée de la nuit vers les 20h-21h et se réveiller vers 7h. Il faut rester calé sur le rythme naturel du soleil.

Intelligence artificielle : quelle éthique ?

Intelligence artificielle : quelle éthique ?

 Pour Laetitia Pouliquen, directrice du think tank «NBIC Ethics», si la généralisation de l’IA et des algorithmes ne s’accompagne pas d’une réflexion sur la nature de l’homme, la société risque de sombrer dans des dérives dystopiques et transhumanistes. Interview dans le Figaro
Laetitia Pouliquen est directrice de «NBIC Ethics», un think tank traitant de l’éthique des technologies auprès des institutions européennes. Elle est également l’auteur de Femme 2.0: Féminisme et transhumanisme: quel avenir pour la femme? (éd. Saint-Léger, 2016).
Pour beaucoup, la généralisation de l’intelligence artificielle dans notre quotidien va profondément transformer notre mode de vie. Pensez-vous que le monopole des GAFAM dans ce domaine laisse suffisamment de place à une réflexion éthique quant à ces changements ?
Laetitia POULIQUEN. – Il est évident que notre quotidien va être profondément transformé, que ce soit dans notre rapport au réel ou à l’autre, par l’immission de la machine, de l’IA, et des algorithmes dans nos vies journalières. Le social, le sociétal, et même l’anthropologie sont en train de se refaçonner. La digitalisation de notre quotidien nous fait perdre de vue une certaine vision de l’homme. Face à ces changements, une réflexion morale est nécessaire pour établir un cadre légal, pour ne pas oublier ce qu’est l’homme et en quoi se différencie-t-il de la machine.

Cette réflexion éthique dans le domaine de l’I.A est tout à fait possible, notamment dans le cadre de l’Union européenne. Nous, européens, sommes pris entre deux feux, d’une part les GAFAM américaines, et d’autre part les BATX chinoises (Baidu, Alibaba, Tencent et Xiaomi), et nous restons limités en termes d’investissement, de recherche et de développement. Cependant, notre approche qui est plus axée sur l’éthique que sur l’investissement, nous confère un rôle tout particulier dans le développement des nouvelles technologies. L’Europe est historiquement le premier foyer de réflexion philosophique et morale, et doit continuer de l’être dans les secteurs de pointe.

L’approche morale de l’Union européenne vis-à-vis de l’IA, notamment avec son «Guide éthique de l’intelligence artificielle», est-elle toujours pertinente ?

Toute réflexion morale, que ce soit dans le domaine de la robotique ou autre, s’appuie sur une certaine conception de l’homme et du monde, qui peut être parfois totalement déconnectée. Ainsi, bien qu’elle se veuille «éthique», l’approche de l’Union européenne n’est pas nécessairement bonne, tout dépend des fondements anthropologiques sur lesquels elle s’appuie.

Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans le domaine de l’I.A.

En 2017, par exemple, le rapport Delvaux présenté auprès de la Commission européenne a provoqué beaucoup de débats. Dans ce rapport législatif, la député européenne luxembourgeoise Maddy Delvaux, proposait certaines mesures très idéalisées et idéologisées quant à la défense des robots. Certains articles présentaient l’augmentation de l’homme comme quelque chose d’essentiellement positif, d’autres établissaient la notion de personnalité morale pour les robots, afin de les faire sujets de droits… La version originale voulait même permettre aux robots d’avoir un patrimoine assurantiel et d’investir en Bourse, afin de pouvoir financer leur propre évolution, on nageait en plein délire dystopique. Ce texte s’appuyait sur une conception de l’homme et de la machine totalement déconnectée de la réalité, qui ne différenciait plus le vivant du mécanique.

Nous avons donc rédigé une lettre ouverte à la Commission européenne, avec le soutien de 300 signataires européens, afin d’alerter sur les dangers de ce projet. Et parmi ces 300 personnes, il n’y avait pas que des représentants du secteur technologique, mais aussi des philosophes, des anthropologues, des psychiatres, et même des théologiens, pour bien rappeler ce qu’est l’homme, et sa différence avec la machine. Il est nécessaire de remettre les penseurs au centre de la réflexion sur l’intelligence artificielle, et de les intégrer aux groupes d’experts de la Commission européenne. Cependant, malgré quelques modifications et une large médiatisation de notre lettre ouverte, le rapport Delvaux a fini par être adopté.

Comment l’État et l’Union européenne peuvent-ils mettre en place une éthique de l’intelligence artificielle, alors qu’ils se proclament neutre et refusent d’imposer des normes morales à l’individu ?

C’est le principal problème de notre époque. Légiférer sur des questions morales à propos de l’IA est devenu presque impossible aujourd’hui, du fait du relativisme de notre société. Il n’y a plus de socle commun, de principes universels sur lesquels s’appuyer. Quand on ne sait plus dire ce qu’est l’homme, on ne sait plus dire ce qu’est la machine. L’individu moderne ne supporte plus d’autre ordre moral et naturel que son propre désir. Le «je» est devenu la mesure de l’humanité. Et la déconnexion du réel, liée au numérique, renforce ce relativisme. Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans ce domaine.

Les comités censés être «éthiques», ont donc tendance à s’appuyer non pas sur la morale mais sur une logique capitalistique, car les bénéfices, eux, ne sont pas relatifs. Et on a vu cela très clairement dans le «Guide d’éthique de la Commission européenne» sur l’intelligence artificielle, qui a fait suite au rapport Delvaux. Parmi les 53 experts qui ont participé à ce guide, 90% d’entre eux étaient dans le business technologique, experts, ou représentants de groupes de consommateurs, mais il n’y avait presque aucun philosophe, anthropologue, ou psychiatre… L’approche n’était absolument pas humaine, mais économique. Si l’on ne se pose pas la question de ce qu’est l’homme, les guides d’éthique sur l’IA risquent de se transformer en véritables projets dystopiques et transhumanistes.
Que conseillez-vous pour encadrer l’utilisation de l’IA et répondre aux problèmes d’éthique ?

J’avais proposé plusieurs éléments lors de la rédaction du «Guide d’éthique sur l’I.A» à l’Union européenne. Une des propositions portait sur la liberté de l’individu. L’idée était de permettre à l’utilisateur, s’il ne veut pas passer par un algorithme, que ce soit pour un contrat d’assurance, un prêt ou autre, de demander une interaction humaine. Je recommandais donc une graduation, une notation, qui permet de voir si on a affaire à un service «entièrement I.A», «IA avec supervision humaine», ou «entièrement humain». Quand on parle de justice, de banque, de gestion du patrimoine, et surtout des droits de l’homme, il est essentiel de savoir à qui on a affaire, un humain ou une I.A. Mais ça n’a pas été repris, l’approche de ce guide d’éthique est restée bien plus juridique qu’éthique.

J’avais également tenté de mettre en place un label pour les algorithmes, qui s’appelait «Ethic inside», et qui garantirait le respect des règles éthiques européennes. Mais il est presque impossible de suivre le chemin par lequel un algorithme en est arrivé à telle ou telle décision, et donc de dire s’il est éthique ou non, s’il respecte les règles. Il y a également la question de la responsabilité qui complique les choses. Qui est responsable des décisions d’un algorithme : l’entreprise, le développeur, l’utilisateur, ou l’IA elle-même ? Comment objectiver le caractère moral d’un algorithme si on ne peut même pas répondre à cette question ? Les développeurs ne peuvent pas être jugés responsables d’algorithmes tellement complexes qu’ils ne les maîtrisent plus totalement. Par sa nature même, l’I.A échappe en partie à notre contrôle, et on ne va pas pour autant lui donner une personnalité morale… C’est un vrai casse-tête. Il est donc extrêmement compliqué de mettre en place des points de contrôle pour des algorithmes aussi complexes, surtout quand ils sont mondialisés sur internet.

Société et Intelligence artificielle : quelle éthique ?

Société et  Intelligence artificielle : quelle éthique ?

 Pour Laetitia Pouliquen, directrice du think tank «NBIC Ethics», si la généralisation de l’IA et des algorithmes ne s’accompagne pas d’une réflexion sur la nature de l’homme, la société risque de sombrer dans des dérives dystopiques et transhumanistes. Interview dans le Figaro
Laetitia Pouliquen est directrice de «NBIC Ethics», un think tank traitant de l’éthique des technologies auprès des institutions européennes. Elle est également l’auteur de Femme 2.0: Féminisme et transhumanisme: quel avenir pour la femme? (éd. Saint-Léger, 2016).
Pour beaucoup, la généralisation de l’intelligence artificielle dans notre quotidien va profondément transformer notre mode de vie. Pensez-vous que le monopole des GAFAM dans ce domaine laisse suffisamment de place à une réflexion éthique quant à ces changements ?
Laetitia POULIQUEN. – Il est évident que notre quotidien va être profondément transformé, que ce soit dans notre rapport au réel ou à l’autre, par l’immission de la machine, de l’IA, et des algorithmes dans nos vies journalières. Le social, le sociétal, et même l’anthropologie sont en train de se refaçonner. La digitalisation de notre quotidien nous fait perdre de vue une certaine vision de l’homme. Face à ces changements, une réflexion morale est nécessaire pour établir un cadre légal, pour ne pas oublier ce qu’est l’homme et en quoi se différencie-t-il de la machine.

Cette réflexion éthique dans le domaine de l’I.A est tout à fait possible, notamment dans le cadre de l’Union européenne. Nous, européens, sommes pris entre deux feux, d’une part les GAFAM américaines, et d’autre part les BATX chinoises (Baidu, Alibaba, Tencent et Xiaomi), et nous restons limités en termes d’investissement, de recherche et de développement. Cependant, notre approche qui est plus axée sur l’éthique que sur l’investissement, nous confère un rôle tout particulier dans le développement des nouvelles technologies. L’Europe est historiquement le premier foyer de réflexion philosophique et morale, et doit continuer de l’être dans les secteurs de pointe.

L’approche morale de l’Union européenne vis-à-vis de l’IA, notamment avec son «Guide éthique de l’intelligence artificielle», est-elle toujours pertinente ?

Toute réflexion morale, que ce soit dans le domaine de la robotique ou autre, s’appuie sur une certaine conception de l’homme et du monde, qui peut être parfois totalement déconnectée. Ainsi, bien qu’elle se veuille «éthique», l’approche de l’Union européenne n’est pas nécessairement bonne, tout dépend des fondements anthropologiques sur lesquels elle s’appuie.

Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans le domaine de l’I.A.

En 2017, par exemple, le rapport Delvaux présenté auprès de la Commission européenne a provoqué beaucoup de débats. Dans ce rapport législatif, la député européenne luxembourgeoise Maddy Delvaux, proposait certaines mesures très idéalisées et idéologisées quant à la défense des robots. Certains articles présentaient l’augmentation de l’homme comme quelque chose d’essentiellement positif, d’autres établissaient la notion de personnalité morale pour les robots, afin de les faire sujets de droits… La version originale voulait même permettre aux robots d’avoir un patrimoine assurantiel et d’investir en Bourse, afin de pouvoir financer leur propre évolution, on nageait en plein délire dystopique. Ce texte s’appuyait sur une conception de l’homme et de la machine totalement déconnectée de la réalité, qui ne différenciait plus le vivant du mécanique.

Nous avons donc rédigé une lettre ouverte à la Commission européenne, avec le soutien de 300 signataires européens, afin d’alerter sur les dangers de ce projet. Et parmi ces 300 personnes, il n’y avait pas que des représentants du secteur technologique, mais aussi des philosophes, des anthropologues, des psychiatres, et même des théologiens, pour bien rappeler ce qu’est l’homme, et sa différence avec la machine. Il est nécessaire de remettre les penseurs au centre de la réflexion sur l’intelligence artificielle, et de les intégrer aux groupes d’experts de la Commission européenne. Cependant, malgré quelques modifications et une large médiatisation de notre lettre ouverte, le rapport Delvaux a fini par être adopté.

Comment l’État et l’Union européenne peuvent-ils mettre en place une éthique de l’intelligence artificielle, alors qu’ils se proclament neutre et refusent d’imposer des normes morales à l’individu ?

C’est le principal problème de notre époque. Légiférer sur des questions morales à propos de l’IA est devenu presque impossible aujourd’hui, du fait du relativisme de notre société. Il n’y a plus de socle commun, de principes universels sur lesquels s’appuyer. Quand on ne sait plus dire ce qu’est l’homme, on ne sait plus dire ce qu’est la machine. L’individu moderne ne supporte plus d’autre ordre moral et naturel que son propre désir. Le «je» est devenu la mesure de l’humanité. Et la déconnexion du réel, liée au numérique, renforce ce relativisme. Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans ce domaine.

Les comités censés être «éthiques», ont donc tendance à s’appuyer non pas sur la morale mais sur une logique capitalistique, car les bénéfices, eux, ne sont pas relatifs. Et on a vu cela très clairement dans le «Guide d’éthique de la Commission européenne» sur l’intelligence artificielle, qui a fait suite au rapport Delvaux. Parmi les 53 experts qui ont participé à ce guide, 90% d’entre eux étaient dans le business technologique, experts, ou représentants de groupes de consommateurs, mais il n’y avait presque aucun philosophe, anthropologue, ou psychiatre… L’approche n’était absolument pas humaine, mais économique. Si l’on ne se pose pas la question de ce qu’est l’homme, les guides d’éthique sur l’IA risquent de se transformer en véritables projets dystopiques et transhumanistes.
Que conseillez-vous pour encadrer l’utilisation de l’IA et répondre aux problèmes d’éthique ?

J’avais proposé plusieurs éléments lors de la rédaction du «Guide d’éthique sur l’I.A» à l’Union européenne. Une des propositions portait sur la liberté de l’individu. L’idée était de permettre à l’utilisateur, s’il ne veut pas passer par un algorithme, que ce soit pour un contrat d’assurance, un prêt ou autre, de demander une interaction humaine. Je recommandais donc une graduation, une notation, qui permet de voir si on a affaire à un service «entièrement I.A», «IA avec supervision humaine», ou «entièrement humain». Quand on parle de justice, de banque, de gestion du patrimoine, et surtout des droits de l’homme, il est essentiel de savoir à qui on a affaire, un humain ou une I.A. Mais ça n’a pas été repris, l’approche de ce guide d’éthique est restée bien plus juridique qu’éthique.

J’avais également tenté de mettre en place un label pour les algorithmes, qui s’appelait «Ethic inside», et qui garantirait le respect des règles éthiques européennes. Mais il est presque impossible de suivre le chemin par lequel un algorithme en est arrivé à telle ou telle décision, et donc de dire s’il est éthique ou non, s’il respecte les règles. Il y a également la question de la responsabilité qui complique les choses. Qui est responsable des décisions d’un algorithme : l’entreprise, le développeur, l’utilisateur, ou l’IA elle-même ? Comment objectiver le caractère moral d’un algorithme si on ne peut même pas répondre à cette question ? Les développeurs ne peuvent pas être jugés responsables d’algorithmes tellement complexes qu’ils ne les maîtrisent plus totalement. Par sa nature même, l’I.A échappe en partie à notre contrôle, et on ne va pas pour autant lui donner une personnalité morale… C’est un vrai casse-tête. Il est donc extrêmement compliqué de mettre en place des points de contrôle pour des algorithmes aussi complexes, surtout quand ils sont mondialisés sur internet.

Intelligence artificielle et chercheurs ?

Intelligence artificielle et  chercheurs  ?

Au début des années 2000, nos directeurs de thèse nous expliquaient la chance que nous avions de bénéficier, grâce à la révolution numérique, d’un accès instantané à l’intégralité des productions scientifiques via des bases de données.  Ils nous décrivaient « le monde d’avant », celui où se procurer un ouvrage supposait de se rendre jusqu’à une bibliothèque parfois éloignée et d’y passer de longues heures à faire des photocopies. Ces superviseurs voyaient ces tâches traditionnelles comme participant à la construction des jeunes chercheurs et se demandaient ce que deviendrait ce « tour de main » avec la révolution numérique.

 

Par Cylien Gibert et Audrey Rouzies (*) dans la Tribune

Le développement rapide de l’IA nous renvoie aujourd’hui à des questionnements similaires : les futurs chercheurs risquent-ils de ne plus avoir les compétences et les savoir-faire essentiels à l’exercice de leur métier ? Si les opportunités et menaces de l’IA sur les activités d’enseignement ont été immédiatement identifiées et mises au cœur des réflexions, cette avancée technologique pose également des défis significatifs pour la formation des futurs chercheurs qui n’ont pour leur part pas encore été pris en considération.

L’acquisition de méthodes de collecte et d’analyse de données complexes constitue aujourd’hui l’un des piliers de la formation des doctorants. Il s’agit par exemple de savoir coder une grande quantité de données narratives, de développer des designs d’expérimentation adaptés, ou d’utiliser des outils statistiques complexes. Or l’IA (par exemple ChatGPT et son module « data analyst ») automatise et accélère de façon drastique ce travail de traitement des données.

Les générations futures peuvent-elles se passer d’apprendre à réaliser ces collectes et à mener ces analyses en les sous-traitant à l’IA ? Cette dépendance technologique pourrait les rendre vulnérables dans des situations où l’IA s’avèrera inadaptée ou inaccessible. Plus grave encore, elle pourrait diminuer leurs capacités critiques avec une acceptation passive des résultats générés : le doctorant qui aurait systématiquement confié ses analyses à l’IA serait incapable d’en détecter les erreurs.

D’autre part, l’utilisation d’une IA formée sur des données existantes soulève des inquiétudes. Est-il possible que le recours à l’IA pousse à reproduire des erreurs et des biais déjà présents dans les données d’entraînement, créant ainsi un risque de récursivité ? En outre, l’utilisation généralisée de l’IA basée sur des données d’entraînement préexistantes pourrait-elle conduire à des résultats qui ne remettent pas en cause le statu quo, limitant ainsi la nouveauté des futures découvertes scientifiques?

Face à ces défis, une approche équilibrée s’impose. Il est nécessaire de valoriser les nouvelles compétences techniques permettant d’utiliser l’IA, en gardant une posture critique vis-à-vis du recours à cette technologie. Il s’agit par ailleurs de continuer à transmettre aux doctorants des compétences analytiques fondamentales afin qu’ils conservent leur autonomie intellectuelle.

Dans les écoles doctorales, le renforcement des cours dédiés au développement de la pensée critique, tels que l’épistémologie et les diverses approches méthodologiques, est une piste. L’intégration de modules d’éthique de la recherche et d’intégrité scientifique directement en lien avec l’utilisation de l’IA en est une autre. In fine, il s’agit d’inculquer aux futurs chercheurs la responsabilité de l’exactitude des résultats qu’ils produisent, y compris si ces derniers sont générés par l’IA.

L’objectif est de s’assurer que l’utilisation des outils d’IA ne détruise pas à terme ce qui fait la valeur de ce métier : rigueur de la démarche méthodologique, sens critique et réflexivité. Ouvrons le dialogue au sein des centres de recherche et des écoles doctorales afin de construire des solutions collectives qui permettront de faire perdurer la capacité à créer des connaissances nouvelles.

_______

(*) Audrey Rouzies est directrice de l’Ecole doctorale de gestion à l’Université Toulouse Capitole et Cylien Gibert est chercheur en sciences de gestion à Toulouse School of Management Research.

Intelligence artificielle : de nouveaux engagements pour la sécurité ?

Intelligence artificielle : de nouveaux engagements pour la sécurité ? 

 

On peut évidemment se réjouir que les grandes entreprises aient pris de nouveaux engagements à propos de la sécurité de l’intelligence artificielle. En réalité, on semble surtout viser une certaine neutralité politique mais cela est loin de résoudre la question de l’éthique et du rapport entre l’humain et les robots.

 

Vers le développement d’une «IA sûre» ? Seize des principales entreprises mondiales d’intelligence artificielle (IA), dont les représentants sont réunis ce mardi 21 mai à Séoul, ont pris de nouveaux engagements pour assurer le développement en toute sécurité de cette science, a annoncé le gouvernement britannique. «Ces engagements garantissent que les principales entreprises d’IA du monde feront preuve de transparence et de responsabilité quant à leurs projets de développement d’une IA sûre», a déclaré le très libéral premier ministre britannique, Rishi Sunak, dans un communiqué publié par le ministère britannique de la Science, de l’Innovation et de la Technologie.

L’accord, signé notamment par OpenAI (ChatGPT), Google DeepMind et Anthropic, s’appuie sur les consensus atteints lors du premier «sommet» mondial sur la sécurité de l’IA, l’an dernier à Bletchley Park, au Royaume-Uni. Ce second «sommet» à Séoul est organisé conjointement par les gouvernements sud-coréen et britannique. Les entreprises d’IA qui n’ont pas encore rendu publique la façon dont elles évaluent la sécurité des technologies qu’elles développent s’engagent à le faire.

Parmi les entreprises qui acceptent ces règles de sécurité figurent également les géants américains de la technologie Microsoft, Amazon, IBM et Meta, le français Mistral AI et le chinois Zhipu.ai.

 

 

Société- Intelligence artificielle : quelle éthique ?

Société- Intelligence artificielle : quelle éthique ?

 Pour Laetitia Pouliquen, directrice du think tank «NBIC Ethics», si la généralisation de l’IA et des algorithmes ne s’accompagne pas d’une réflexion sur la nature de l’homme, la société risque de sombrer dans des dérives dystopiques et transhumanistes. Interview dans le Figaro
Laetitia Pouliquen est directrice de «NBIC Ethics», un think tank traitant de l’éthique des technologies auprès des institutions européennes. Elle est également l’auteur de Femme 2.0: Féminisme et transhumanisme: quel avenir pour la femme? (éd. Saint-Léger, 2016).
Pour beaucoup, la généralisation de l’intelligence artificielle dans notre quotidien va profondément transformer notre mode de vie. Pensez-vous que le monopole des GAFAM dans ce domaine laisse suffisamment de place à une réflexion éthique quant à ces changements ?
Laetitia POULIQUEN. – Il est évident que notre quotidien va être profondément transformé, que ce soit dans notre rapport au réel ou à l’autre, par l’immission de la machine, de l’IA, et des algorithmes dans nos vies journalières. Le social, le sociétal, et même l’anthropologie sont en train de se refaçonner. La digitalisation de notre quotidien nous fait perdre de vue une certaine vision de l’homme. Face à ces changements, une réflexion morale est nécessaire pour établir un cadre légal, pour ne pas oublier ce qu’est l’homme et en quoi se différencie-t-il de la machine.

Cette réflexion éthique dans le domaine de l’I.A est tout à fait possible, notamment dans le cadre de l’Union européenne. Nous, européens, sommes pris entre deux feux, d’une part les GAFAM américaines, et d’autre part les BATX chinoises (Baidu, Alibaba, Tencent et Xiaomi), et nous restons limités en termes d’investissement, de recherche et de développement. Cependant, notre approche qui est plus axée sur l’éthique que sur l’investissement, nous confère un rôle tout particulier dans le développement des nouvelles technologies. L’Europe est historiquement le premier foyer de réflexion philosophique et morale, et doit continuer de l’être dans les secteurs de pointe.

L’approche morale de l’Union européenne vis-à-vis de l’IA, notamment avec son «Guide éthique de l’intelligence artificielle», est-elle toujours pertinente ?

Toute réflexion morale, que ce soit dans le domaine de la robotique ou autre, s’appuie sur une certaine conception de l’homme et du monde, qui peut être parfois totalement déconnectée. Ainsi, bien qu’elle se veuille «éthique», l’approche de l’Union européenne n’est pas nécessairement bonne, tout dépend des fondements anthropologiques sur lesquels elle s’appuie.

Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans le domaine de l’I.A.

En 2017, par exemple, le rapport Delvaux présenté auprès de la Commission européenne a provoqué beaucoup de débats. Dans ce rapport législatif, la député européenne luxembourgeoise Maddy Delvaux, proposait certaines mesures très idéalisées et idéologisées quant à la défense des robots. Certains articles présentaient l’augmentation de l’homme comme quelque chose d’essentiellement positif, d’autres établissaient la notion de personnalité morale pour les robots, afin de les faire sujets de droits… La version originale voulait même permettre aux robots d’avoir un patrimoine assurantiel et d’investir en Bourse, afin de pouvoir financer leur propre évolution, on nageait en plein délire dystopique. Ce texte s’appuyait sur une conception de l’homme et de la machine totalement déconnectée de la réalité, qui ne différenciait plus le vivant du mécanique.

Nous avons donc rédigé une lettre ouverte à la Commission européenne, avec le soutien de 300 signataires européens, afin d’alerter sur les dangers de ce projet. Et parmi ces 300 personnes, il n’y avait pas que des représentants du secteur technologique, mais aussi des philosophes, des anthropologues, des psychiatres, et même des théologiens, pour bien rappeler ce qu’est l’homme, et sa différence avec la machine. Il est nécessaire de remettre les penseurs au centre de la réflexion sur l’intelligence artificielle, et de les intégrer aux groupes d’experts de la Commission européenne. Cependant, malgré quelques modifications et une large médiatisation de notre lettre ouverte, le rapport Delvaux a fini par être adopté.

Comment l’État et l’Union européenne peuvent-ils mettre en place une éthique de l’intelligence artificielle, alors qu’ils se proclament neutre et refusent d’imposer des normes morales à l’individu ?

C’est le principal problème de notre époque. Légiférer sur des questions morales à propos de l’IA est devenu presque impossible aujourd’hui, du fait du relativisme de notre société. Il n’y a plus de socle commun, de principes universels sur lesquels s’appuyer. Quand on ne sait plus dire ce qu’est l’homme, on ne sait plus dire ce qu’est la machine. L’individu moderne ne supporte plus d’autre ordre moral et naturel que son propre désir. Le «je» est devenu la mesure de l’humanité. Et la déconnexion du réel, liée au numérique, renforce ce relativisme. Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans ce domaine.

Les comités censés être «éthiques», ont donc tendance à s’appuyer non pas sur la morale mais sur une logique capitalistique, car les bénéfices, eux, ne sont pas relatifs. Et on a vu cela très clairement dans le «Guide d’éthique de la Commission européenne» sur l’intelligence artificielle, qui a fait suite au rapport Delvaux. Parmi les 53 experts qui ont participé à ce guide, 90% d’entre eux étaient dans le business technologique, experts, ou représentants de groupes de consommateurs, mais il n’y avait presque aucun philosophe, anthropologue, ou psychiatre… L’approche n’était absolument pas humaine, mais économique. Si l’on ne se pose pas la question de ce qu’est l’homme, les guides d’éthique sur l’IA risquent de se transformer en véritables projets dystopiques et transhumanistes.
Que conseillez-vous pour encadrer l’utilisation de l’IA et répondre aux problèmes d’éthique ?

J’avais proposé plusieurs éléments lors de la rédaction du «Guide d’éthique sur l’I.A» à l’Union européenne. Une des propositions portait sur la liberté de l’individu. L’idée était de permettre à l’utilisateur, s’il ne veut pas passer par un algorithme, que ce soit pour un contrat d’assurance, un prêt ou autre, de demander une interaction humaine. Je recommandais donc une graduation, une notation, qui permet de voir si on a affaire à un service «entièrement I.A», «IA avec supervision humaine», ou «entièrement humain». Quand on parle de justice, de banque, de gestion du patrimoine, et surtout des droits de l’homme, il est essentiel de savoir à qui on a affaire, un humain ou une I.A. Mais ça n’a pas été repris, l’approche de ce guide d’éthique est restée bien plus juridique qu’éthique.

J’avais également tenté de mettre en place un label pour les algorithmes, qui s’appelait «Ethic inside», et qui garantirait le respect des règles éthiques européennes. Mais il est presque impossible de suivre le chemin par lequel un algorithme en est arrivé à telle ou telle décision, et donc de dire s’il est éthique ou non, s’il respecte les règles. Il y a également la question de la responsabilité qui complique les choses. Qui est responsable des décisions d’un algorithme : l’entreprise, le développeur, l’utilisateur, ou l’IA elle-même ? Comment objectiver le caractère moral d’un algorithme si on ne peut même pas répondre à cette question ? Les développeurs ne peuvent pas être jugés responsables d’algorithmes tellement complexes qu’ils ne les maîtrisent plus totalement. Par sa nature même, l’I.A échappe en partie à notre contrôle, et on ne va pas pour autant lui donner une personnalité morale… C’est un vrai casse-tête. Il est donc extrêmement compliqué de mettre en place des points de contrôle pour des algorithmes aussi complexes, surtout quand ils sont mondialisés sur internet.

Intelligence artificielle : quelle éthique ?

Intelligence artificielle : quelle éthique ?

 Pour Laetitia Pouliquen, directrice du think tank «NBIC Ethics», si la généralisation de l’IA et des algorithmes ne s’accompagne pas d’une réflexion sur la nature de l’homme, la société risque de sombrer dans des dérives dystopiques et transhumanistes. Interview dans le Figaro
Laetitia Pouliquen est directrice de «NBIC Ethics», un think tank traitant de l’éthique des technologies auprès des institutions européennes. Elle est également l’auteur de Femme 2.0: Féminisme et transhumanisme: quel avenir pour la femme? (éd. Saint-Léger, 2016).
Pour beaucoup, la généralisation de l’intelligence artificielle dans notre quotidien va profondément transformer notre mode de vie. Pensez-vous que le monopole des GAFAM dans ce domaine laisse suffisamment de place à une réflexion éthique quant à ces changements ?
Laetitia POULIQUEN. – Il est évident que notre quotidien va être profondément transformé, que ce soit dans notre rapport au réel ou à l’autre, par l’immission de la machine, de l’IA, et des algorithmes dans nos vies journalières. Le social, le sociétal, et même l’anthropologie sont en train de se refaçonner. La digitalisation de notre quotidien nous fait perdre de vue une certaine vision de l’homme. Face à ces changements, une réflexion morale est nécessaire pour établir un cadre légal, pour ne pas oublier ce qu’est l’homme et en quoi se différencie-t-il de la machine.

Cette réflexion éthique dans le domaine de l’I.A est tout à fait possible, notamment dans le cadre de l’Union européenne. Nous, européens, sommes pris entre deux feux, d’une part les GAFAM américaines, et d’autre part les BATX chinoises (Baidu, Alibaba, Tencent et Xiaomi), et nous restons limités en termes d’investissement, de recherche et de développement. Cependant, notre approche qui est plus axée sur l’éthique que sur l’investissement, nous confère un rôle tout particulier dans le développement des nouvelles technologies. L’Europe est historiquement le premier foyer de réflexion philosophique et morale, et doit continuer de l’être dans les secteurs de pointe.

L’approche morale de l’Union européenne vis-à-vis de l’IA, notamment avec son «Guide éthique de l’intelligence artificielle», est-elle toujours pertinente ?

Toute réflexion morale, que ce soit dans le domaine de la robotique ou autre, s’appuie sur une certaine conception de l’homme et du monde, qui peut être parfois totalement déconnectée. Ainsi, bien qu’elle se veuille «éthique», l’approche de l’Union européenne n’est pas nécessairement bonne, tout dépend des fondements anthropologiques sur lesquels elle s’appuie.

Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans le domaine de l’I.A.

En 2017, par exemple, le rapport Delvaux présenté auprès de la Commission européenne a provoqué beaucoup de débats. Dans ce rapport législatif, la député européenne luxembourgeoise Maddy Delvaux, proposait certaines mesures très idéalisées et idéologisées quant à la défense des robots. Certains articles présentaient l’augmentation de l’homme comme quelque chose d’essentiellement positif, d’autres établissaient la notion de personnalité morale pour les robots, afin de les faire sujets de droits… La version originale voulait même permettre aux robots d’avoir un patrimoine assurantiel et d’investir en Bourse, afin de pouvoir financer leur propre évolution, on nageait en plein délire dystopique. Ce texte s’appuyait sur une conception de l’homme et de la machine totalement déconnectée de la réalité, qui ne différenciait plus le vivant du mécanique.

Nous avons donc rédigé une lettre ouverte à la Commission européenne, avec le soutien de 300 signataires européens, afin d’alerter sur les dangers de ce projet. Et parmi ces 300 personnes, il n’y avait pas que des représentants du secteur technologique, mais aussi des philosophes, des anthropologues, des psychiatres, et même des théologiens, pour bien rappeler ce qu’est l’homme, et sa différence avec la machine. Il est nécessaire de remettre les penseurs au centre de la réflexion sur l’intelligence artificielle, et de les intégrer aux groupes d’experts de la Commission européenne. Cependant, malgré quelques modifications et une large médiatisation de notre lettre ouverte, le rapport Delvaux a fini par être adopté.

Comment l’État et l’Union européenne peuvent-ils mettre en place une éthique de l’intelligence artificielle, alors qu’ils se proclament neutre et refusent d’imposer des normes morales à l’individu ?

C’est le principal problème de notre époque. Légiférer sur des questions morales à propos de l’IA est devenu presque impossible aujourd’hui, du fait du relativisme de notre société. Il n’y a plus de socle commun, de principes universels sur lesquels s’appuyer. Quand on ne sait plus dire ce qu’est l’homme, on ne sait plus dire ce qu’est la machine. L’individu moderne ne supporte plus d’autre ordre moral et naturel que son propre désir. Le «je» est devenu la mesure de l’humanité. Et la déconnexion du réel, liée au numérique, renforce ce relativisme. Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans ce domaine.

Les comités censés être «éthiques», ont donc tendance à s’appuyer non pas sur la morale mais sur une logique capitalistique, car les bénéfices, eux, ne sont pas relatifs. Et on a vu cela très clairement dans le «Guide d’éthique de la Commission européenne» sur l’intelligence artificielle, qui a fait suite au rapport Delvaux. Parmi les 53 experts qui ont participé à ce guide, 90% d’entre eux étaient dans le business technologique, experts, ou représentants de groupes de consommateurs, mais il n’y avait presque aucun philosophe, anthropologue, ou psychiatre… L’approche n’était absolument pas humaine, mais économique. Si l’on ne se pose pas la question de ce qu’est l’homme, les guides d’éthique sur l’IA risquent de se transformer en véritables projets dystopiques et transhumanistes.
Que conseillez-vous pour encadrer l’utilisation de l’IA et répondre aux problèmes d’éthique ?

J’avais proposé plusieurs éléments lors de la rédaction du «Guide d’éthique sur l’I.A» à l’Union européenne. Une des propositions portait sur la liberté de l’individu. L’idée était de permettre à l’utilisateur, s’il ne veut pas passer par un algorithme, que ce soit pour un contrat d’assurance, un prêt ou autre, de demander une interaction humaine. Je recommandais donc une graduation, une notation, qui permet de voir si on a affaire à un service «entièrement I.A», «IA avec supervision humaine», ou «entièrement humain». Quand on parle de justice, de banque, de gestion du patrimoine, et surtout des droits de l’homme, il est essentiel de savoir à qui on a affaire, un humain ou une I.A. Mais ça n’a pas été repris, l’approche de ce guide d’éthique est restée bien plus juridique qu’éthique.

J’avais également tenté de mettre en place un label pour les algorithmes, qui s’appelait «Ethic inside», et qui garantirait le respect des règles éthiques européennes. Mais il est presque impossible de suivre le chemin par lequel un algorithme en est arrivé à telle ou telle décision, et donc de dire s’il est éthique ou non, s’il respecte les règles. Il y a également la question de la responsabilité qui complique les choses. Qui est responsable des décisions d’un algorithme : l’entreprise, le développeur, l’utilisateur, ou l’IA elle-même ? Comment objectiver le caractère moral d’un algorithme si on ne peut même pas répondre à cette question ? Les développeurs ne peuvent pas être jugés responsables d’algorithmes tellement complexes qu’ils ne les maîtrisent plus totalement. Par sa nature même, l’I.A échappe en partie à notre contrôle, et on ne va pas pour autant lui donner une personnalité morale… C’est un vrai casse-tête. Il est donc extrêmement compliqué de mettre en place des points de contrôle pour des algorithmes aussi complexes, surtout quand ils sont mondialisés sur internet.

«L’intelligence artificielle va tuer l’homme 1.0»

«L’intelligence artificielle va tuer l’homme 1.0»

Laurent Alexandre,  chirurgien de formation, également diplômé de Science Po, de HEC et ancien élève de l’ENA, a fondé dans les années 1990 le site d’informations Doctissimo. Il publie ChatGPT va nous rendre immortels aux Éditions JC Lattès.  ( dans le Figaro)

 En quoi ChatGPT est en train de transformer le destin de l’humanité ?

Laurent ALEXANDRE - ChatGPT a lancé une course technologique mondiale qui conduit au dépassement de l’intelligence humaine par l’intelligence artificielle (IA) des décennies plus tôt que prévu. Pour Sam Altman, père de ChatGPT, l’IA devient le principal moteur de l’histoire. Le 13 mars 2024, Elon Musk a déclaré: «L’IA sera probablement plus intelligente que n’importe quel être…

 

Une vision à la fois scientifique mais aussi de sciences fiction parfois fantaisiste concernant la révolution cognitive.

D’après Laurent Alexandre, nous entrons dans un monde magique où nos désirs seront anticipés par les intelligences artificielles (IA) qui peupleront nos appareils connectés. Le développement de la réalité virtuelle va accentuer cette immersion dans un monde irréel et magique qui deviendra une drogue ultra-addictive. « Nous nous fixons un objectif : nous voulons attirer un milliard de personnes vers la réalité virtuelle », a déclaré Mark Zuckerberg, président de Facebook, à l’occasion de la présentation de son nouveau casque Oculus Go, le 11 octobre, à San José (Californie).
Les IA associées à la réalité virtuelle, même si elles ne seront pas dotées de consciences artificielles, pourront nous dire à tout moment ce qui est bon pour notre santé, ce qui maximisera notre jouissance, et nous indiquer ce que nous devons faire. Nous ferons tellement ­confiance à ces algorithmes que nous leur ­déléguerons la décision. Le vrai pouvoir sera ­concentré dans les mains d’une élite maîtresse des IA. Simultanément, la destruction de beaucoup de métiers créerait une énorme classe de personnes inutiles économiquement, et intellectuellement dépassées. Symptôme prémonitoire de cette évolution, en 2017, à la veille du tsunami de l’IA, 17 % des jeunes Français, entre 15 et 29 ans, sont déjà des NEETs (young people Not in Education, Employment, or Training, en français : jeunes qui ne sont ni scolarisés, ni en emploi, ni en formation). Ces citoyens confieront le sens de leur existence aux algorithmes.

Environnement et intelligence artificielle ?

Environnement et intelligence artificielle ?

 

Autour de nous, nous observons le numérique envahir tous les autres secteurs. L’intelligence artificielle (IA) est l’un des derniers maillons de ce bouleversement technologique : elle accompagne désormais tout traitement automatique qui exploite le déluge de données numériques. Mais au vu des enjeux écologiques auxquels nous faisons face aujourd’hui, sera-t-il possible de concevoir une IA respectueuse des contraintes environnementales ? Avant de rentrer dans le sujet de l’IA frugale, il convient de poser le décor. La crise climatique sans précédent à laquelle nous faisons face a commencé avec la révolution industrielle, au milieu du XIXe siècle, qui a planté les germes de notre société de consommation actuelle. Le changement climatique n’est pas la seule menace environnementale : stress hydrique, épuisement des ressources, perte de la biodiversité… Mais c’est sans doute la plus visible et la plus documentée, et donc celle qui peut nous aider à mieux appréhender les autres.

 

par
Denis Trystram
Professeur des universités en informatique, Université Grenoble Alpes (UGA)

Thierry Ménissier
Professeur de philosophie politique, Université Grenoble Alpes (UGA) -

The Conversation
Le secteur du numérique n’est pas facile à cerner, car il est dilué partout. Selon l’ADEME, il représente 2,5 % des émissions carbone de la France en 2022. Ces dernières années, le domaine a connu une forte croissance et les études prospectives envisagent principalement des scénarios de poursuite de cette croissance, au moins à moyen terme.

Un petit calcul réalisé à partir de données publiques sur le scénario SSP1-19 du GIEC, un des plus optimistes, souligne l’aberration de cette croissance. Si le secteur croît selon la prévision la plus basse de croissance, le numérique émettrait 6 fois plus que l’objectif du scénario de décroissance des émissions mondiales de CO₂ d’ici à 2050 ! Même si la croissance du secteur stagnait au niveau d’aujourd’hui, il représenterait trois quarts des émissions totales… Dans un tel monde, que nous resterait-il pour le reste ?

Si on se focalise sur l’IA, on observe une rupture claire à partir de 2012. La croissance du secteur s’emballe alors avec un doublement des besoins en puissance de calcul tous les 5-6 mois au lieu de 24 mois, chiffre jusqu’alors stable de la classique loi empirique de Moore. Cette date correspond au développement des modèles d’IA reposant sur l’apprentissage profond, ou deep learning, rendus possibles par l’utilisation de processeurs graphiques (GPU) pour effectuer les calculs à la base de l’apprentissage profond et par le développement des données ouvertes sur Internet. Rappelons que l’IA n’est pas réduite à l’apprentissage par réseaux de neurones profonds, mais ce sont incontestablement ces derniers qui sont les plus gourmands.

Un nouveau palier a été atteint en 2023, avec l’explosion des modèles génératifs comme l’agent conversationnel ChatGPT. Même s’il est difficile d’avancer des chiffres précis, étant donné que les « géants de la tech » comme OpenAI, Meta ou Microsoft qui sont à l’origine des plus gros modèles ne communiquent plus sur ces données, cette diffusion à large échelle est très inquiétante.
ChatGPT est basé sur le modèle GPT-3, remplacé aujourd’hui par une version améliorée GPT-4. Ce n’est pas le seul, mais c’est le plus populaire et un de ceux pour lequel il existe des données. Le modèle sur lequel il s’appuie possède 176 milliards de paramètres et a nécessité 552 tonnes d’équivalent CO2 pour son entraînement en Californie. En termes de consommation électrique (indicateur plus objectif au sens où il ne dépend pas du mix énergétique), le modèle a tourné des jours sur près de 4 000 gros GPU de Nvidia dont la consommation a été estimée à 1 283 MWh (megawatt-heure, soit 1 000 kWh).

La phase d’usage est bien plus consommatrice encore ! Chaque jour, les quelque dix millions d’utilisateurs mobilisent 564 MWh d’électricité. Les annonces récentes des patrons d’OpenAI et Microsoft sur des commandes de centaines de milliers de GPU pour alimenter les futures versions sont vertigineuses en termes de consommation et d’impact environnemental. Avec sa capacité de production actuelle, le constructeur Nvidia est loin de pouvoir en produire autant.

ChatGPT n’est que l’élément visible de cette galaxie. Aujourd’hui, l’IA est un moteur de la croissance exponentielle du secteur du numérique, avec une explosion du nombre d’applications et services qui utilisent l’IA générative. Le développement de l’IA à ce rythme n’est bien entendu pas soutenable tel quel.

On ne pourra soutenir cette croissance que si l’IA permet des économies d’émissions considérables dans tous les autres secteurs. C’est la voix majoritaire qui porte le message d’une IA qui va nous aider à sortir de la crise. Malgré de trop nombreuses applications inutiles ou questionnables, il existe des apports bénéfiques pour la société notamment pour simuler et analyser des phénomènes physiques complexes comme l’étude de scénarios pour contrer la crise climatique. Encore faut-il que ces solutions ne soient pas in fine pires que le mal ! Par exemple, l’IA va permettre aux entreprises exploitant les énergies fossiles d’optimiser leur activité et donc d’émettre encore plus de CO₂.

Partout, on entend parler d’IA frugale sans que ce terme soit clairement défini. Dans le langage usuel, la sobriété est souvent entendue comme la réaction adéquate face à une consommation abusive d’alcool. Dans le contexte de l’IA, cela renvoie plutôt à la simplicité (ce qui est clairement insuffisant ici), à la modération, voire l’abstinence. Frugalité et sobriété sont souvent considérées comme synonymes ; il est également possible de considérer que la frugalité concerne le fonctionnement des systèmes techniques tandis que la sobriété renvoie à leur usage dans le cadre des pratiques sociales.

Les deux dimensions se complètent dans le sens où tout système technique s’adresse à des usages qui se trouvent de la sorte facilités et encouragés. Ainsi, plus le système apparaît propice à l’usage, plus son impact s’accroît : c’est ce que l’on appelle l’effet rebond. Cependant, le plus pertinent est la définition en creux : le contraire de la frugalité est ainsi qualifié de gloutonnerie selon Le Robert. Il est donc possible de considérer que la frugalité-sobriété comme une vertu qui s’apprécie en négative, en fonction de la quantité de ressources que l’on ne consomme pas.

Or, caractériser une IA frugale s’avère difficile pour plusieurs raisons. D’une part, les analyses existantes ciblent souvent l’entraînement des modèles et/ou la phase d’usage, mais ignorent le cycle de vie complet du service ou du produit. Cela inclut la production, l’utilisation et le stockage des données, et l’infrastructure matérielle mise en œuvre, depuis la fabrication jusqu’à la fin de vie de tous les équipements impliqués. D’autre part, pour un service reconnu comme utile pour la société, il conviendrait d’estimer les volumes de données impliquées dans le processus et les effets positifs indirects induits par son déploiement. Par exemple, un système d’optimisation énergétique pour un appartement peut permettre une augmentation de confort ou le déploiement de nouveaux services grâce aux économies réalisées.

Aujourd’hui, les termes de frugalité ou de sobriété sont souvent synonymes d’efficacité énergétique : on imagine et développe une solution sans prendre en compte son coût environnemental, puis on l’améliore de ce point de vue dans un second temps. Il faudrait au contraire s’interroger en amont sur les effets avant le déploiement du service, quitte à y renoncer.

L’IA frugale est donc caractérisée par une contradiction intrinsèque, au vu de la boulimie d’énergie et de données aujourd’hui nécessaire à l’entraînement des gros modèles et à leurs usages, au mépris des risques considérables pour l’environnement. En matière d’IA, la frugalité doit aller bien plus loin que la simple efficacité : elle doit d’abord être compatible avec les limites planétaires. Elle doit aussi interroger les usages en amont, jusqu’au renoncement de certains services et pratiques, en se basant sur des analyses de cycle de vie complètes et rigoureuses.

Les finalités que recouvrent ces développements technologiques devraient au moins être collectivement débattues. Derrière l’argument d’une efficacité accrue se cache la compétition entre souverainetés nationales ou la concurrence entre des firmes intéressées par des profits colossaux. Il n’y a rien dans ces finalités qui ne soit considéré à l’aune d’une approche éthique.

Une évaluation des systèmes d’algorithmes à l’aide des éthiques environnementales contemporaines permet même de fonder la notion de sobriété sur d’autres bases. En effet, et en dépit de leur variété, ces éthiques ne considèrent pas la Nature (l’eau, l’air, les matériaux et les vivants) comme des ressources à disposition de la seule espèce humaine, engagée dans la compétition technologique et l’hédonisme industriel. En conclusion, on pourrait affirmer que s’ouvre aujourd’hui pour la recherche responsable en IA une perspective aussi formidable que difficile à réaliser : proposer des modèles et des systèmes les plus compatibles possibles avec une telle définition « forte » de la sobriété.

Intelligence artificielle et recherche

Intelligence artificielle et recherche

 

 Le développement des outils d’intelligence artificielle bouleverse en profondeur l’enseignement supérieur. Impossible de continuer à former les futurs chercheurs sans tenir compte de ces technologies. Par Cylien Gibert et Audrey Rouzies (*) dans La Tribune.

Au début des années 2000, nos directeurs de thèse nous expliquaient la chance que nous avions de bénéficier, grâce à la révolution numérique, d’un accès instantané à l’intégralité des productions scientifiques via des bases de données.  Ils nous décrivaient « le monde d’avant », celui où se procurer un ouvrage supposait de se rendre jusqu’à une bibliothèque parfois éloignée et d’y passer de longues heures à faire des photocopies. Ces superviseurs voyaient ces tâches traditionnelles comme participant à la construction des jeunes chercheurs et se demandaient ce que deviendrait ce « tour de main » avec la révolution numérique.

Le développement rapide de l’IA nous renvoie aujourd’hui à des questionnements similaires : les futurs chercheurs risquent-ils de ne plus avoir les compétences et les savoir-faire essentiels à l’exercice de leur métier ? Si les opportunités et menaces de l’IA sur les activités d’enseignement ont été immédiatement identifiées et mises au cœur des réflexions, cette avancée technologique pose également des défis significatifs pour la formation des futurs chercheurs qui n’ont pour leur part pas encore été pris en considération.

L’acquisition de méthodes de collecte et d’analyse de données complexes constitue aujourd’hui l’un des piliers de la formation des doctorants. Il s’agit par exemple de savoir coder une grande quantité de données narratives, de développer des designs d’expérimentation adaptés, ou d’utiliser des outils statistiques complexes. Or l’IA (par exemple ChatGPT et son module « data analyst ») automatise et accélère de façon drastique ce travail de traitement des données.

Les générations futures peuvent-elles se passer d’apprendre à réaliser ces collectes et à mener ces analyses en les sous-traitant à l’IA ? Cette dépendance technologique pourrait les rendre vulnérables dans des situations où l’IA s’avèrera inadaptée ou inaccessible. Plus grave encore, elle pourrait diminuer leurs capacités critiques avec une acceptation passive des résultats générés : le doctorant qui aurait systématiquement confié ses analyses à l’IA serait incapable d’en détecter les erreurs.

D’autre part, l’utilisation d’une IA formée sur des données existantes soulève des inquiétudes. Est-il possible que le recours à l’IA pousse à reproduire des erreurs et des biais déjà présents dans les données d’entraînement, créant ainsi un risque de récursivité ? En outre, l’utilisation généralisée de l’IA basée sur des données d’entraînement préexistantes pourrait-elle conduire à des résultats qui ne remettent pas en cause le statu quo, limitant ainsi la nouveauté des futures découvertes scientifiques?

Face à ces défis, une approche équilibrée s’impose. Il est nécessaire de valoriser les nouvelles compétences techniques permettant d’utiliser l’IA, en gardant une posture critique vis-à-vis du recours à cette technologie. Il s’agit par ailleurs de continuer à transmettre aux doctorants des compétences analytiques fondamentales afin qu’ils conservent leur autonomie intellectuelle.

Dans les écoles doctorales, le renforcement des cours dédiés au développement de la pensée critique, tels que l’épistémologie et les diverses approches méthodologiques, est une piste. L’intégration de modules d’éthique de la recherche et d’intégrité scientifique directement en lien avec l’utilisation de l’IA en est une autre. In fine, il s’agit d’inculquer aux futurs chercheurs la responsabilité de l’exactitude des résultats qu’ils produisent, y compris si ces derniers sont générés par l’IA.

L’objectif est de s’assurer que l’utilisation des outils d’IA ne détruise pas à terme ce qui fait la valeur de ce métier : rigueur de la démarche méthodologique, sens critique et réflexivité. Ouvrons le dialogue au sein des centres de recherche et des écoles doctorales afin de construire des solutions collectives qui permettront de faire perdurer la capacité à créer des connaissances nouvelles.

_______

(*) Audrey Rouzies est directrice de l’Ecole doctorale de gestion à l’Université Toulouse Capitole et Cylien Gibert est chercheur en sciences de gestion à Toulouse School of Management Research.

Intelligence artificielle : nouvelle version de ChatGPT

Intelligence artificielle : nouvelle version de ChatGPT

 

 OpenAI, l’éditeur de ChatGPT, a présenté lundi 13 mai son nouveau modèle d’intelligence artificielle générative, GPT-4o, censé apporter à tous ses utilisateurs ses capacités les plus avancées en production et compréhension de texte, d’images et de sons et voix. « Nous sommes vraiment ravis d’apporter GPT-4o à tous nos utilisateurs gratuits. Les utilisateurs payants continueront à bénéficier de limites en termes d’utilisation cinq fois plus élevées que les utilisateurs gratuits », a déclaré Mira Murati, directrice technologique de la start-up californienne, lors d’une présentation vidéo diffusée en direct.

« Mais c’est la première fois que nous faisons un grand pas en avant en matière de facilité d’utilisation. C’est extrêmement important, il s’agit de l’avenir de l’interaction entre nous et les machines », a-t-elle ajouté. OpenAI a dévoilé un nouveau modèle, GPT-4o (« o » pour « omni »), qui peut  »raisonner » en temps réel via l’audio, la vision et le texte. Ces nouvelles capacités vont être progressivement ajoutées à ChatGPT, en commençant par le texte et l’image, d’abord pour les abonnés payants, ainsi que les utilisateurs gratuits, avec des limites en matière d’usage. La nouvelle version du « Voice Mode » (mode vocal) doit arriver dans les prochaines semaines pour les abonnés.

Intelligence artificielle : un peu trop d’emballement

Intelligence artificielle : un peu trop d’emballement

 

Le secteur de l’IA montre des signes d’emballement, notamment en raison du décalage entre les investissements et les revenus attendus, explique dans sa chronique Alexandre Piquard, journaliste au « Monde ».

 

L’intelligence artificielle (IA) fait-elle l’objet d’un emballement ? Les très fortes attentes placées dans cette technologie capable de créer du texte ou de l’image risquent-elles d’être déçues ? Des signes pointent en ce sens. Depuis le succès foudroyant du robot conversationnel ChatGPT, lancé le 30 novembre 2022, les géants du numérique sont engagés dans une course pour dominer ce secteur, suivis par une myriade de start-up aux valorisations parfois stratosphériques, comme OpenAI, à 80 milliards de dollars (72 milliards d’euros).Des dirigeants d’entreprises de tech décrivent l’IA comme une innovation « plus profonde que le feu ou l’électricité » (Google) ou comme une révolution technologique inédite, susceptible d’ouvrir une ère « d’abondance » où les machines libéreraient les humains d’une bonne part de leur travail (OpenAI).

« Attention à l’euphorie de l’IA », met en garde l’éditorialiste du Financial Times Rana Foroohar. « Même si vous croyez que l’IA est l’équivalent de l’électricité ou d’Internet, nous ne sommes qu’au début d’une transformation hautement complexe qui durera plusieurs décennies et est loin d’être jouée d’avance », prévient-elle.

« L’IA est une bulle », croit l’essayiste spécialiste du numérique Cory Doctorow. Se poser la question est comme se demander « si le pape est catholique », abonde le chroniqueur du Guardian John Naughton, enseignant et auteur de From Gutenberg to Zuckerberg : What You Really Need to Know About the Internet (« de Gutenberg à Zuckerberg : ce qu’il faut vraiment savoir à propos d’Internet », Quercus, 2012, non traduit).

« La “hype” autour de l’IA rappelle le boom et le crash des télécoms au début des années 2000, pendant la bulle Internet », écrit l’éditorialiste financière du Financial Times, June Yoon. Dans les cinq étapes du cycle de la « hype » (« engouement ») autour d’une technologie, théorisées par l’institut Gartner, l’IA en serait au deuxième : le « pic d’attentes exagérées », avant le « creux de la désillusion ». La « hype » autour de l’IA risque de créer des déceptions.

Sondage-Intelligence artificielle : une révolution à réguler

Sondage-Intelligence artificielle : une révolution à réguler 

Les applications d’intelligence artificielle (IA) sont une révolution technologique majeure pour l’humanité, pour six Français sur dix (61%), au même titre que l’a été l’invention de l’imprimerie par exemple. C’est ce qui ressort du Baromètre 2024 de l’esprit critique réalisé par OpinionWay pour Universcience publié jeudi 21 mars. Mais pour plus de huit Français sur dix (85%), il est nécessaire d’encadrer et de réglementer leur utilisation, car elles posent, pour les trois quarts des personnes interrogées (77%), de nouvelles questions éthiques et juridiques en matière de responsabilité et de droits. – (Franceinfo)

Sur les possibilités offertes par ces technologies, 68% des sondés estiment que les applications de l’IA ne peuvent pas prendre de décisions autonomes, puisqu’elles suivent des programmes informatiques définis. 59% des Français jugent qu’elles ne sont pas créatives et innovantes, car elles assemblent des contenus déjà existants. Selon cette enquête, seuls 19% des sondés les croient parfaitement fiables. Quant à savoir si les IA sont plus neutres que les humains, le panel étudié est plus divisé. 42% répondent que oui, elles sont plus neutres, quand 38% estiment qu’elles ne le sont pas.

Le sondage interroge également la vision qu’ont les Français sur les avantages et les risques liés à l’IA. Et ils restent assez partagés, estimant globalement qu’il y a autant de risques que d’avantages à utiliser ces applications. Dans le détail, c’est la perception du risque qui domine pour le domaine des relations humaines. 37% des Français ont ce sentiment, quand 31% estiment qu’il y a autant de risques que d’avantages à utiliser l’IA dans les relations humaines. 10% y voient essentiellement des avantages. Le risque de l’IA est également prédominant pour l’information (33%) et pour l’emploi (31%), même si 34% des sondés voient également autant de risques que d’avantages pour ces deux domaines.

La perception des Français est également très nuancée sur l’apport de l’IA pour la santé, la recherche, les sciences et les transports. Les applications ont autant de risques que d’avantages dans le domaine de la santé (35%), les sciences et la recherche scientifique (36%) et les transports (33%). Mais c’est sur ces trois domaines que les sondés voient le plus d’avantages. Ils sont 29% à percevoir cet avantage pour la santé, 28% pour les sciences et la recherche scientifique, et 26% pour les transports.

L’enquête révèle par ailleurs que les Français se fient majoritairement à l’intelligence artificielle pour détecter des erreurs dans des textes ou des programmes informatiques, pour 75% des sondés, analyser des grandes quantités de données (73%), trouver des informations (70%), approfondir ses connaissances (65%), ou même écrire un texte (64%). À l’inverse, ils sont plus méfiants quand la question de responsabilité entre en jeu. Seul un quart des personnes interrogées (25%) font confiance aux applications de l’IA pour rendre des décisions de justice. Ils sont 28% à assurer que l’IA peut piloter un avion en toute confiance, ou conduire une voiture (34%). Et ils sont 33% à avoir confiance dans l’IA pour prescrire des médicaments, ou pour réaliser un diagnostic médical (41%).

Enfin pour évaluer les risques et bénéfices de l’IA, les Français ont avant tout confiance dans les scientifiques, les musées et journalistes spécialisés. Les personnes interrogées pour le baromètre plébiscitent en priorité les scientifiques et les chercheurs en général (68%), les musées et centres de culture scientifique (59%) et les journalistes scientifiques (56%). Mais les sondés restent très méfiants envers les entreprises. Ils sont seulement 34% à leur faire confiance et même 29% pour les entreprises du numérique du type Gafam. La défiance envers les élus ou les représentants politique est également forte. Seuls 22% des Français leur font confiance pour évaluer les risques et bénéfices de l’IA. La cote de confiance des influenceurs et personnalités publiques est également basse, à 17%.

________________________________________

Le Baromètre 2024 de l’esprit critique réalisé par OpinionWay pour Universcience a été réalisé par un questionnaire en ligne du 31 janvier au 12 février, sur un échantillon de 2 004 personnes, représentatif de la population française âgée de 18 ans et plus.

voir les commentaires

Pa

Nouvelle technologie-Intelligence artificielle : « risques majeurs pour l’humanité» ?

Nouvelle technologie-Intelligence artificielle : « risques majeurs pour l’humanité» ?


IA: Des conséquences bien sûr technologiques mais aussi sociales, économiques et même démocratiques. La technique pourrait bien échapper à ses créateurs faute de régulation.

Des centaines de chercheurs dans le monde demandent une peau concernant l’utilisation de l’intelligence artificielle en attendant sa régulation. «Ces derniers mois ont vu les laboratoires d’IA s’enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable», peut-on lire dans la tribune parue sur le site de la fondation américaine Future of Life.

«Les systèmes d’IA puissants ne devraient être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables.»

Les signataires réclament donc un moratoire jusqu’à la mise en place de systèmes de sécurité, dont de nouvelles autorités réglementaires dédiées, «la surveillance et le suivi des systèmes d’IA hautement performants», «un financement public robuste pour la recherche technique sur la sécurité de l’IA », «un écosystème robuste d’audit et de certification», des techniques pour aider à distinguer le réel de l’artificiel et des institutions capables de gérer les «perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA provoquera».

«Devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? », poursuivent les signataires. «Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus.» Parmi les applications de l’intelligence artificielle figurent en particulier la rapidité de développement de GPT.

12345...13



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol