Archive pour le Tag 'artificielle'

Intelligence artificielle : pour des synergies européennes à la hauteur de l’enjeu

Intelligence artificielle : pour des synergies européennes à la hauteur de l’enjeu


L’Europe, malgré son excellence scientifique dans le domaine de l’intelligence artificielle, peine à transformer ses avancées en un impact mondial. Bien que ses centres de recherche soient parmi les meilleurs au monde, les géants de l’IA se forment souvent en dehors du continent. Un tournant stratégique est crucial pour que l’IA européenne atteigne son plein potentiel industriel et sociétal. Par Amir Banifatemi, Directeur exécutif chargé de l’IA responsable chez Cognizant (*) dans La Tribune

L’Europe regorge de talents en intelligence artificielle. Ses centres de recherche produisent certaines des avancées les plus pointues dans le domaine et la France en particulier peut se targuer d’un vivier exceptionnel de chercheurs et d’ingénieurs spécialisés. Son réseau d’écoles d’ingénieurs et de laboratoires, comme l’INRIA ou le CNRS, fait partie des meilleurs au monde. Pourtant, malgré cette excellence scientifique, les géants de l’IA ne naissent souvent ni Paris ni à Berlin, mais à San Francisco ou à Pékin.

Ce paradoxe évoque le syndrome du Concorde : une prouesse technologique européenne avant-gardiste qui, malgré son excellence, n’a pas réussi à s’imposer durablement à l’échelle mondiale. Aujourd’hui, l’Europe produit d’excellents modèles d’IA, souvent rachetés ou exploités par des entreprises américaines ou chinoises. Sans un sursaut stratégique, l’IA européenne risque de ne pas atteindre son plein potentiel industriel et sociétal ni d’imposer ses valeurs dans le monde numérique de demain.

Si les États-Unis et la Chine dominent le marché de l’IA, c’est parce qu’ils ont su développer un écosystème où laboratoires de recherche, startups et investisseurs collaborent étroitement. Des initiatives comme le programme américain SBIR et l’accès à un capital-risque abondant financent massivement les startups deeptech dès leurs balbutiements. En Chine, l’État injecte des milliards dans des pôles technologiques comme Zhongguancun à Pékin, où chercheurs et entrepreneurs cohabitent pour accélérer le passage de la recherche à l’industrie.

En Europe, la dynamique est plus contrastée. Faute d’incitations, certains chercheurs restent cloisonnés dans le monde académique, mais des initiatives comme EDIH ou l’IPCEI en IA tentent de renforcer les liens entre recherche et industrie. Toutefois, ces programmes, encore sous-financés et fragmentés, peinent à créer un écosystème aussi dynamique que ceux de la Silicon Valley ou de Shenzhen.
Une régulation agile et une stratégie industrielle forte

L’IA est bien plus qu’un sujet technologique : c’est une bataille économique, stratégique et sociétale.

L’Europe a choisi de jouer un rôle de pionnier dans la régulation de l’IA avec l’AI Act. Mais pour éviter que la régulation ne devienne un frein à la compétitivité, il faut parallèlement investir massivement dans des dispositifs de soutien à l’innovation, comme le font les États-Unis et la Chine.

Plutôt qu’une contrainte, l’AI Act peut faire de l’Europe un pionnier d’une IA fiable et de qualité. En fixant des standards élevés en éthique et sécurité, un label IA européen pourrait devenir un gage d’excellence à l’international. Cette alliance entre innovation et éthique ouvrirait aussi de nouveaux marchés, notamment en santé, éducation et environnement, où la confiance est essentielle à l’adoption des technologies.

Construire sur les forces européennes

L’Europe dispose d’atouts uniques pour bâtir sa stratégie en IA. Son excellence scientifique est reconnue à l’international, avec une production significative de publications en IA. Son expertise dans l’industrie 4.0, la santé et les transports constitue un levier majeur. Elle peut aussi se démarquer par une IA frugale et durable, optimisant les ressources et limitant l’impact environnemental. Sa diversité linguistique et culturelle favorise des applications adaptées à divers contextes, tandis que son engagement en innovation sociale permettrait d’orienter l’IA vers les grands défis contemporains.

Multiplier les partenariats entre universités et entreprises et les soutenir financièrement est un levier clé pour dynamiser le passage de la recherche à l’industrie. Les collaborations existent, mais restent limitées face aux besoins existants. Il faut aller plus loin en intégrant dès la phase de recherche des objectifs de valorisation industrielle et d’utilité collective.

L’Europe n’a pas le luxe du temps. Si elle n’agit pas maintenant, elle continuera à voir ses talents et ses innovations captés par les géants américains et chinois. Il ne s’agit pas seulement d’un choix technologique ou économique, mais aussi d’un choix de société. En perdant sa souveraineté dans le domaine de l’IA, l’Europe risque de voir des technologies façonnées selon des valeurs et des priorités qui ne sont pas les siennes s’imposer dans tous les aspects de la vie quotidienne de ses citoyens.

L’enjeu est de transformer les découvertes scientifiques en véritables innovations industrielles et d’adopter une approche coordonnée à l’échelle du continent. Il est temps d’intensifier les mécanismes de financement, de favoriser des alliances stratégiques entre startups et grands groupes, et de faire de la régulation un levier de compétitivité plutôt qu’un frein. L’Europe a tous les atouts pour jouer un rôle majeur dans l’IA mondiale, à condition de se donner les moyens de ses ambitions.

_____

(*) Amir Banifatemi est Directeur exécutif chargé de l’IA responsable chez Cognizant et défenseur de longue date de l’IA responsable. Fort d’une carrière internationale et d’un rôle clé chez Cognizant, il est reconnu pour sa vision unique de l’IA comme levier de transformation durable pour les entreprises. Il est également actif sur la scène mondiale, comme en témoigne sa récente intervention à Davos, où il a partagé sa conviction que les pratiques d’IA responsable ne sont pas des contraintes, mais des catalyseurs de valeur pour les entreprises.

Amir Banifatemi

L’intelligence artificielle : Danger pour l’écologie et la démocratie ?

L’intelligence artificielle : Danger pour l’écologie et la démocratie ?

Plus d’une vingtaine d’organisations réunies au sein de la coalition Hiatus, parmi lesquelles La Quadrature du Net et la Ligue des droits de l’homme, estiment, dans une tribune au « Monde », qu’il faut résister au déploiement massif de l’IA, au nom des droits humains, sociaux et environnementaux.

 

Tout concourt à ériger le déploiement massif de l’intelligence artificielle (IA) en priorité politique. Prolongeant les discours qui ont accompagné l’informatisation depuis plus d’un demi-siècle, les promesses abondent pour conférer à l’IA des vertus révolutionnaires et imposer l’idée que, moyennant la prise en compte de certains risques, elle serait nécessairement vecteur de progrès. C’est donc l’ensemble de la société qui est sommée de s’adapter pour se mettre à la page de ce nouveau mot d’ordre industriel et technocratique.

Partout dans les services publics, l’IA est ainsi conduite à proliférer au prix d’une dépendance technologique accrue. Partout dans les entreprises, les manageurs appellent à recourir à l’IA pour « optimiser » le travail. Partout dans les foyers, au nom de la commodité et d’une course insensée à la productivité, nous sommes poussés à l’adopter.

Pourtant, sans préjuger de certaines applications spécifiques et de la possibilité qu’elles puissent effectivement répondre à l’intérêt général, comment ignorer que ces innovations ont été rendues possible par une formidable accumulation de données, de capitaux et de ressources sous l’égide des multinationales de la tech et du complexe militaro-industriel ? Que pour être menées à bien, elles requièrent, notamment, de multiplier la puissance des puces graphiques et des centres de données, avec une intensification de l’extraction de matières premières, de l’usage des ressources en eau et en énergie ?

Des conséquences désastreuses

Comment ne pas voir qu’en tant que paradigme industriel, l’IA a d’ores et déjà des conséquences désastreuses ? Qu’en pratique, elle se traduit par l’intensification de l’exploitation des travailleurs et travailleuses qui participent au développement et à la maintenance de ses infrastructures, notamment dans les pays du Sud global où elle prolonge des dynamiques néocoloniales ? Qu’en aval, elle est le plus souvent imposée sans réelle prise en compte de ses impacts délétères sur les droits humains et l’exacerbation des discriminations .

L’intelligence artificielle au niveau de l’humain pour l’instant ?

L’intelligence artificielle au niveau de l’humain pour l’instant  ?

Le 20 décembre 2024, le système o3 d’OpenAI a obtenu 85 % au test de référence ARC-AGI, ce qui est nettement supérieur au meilleur résultat obtenu par l’IA précédente (55 %) et équivalent aux résultats humains moyens. o3 a également obtenu de bons résultats à un test de mathématiques très difficile. Créer une intelligence artificielle « générale » est l’objectif déclaré de tous les grands laboratoires de recherche sur l’IA. L’annonce récente d’OpenAI semble indiquer que l’entreprise vient d’accomplir une prouesse dans cette direction. (ndlt : L’abréviation francophone d’« intelligence artificielle générale » est « IAG » mais ce sigle est parfois utilisé pour parler d’intelligence artificielle générative, qui est une famille particulière de systèmes d’intelligence artificielle, exploitant notamment l’apprentissage profond, et dont ChatGPT est le membre le plus médiatique.Même si un certain scepticisme est de mise, de nombreux chercheurs et développeurs en IA ont le sentiment que les lignes sont en train de bouger : la possibilité d’une intelligence artificielle générale semble plus tangible, plus actuelle qu’ils et elles ne le pensaient jusqu’à présent. Qu’en est-il ? Tentons de décrypter cette annonce.

 

par , PhD Student, School of Computing, Australian National University

 , Research Fellow, Stanford Center for Responsible Quantum Technology, Stanford University dans The Conversation 

Pour comprendre ce que signifie le résultat obtenu par o3 d’OpenAI, il faut se pencher sur la nature du test ARC-AGI qu’o3 a passé.

Il s’agit d’un test évaluant la « sample efficiency » d’un système d’IA (ndlt : parfois traduit par « efficacité en données »), c’est-à-dire sa capacité à s’adapter une situation nouvelle, ou, en termes plus techniques, la capacité d’un modèle de machine learning à obtenir des bonnes performances avec un apprentissage basé sur peu de données.

En effet, l’apprentissage de ces modèles est normalement basé sur de très grands ensembles de données, ce qui les rend coûteux à entraîner. Un système d’IA comme ChatGPT (GPT-4) n’est pas très « efficace en données » : il a été entraîné sur des millions d’exemples de textes humains, d’où il a tiré des règles probabilistes qui lui dictent les suites les plus probables de mots. Cette méthode est efficace pour générer des textes généralistes ou d’autres tâches « courantes » ; mais dans le cas de tâches peu courantes ou plus spécialisées, le système est moins performant car il dispose de peu de données pour chacune de ces tâches.

Les systèmes d’IA comme ChatGPT sont très efficaces pour des tâches généralistes, comme les recettes de cuisine, mais ne sont pas adaptés aux situations spécialisées, faute de données pour les entraîner suffisamment. Bianca De Marchi/AAP

Tant que les systèmes d’IA ne pourront pas apprendre à partir d’un petit nombre d’exemples (d’un petit ensemble de données) — c’est-à-dire démontrer une certaine « efficacité en données » —, ils ne pourront pas s’adapter aux situations plus rares, ils ne seront utilisés que pour les tâches très répétitives et celles pour lesquelles un échec occasionnel est tolérable.

La capacité à résoudre avec précision des problèmes inconnus ou nouveaux à partir de peu de données s’appelle la « capacité de généralisation ». Elle est considérée comme un élément nécessaire, voire fondamental, de l’intelligence.

C’est pour cela que le test de référence ARC-AGI, qui évalue l’intelligence « générale », utilise de petits problèmes de grilles comme celui présenté ci-dessous. À partir d’un nombre très restreint d’exemples, la personne ou l’IA testée doit trouver le modèle qui transforme la grille de gauche en la grille de droite. C’est bien l’« efficacité en données » qui est évaluée ici.

Chaque exercice commence par fournir trois exemples, desquels il faut extraire des règles, qui « généralisent » les trois exemples… et permettent de résoudre le quatrième.

Cela ressemble beaucoup à des tests de QI.

Nous ne savons pas exactement comment OpenAI a procédé, mais les résultats mêmes du test suggèrent que le modèle o3 est très adaptable : à partir de quelques exemples seulement, il a trouvé des règles généralisables qui lui ont permis de résoudre les exercices.

Pour s’attaquer à ce type d’exercice, il faut trouver les règles nécessaires et suffisantes pour résoudre l’exercice, mais ne pas s’infliger de règles supplémentaires, qui seraient à la fois inutiles et contraignantes. On peut démontrer mathématiquement que ces règles minimales sont la clef pour maximiser sa capacité d’adaptation à de nouvelles situations.

Qu’entendons-nous par « règles minimales » ? La définition technique est compliquée, mais les règles minimales sont généralement celles qui peuvent être décrites dans des énoncés plus simples.

Dans l’exemple ci-dessus, la règle pourrait être exprimée ainsi : « Toute forme comportant une ligne saillante se déplacera jusqu’à l’extrémité de cette ligne et recouvrira toutes les autres formes avec lesquelles elle se chevauchera dans sa nouvelle position ».

Bien que nous ne sachions pas encore comment OpenAI est parvenu à ce résultat, il semble peu probable que les ingénieurs aient délibérément optimisé le système o3 pour trouver des règles minimales — mais o3 a bien dû trouver ces règles.

Nous savons qu’OpenAI a commencé par leur version générique du modèle o3 (qui diffère de la plupart des autres grands modèles de langage, car il peut passer plus de temps à « réfléchir » à des questions difficiles) et l’a ensuite entraîné spécifiquement pour passer le test ARC-AGI.

Le chercheur français en IA François Chollet, qui a conçu le test de référence (ndlt : et qui travaillait chez Google jusqu’à récemment), estime qu’o3 recherche différentes « chaînes de pensée » décrivant les étapes à suivre pour résoudre la tâche. (ndlt : Une « chaîne de pensée » est une stratégie exploitée en IA, qui mimique une stratégie humaine consistant à décomposer un problème complexe en petites unités plus simples, amenant pas à pas à une solution globale.)

o3 choisirait ensuite la « meilleure » chaîne de pensée en fonction d’une règle définie de façon relativement pragmatique et vague, dans une approche « heuristique ».

Cette stratégie ne serait pas très différente de celle utilisée par le système AlphaGo de Google pour chercher différentes séquences de mouvements possibles à même de battre le champion du monde de go en 2016.

 

On peut considérer ces chaînes de pensée comme des programmes qui sont adaptés aux exemples et permettent de les résoudre. Bien sûr, si o3 exploite bien une méthode similaire à celle utilisée dans AlphaGo, il a fallu fournir à o3 une heuristique, ou règle souple, pour lui permettre de déterminer quel programme était le meilleur. Car des milliers de programmes différents, apparemment aussi valables les uns que les autres, pourraient être générés pour tenter de résoudre les trois exemples. On pourrait imaginer une heuristique qui « sélectionne le programme minimal » ou bien qui « sélectionne le programme le plus simple ».

Toutefois, s’il s’agit d’un mécanisme similaire à celui d’AlphaGo, il suffit de demander à une IA de créer une heuristique. C’est ce qui s’est passé pour AlphaGo : Google a entraîné un modèle à évaluer différentes séquences de mouvements comme étant meilleures ou pires que d’autres.

La question qui se pose donc est la suivante : est-on vraiment plus proche de l’intelligence artificielle générale ? Si o3 fonctionne comme on vient de le décrire, le modèle sous-jacent n’est peut-être pas beaucoup plus performant que les modèles précédents.

Les concepts que le modèle apprend de données textuelles (ou plus généralement du langage humain) ne permettent peut-être pas davantage de généralisation qu’auparavant. Au lieu de cela, nous pourrions simplement être en présence d’une « chaîne de pensée » plus généralisable, découverte grâce aux étapes supplémentaires d’entraînement d’une heuristique spécialisée pour le test en question aujourd’hui.

On y verra plus clair, comme toujours, avec davantage de recul et d’expérience autour de o3.

En effet, on ignore presque tout au sujet de ce système : OpenAI a fait des présentations aux médias assez limitées, et les premiers tests ont été réservés à une poignée de chercheurs, de laboratoires et d’institutions spécialisées dans la sécurité de l’IA.

Pour évaluer le véritable potentiel d’o3, il va falloir un travail approfondi, notamment pour déterminer à quelle fréquence il échoue et réussit.

C’est seulement quand o3 sera réellement rendu public que nous saurons s’il est à peu près aussi adaptable qu’un humain moyen.

Si c’est le cas, il pourrait avoir un impact économique énorme et révolutionnaire, et ouvrir la voie à une nouvelle ère d’intelligence artificielle, capable de s’améliorer d’elle-même. Nous aurons besoin de nouveaux critères pour évaluer l’intelligence artificielle générale elle-même, et d’une réflexion sérieuse sur la manière dont elle devrait être gouvernée.

Si ce n’est pas le cas, o3 et son résultat au test ARC-AGI resteront un résultat impressionnant, mais nos vies quotidiennes resteront sensiblement les mêmes.

La fin du travail avec l’intelligence artificielle ?

La fin du travail avec l’intelligence artificielle ?

 

 

La montée en puissance de l’intelligence artificielle entraîne des révolutions technologiques qui donnent le tournis en Californie, à ses meilleurs élèves : les salariés de la tech, constate Corine Lesnes, dans sa chronique au « Monde » 

Au tournant des années 2010, l’avènement de la voiture sans chauffeur faisait les gros titres. Le phénomène était imminent. « Une réalité », annonçait le New York Times en mai 2012. Les sociologues prédisaient la « fin du travail » tel que la civilisation occidentale le concevait depuis la révolution industrielle, à la suite de l’économiste Jeremy Rifkin dont le livre de 1995, La Fin du travail (La Découverte, 1997), explorait les conséquences de l’automatisation sur le marché de l’emploi.

Rien d’aussi spectaculaire n’a immédiatement suivi. Pendant deux décennies, la voiture sans chauffeur est restée au stade d’expérimentation, pour ne pas dire de mirage. Le taux de chômage n’a pas explosé, au contraire. Nous nous sommes habitués aux effets de manche des ploutocrates de la tech : coloniser Mars, occuper le métavers… Au risque de se retrouver blasés, et de négliger de prendre acte des révolutions, bien réelles, qui sont désormais parmi nous.

Aujourd’hui, les taxis autonomes circulent dans cinq villes américaines, sans anicroche ni accident (mais pas encore par tous les temps). A San Francisco, les Waymo (voiture sans conducteur) de Google sont devenues une attraction touristique au même titre que les cable cars de la fin du XIXe siècle. Et chaque trajet urbain conduit par un chauffeur fantôme suscite le même ébahissement : « wow », comme disent les Américains.

Quant à la « fin du travail » traditionnel, celle-ci n’est plus une vue de l’esprit, mais un phénomène en voie de banalisation du fait de la fulgurante accélération de l’intelligence artificielle (IA). Faut-il s’en plaindre ? Les « techies » sont en première ligne, cette fois, de la « disruption » causée par leurs propres inventions. Depuis trois ans, les charrettes se succèdent dans le secteur des technologies : 165 000 licenciements en 2022 ; 264 000 en 2023, un record ; 141 000 encore cette année, entre janvier et le 11 octobre, émanant de 468 entreprises.

Santé : les dangers de la lumière artificielle

Santé : les dangers de la lumière artificielle

 

La lumière artificielle « peut se révéler une redoutable pollueuse » et provoquer des maladies graves, comme le cancer, particulièrement chez ceux qui ont « un travail de nuit », alerte samedi 12 octobre sur franceinfo Jean-Louis Dufier, ophtalmologue et membre de l’Académie nationale de médecine, coauteur du rapport(Nouvelle fenêtre) « Pollution lumineuse et santé publique », publié par l’Académie de médecine. À l’occasion de la 16e édition de l’opération nationale de sensibilisation à la pollution lumineuse ce samedi, l’ophtalmologue appelle à « vivre exactement selon le rythme veille-sommeil ». Selon lui, pour vivre en bonne santé, « il faut rester calé sur le rythme naturel du soleil ».
 Pourquoi les lumières artificielles sont-elles nocives pour la santé ?

Jean-Louis Duffer : Contrairement aux autres sources de pollution, la lumière est rarement dénoncée, sans doute parce qu’elle est particulièrement insidieuse. Pourtant, cette bienfaisante lumière, qui a d’ailleurs été divinisée par des Égyptiens, peut se révéler une redoutable pollueuse. Quels sont ses méfaits ? La fatigue, des troubles de l’humeur, une diminution de l’attention, de la vigilance qui peut être source d’ailleurs d’accidents de la voie publique, de la somnolence par manque de sommeil, des perturbations du sommeil…

Pourquoi ces lumières dérèglent-elles notre organisme ?

Tout ça vient du fait que, par de mauvais usages, notre exposition à une lumière artificielle jour et nuit, fait qu’en définitive, nos concitoyens manquent de sommeil, et pas seulement les adultes. La lumière a une interaction avec notre rétine. C’est évidemment par la rétine que se fait le phénomène de la vision. On a dans les cellules rétiniennes des moyens de capter la lumière pour justement entraîner la transformation des photons lumineux en électrons qui vont aller tout le long des voies visuelles jusqu’au cortex occipital pour faire ce phénomène de la vision. Non seulement la lumière permet le phénomène de la vision, mais donne au cerveau l’information du jour et de la nuit. Donc un déficit de sommeil va entraîner une dérégulation du cycle veille-sommeil qui est si important.

Ce dérèglement peut entraîner de graves maladies ?

Dans une étude sur 115 000 infirmières américaines qui ont été suivies pendant dix ans, on a montré une augmentation significative de près de 80% de risque relatif de cancer du sein, lorsqu’il existait au moins trois nuits travaillées par semaine pendant 20 ans. Évidemment, les personnes qui ont un travail de nuit sont particulièrement exposées.

Quel conseil donnez-vous aux Français pour se protéger de la lumière artificielle ?

« Nature est un doux guide », disait Ronsard. Il faut vivre exactement selon le rythme veille-sommeil, c’est-à-dire 9 h de sommeil. En gros, suivre l’arrivée de la nuit vers les 20h-21h et se réveiller vers 7h. Il faut rester calé sur le rythme naturel du soleil.

Intelligence artificielle : quelle éthique ?

Intelligence artificielle : quelle éthique ?

 Pour Laetitia Pouliquen, directrice du think tank «NBIC Ethics», si la généralisation de l’IA et des algorithmes ne s’accompagne pas d’une réflexion sur la nature de l’homme, la société risque de sombrer dans des dérives dystopiques et transhumanistes. Interview dans le Figaro
Laetitia Pouliquen est directrice de «NBIC Ethics», un think tank traitant de l’éthique des technologies auprès des institutions européennes. Elle est également l’auteur de Femme 2.0: Féminisme et transhumanisme: quel avenir pour la femme? (éd. Saint-Léger, 2016).
Pour beaucoup, la généralisation de l’intelligence artificielle dans notre quotidien va profondément transformer notre mode de vie. Pensez-vous que le monopole des GAFAM dans ce domaine laisse suffisamment de place à une réflexion éthique quant à ces changements ?
Laetitia POULIQUEN. – Il est évident que notre quotidien va être profondément transformé, que ce soit dans notre rapport au réel ou à l’autre, par l’immission de la machine, de l’IA, et des algorithmes dans nos vies journalières. Le social, le sociétal, et même l’anthropologie sont en train de se refaçonner. La digitalisation de notre quotidien nous fait perdre de vue une certaine vision de l’homme. Face à ces changements, une réflexion morale est nécessaire pour établir un cadre légal, pour ne pas oublier ce qu’est l’homme et en quoi se différencie-t-il de la machine.

Cette réflexion éthique dans le domaine de l’I.A est tout à fait possible, notamment dans le cadre de l’Union européenne. Nous, européens, sommes pris entre deux feux, d’une part les GAFAM américaines, et d’autre part les BATX chinoises (Baidu, Alibaba, Tencent et Xiaomi), et nous restons limités en termes d’investissement, de recherche et de développement. Cependant, notre approche qui est plus axée sur l’éthique que sur l’investissement, nous confère un rôle tout particulier dans le développement des nouvelles technologies. L’Europe est historiquement le premier foyer de réflexion philosophique et morale, et doit continuer de l’être dans les secteurs de pointe.

L’approche morale de l’Union européenne vis-à-vis de l’IA, notamment avec son «Guide éthique de l’intelligence artificielle», est-elle toujours pertinente ?

Toute réflexion morale, que ce soit dans le domaine de la robotique ou autre, s’appuie sur une certaine conception de l’homme et du monde, qui peut être parfois totalement déconnectée. Ainsi, bien qu’elle se veuille «éthique», l’approche de l’Union européenne n’est pas nécessairement bonne, tout dépend des fondements anthropologiques sur lesquels elle s’appuie.

Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans le domaine de l’I.A.

En 2017, par exemple, le rapport Delvaux présenté auprès de la Commission européenne a provoqué beaucoup de débats. Dans ce rapport législatif, la député européenne luxembourgeoise Maddy Delvaux, proposait certaines mesures très idéalisées et idéologisées quant à la défense des robots. Certains articles présentaient l’augmentation de l’homme comme quelque chose d’essentiellement positif, d’autres établissaient la notion de personnalité morale pour les robots, afin de les faire sujets de droits… La version originale voulait même permettre aux robots d’avoir un patrimoine assurantiel et d’investir en Bourse, afin de pouvoir financer leur propre évolution, on nageait en plein délire dystopique. Ce texte s’appuyait sur une conception de l’homme et de la machine totalement déconnectée de la réalité, qui ne différenciait plus le vivant du mécanique.

Nous avons donc rédigé une lettre ouverte à la Commission européenne, avec le soutien de 300 signataires européens, afin d’alerter sur les dangers de ce projet. Et parmi ces 300 personnes, il n’y avait pas que des représentants du secteur technologique, mais aussi des philosophes, des anthropologues, des psychiatres, et même des théologiens, pour bien rappeler ce qu’est l’homme, et sa différence avec la machine. Il est nécessaire de remettre les penseurs au centre de la réflexion sur l’intelligence artificielle, et de les intégrer aux groupes d’experts de la Commission européenne. Cependant, malgré quelques modifications et une large médiatisation de notre lettre ouverte, le rapport Delvaux a fini par être adopté.

Comment l’État et l’Union européenne peuvent-ils mettre en place une éthique de l’intelligence artificielle, alors qu’ils se proclament neutre et refusent d’imposer des normes morales à l’individu ?

C’est le principal problème de notre époque. Légiférer sur des questions morales à propos de l’IA est devenu presque impossible aujourd’hui, du fait du relativisme de notre société. Il n’y a plus de socle commun, de principes universels sur lesquels s’appuyer. Quand on ne sait plus dire ce qu’est l’homme, on ne sait plus dire ce qu’est la machine. L’individu moderne ne supporte plus d’autre ordre moral et naturel que son propre désir. Le «je» est devenu la mesure de l’humanité. Et la déconnexion du réel, liée au numérique, renforce ce relativisme. Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans ce domaine.

Les comités censés être «éthiques», ont donc tendance à s’appuyer non pas sur la morale mais sur une logique capitalistique, car les bénéfices, eux, ne sont pas relatifs. Et on a vu cela très clairement dans le «Guide d’éthique de la Commission européenne» sur l’intelligence artificielle, qui a fait suite au rapport Delvaux. Parmi les 53 experts qui ont participé à ce guide, 90% d’entre eux étaient dans le business technologique, experts, ou représentants de groupes de consommateurs, mais il n’y avait presque aucun philosophe, anthropologue, ou psychiatre… L’approche n’était absolument pas humaine, mais économique. Si l’on ne se pose pas la question de ce qu’est l’homme, les guides d’éthique sur l’IA risquent de se transformer en véritables projets dystopiques et transhumanistes.
Que conseillez-vous pour encadrer l’utilisation de l’IA et répondre aux problèmes d’éthique ?

J’avais proposé plusieurs éléments lors de la rédaction du «Guide d’éthique sur l’I.A» à l’Union européenne. Une des propositions portait sur la liberté de l’individu. L’idée était de permettre à l’utilisateur, s’il ne veut pas passer par un algorithme, que ce soit pour un contrat d’assurance, un prêt ou autre, de demander une interaction humaine. Je recommandais donc une graduation, une notation, qui permet de voir si on a affaire à un service «entièrement I.A», «IA avec supervision humaine», ou «entièrement humain». Quand on parle de justice, de banque, de gestion du patrimoine, et surtout des droits de l’homme, il est essentiel de savoir à qui on a affaire, un humain ou une I.A. Mais ça n’a pas été repris, l’approche de ce guide d’éthique est restée bien plus juridique qu’éthique.

J’avais également tenté de mettre en place un label pour les algorithmes, qui s’appelait «Ethic inside», et qui garantirait le respect des règles éthiques européennes. Mais il est presque impossible de suivre le chemin par lequel un algorithme en est arrivé à telle ou telle décision, et donc de dire s’il est éthique ou non, s’il respecte les règles. Il y a également la question de la responsabilité qui complique les choses. Qui est responsable des décisions d’un algorithme : l’entreprise, le développeur, l’utilisateur, ou l’IA elle-même ? Comment objectiver le caractère moral d’un algorithme si on ne peut même pas répondre à cette question ? Les développeurs ne peuvent pas être jugés responsables d’algorithmes tellement complexes qu’ils ne les maîtrisent plus totalement. Par sa nature même, l’I.A échappe en partie à notre contrôle, et on ne va pas pour autant lui donner une personnalité morale… C’est un vrai casse-tête. Il est donc extrêmement compliqué de mettre en place des points de contrôle pour des algorithmes aussi complexes, surtout quand ils sont mondialisés sur internet.

Société et Intelligence artificielle : quelle éthique ?

Société et  Intelligence artificielle : quelle éthique ?

 Pour Laetitia Pouliquen, directrice du think tank «NBIC Ethics», si la généralisation de l’IA et des algorithmes ne s’accompagne pas d’une réflexion sur la nature de l’homme, la société risque de sombrer dans des dérives dystopiques et transhumanistes. Interview dans le Figaro
Laetitia Pouliquen est directrice de «NBIC Ethics», un think tank traitant de l’éthique des technologies auprès des institutions européennes. Elle est également l’auteur de Femme 2.0: Féminisme et transhumanisme: quel avenir pour la femme? (éd. Saint-Léger, 2016).
Pour beaucoup, la généralisation de l’intelligence artificielle dans notre quotidien va profondément transformer notre mode de vie. Pensez-vous que le monopole des GAFAM dans ce domaine laisse suffisamment de place à une réflexion éthique quant à ces changements ?
Laetitia POULIQUEN. – Il est évident que notre quotidien va être profondément transformé, que ce soit dans notre rapport au réel ou à l’autre, par l’immission de la machine, de l’IA, et des algorithmes dans nos vies journalières. Le social, le sociétal, et même l’anthropologie sont en train de se refaçonner. La digitalisation de notre quotidien nous fait perdre de vue une certaine vision de l’homme. Face à ces changements, une réflexion morale est nécessaire pour établir un cadre légal, pour ne pas oublier ce qu’est l’homme et en quoi se différencie-t-il de la machine.

Cette réflexion éthique dans le domaine de l’I.A est tout à fait possible, notamment dans le cadre de l’Union européenne. Nous, européens, sommes pris entre deux feux, d’une part les GAFAM américaines, et d’autre part les BATX chinoises (Baidu, Alibaba, Tencent et Xiaomi), et nous restons limités en termes d’investissement, de recherche et de développement. Cependant, notre approche qui est plus axée sur l’éthique que sur l’investissement, nous confère un rôle tout particulier dans le développement des nouvelles technologies. L’Europe est historiquement le premier foyer de réflexion philosophique et morale, et doit continuer de l’être dans les secteurs de pointe.

L’approche morale de l’Union européenne vis-à-vis de l’IA, notamment avec son «Guide éthique de l’intelligence artificielle», est-elle toujours pertinente ?

Toute réflexion morale, que ce soit dans le domaine de la robotique ou autre, s’appuie sur une certaine conception de l’homme et du monde, qui peut être parfois totalement déconnectée. Ainsi, bien qu’elle se veuille «éthique», l’approche de l’Union européenne n’est pas nécessairement bonne, tout dépend des fondements anthropologiques sur lesquels elle s’appuie.

Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans le domaine de l’I.A.

En 2017, par exemple, le rapport Delvaux présenté auprès de la Commission européenne a provoqué beaucoup de débats. Dans ce rapport législatif, la député européenne luxembourgeoise Maddy Delvaux, proposait certaines mesures très idéalisées et idéologisées quant à la défense des robots. Certains articles présentaient l’augmentation de l’homme comme quelque chose d’essentiellement positif, d’autres établissaient la notion de personnalité morale pour les robots, afin de les faire sujets de droits… La version originale voulait même permettre aux robots d’avoir un patrimoine assurantiel et d’investir en Bourse, afin de pouvoir financer leur propre évolution, on nageait en plein délire dystopique. Ce texte s’appuyait sur une conception de l’homme et de la machine totalement déconnectée de la réalité, qui ne différenciait plus le vivant du mécanique.

Nous avons donc rédigé une lettre ouverte à la Commission européenne, avec le soutien de 300 signataires européens, afin d’alerter sur les dangers de ce projet. Et parmi ces 300 personnes, il n’y avait pas que des représentants du secteur technologique, mais aussi des philosophes, des anthropologues, des psychiatres, et même des théologiens, pour bien rappeler ce qu’est l’homme, et sa différence avec la machine. Il est nécessaire de remettre les penseurs au centre de la réflexion sur l’intelligence artificielle, et de les intégrer aux groupes d’experts de la Commission européenne. Cependant, malgré quelques modifications et une large médiatisation de notre lettre ouverte, le rapport Delvaux a fini par être adopté.

Comment l’État et l’Union européenne peuvent-ils mettre en place une éthique de l’intelligence artificielle, alors qu’ils se proclament neutre et refusent d’imposer des normes morales à l’individu ?

C’est le principal problème de notre époque. Légiférer sur des questions morales à propos de l’IA est devenu presque impossible aujourd’hui, du fait du relativisme de notre société. Il n’y a plus de socle commun, de principes universels sur lesquels s’appuyer. Quand on ne sait plus dire ce qu’est l’homme, on ne sait plus dire ce qu’est la machine. L’individu moderne ne supporte plus d’autre ordre moral et naturel que son propre désir. Le «je» est devenu la mesure de l’humanité. Et la déconnexion du réel, liée au numérique, renforce ce relativisme. Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans ce domaine.

Les comités censés être «éthiques», ont donc tendance à s’appuyer non pas sur la morale mais sur une logique capitalistique, car les bénéfices, eux, ne sont pas relatifs. Et on a vu cela très clairement dans le «Guide d’éthique de la Commission européenne» sur l’intelligence artificielle, qui a fait suite au rapport Delvaux. Parmi les 53 experts qui ont participé à ce guide, 90% d’entre eux étaient dans le business technologique, experts, ou représentants de groupes de consommateurs, mais il n’y avait presque aucun philosophe, anthropologue, ou psychiatre… L’approche n’était absolument pas humaine, mais économique. Si l’on ne se pose pas la question de ce qu’est l’homme, les guides d’éthique sur l’IA risquent de se transformer en véritables projets dystopiques et transhumanistes.
Que conseillez-vous pour encadrer l’utilisation de l’IA et répondre aux problèmes d’éthique ?

J’avais proposé plusieurs éléments lors de la rédaction du «Guide d’éthique sur l’I.A» à l’Union européenne. Une des propositions portait sur la liberté de l’individu. L’idée était de permettre à l’utilisateur, s’il ne veut pas passer par un algorithme, que ce soit pour un contrat d’assurance, un prêt ou autre, de demander une interaction humaine. Je recommandais donc une graduation, une notation, qui permet de voir si on a affaire à un service «entièrement I.A», «IA avec supervision humaine», ou «entièrement humain». Quand on parle de justice, de banque, de gestion du patrimoine, et surtout des droits de l’homme, il est essentiel de savoir à qui on a affaire, un humain ou une I.A. Mais ça n’a pas été repris, l’approche de ce guide d’éthique est restée bien plus juridique qu’éthique.

J’avais également tenté de mettre en place un label pour les algorithmes, qui s’appelait «Ethic inside», et qui garantirait le respect des règles éthiques européennes. Mais il est presque impossible de suivre le chemin par lequel un algorithme en est arrivé à telle ou telle décision, et donc de dire s’il est éthique ou non, s’il respecte les règles. Il y a également la question de la responsabilité qui complique les choses. Qui est responsable des décisions d’un algorithme : l’entreprise, le développeur, l’utilisateur, ou l’IA elle-même ? Comment objectiver le caractère moral d’un algorithme si on ne peut même pas répondre à cette question ? Les développeurs ne peuvent pas être jugés responsables d’algorithmes tellement complexes qu’ils ne les maîtrisent plus totalement. Par sa nature même, l’I.A échappe en partie à notre contrôle, et on ne va pas pour autant lui donner une personnalité morale… C’est un vrai casse-tête. Il est donc extrêmement compliqué de mettre en place des points de contrôle pour des algorithmes aussi complexes, surtout quand ils sont mondialisés sur internet.

Intelligence artificielle et chercheurs ?

Intelligence artificielle et  chercheurs  ?

Au début des années 2000, nos directeurs de thèse nous expliquaient la chance que nous avions de bénéficier, grâce à la révolution numérique, d’un accès instantané à l’intégralité des productions scientifiques via des bases de données.  Ils nous décrivaient « le monde d’avant », celui où se procurer un ouvrage supposait de se rendre jusqu’à une bibliothèque parfois éloignée et d’y passer de longues heures à faire des photocopies. Ces superviseurs voyaient ces tâches traditionnelles comme participant à la construction des jeunes chercheurs et se demandaient ce que deviendrait ce « tour de main » avec la révolution numérique.

 

Par Cylien Gibert et Audrey Rouzies (*) dans la Tribune

Le développement rapide de l’IA nous renvoie aujourd’hui à des questionnements similaires : les futurs chercheurs risquent-ils de ne plus avoir les compétences et les savoir-faire essentiels à l’exercice de leur métier ? Si les opportunités et menaces de l’IA sur les activités d’enseignement ont été immédiatement identifiées et mises au cœur des réflexions, cette avancée technologique pose également des défis significatifs pour la formation des futurs chercheurs qui n’ont pour leur part pas encore été pris en considération.

L’acquisition de méthodes de collecte et d’analyse de données complexes constitue aujourd’hui l’un des piliers de la formation des doctorants. Il s’agit par exemple de savoir coder une grande quantité de données narratives, de développer des designs d’expérimentation adaptés, ou d’utiliser des outils statistiques complexes. Or l’IA (par exemple ChatGPT et son module « data analyst ») automatise et accélère de façon drastique ce travail de traitement des données.

Les générations futures peuvent-elles se passer d’apprendre à réaliser ces collectes et à mener ces analyses en les sous-traitant à l’IA ? Cette dépendance technologique pourrait les rendre vulnérables dans des situations où l’IA s’avèrera inadaptée ou inaccessible. Plus grave encore, elle pourrait diminuer leurs capacités critiques avec une acceptation passive des résultats générés : le doctorant qui aurait systématiquement confié ses analyses à l’IA serait incapable d’en détecter les erreurs.

D’autre part, l’utilisation d’une IA formée sur des données existantes soulève des inquiétudes. Est-il possible que le recours à l’IA pousse à reproduire des erreurs et des biais déjà présents dans les données d’entraînement, créant ainsi un risque de récursivité ? En outre, l’utilisation généralisée de l’IA basée sur des données d’entraînement préexistantes pourrait-elle conduire à des résultats qui ne remettent pas en cause le statu quo, limitant ainsi la nouveauté des futures découvertes scientifiques?

Face à ces défis, une approche équilibrée s’impose. Il est nécessaire de valoriser les nouvelles compétences techniques permettant d’utiliser l’IA, en gardant une posture critique vis-à-vis du recours à cette technologie. Il s’agit par ailleurs de continuer à transmettre aux doctorants des compétences analytiques fondamentales afin qu’ils conservent leur autonomie intellectuelle.

Dans les écoles doctorales, le renforcement des cours dédiés au développement de la pensée critique, tels que l’épistémologie et les diverses approches méthodologiques, est une piste. L’intégration de modules d’éthique de la recherche et d’intégrité scientifique directement en lien avec l’utilisation de l’IA en est une autre. In fine, il s’agit d’inculquer aux futurs chercheurs la responsabilité de l’exactitude des résultats qu’ils produisent, y compris si ces derniers sont générés par l’IA.

L’objectif est de s’assurer que l’utilisation des outils d’IA ne détruise pas à terme ce qui fait la valeur de ce métier : rigueur de la démarche méthodologique, sens critique et réflexivité. Ouvrons le dialogue au sein des centres de recherche et des écoles doctorales afin de construire des solutions collectives qui permettront de faire perdurer la capacité à créer des connaissances nouvelles.

_______

(*) Audrey Rouzies est directrice de l’Ecole doctorale de gestion à l’Université Toulouse Capitole et Cylien Gibert est chercheur en sciences de gestion à Toulouse School of Management Research.

Intelligence artificielle : de nouveaux engagements pour la sécurité ?

Intelligence artificielle : de nouveaux engagements pour la sécurité ? 

 

On peut évidemment se réjouir que les grandes entreprises aient pris de nouveaux engagements à propos de la sécurité de l’intelligence artificielle. En réalité, on semble surtout viser une certaine neutralité politique mais cela est loin de résoudre la question de l’éthique et du rapport entre l’humain et les robots.

 

Vers le développement d’une «IA sûre» ? Seize des principales entreprises mondiales d’intelligence artificielle (IA), dont les représentants sont réunis ce mardi 21 mai à Séoul, ont pris de nouveaux engagements pour assurer le développement en toute sécurité de cette science, a annoncé le gouvernement britannique. «Ces engagements garantissent que les principales entreprises d’IA du monde feront preuve de transparence et de responsabilité quant à leurs projets de développement d’une IA sûre», a déclaré le très libéral premier ministre britannique, Rishi Sunak, dans un communiqué publié par le ministère britannique de la Science, de l’Innovation et de la Technologie.

L’accord, signé notamment par OpenAI (ChatGPT), Google DeepMind et Anthropic, s’appuie sur les consensus atteints lors du premier «sommet» mondial sur la sécurité de l’IA, l’an dernier à Bletchley Park, au Royaume-Uni. Ce second «sommet» à Séoul est organisé conjointement par les gouvernements sud-coréen et britannique. Les entreprises d’IA qui n’ont pas encore rendu publique la façon dont elles évaluent la sécurité des technologies qu’elles développent s’engagent à le faire.

Parmi les entreprises qui acceptent ces règles de sécurité figurent également les géants américains de la technologie Microsoft, Amazon, IBM et Meta, le français Mistral AI et le chinois Zhipu.ai.

 

 

Société- Intelligence artificielle : quelle éthique ?

Société- Intelligence artificielle : quelle éthique ?

 Pour Laetitia Pouliquen, directrice du think tank «NBIC Ethics», si la généralisation de l’IA et des algorithmes ne s’accompagne pas d’une réflexion sur la nature de l’homme, la société risque de sombrer dans des dérives dystopiques et transhumanistes. Interview dans le Figaro
Laetitia Pouliquen est directrice de «NBIC Ethics», un think tank traitant de l’éthique des technologies auprès des institutions européennes. Elle est également l’auteur de Femme 2.0: Féminisme et transhumanisme: quel avenir pour la femme? (éd. Saint-Léger, 2016).
Pour beaucoup, la généralisation de l’intelligence artificielle dans notre quotidien va profondément transformer notre mode de vie. Pensez-vous que le monopole des GAFAM dans ce domaine laisse suffisamment de place à une réflexion éthique quant à ces changements ?
Laetitia POULIQUEN. – Il est évident que notre quotidien va être profondément transformé, que ce soit dans notre rapport au réel ou à l’autre, par l’immission de la machine, de l’IA, et des algorithmes dans nos vies journalières. Le social, le sociétal, et même l’anthropologie sont en train de se refaçonner. La digitalisation de notre quotidien nous fait perdre de vue une certaine vision de l’homme. Face à ces changements, une réflexion morale est nécessaire pour établir un cadre légal, pour ne pas oublier ce qu’est l’homme et en quoi se différencie-t-il de la machine.

Cette réflexion éthique dans le domaine de l’I.A est tout à fait possible, notamment dans le cadre de l’Union européenne. Nous, européens, sommes pris entre deux feux, d’une part les GAFAM américaines, et d’autre part les BATX chinoises (Baidu, Alibaba, Tencent et Xiaomi), et nous restons limités en termes d’investissement, de recherche et de développement. Cependant, notre approche qui est plus axée sur l’éthique que sur l’investissement, nous confère un rôle tout particulier dans le développement des nouvelles technologies. L’Europe est historiquement le premier foyer de réflexion philosophique et morale, et doit continuer de l’être dans les secteurs de pointe.

L’approche morale de l’Union européenne vis-à-vis de l’IA, notamment avec son «Guide éthique de l’intelligence artificielle», est-elle toujours pertinente ?

Toute réflexion morale, que ce soit dans le domaine de la robotique ou autre, s’appuie sur une certaine conception de l’homme et du monde, qui peut être parfois totalement déconnectée. Ainsi, bien qu’elle se veuille «éthique», l’approche de l’Union européenne n’est pas nécessairement bonne, tout dépend des fondements anthropologiques sur lesquels elle s’appuie.

Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans le domaine de l’I.A.

En 2017, par exemple, le rapport Delvaux présenté auprès de la Commission européenne a provoqué beaucoup de débats. Dans ce rapport législatif, la député européenne luxembourgeoise Maddy Delvaux, proposait certaines mesures très idéalisées et idéologisées quant à la défense des robots. Certains articles présentaient l’augmentation de l’homme comme quelque chose d’essentiellement positif, d’autres établissaient la notion de personnalité morale pour les robots, afin de les faire sujets de droits… La version originale voulait même permettre aux robots d’avoir un patrimoine assurantiel et d’investir en Bourse, afin de pouvoir financer leur propre évolution, on nageait en plein délire dystopique. Ce texte s’appuyait sur une conception de l’homme et de la machine totalement déconnectée de la réalité, qui ne différenciait plus le vivant du mécanique.

Nous avons donc rédigé une lettre ouverte à la Commission européenne, avec le soutien de 300 signataires européens, afin d’alerter sur les dangers de ce projet. Et parmi ces 300 personnes, il n’y avait pas que des représentants du secteur technologique, mais aussi des philosophes, des anthropologues, des psychiatres, et même des théologiens, pour bien rappeler ce qu’est l’homme, et sa différence avec la machine. Il est nécessaire de remettre les penseurs au centre de la réflexion sur l’intelligence artificielle, et de les intégrer aux groupes d’experts de la Commission européenne. Cependant, malgré quelques modifications et une large médiatisation de notre lettre ouverte, le rapport Delvaux a fini par être adopté.

Comment l’État et l’Union européenne peuvent-ils mettre en place une éthique de l’intelligence artificielle, alors qu’ils se proclament neutre et refusent d’imposer des normes morales à l’individu ?

C’est le principal problème de notre époque. Légiférer sur des questions morales à propos de l’IA est devenu presque impossible aujourd’hui, du fait du relativisme de notre société. Il n’y a plus de socle commun, de principes universels sur lesquels s’appuyer. Quand on ne sait plus dire ce qu’est l’homme, on ne sait plus dire ce qu’est la machine. L’individu moderne ne supporte plus d’autre ordre moral et naturel que son propre désir. Le «je» est devenu la mesure de l’humanité. Et la déconnexion du réel, liée au numérique, renforce ce relativisme. Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans ce domaine.

Les comités censés être «éthiques», ont donc tendance à s’appuyer non pas sur la morale mais sur une logique capitalistique, car les bénéfices, eux, ne sont pas relatifs. Et on a vu cela très clairement dans le «Guide d’éthique de la Commission européenne» sur l’intelligence artificielle, qui a fait suite au rapport Delvaux. Parmi les 53 experts qui ont participé à ce guide, 90% d’entre eux étaient dans le business technologique, experts, ou représentants de groupes de consommateurs, mais il n’y avait presque aucun philosophe, anthropologue, ou psychiatre… L’approche n’était absolument pas humaine, mais économique. Si l’on ne se pose pas la question de ce qu’est l’homme, les guides d’éthique sur l’IA risquent de se transformer en véritables projets dystopiques et transhumanistes.
Que conseillez-vous pour encadrer l’utilisation de l’IA et répondre aux problèmes d’éthique ?

J’avais proposé plusieurs éléments lors de la rédaction du «Guide d’éthique sur l’I.A» à l’Union européenne. Une des propositions portait sur la liberté de l’individu. L’idée était de permettre à l’utilisateur, s’il ne veut pas passer par un algorithme, que ce soit pour un contrat d’assurance, un prêt ou autre, de demander une interaction humaine. Je recommandais donc une graduation, une notation, qui permet de voir si on a affaire à un service «entièrement I.A», «IA avec supervision humaine», ou «entièrement humain». Quand on parle de justice, de banque, de gestion du patrimoine, et surtout des droits de l’homme, il est essentiel de savoir à qui on a affaire, un humain ou une I.A. Mais ça n’a pas été repris, l’approche de ce guide d’éthique est restée bien plus juridique qu’éthique.

J’avais également tenté de mettre en place un label pour les algorithmes, qui s’appelait «Ethic inside», et qui garantirait le respect des règles éthiques européennes. Mais il est presque impossible de suivre le chemin par lequel un algorithme en est arrivé à telle ou telle décision, et donc de dire s’il est éthique ou non, s’il respecte les règles. Il y a également la question de la responsabilité qui complique les choses. Qui est responsable des décisions d’un algorithme : l’entreprise, le développeur, l’utilisateur, ou l’IA elle-même ? Comment objectiver le caractère moral d’un algorithme si on ne peut même pas répondre à cette question ? Les développeurs ne peuvent pas être jugés responsables d’algorithmes tellement complexes qu’ils ne les maîtrisent plus totalement. Par sa nature même, l’I.A échappe en partie à notre contrôle, et on ne va pas pour autant lui donner une personnalité morale… C’est un vrai casse-tête. Il est donc extrêmement compliqué de mettre en place des points de contrôle pour des algorithmes aussi complexes, surtout quand ils sont mondialisés sur internet.

Intelligence artificielle : quelle éthique ?

Intelligence artificielle : quelle éthique ?

 Pour Laetitia Pouliquen, directrice du think tank «NBIC Ethics», si la généralisation de l’IA et des algorithmes ne s’accompagne pas d’une réflexion sur la nature de l’homme, la société risque de sombrer dans des dérives dystopiques et transhumanistes. Interview dans le Figaro
Laetitia Pouliquen est directrice de «NBIC Ethics», un think tank traitant de l’éthique des technologies auprès des institutions européennes. Elle est également l’auteur de Femme 2.0: Féminisme et transhumanisme: quel avenir pour la femme? (éd. Saint-Léger, 2016).
Pour beaucoup, la généralisation de l’intelligence artificielle dans notre quotidien va profondément transformer notre mode de vie. Pensez-vous que le monopole des GAFAM dans ce domaine laisse suffisamment de place à une réflexion éthique quant à ces changements ?
Laetitia POULIQUEN. – Il est évident que notre quotidien va être profondément transformé, que ce soit dans notre rapport au réel ou à l’autre, par l’immission de la machine, de l’IA, et des algorithmes dans nos vies journalières. Le social, le sociétal, et même l’anthropologie sont en train de se refaçonner. La digitalisation de notre quotidien nous fait perdre de vue une certaine vision de l’homme. Face à ces changements, une réflexion morale est nécessaire pour établir un cadre légal, pour ne pas oublier ce qu’est l’homme et en quoi se différencie-t-il de la machine.

Cette réflexion éthique dans le domaine de l’I.A est tout à fait possible, notamment dans le cadre de l’Union européenne. Nous, européens, sommes pris entre deux feux, d’une part les GAFAM américaines, et d’autre part les BATX chinoises (Baidu, Alibaba, Tencent et Xiaomi), et nous restons limités en termes d’investissement, de recherche et de développement. Cependant, notre approche qui est plus axée sur l’éthique que sur l’investissement, nous confère un rôle tout particulier dans le développement des nouvelles technologies. L’Europe est historiquement le premier foyer de réflexion philosophique et morale, et doit continuer de l’être dans les secteurs de pointe.

L’approche morale de l’Union européenne vis-à-vis de l’IA, notamment avec son «Guide éthique de l’intelligence artificielle», est-elle toujours pertinente ?

Toute réflexion morale, que ce soit dans le domaine de la robotique ou autre, s’appuie sur une certaine conception de l’homme et du monde, qui peut être parfois totalement déconnectée. Ainsi, bien qu’elle se veuille «éthique», l’approche de l’Union européenne n’est pas nécessairement bonne, tout dépend des fondements anthropologiques sur lesquels elle s’appuie.

Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans le domaine de l’I.A.

En 2017, par exemple, le rapport Delvaux présenté auprès de la Commission européenne a provoqué beaucoup de débats. Dans ce rapport législatif, la député européenne luxembourgeoise Maddy Delvaux, proposait certaines mesures très idéalisées et idéologisées quant à la défense des robots. Certains articles présentaient l’augmentation de l’homme comme quelque chose d’essentiellement positif, d’autres établissaient la notion de personnalité morale pour les robots, afin de les faire sujets de droits… La version originale voulait même permettre aux robots d’avoir un patrimoine assurantiel et d’investir en Bourse, afin de pouvoir financer leur propre évolution, on nageait en plein délire dystopique. Ce texte s’appuyait sur une conception de l’homme et de la machine totalement déconnectée de la réalité, qui ne différenciait plus le vivant du mécanique.

Nous avons donc rédigé une lettre ouverte à la Commission européenne, avec le soutien de 300 signataires européens, afin d’alerter sur les dangers de ce projet. Et parmi ces 300 personnes, il n’y avait pas que des représentants du secteur technologique, mais aussi des philosophes, des anthropologues, des psychiatres, et même des théologiens, pour bien rappeler ce qu’est l’homme, et sa différence avec la machine. Il est nécessaire de remettre les penseurs au centre de la réflexion sur l’intelligence artificielle, et de les intégrer aux groupes d’experts de la Commission européenne. Cependant, malgré quelques modifications et une large médiatisation de notre lettre ouverte, le rapport Delvaux a fini par être adopté.

Comment l’État et l’Union européenne peuvent-ils mettre en place une éthique de l’intelligence artificielle, alors qu’ils se proclament neutre et refusent d’imposer des normes morales à l’individu ?

C’est le principal problème de notre époque. Légiférer sur des questions morales à propos de l’IA est devenu presque impossible aujourd’hui, du fait du relativisme de notre société. Il n’y a plus de socle commun, de principes universels sur lesquels s’appuyer. Quand on ne sait plus dire ce qu’est l’homme, on ne sait plus dire ce qu’est la machine. L’individu moderne ne supporte plus d’autre ordre moral et naturel que son propre désir. Le «je» est devenu la mesure de l’humanité. Et la déconnexion du réel, liée au numérique, renforce ce relativisme. Nous sommes, en occident, perdus dans une errance morale sans fin. Il faut réinvestir la philosophie et les humanités dans ce domaine.

Les comités censés être «éthiques», ont donc tendance à s’appuyer non pas sur la morale mais sur une logique capitalistique, car les bénéfices, eux, ne sont pas relatifs. Et on a vu cela très clairement dans le «Guide d’éthique de la Commission européenne» sur l’intelligence artificielle, qui a fait suite au rapport Delvaux. Parmi les 53 experts qui ont participé à ce guide, 90% d’entre eux étaient dans le business technologique, experts, ou représentants de groupes de consommateurs, mais il n’y avait presque aucun philosophe, anthropologue, ou psychiatre… L’approche n’était absolument pas humaine, mais économique. Si l’on ne se pose pas la question de ce qu’est l’homme, les guides d’éthique sur l’IA risquent de se transformer en véritables projets dystopiques et transhumanistes.
Que conseillez-vous pour encadrer l’utilisation de l’IA et répondre aux problèmes d’éthique ?

J’avais proposé plusieurs éléments lors de la rédaction du «Guide d’éthique sur l’I.A» à l’Union européenne. Une des propositions portait sur la liberté de l’individu. L’idée était de permettre à l’utilisateur, s’il ne veut pas passer par un algorithme, que ce soit pour un contrat d’assurance, un prêt ou autre, de demander une interaction humaine. Je recommandais donc une graduation, une notation, qui permet de voir si on a affaire à un service «entièrement I.A», «IA avec supervision humaine», ou «entièrement humain». Quand on parle de justice, de banque, de gestion du patrimoine, et surtout des droits de l’homme, il est essentiel de savoir à qui on a affaire, un humain ou une I.A. Mais ça n’a pas été repris, l’approche de ce guide d’éthique est restée bien plus juridique qu’éthique.

J’avais également tenté de mettre en place un label pour les algorithmes, qui s’appelait «Ethic inside», et qui garantirait le respect des règles éthiques européennes. Mais il est presque impossible de suivre le chemin par lequel un algorithme en est arrivé à telle ou telle décision, et donc de dire s’il est éthique ou non, s’il respecte les règles. Il y a également la question de la responsabilité qui complique les choses. Qui est responsable des décisions d’un algorithme : l’entreprise, le développeur, l’utilisateur, ou l’IA elle-même ? Comment objectiver le caractère moral d’un algorithme si on ne peut même pas répondre à cette question ? Les développeurs ne peuvent pas être jugés responsables d’algorithmes tellement complexes qu’ils ne les maîtrisent plus totalement. Par sa nature même, l’I.A échappe en partie à notre contrôle, et on ne va pas pour autant lui donner une personnalité morale… C’est un vrai casse-tête. Il est donc extrêmement compliqué de mettre en place des points de contrôle pour des algorithmes aussi complexes, surtout quand ils sont mondialisés sur internet.

«L’intelligence artificielle va tuer l’homme 1.0»

«L’intelligence artificielle va tuer l’homme 1.0»

Laurent Alexandre,  chirurgien de formation, également diplômé de Science Po, de HEC et ancien élève de l’ENA, a fondé dans les années 1990 le site d’informations Doctissimo. Il publie ChatGPT va nous rendre immortels aux Éditions JC Lattès.  ( dans le Figaro)

 En quoi ChatGPT est en train de transformer le destin de l’humanité ?

Laurent ALEXANDRE - ChatGPT a lancé une course technologique mondiale qui conduit au dépassement de l’intelligence humaine par l’intelligence artificielle (IA) des décennies plus tôt que prévu. Pour Sam Altman, père de ChatGPT, l’IA devient le principal moteur de l’histoire. Le 13 mars 2024, Elon Musk a déclaré: «L’IA sera probablement plus intelligente que n’importe quel être…

 

Une vision à la fois scientifique mais aussi de sciences fiction parfois fantaisiste concernant la révolution cognitive.

D’après Laurent Alexandre, nous entrons dans un monde magique où nos désirs seront anticipés par les intelligences artificielles (IA) qui peupleront nos appareils connectés. Le développement de la réalité virtuelle va accentuer cette immersion dans un monde irréel et magique qui deviendra une drogue ultra-addictive. « Nous nous fixons un objectif : nous voulons attirer un milliard de personnes vers la réalité virtuelle », a déclaré Mark Zuckerberg, président de Facebook, à l’occasion de la présentation de son nouveau casque Oculus Go, le 11 octobre, à San José (Californie).
Les IA associées à la réalité virtuelle, même si elles ne seront pas dotées de consciences artificielles, pourront nous dire à tout moment ce qui est bon pour notre santé, ce qui maximisera notre jouissance, et nous indiquer ce que nous devons faire. Nous ferons tellement ­confiance à ces algorithmes que nous leur ­déléguerons la décision. Le vrai pouvoir sera ­concentré dans les mains d’une élite maîtresse des IA. Simultanément, la destruction de beaucoup de métiers créerait une énorme classe de personnes inutiles économiquement, et intellectuellement dépassées. Symptôme prémonitoire de cette évolution, en 2017, à la veille du tsunami de l’IA, 17 % des jeunes Français, entre 15 et 29 ans, sont déjà des NEETs (young people Not in Education, Employment, or Training, en français : jeunes qui ne sont ni scolarisés, ni en emploi, ni en formation). Ces citoyens confieront le sens de leur existence aux algorithmes.

Environnement et intelligence artificielle ?

Environnement et intelligence artificielle ?

 

Autour de nous, nous observons le numérique envahir tous les autres secteurs. L’intelligence artificielle (IA) est l’un des derniers maillons de ce bouleversement technologique : elle accompagne désormais tout traitement automatique qui exploite le déluge de données numériques. Mais au vu des enjeux écologiques auxquels nous faisons face aujourd’hui, sera-t-il possible de concevoir une IA respectueuse des contraintes environnementales ? Avant de rentrer dans le sujet de l’IA frugale, il convient de poser le décor. La crise climatique sans précédent à laquelle nous faisons face a commencé avec la révolution industrielle, au milieu du XIXe siècle, qui a planté les germes de notre société de consommation actuelle. Le changement climatique n’est pas la seule menace environnementale : stress hydrique, épuisement des ressources, perte de la biodiversité… Mais c’est sans doute la plus visible et la plus documentée, et donc celle qui peut nous aider à mieux appréhender les autres.

 

par
Denis Trystram
Professeur des universités en informatique, Université Grenoble Alpes (UGA)

Thierry Ménissier
Professeur de philosophie politique, Université Grenoble Alpes (UGA) -

The Conversation
Le secteur du numérique n’est pas facile à cerner, car il est dilué partout. Selon l’ADEME, il représente 2,5 % des émissions carbone de la France en 2022. Ces dernières années, le domaine a connu une forte croissance et les études prospectives envisagent principalement des scénarios de poursuite de cette croissance, au moins à moyen terme.

Un petit calcul réalisé à partir de données publiques sur le scénario SSP1-19 du GIEC, un des plus optimistes, souligne l’aberration de cette croissance. Si le secteur croît selon la prévision la plus basse de croissance, le numérique émettrait 6 fois plus que l’objectif du scénario de décroissance des émissions mondiales de CO₂ d’ici à 2050 ! Même si la croissance du secteur stagnait au niveau d’aujourd’hui, il représenterait trois quarts des émissions totales… Dans un tel monde, que nous resterait-il pour le reste ?

Si on se focalise sur l’IA, on observe une rupture claire à partir de 2012. La croissance du secteur s’emballe alors avec un doublement des besoins en puissance de calcul tous les 5-6 mois au lieu de 24 mois, chiffre jusqu’alors stable de la classique loi empirique de Moore. Cette date correspond au développement des modèles d’IA reposant sur l’apprentissage profond, ou deep learning, rendus possibles par l’utilisation de processeurs graphiques (GPU) pour effectuer les calculs à la base de l’apprentissage profond et par le développement des données ouvertes sur Internet. Rappelons que l’IA n’est pas réduite à l’apprentissage par réseaux de neurones profonds, mais ce sont incontestablement ces derniers qui sont les plus gourmands.

Un nouveau palier a été atteint en 2023, avec l’explosion des modèles génératifs comme l’agent conversationnel ChatGPT. Même s’il est difficile d’avancer des chiffres précis, étant donné que les « géants de la tech » comme OpenAI, Meta ou Microsoft qui sont à l’origine des plus gros modèles ne communiquent plus sur ces données, cette diffusion à large échelle est très inquiétante.
ChatGPT est basé sur le modèle GPT-3, remplacé aujourd’hui par une version améliorée GPT-4. Ce n’est pas le seul, mais c’est le plus populaire et un de ceux pour lequel il existe des données. Le modèle sur lequel il s’appuie possède 176 milliards de paramètres et a nécessité 552 tonnes d’équivalent CO2 pour son entraînement en Californie. En termes de consommation électrique (indicateur plus objectif au sens où il ne dépend pas du mix énergétique), le modèle a tourné des jours sur près de 4 000 gros GPU de Nvidia dont la consommation a été estimée à 1 283 MWh (megawatt-heure, soit 1 000 kWh).

La phase d’usage est bien plus consommatrice encore ! Chaque jour, les quelque dix millions d’utilisateurs mobilisent 564 MWh d’électricité. Les annonces récentes des patrons d’OpenAI et Microsoft sur des commandes de centaines de milliers de GPU pour alimenter les futures versions sont vertigineuses en termes de consommation et d’impact environnemental. Avec sa capacité de production actuelle, le constructeur Nvidia est loin de pouvoir en produire autant.

ChatGPT n’est que l’élément visible de cette galaxie. Aujourd’hui, l’IA est un moteur de la croissance exponentielle du secteur du numérique, avec une explosion du nombre d’applications et services qui utilisent l’IA générative. Le développement de l’IA à ce rythme n’est bien entendu pas soutenable tel quel.

On ne pourra soutenir cette croissance que si l’IA permet des économies d’émissions considérables dans tous les autres secteurs. C’est la voix majoritaire qui porte le message d’une IA qui va nous aider à sortir de la crise. Malgré de trop nombreuses applications inutiles ou questionnables, il existe des apports bénéfiques pour la société notamment pour simuler et analyser des phénomènes physiques complexes comme l’étude de scénarios pour contrer la crise climatique. Encore faut-il que ces solutions ne soient pas in fine pires que le mal ! Par exemple, l’IA va permettre aux entreprises exploitant les énergies fossiles d’optimiser leur activité et donc d’émettre encore plus de CO₂.

Partout, on entend parler d’IA frugale sans que ce terme soit clairement défini. Dans le langage usuel, la sobriété est souvent entendue comme la réaction adéquate face à une consommation abusive d’alcool. Dans le contexte de l’IA, cela renvoie plutôt à la simplicité (ce qui est clairement insuffisant ici), à la modération, voire l’abstinence. Frugalité et sobriété sont souvent considérées comme synonymes ; il est également possible de considérer que la frugalité concerne le fonctionnement des systèmes techniques tandis que la sobriété renvoie à leur usage dans le cadre des pratiques sociales.

Les deux dimensions se complètent dans le sens où tout système technique s’adresse à des usages qui se trouvent de la sorte facilités et encouragés. Ainsi, plus le système apparaît propice à l’usage, plus son impact s’accroît : c’est ce que l’on appelle l’effet rebond. Cependant, le plus pertinent est la définition en creux : le contraire de la frugalité est ainsi qualifié de gloutonnerie selon Le Robert. Il est donc possible de considérer que la frugalité-sobriété comme une vertu qui s’apprécie en négative, en fonction de la quantité de ressources que l’on ne consomme pas.

Or, caractériser une IA frugale s’avère difficile pour plusieurs raisons. D’une part, les analyses existantes ciblent souvent l’entraînement des modèles et/ou la phase d’usage, mais ignorent le cycle de vie complet du service ou du produit. Cela inclut la production, l’utilisation et le stockage des données, et l’infrastructure matérielle mise en œuvre, depuis la fabrication jusqu’à la fin de vie de tous les équipements impliqués. D’autre part, pour un service reconnu comme utile pour la société, il conviendrait d’estimer les volumes de données impliquées dans le processus et les effets positifs indirects induits par son déploiement. Par exemple, un système d’optimisation énergétique pour un appartement peut permettre une augmentation de confort ou le déploiement de nouveaux services grâce aux économies réalisées.

Aujourd’hui, les termes de frugalité ou de sobriété sont souvent synonymes d’efficacité énergétique : on imagine et développe une solution sans prendre en compte son coût environnemental, puis on l’améliore de ce point de vue dans un second temps. Il faudrait au contraire s’interroger en amont sur les effets avant le déploiement du service, quitte à y renoncer.

L’IA frugale est donc caractérisée par une contradiction intrinsèque, au vu de la boulimie d’énergie et de données aujourd’hui nécessaire à l’entraînement des gros modèles et à leurs usages, au mépris des risques considérables pour l’environnement. En matière d’IA, la frugalité doit aller bien plus loin que la simple efficacité : elle doit d’abord être compatible avec les limites planétaires. Elle doit aussi interroger les usages en amont, jusqu’au renoncement de certains services et pratiques, en se basant sur des analyses de cycle de vie complètes et rigoureuses.

Les finalités que recouvrent ces développements technologiques devraient au moins être collectivement débattues. Derrière l’argument d’une efficacité accrue se cache la compétition entre souverainetés nationales ou la concurrence entre des firmes intéressées par des profits colossaux. Il n’y a rien dans ces finalités qui ne soit considéré à l’aune d’une approche éthique.

Une évaluation des systèmes d’algorithmes à l’aide des éthiques environnementales contemporaines permet même de fonder la notion de sobriété sur d’autres bases. En effet, et en dépit de leur variété, ces éthiques ne considèrent pas la Nature (l’eau, l’air, les matériaux et les vivants) comme des ressources à disposition de la seule espèce humaine, engagée dans la compétition technologique et l’hédonisme industriel. En conclusion, on pourrait affirmer que s’ouvre aujourd’hui pour la recherche responsable en IA une perspective aussi formidable que difficile à réaliser : proposer des modèles et des systèmes les plus compatibles possibles avec une telle définition « forte » de la sobriété.

Intelligence artificielle et recherche

Intelligence artificielle et recherche

 

 Le développement des outils d’intelligence artificielle bouleverse en profondeur l’enseignement supérieur. Impossible de continuer à former les futurs chercheurs sans tenir compte de ces technologies. Par Cylien Gibert et Audrey Rouzies (*) dans La Tribune.

Au début des années 2000, nos directeurs de thèse nous expliquaient la chance que nous avions de bénéficier, grâce à la révolution numérique, d’un accès instantané à l’intégralité des productions scientifiques via des bases de données.  Ils nous décrivaient « le monde d’avant », celui où se procurer un ouvrage supposait de se rendre jusqu’à une bibliothèque parfois éloignée et d’y passer de longues heures à faire des photocopies. Ces superviseurs voyaient ces tâches traditionnelles comme participant à la construction des jeunes chercheurs et se demandaient ce que deviendrait ce « tour de main » avec la révolution numérique.

Le développement rapide de l’IA nous renvoie aujourd’hui à des questionnements similaires : les futurs chercheurs risquent-ils de ne plus avoir les compétences et les savoir-faire essentiels à l’exercice de leur métier ? Si les opportunités et menaces de l’IA sur les activités d’enseignement ont été immédiatement identifiées et mises au cœur des réflexions, cette avancée technologique pose également des défis significatifs pour la formation des futurs chercheurs qui n’ont pour leur part pas encore été pris en considération.

L’acquisition de méthodes de collecte et d’analyse de données complexes constitue aujourd’hui l’un des piliers de la formation des doctorants. Il s’agit par exemple de savoir coder une grande quantité de données narratives, de développer des designs d’expérimentation adaptés, ou d’utiliser des outils statistiques complexes. Or l’IA (par exemple ChatGPT et son module « data analyst ») automatise et accélère de façon drastique ce travail de traitement des données.

Les générations futures peuvent-elles se passer d’apprendre à réaliser ces collectes et à mener ces analyses en les sous-traitant à l’IA ? Cette dépendance technologique pourrait les rendre vulnérables dans des situations où l’IA s’avèrera inadaptée ou inaccessible. Plus grave encore, elle pourrait diminuer leurs capacités critiques avec une acceptation passive des résultats générés : le doctorant qui aurait systématiquement confié ses analyses à l’IA serait incapable d’en détecter les erreurs.

D’autre part, l’utilisation d’une IA formée sur des données existantes soulève des inquiétudes. Est-il possible que le recours à l’IA pousse à reproduire des erreurs et des biais déjà présents dans les données d’entraînement, créant ainsi un risque de récursivité ? En outre, l’utilisation généralisée de l’IA basée sur des données d’entraînement préexistantes pourrait-elle conduire à des résultats qui ne remettent pas en cause le statu quo, limitant ainsi la nouveauté des futures découvertes scientifiques?

Face à ces défis, une approche équilibrée s’impose. Il est nécessaire de valoriser les nouvelles compétences techniques permettant d’utiliser l’IA, en gardant une posture critique vis-à-vis du recours à cette technologie. Il s’agit par ailleurs de continuer à transmettre aux doctorants des compétences analytiques fondamentales afin qu’ils conservent leur autonomie intellectuelle.

Dans les écoles doctorales, le renforcement des cours dédiés au développement de la pensée critique, tels que l’épistémologie et les diverses approches méthodologiques, est une piste. L’intégration de modules d’éthique de la recherche et d’intégrité scientifique directement en lien avec l’utilisation de l’IA en est une autre. In fine, il s’agit d’inculquer aux futurs chercheurs la responsabilité de l’exactitude des résultats qu’ils produisent, y compris si ces derniers sont générés par l’IA.

L’objectif est de s’assurer que l’utilisation des outils d’IA ne détruise pas à terme ce qui fait la valeur de ce métier : rigueur de la démarche méthodologique, sens critique et réflexivité. Ouvrons le dialogue au sein des centres de recherche et des écoles doctorales afin de construire des solutions collectives qui permettront de faire perdurer la capacité à créer des connaissances nouvelles.

_______

(*) Audrey Rouzies est directrice de l’Ecole doctorale de gestion à l’Université Toulouse Capitole et Cylien Gibert est chercheur en sciences de gestion à Toulouse School of Management Research.

Intelligence artificielle : nouvelle version de ChatGPT

Intelligence artificielle : nouvelle version de ChatGPT

 

 OpenAI, l’éditeur de ChatGPT, a présenté lundi 13 mai son nouveau modèle d’intelligence artificielle générative, GPT-4o, censé apporter à tous ses utilisateurs ses capacités les plus avancées en production et compréhension de texte, d’images et de sons et voix. « Nous sommes vraiment ravis d’apporter GPT-4o à tous nos utilisateurs gratuits. Les utilisateurs payants continueront à bénéficier de limites en termes d’utilisation cinq fois plus élevées que les utilisateurs gratuits », a déclaré Mira Murati, directrice technologique de la start-up californienne, lors d’une présentation vidéo diffusée en direct.

« Mais c’est la première fois que nous faisons un grand pas en avant en matière de facilité d’utilisation. C’est extrêmement important, il s’agit de l’avenir de l’interaction entre nous et les machines », a-t-elle ajouté. OpenAI a dévoilé un nouveau modèle, GPT-4o (« o » pour « omni »), qui peut  »raisonner » en temps réel via l’audio, la vision et le texte. Ces nouvelles capacités vont être progressivement ajoutées à ChatGPT, en commençant par le texte et l’image, d’abord pour les abonnés payants, ainsi que les utilisateurs gratuits, avec des limites en matière d’usage. La nouvelle version du « Voice Mode » (mode vocal) doit arriver dans les prochaines semaines pour les abonnés.

12345...13



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol