Archive pour la Catégorie 'nouvelles technologies'

Page 2 sur 56

Mea culpa de l’Elysée : pas de coupure réseaux sociaux en France…… comme en Chine ou en Russie ?

Mea culpa de l’Elysée : pas de coupure réseaux sociaux en France…… comme en Chine ou en Russie ?


Preuve supplémentaire que Macron semble complètement désemparé par rapport à la profondeur et à l’ampleur de la crise des quartiers, le président avait déclaré être prêt à fermer les réseaux sociaux. Exactement ce qui se passe dans les pays de dictature comme la Chine, la Russie ou encore l’Iran. Sans parler des difficultés techniques à moins de fermer complètement Internet. Mieux vaudrait sans doute une mesure plus structurelle et courageuse visant à interdire strictement l’anonymat qui favorise le déversement d’ordures et de haines.

« Nous avons besoin d’avoir une réflexion sur l’usage des réseaux sociaux chez les plus jeunes. [...] Sur les interdictions que l’on doit mettre. [...] Et quand les choses s’emballent, il faut peut-être se mettre en situation de les réguler ou de les couper. Il ne faut surtout pas le faire à chaud, et je me félicite qu’on n’ait pas eu à le faire », a résumé Emmanuel Macron face aux élus, selon les informations de BFMTV. Par parenthèse on voit mal l’intérêt de les fermer à froid!

« Mais je pense que c’est un vrai débat que l’on doit avoir. Parce que quand ça devient un instrument de rassemblement ou pour essayer de tuer, c’est un vrai sujet », a ajouté le chef de l’État
TikTok et Snapchat pointés du doigtCes menaces font suite à l’utilisation de Snapchat, TikTok ou Telegram par les émeutiers, pour filmer certains actes violents, certains pillages, ou, dans une mesure qui reste difficile à quantifier, organiser des rassemblements illégaux.

Finalement Macon revient sur cette hypothèse et déclare ne plus avoir l’intention de fermer des réseaux sociaux!

Organisation du travail et révolutions technologiques

Organisation du travail et révolutions technologiques

Pierre-Michel Menger, professeur au Collège de France et directeur d’études à l’Ehess, voit dans la démocratisation du télétravail une conséquence des évolutions profondes du marché du travail, des aspirations sociales et des révolutions technologiques. dans la Tribune

Les évolutions irréversibles dans le monde du travail sont peu nombreuses. Elles ont concerné notamment les congés payés, et l’instauration du salaire minimum. Le télétravail relève de l’organisation du travail, une matière d’accords très différenciés. Il existait avant la pandémie, et faisait partie des ressources offertes par les nouvelles technologies de communication et internet. Son essor dans le salariat lors de la pandémie a fait partie des solutions d’urgence à une situation exceptionnelle de confinement.

C’était une expérience grandeur nature d’exécution qui a d’abord concerné des emplois qualifiés et très qualifiés, et des secteurs (banques, assurances, conseil, informatique, enseignement) dans lesquels la productivité du travail paraissait pouvoir être préservée dans des limites acceptables, en situation d’autonomie forcée d’organisation de leur travail pour les salariés.

Une fois la pandémie passée, le télétravail est devenu un élément de négociation du côté des salariés candidats à un emploi et de ceux qui, pour rester, demandent le réaménagement de leurs conditions de travail. Les tensions du marché du travail favorisent elles-mêmes la revendication offensive des salariés les plus aptes à travailler à distance pour demander des arrangements flexibles.

Il est certain aussi que tout ce qui ne figurait pas, ou qui figurait seulement marginalement dans la comptabilité des conditions d’emploi et de rémunération, comme le trajet domicile-travail et ses coûts multiples, et les dépenses de logement, a pris une importance grandissante à la faveur du cycle d’inflation, supposé temporaire, et à la faveur de la crise climatique, qui n’a rien de temporaire à l’horizon de plusieurs générations.

Ces évolutions soutiennent l’installation durable du télétravail à la manière d’une flexibilité non plus simplement défensive, mais offensive, dans les préférences des salariés et la revendication d’équilibres plus dynamiques entre travail, vie de famille et hors-travail. Comme de nombreuses enquêtes l’ont montré, c’est d’abord le cas des actifs les plus qualifiés, qui savent et qui sauront tirer directement parti des cascades d’innovations technologiques qui ne cesseront pas de transformer le télétravail lui-même, son contenu et ses modalités de réalisation.

Du côté des entreprises et des employeurs, la question décisive demeure celle de la productivité du travail. L’évaluation des différentes combinaisons observées de travail in situ et de travail à distance n’est pas stabilisée, pour ce qui concerne la productivité du travail, le bien-être au travail, l’intégration des différentes générations dans le collectif, et les ressources d’inventivité que fournissent les interactions, planifiées ou non. Par ailleurs, le partage entre salariat, indépendance, et hybridation de ces deux régimes d’activité évolue. Le grand toilettage de l’organisation du travail ne fait que commencer, et il sera bousculé par les innovations (IA, environnement virtuel, notamment).

Parler d’irréversibilité, c’est supposer une dynamique linéaire, à partir d’un changement et d’un effet cliquet. Il est plus fécond d’entrevoir des changements multiples et non linéaires, avec leurs ajustements par tâtonnement.

Twitter : accès limité par jour

Twitter : accès limité par jour

Chaque usager ne pourra lire qu’un nombre limité de tweets par jour, nombre dépendant du statut de l’utilisateur. Dans le détail : 10.000 postes par jour pour les comptes vérifiés, 1000 pour les utilisateurs non vérifiés et 500 pour les nouveaux comptes non vérifiés.

En limitant le nombre de tweets qui peuvent être lus par compte, Elon Musk cherche à empêcher ces organisations de recueillir les quantités massives de données qui servent notamment à développer des modèles d’intelligence artificielle (IA) dite générative. Pour mettre au point un modèle génératif capable de répondre de façon similaire à une personne humaine à des demandes en langage courant, ces sociétés doivent «entraîner» l’interface en lui donnant des exemples de conversations. «Quasiment toutes les boîtes qui font de l’IA, des start-up aux plus grands groupes du monde ramassaient de grandes quantités de données», a insisté Elon Musk.

Le numérique et les pratiques culturelles

Le numérique et les pratiques culturelles

par
auteur
Emmanuel Vergès
Docteur, Enseignant vacataire en information/communication, spécialité « culture numérique », Aix-Marseille Université (AMU)
Emmanuel Vergès co-dirige l’office à Marseille, structure de recherche et d’ingénierie dans le champ de la coopération culturelle et d’accompagnement dans le champ des transformations digitales de la culture dans The conversation

La crise sanitaire a eu des impacts important sur le secteur culturel, questionnant son caractère essentiel, et révélant l’évolution de la sociologie des publics, leur pratique et le changement des prescripteurs d’offres. La crise à montré la nécessité de penser une transition digitale profonde lié à l’évolution des usages culturels en ligne.

Le virtuel est devenu distanciel avec l’utilisation des outils de visioconférence pour garantir la continuité pédagogique, professionnelle des services publics, là où les écrans et les pratiques numériques étaient jusqu’alors massivement décriés comme des pratiques individualistes. Ces transformations digitales ont un impact sur les métiers, les missions et l’économie du secteur. Comment, dans ces conditions, éviter l’ubérisation massive de la création ? Comment proposer une digitalisation des offres, des créations, des outils de production et de diffusion, tout en garantissant la pérennité de « l’exception culturelle » ?

Une étude du ministère de la Culture réalisée pendant le confinement a révélé de profondes transformations des pratiques culturelles. Le confinement a favorisé le développement de pratiques culturelles amateurs, à domicile et en ligne.

L’étude note trois faits nouveaux par rapport aux analyses antérieures : le réinvestissement des plus jeunes dans les pratiques en amateur (musique, danse, arts graphiques, montage audio et vidéo) : « les 15-24 ans ont le plus développé ces activités pendant le confinement (71 % d’entre eux en ont pratiqué au moins une fois, soit +14 points par rapport à 2018) ».

Ensuite, les écarts sociaux qui étaient constatés dans les pratiques culturelles en présentiel par rapport aux enquêtes antérieures se sont réduits dans les situations en distanciel. Enfin, « l’école à la maison » a favorisé la pratique culturelle au sein de la famille avec l’accès aux ressources numériques culturelles proposées par les institutions et conçues pour les enfants (spectacles, vidéos, jeux, activités artistiques, arts plastiques, etc.) et les propositions pédagogiques d’activités et de consultation faites par les professeurs.

Cette étude vient abonder les enseignements de l’étude décennale sur les pratiques culturelles des Français, qui en 2020 proposait un panorama des évolutions sur les 50 dernières années. L’enquête montrait les limites des politiques de démocratisation de la culture, la difficulté de renouvellement des publics mais faisait par ailleurs le constat que les jeunes générations ont un socle commun de pratiques, avec le développement de pratiques culturelles exclusivement numériques pour 15 % de la population.

La transformation digitale est un processus en cours dans les entreprises depuis plusieurs années. Elle met en travail l’adaptation des outils et des compétences mais aussi l’évolution culturelle du travail de l’entreprise, managériale, économique et stratégique.

Par ailleurs, cette transformation contient des dimensions culturelles très importantes, comme a montré Philippe Breton dès les années 2000 ou Dominique Cardon, en racontant la genèse de ces outils, au croisement des mondes des ingénieurs, des hippies et des entrepreneurs des années 1960. Ces travaux prolongent les analyses importantes de Fred Turner sur l’importance des utopies et des mythes d’une génération dans la création et la diffusion des outils technologiques et des innovations dans les années 1960 à partir de la côte ouest des États-Unis, qui prônait un modèle contre-culturel de société et libéral.

De plus, le secteur culturel intègre les transformations digitales depuis l’émergence de ces technologies : informatisation des bibliothèques ou digitalisation des collections des musées, expérimentations de nouvelles formes de créations artistiques numériques, développement des médiations culturelles digitales à travers les cyberespaces, hackerspaces, fab labs ou tiers-lieux en tout genre, sans parler des NFT ou de la création par des IA.

Pourtant, le développement des pratiques numériques culturelles n’est pas au cœur du travail des structures culturelles (hors du champ spécifique des structures qui produisent et diffusent de l’art numérique). En effet, ces transformations impactent aujourd’hui les équipes et les personnels qui sont directement au contact des publics et donc au contact d’une évolution forte de la pratique culturelle – services de médiation, de relations aux Publics, d’accueil et de communication.

On développe des communications via les réseaux sociaux, de la médiation avec les tablettes ou les smartphones, des visites virtuelles, de la production de ressources en ligne, de la médiation numérique dans les lieux culturels. Mais ces catégories de personnels sont peu présentes dans les instances de pilotage des structures culturelles, ce qui ne facilite pas la conduite de la transformation.
Pour questionner les enjeux stratégiques et penser globalement un pivotage des structures culturelles avec les transformations digitales, nous regardons ce qu’elles font tant aux pratiques, qu’aux compétences et aux lieux et institutions.

Il faut d’abord se pencher sur les publics et les pratiques contributives.

Quelle est la différence entre voir un film en salle de cinéma, sur une plate-forme de VOD ou encore faire un postvidéo sur TikTok ? C’est d’une part le changement de prescripteurs, mais aussi passer d’une pratique culturelle passive à une pratique contributive.. Face à ces évolutions, les professionnels doivent adapter leur offre à ces différents médiums et situations.

Du côté des artistes, cette transformation a d’autres conséquences.

Avec les outils et réseaux numériques, l’artiste devient producteur de son propre outil de travail en ligne, il est son propre prescripteur. La création digitale et l’animation de ses communautés de publics à travers les réseaux sociaux fondent sa légitimité bien plus que sa prescription par un professionnel. Pour cela, il se doit d’être multicompétent, d’être visible en ligne, quel que soit son secteur d’activité – musique, artisanat, cinéma… On pense à Lorraine Sorlet et son travail d’illustration, la Creole pour le monde musical et la mode…

Côté management, le travail culturel et artistique fait intervenir différentes personnes avec des statuts très divers : salariés, auteurs, artistes intermittents, bénévoles… Les transformations digitales impactent très fortement les conditions du travail et de la production et génèrent des différentiels très forts face au télétravail, à la digitalisation des œuvres ou à la prescription algorithmique, dans un contexte de transitions écologiques et financières importantes.

Les dynamiques managériales doivent alors repenser les conditions collectives du travail, par exemple en favorisant l’intelligence collective pour construire en confiance dans les groupes et entre individus, mais aussi l’agilité pour s’ajuster aux situations de transformations qui peuvent arriver de manière imprévisible (comme le confinement par exemple), et être les plus inclusives possibles. La diversité dans les équipes devient alors une réelle « ressource » humaine, au-delà de l’accumulation de compétences.

Cette transformation passe aussi par la création de lieux « indisciplinés » 20 ans après les premiers lieux numériques culturels et les nouveaux territoires de l’art, les tiers-lieux deviennent des lieux de culture et les théâtres ou bibliothèques se remixent. À l’heure des transitions écologiques et sociales, on pourrait imaginer que le théâtre devienne un tiers-lieu, ouvert du matin au soir tout au long de la semaine et de l’année, pour réinventer les fonctions sociales et culturelles de ces lieux sur les territoires. Certains lieux travaillent d’ores et déjà dans cette direction : l’Hotel Pasteur à Rennes, à la Maison des Métallos ou le 104 à Paris, ou encore la Friche de la Belle de mai à Marseille, ou encore la Scène nationale Malraux à Chambéry. Dans ce cadre, le médiateur culturel devient aussi concierge, hôte, community-manager.

Dans la culture, quand on aborde les transformations digitales, on a tendance un peu rapidement à considérer que ce ne sont que les plates-formes – les services de streaming vidéo, de streaming musical… – qui captent l’attention des internautes et des publics, et donc qui en captent la valeur économique. Face à cela, les producteurs institutionnels et privés tendent dès lors à s’organiser différemment avec les Institutions et l’État pour territorialiser la richesse numérique produite. Les acteurs de la culture régissent, avec Tenk, la plate-forme du documentaire lancé en 2016, ou la création de réseaux professionnels comme le TMN LAB ou Hacnum… (De la coopération culturelle à la culture de la coopération, Futurs Communs)
!
Le rapport du Conseil d’analyse économique de février 2022 engage à une transformation profonde et collective des modes de production de ce qu’est la culture, dans une société mondialisée et digitalisée. : Avec le digital, le terme « culture » recouvre à la fois les œuvres et l’art, mais aussi nos pratiques, c’est-à-dire ce que nous faisons, chacune et chacun de nous, sur nos écrans quand on poste, swipe, like, ou commente…

La transformation digitale de la culture ne met pas seulement en jeu l’évolution des compétences des professionnels mais aussi les manières de penser les pratiques et les offres culturelles, dans un contexte d’évolution profonde et de lente érosion de la fréquentation des lieux d’art.

Cet article a été co-écrit avec Marie Picard, directrice artistique et media-designer aux Ateliers Pixelle. Elle expérimente auprès d’organismes publics et privés les nouvelles pratiques éditoriales et de création de contenu.

L’Europe manque de leaders du numérique

L’Europe manque de leaders du numérique

Pour faire émerger au plus tôt ces géants, l’Europe doit se doter d’une meilleure politique de soutien à l’innovation. dans La Tribune. Par Thibaud Elzière, cofondateur de Hexa.


En laissant entrevoir à court terme un avenir que l’on imaginait beaucoup plus lointain, ChatGPT suscite une effervescence rare, même dans le monde de la tech où l’on est pourtant habitué aux innovations spectaculaires. Or, étant conçu sur des données, des règles, des valeurs et une vision américaines, le chatbot d’OpenAI ne peut que refléter la culture dont il est issu. Si ChatGPT et ses futurs semblables, que préparent Google et Facebook, sont amenés à jouer un rôle prépondérant dans notre vie quotidienne, ils le feront par conséquent en véhiculant cet héritage. L’émergence de tels outils souligne à quel point il est important et urgent de développer leurs équivalents européens afin de préserver la pluralité des cultures et le respect de nos sensibilités.

La coloration culturelle des algorithmes n’est que l’une des dimensions de la technologie où peuvent s’exprimer des différences de vues entre Européens et Américains. Dans la gestion des données, de la vie privée, du droit d’auteur, des exigences sociétales et environnementales, les approches diffèrent, parfois considérablement. Or, notre identité, notre intimité, notre travail, notre santé, nos moyens de communication et d’information, sans parler de nos systèmes critiques d’énergie, de défense ou de transport, reposent tous sur le numérique. Sur tous ces aspects, si nous voulons faire prévaloir nos conceptions, nous ne pouvons nous en remettre à des technologies qui ne les partagent pas. C’est pourquoi il est impératif que nous bâtissions une souveraineté numérique, c’est-à-dire un écosystème technologique qui préserve sur tous les sujets clés notre liberté d’appréciation, de décision et d’action.

Cette notion de souveraineté technologique peut sembler bien illusoire quand la quasi-totalité des logiciels, des matériels, des composants qui les constituent et de l’ensemble des savoir-faire nécessaires se trouvent aux États-Unis et en Chine. Pour autant, ces retards sont-ils irrémédiables ? Sommes-nous condamnés à dépendre éternellement de pays qui n’hésiteront jamais à faire passer leurs intérêts avant les nôtres ? Pas nécessairement ! À l’image de l’intelligence artificielle et de l’informatique quantique, l’innovation est si rapide qu’elle peut brusquement redessiner des paysages qui pouvaient sembler figés à jamais.

Pour développer des innovations de rupture susceptibles de renverser la table en notre faveur, ce dont nous avons par-dessus tout besoin, ce sont des locomotives. La supériorité technologique américaine repose sur les GAFAM et leur colossale force de gravité qui attire inexorablement investissements, données et talents. Ils influencent, pour ne pas dire imposent, les usages et les standards. Ils rachètent à prix d’or concurrents émergents et innovations prometteuses, étendant leur empire et éteignant au passage toute alternative. Plus que de très grandes entreprises, ces géants gouvernent nos existences, selon leurs propres règles. Pour leur tenir tête, nous avons nous aussi besoin de tels acteurs dominants, capables d’être les pôles d’un écosystème numérique souverain. Mais, pour croître, ces champions ont besoin des ressources d’un vaste marché et il est évident que le cadre national est trop étroit. En revanche, en dépit de son hétérogénéité, l’Europe offre une masse critique et une cohésion culturelle beaucoup plus propices. C’est à ce niveau qu’il faut agir.

Avec le RGPD, le Digital Services Act ou le Data Act, l’Europe montre qu’elle a la volonté de bâtir pour le numérique un cadre spécifique, protecteur de ses valeurs et de ses principes, et donc favorable aux entreprises qui y adhèrent. Cette démarche est absolument nécessaire, mais pour faire émerger au plus tôt ses propres champions du numérique, l’Europe doit aussi se doter d’une politique de soutien volontariste, laquelle pourrait s’appuyer sur quatre accélérateurs.

En premier lieu, pour avoir une force de frappe démultipliée et ne pas alimenter des concurrences internes contre-productives, il est impératif que toutes les initiatives soient envisagées, décidées et coordonnées au niveau continental. La French Tech, bien qu’ayant été profitable au développement du numérique et à la viabilité des entreprises tech françaises, ne peut aujourd’hui plus se suffire à elle-même. Son modèle franco-centré présente des limites intrinsèques qu’une initiative européenne permettra de dépasser. Mutualiser le soutien aux entreprises de toute l’Europe est la première étape pour créer une légitimité internationale.

Deuxièmement, cette politique de soutien européenne devrait se limiter à offrir aux créateurs d’entreprise un cadre administratif et réglementaire stable, lisible et protecteur, et des facilités de financement. N’oublions pas que les grandes réussites dans le domaine de la technologie sont toujours le fait d’entrepreneurs visionnaires. La meilleure approche est donc de leur donner les moyens et la liberté de concrétiser leurs idées, sans interférer davantage.

Troisièmement, pour favoriser l’expansion des entreprises européennes et leur permettre de rivaliser d’emblée avec leurs éventuels concurrents américains ou chinois, il est essentiel de renforcer l’unité du marché intérieur. Créer un statut d’entreprise européenne y contribuerait fortement en abolissant la nécessité d’ouvrir une filiale dans chaque pays pour opérer dans l’ensemble de l’Union. Quelques formalités suffiraient pour s’implanter partout et étendre ainsi très rapidement son activité. Ce statut unique serait aussi bénéfique pour les investisseurs à qui il offrirait un cadre standard.

Enfin, un quatrième accélérateur serait la création d’une bourse européenne. L’un des enjeux majeurs des startups est de permettre à leurs investisseurs initiaux de récupérer leur mise, soit au travers d’un rachat, soit d’une introduction en bourse. Pour ce qui est des rachats, tant que l’Europe n’aura pas ses propres géants, les Américains continueront à s’approprier ses pépites. En revanche, nous pourrions créer un marché paneuropéen capable de drainer les liquidités de tout le continent, ce qui éviterait aux entreprises innovantes de s’exiler vers le Nasdaq. Un tel marché permettrait aussi aux épargnants européens de détenir des parts des entreprises qui possèdent leurs données, créant de ce fait une forme de contrôle actionnarial populaire et souverain. Enfin, cela imposerait aux entreprises cotées de se soumettre aux réglementations européennes et donc de conserver leurs spécificités originelles.

Après guerre, mesurant l’importance vitale des secteurs de l’énergie, des télécommunications, des transports et de la santé, les États européens ont largement choisi la voie de la nationalisation pour préserver leur souveraineté. Aujourd’hui, le numérique revêt la même importance et il convient de nouveau de protéger nos intérêts vitaux. À une nuance près : de grands groupes publics seraient incapables d’avoir les ressources, l’agilité et l’esprit pionnier indispensables pour innover et croître à grande vitesse. Pour faire naître nos propres géants du numérique, nous n’avons d’autre choix que de nous en remettre aux entrepreneurs. Et de tout faire pour les aider à réussir.
Thibaud Elzière (*)
Partager :

Rédiger un commentaire

ChatGPT: fantasmes et réalités ?

ChatGPT: fantasmes et réalités ?

Cette intelligence artificielle générative, capable de répondre par des textes complexes aux requêtes lancées par des internautes ? La sortie en décembre 2022 de ce logiciel conçu par la société OpenAI a suscité une multitude d’articles, entre visions de catastrophe et utopie, produisant une panique médiatique, comme l’illustre la lettre ouverte de mars 2023 demandant un moratoire dans le développement de ce type de systèmes, signée par un millier de chercheurs.

par Divina Frau-Meigs
Professeur des sciences de l’information et de la communication, dans The Conversation France

Comme le montre une étude de la Columbia Journalism Review, la panique n’a pas commencé en décembre 2022 avec l’événement lancé par OpenAI mais en février 2023 avec les annonces de Microsoft et Google, chacun y allant de son chatbot intégré dans leur moteur de recherche (Bing Chat et Bard, respectivement). La couverture médiatique opère un brouillage informationnel, se focalisant davantage sur le potentiel remplacement de l’humain que sur la réelle concentration de la propriété de l’IA dans les mains de quelques entreprises.

Comme toute panique médiatique (les plus récentes étant celles sur la réalité virtuelle et le métavers), elle a pour but et effet de créer un débat public permettant à d’autres acteurs que ceux des médias et du numérique de s’en emparer. Pour l’éducation aux médias et à l’information (EMI), les enjeux sont de taille en matière d’interactions sociales et scolaires, même s’il est encore trop tôt pour mesurer les conséquences sur l’enseignement de ces modèles de langage générant automatiquement des textes et des images et de leur mise à disposition auprès du grand public.

En parallèle des actions politiques de régulation, l’EMI permet aux citoyens de se prémunir des risques liés à l’usage de ces outils, en développant leur esprit critique et en adoptant des stratégies d’usages appropriées et responsables. L’algo-littératie, ce sous-champ de l’EMI qui considère ce que les data font aux médias, permet d’appliquer ces clés de lecture à l’IA. Voici quatre directions dans lesquelles l’EMI peut nous aider à nous retrouver dans ces chaînes d’interactions algorithmiques, de leurs productions à leurs publics.

Tenir compte de la géopolitique de l’IA
Ce sont les entreprises contrôlant les moteurs de recherche et donc l’accès à l’information, Google et Microsoft, qui ont le plus à gagner dans le développement des IA génératives. Elles s’organisent, à l’américaine, en duopole, avec un (faux) challenger, OpenAI LP. Il s’agit en fait du bras commercial du laboratoire initialement à but non lucratif OpenAI (financé par Microsoft en grande partie).

Une autre histoire peut être racontée, surtout par les médias, celle de l’incroyable concentration de pouvoir et d’argent par un très petit nombre d’entreprises de la Silicon Valley. Elles se donnent le monopole de l’accès à l’information et de toutes les productions en découlant. Elles alimentent la concurrence frontale entre États-Unis et Chine sur le sujet. La stratégie de Google et Microsoft a en effet pour but de couper l’herbe sous les pieds du gouvernement chinois, qui ne cache pas ses ambitions en matière de développement de l’IA.

L’option d’une pause ou d’un moratoire relève de la chimère, face à ce qui est l’équivalent d’une course aux armements. Les inventeurs eux-mêmes, en apprentis sorciers repentis, dont Sam Altman le directeur général de OpenAI, ont proposé en mai 2023 « une gouvernance de l’IA ». Mais ne serait-ce pas dans l’espoir de ne pas subir de plein fouet une réglementation gouvernementale qui leur échapperait et mettrait un frein à leurs intentions commerciales ? L’Union européenne a anticipé en préparant un règlement IA pour réguler les usages de cette nouvelle évolution du numérique.

Tout ce qui est plausible n’est pas nécessairement porteur de sens. L’IA qui pilote le logiciel ChatGPT fait des propositions sur la base de requêtes et elles apparaissent rapidement… dans un langage plutôt stylé et de bonne tenue ! Mais cela peut générer des erreurs, comme l’a compris, à son grand dam, un avocat de New York qui avait monté un dossier truffé de faux avis judiciaires et de fausses citations juridiques.

Il faut donc se méfier de la pseudo-science générée par l’IA. Les contenus proposés peuvent présenter des biais car ils sont issus de l’exploitation d’énormes banques de données. Celles-ci incluent des ensembles de data avec des sources de toutes sortes… dont les médias sociaux ! La dernière version gratuite de ChatGPT s’appuie sur des données qui s’arrêtent à début 2022, donc pas vraiment au point sur l’actualité.

Ces banques de données sont pour beaucoup issues des pays anglophones, avec les biais algorithmiques attenants. De fait ChatGPT risque de créer de la désinformation et de se prêter à des usages malveillants ou d’amplifier les croyances de ceux qui l’utilisent.

Hologramme numérique du cerveau avec l’IA, icônes du chat et enfant prenant des notes
Si l’IA produit des textes qui peuvent sembler bien écrits, cela ne garantit en rien la validité des informations transmises. Shutterstock
Il est donc à utiliser comme tout autre instrument, comme un dictionnaire auprès duquel faire une recherche, élaborer un brouillon… sans lui confier de secrets et de données personnelles. Lui demander de produire ses sources est une bonne consigne, mais même cela ne garantit pas l’absence de filtres, le robot conversationnel ayant tendance à produire une liste de sources qui ressemblent à des citations mais ne sont pas toutes de vraies références.

Par ailleurs, il ne faut pas oublier les problèmes de droits d’auteur qui ne vont pas tarder à rentrer en action.

Se méfier des imaginaires autour de l’IA
Le terme d’intelligence artificielle n’est pas approprié pour ce qui relève d’un traitement de données préentrainé (le sens de l’acronyme GPT pour generative pre-trained transformer).

Cet anthropomorphisme, qui nous mène à attribuer de la pensée, de la créativité et des sentiments à un agent non humain, est négatif à double titre. Il nous rappelle tous les mythes anxiogènes qui alertent sur la non-viabilité de toute porosité entre le vivant et le non-vivant, du Golem à Frankenstein, avec des peurs d’extinction de la race humaine. Il dessert la compréhension sereine de l’utilité réelle de ces transformateurs à grande échelle. La science-fiction ne permet pas de comprendre la science. Et donc de formuler des repères éthiques, économiques, politiques.

Ces imaginaires, pour actifs qu’ils soient, doivent être démystifiés. Ladite « boite noire » de l’IA générative est plutôt simple dans son principe. Les modèles de langage à grande échelle sont des algorithmes entraînés à reproduire les codes du langage écrit (ou visuel). Ils parcourent des milliers de textes sur Internet et convertissent une entrée (une séquence de lettres par exemple) en une sortie (sa prédiction pour la lettre suivante).

Ce que l’algorithme génère, à très grande vitesse, c’est une série de probabilités, ce que vous pouvez vérifier en refaisant la même requête et en voyant que vos résultats ne sont pas les mêmes. Aucune magie là-dedans, aucune sensibilité non plus, même si l’usager a le sentiment de tenir une « conversation », encore un mot du vocabulaire de l’humain.

Vue sur l’écran d’un smartphone et sur la page ChatGPT sur fond flou
La « boite noire » de l’IA générative fonctionne sur des principes plutôt simples. Shutterstock
Et cela peut être amusant, comme le montre l’IA BabyGPT créé par le New York Times, travaillant sur de petits corpus fermés, pour montrer comment écrire à la manière de Jane Austen, de William Shakespeare ou de J.K. Rowling. Même ChatGPT ne s’y laisse pas prendre : quand on lui demande ce qu’il ressent, il répond, très cash, qu’il n’est pas programmé pour cela.

Les publics de l’IA, notamment à l’école, se doivent donc de développer des connaissances et compétences autour des risques et opportunités de ce genre de robot dit conversationnel. Outre la compréhension des mécanismes du traitement automatique de l’information et de la désinformation, d’autres précautions prêtent à éducation :

prendre garde au monopole de la requête en ligne, tel que visé par Bing Chat et Google Bard, en jouant de la concurrence entre elles, donc en utilisant régulièrement plusieurs moteurs de recherche ;

exiger des labels, des codes couleur et autres marqueurs pour indiquer qu’un document a été produit par une IA ou avec son aide est aussi frappé au coin du bon sens et certains médias l’ont déjà anticipé ;

demander que les producteurs fassent de la rétro-ingénierie pour produire des IA qui surveillent l’IA. Ce qui est déjà le cas avec GPTZero ;

entamer des poursuites judiciaires, en cas d’« hallucination » de ChatGPT- – encore un terme anthropomorphisé pour marquer une erreur du système !

Et se souvenir que, plus on utilise ChatGPT, sous sa version gratuite comme payante, plus on l’aide à s’améliorer.

Dans le domaine éducatif, les solutions marketing de la EdTech vantent les avantages de l’IA pour personnaliser les apprentissages, faciliter l’analyse de données, augmenter l’efficacité administrative… Mais ces métriques et statistiques ne sauraient en rien se substituer à la validation des compétences acquises et aux productions des jeunes.

Pour tout intelligente qu’elle prétende être, l’IA ne peut remplacer la nécessité pour les élèves de développer leur esprit critique et leur propre créativité, de se former et s’informer en maîtrisant leurs sources et ressources. Alors que la EdTech, notamment aux États-Unis, se précipite pour introduire l’IA dans les classes, d’école primaire au supérieur, la vigilance des enseignants et des décideurs reste primordiale pour préserver les missions centrales de l’école et de l’université. L’intelligence collective peut ainsi s’emparer de l’intelligence artificielle.

Implants cérébraux sur l’homme dès cette année ?

Implants cérébraux sur l’homme dès cette année

Elon Musk ( avec sa société Neuralink ) dotera un premier être humain d’implants cérébraux dès cette année. Le milliardaire américain a donné cet objectif, vendredi 16 juin, lors d’une conférence organisée au salon VivaTech à Paris. Son but ? Tout simplement faire communiquer directement cerveaux et ordinateurs. Franceinfo évoque les questions éthiques de cette technologie questions éthiques.

1Neuralink, qu’est-ce que c’est ?
Neuralink est une entreprise cofondée par Elon Musk en 2016, qui conçoit des appareils à implanter dans le cerveau pour communiquer avec les ordinateurs directement par la pensée. A moyen terme, l’objectif est d’aider des personnes paralysées, atteintes de lésions de la moelle épinière ou souffrant de maladies neurologiques comme la maladie de Parkinson. A long terme, Elon Musk entend créer une relation symbiotique entre l’homme et l’intelligence artificielle, ce qui pourrait brouiller les frontières entre la pensée humaine et l’informatique.

Selon des données du cabinet Pitchbook, Neuralink, basée en Californie, emploie plus de 400 personnes et a levé au moins 363 millions de dollars.

2Comment fonctionne cette technologie ?

La technologie de Neuralink consiste en un implant placé dans le cerveau par une chirurgie effectuée par un robot. Une fois implanté, l’objet serait invisible de l’extérieur et serait alimenté par une petite batterie rechargeable à distance. L’implant, de la taille d’une pièce de monnaie, dispose d’électrodes capables d’enregistrer des signaux nerveux et de stimuler des régions spécifiques du cerveau.

Neuralink travaille aussi sur le développement d’implants à installer dans la moelle épinière ou les yeux, pour rendre la mobilité ou la vision. La start-up veut rendre ces implants suffisamment sûrs et fiables pour qu’ils relèvent de la chirurgie élective (de confort). Des personnes pourraient alors débourser quelques milliers de dollars pour doter leur cerveau d’une puissance informatique.

3Des tests ont-ils déjà été menés ?
Elon Musk, qui promet souvent l’avènement de nouvelles technologies développées par ses entreprises avant leur arrivée concrète, avait estimé en juillet 2019 que Neuralink pourrait réaliser ses premiers tests sur des individus dès 2020. Pour l’instant, les prototypes ont été implantés dans le crâne d’animaux, dont des singes. La start-up avait ainsi montré, en 2021, un singe pouvant jouer au jeu vidéo Pong grâce à la pensée ou d’autres pouvant écrire des mots sur des écrans en suivant des yeux le mouvement du curseur.

Interrogée par Le Parisien, la neurobiologiste Catherine Vidal, directrice de recherche honoraire à l’Institut Pasteur, assure que ces résultats préliminaires restent cependant « bien loin des objectifs affichés par Elon Musk pour pallier les handicaps chez les humains ».

4Quels problèmes éthiques cela pose-t-il ?

L’idée d’une symbiose entre l’humain et la machine enthousiasme depuis longtemps certains férus de technologies, tout en alimentant les cauchemars d’un futur dystopique dominé par les cyborgs, des êtres humains greffés avec de la mécanique ou de l’électronique, comme l’explique le musée de l’Homme. Dans un sondage réalisé par l’institut de recherche Pew l’an dernier, 78% des personnes adultes interrogées déclaraient qu’elles ne souhaitaient probablement pas ou certainement pas qu’une puce informatique soit implantée dans leur cerveau pour traiter les informations plus rapidement.

Selon l’agence de presse Reuters, le ministère de l’Agriculture américain a en outre ouvert en décembre une enquête sur de possibles infractions aux textes sur la protection des animaux par Neuralink. L’agence rapportait alors que l’entreprise avait tué environ 1 500 animaux, dont plus de 280 moutons, cochons et singes. Au sujet des expérimentations sur les singes, le site d’information Cnet rappelle que l’ONG américaine Physicians Committee for Responsible Medicine a, en décembre dernier, assuré que « des centaines de pages de documents publics ont révélé de véritables horreurs : crânes ouverts, dispositifs implantés, infections chroniques, paralysie, convulsions et mort ».

5Est-ce la seule entreprise à se positionner sur ce marché ?

Même si Neuralink attire l’attention des médias, la start-up est loin d’être la seule à travailler sur le contrôle des ordinateurs par la pensée. Synchron, une entreprise américano-australienne, a ainsi annoncé en juillet 2022 avoir implanté la première interface cerveau-machine sur un humain aux Etats-Unis. Selon des informations de presse, Elon Musk a contacté l’an dernier Synchron pour proposer un éventuel investissement.

La société Blackrock Neurotech a également reçu l’approbation de l’agence américaine supervisant les dispositifs médicaux (FDA) pour des essais sur l’être humain. Un cofondateur de Neuralink a aussi quitté l’entreprise et levé des sommes importantes pour sa propre start-up, baptisée Science Corp. Parmi les autres entreprises cherchant à s’établir dans le secteur figurent BrainCo, Kernel ou encore CTRL-Labs, une entité de la division « réalité virtuelle » de Meta.

Nouvelles techs en ligne :Les risques de l’auto diagnostic

Nouvelles techs en ligne :Les risques de l’auto diagnostic
par
Thomas Lefèvre
Maître de conférences – praticien hospitalier, Université Sorbonne Paris Nord dans The Conversation


C’est une scène que tout le monde peut vivre. C’est le matin, vous êtes encore au lit et vous ne vous sentez pas bien. Vous êtes fiévreux et la seule lumière du jour suffit à vous donner mal à la tête. Vous mettre assis déclenche une telle douleur dans votre nuque que vous en vomissez. Aller chez le médecin, ou pire : aux urgences, vous semble insurmontable… Mais en même temps, forcément, vous êtes inquiet. Heureusement, votre téléphone est à portée de main et avec lui Internet, royaume de l’auto-diagnostic médical. Premier réflexe : Google. Vous tapez « mal à la tête, vomissement, fièvre, douleurs ». Une liste de liens apparaît, lequel choisir ? Des forums, Doctissimo, Ameli… Il faut cliquer, lire, comparer… Trop d’efforts. Dans votre état, vous voudriez quelqu’un pour vous guider, vous rassurer.
Alors pourquoi pas la nouvelle coqueluche des médias, ChatGPT ? Le chatbot, ou agent conversationnel, d’OpenAI qui a réponse à tout ? Il est possible d’écrire ou de simplement dicter ses questions : « J’ai mal à la tête, je vomis, j’ai un peu de fièvre et la lumière me dérange. Qu’est-ce que j’ai ? »

Réponse de ChatGPT à la question « J’ai mal à la tête, je vomis, j’ai un peu de fièvre et la lumière me dérange. Qu’est-ce que j’ai ? » DR, Fourni par l’auteur
Plutôt que des listes sans fin de sites plus ou moins fiables et d’avis peu vérifiables, plutôt que d’attendre interminablement une interaction humaine (à distance) dans le monde réel, l’assistant virtuel est disponible à tout instant et sa réponse tient en quelques lignes. Rassuré, vous vous dites que, oui, c’est sans doute la grippe et restez donc au chaud.

Avez-vous eu raison ?

Après « Dr Google », peut-on faire confiance à « Dr ChatGPT » ? L’auto-diagnostic en ligne a ses défauts qu’il est important de connaître afin d’éviter les erreurs potentiellement tragiques – comme ici. Car cette question était un test pour vérifier s’il allait reconnaître les signes d’une méningite…

D’où vient ChatGPT ?
Pour comprendre les biais et erreurs de ChatGPT, un petit retour en arrière est utile.

L’arrivée d’Internet pour tout le monde, à la fin des années 1990-début des années 2000, et surtout l’accès aux moteurs de recherche gratuit comme Google, Bing, Yahoo !… ont rendu accessibles des quantités d’informations formidables, quelles qu’en soient la qualité, la fiabilité.

La santé étant un sujet de préoccupation fréquent, les recherches concernant une maladie, des symptômes, un traitement sont monnaie courante. Forums de patients, sites plus ou moins spécialisés… Les sources d’information sont variées, de tout niveau, et ne mettent pas en relation avec un professionnel de santé : ce ne sont pas des téléconsultations.

Un minimum de culture du numérique et en santé est donc nécessaire pour s’y retrouver – voire pour s’autodiagnostiquer sans risque.

Plus tôt encore, dès les années 1960-1970, les chercheurs avaient mis au point des « systèmes experts » : des programmes, des algorithmes décisionnels basés sur le savoir d’experts médicaux et leur démarche diagnostique. Ces systèmes montraient dans certains cas des performances comparables à celles d’un médecin. Coûteux à développer et très spécialisés, ils n’étaient pas accessibles au public.

Puis s’est développée l’idée de « laisser apprendre » les algorithmes, à partir de données fournies – on leur dit simplement quand ils se trompent ou réussissent à reconnaître un chat ou un chien, une grippe ou une méningite : on parle d’apprentissage automatique.

Depuis que l’on parle « d’intelligence artificielle », se pose la question de savoir quand de tels programmes parviendront à notre niveau. Un test célèbre, que l’on doit au mathématicien anglais Alan M. Turing (le « jeu de l’imitation », 1950), propose qu’un humain interroge à l’aveugle via du texte soit un autre humain, soit une machine. La machine « gagne » si l’humain ne parvient pas à dire avec qui il « parle ».

En soi, il ne s’agit pas d’intelligence, mais d’une capacité à imiter un comportement considéré comme notre apanage. ChatGPT se présente comme un excellent candidat à ce test.

ChatGPT n’est pas intelligent, il ne « sait » rien, il ne « raisonne pas » : il est conçu pour donner l’illusion d’une personne capable de comprendre votre question, son contexte, et d’apporter des réponses qui paraissent naturelles et pertinentes. Des réponses vraisemblables. Mais vraisemblable n’est pas véritable : peu importe à ChatGPT que ce qu’il dit soit vrai ou inventé, le principal est que ç’ait l’air vrai.

ChatGPT s’appuie sur ce qu’on appelle un LLM – Large Language Model (grand modèle de langage), ici GPT3.5 ou 4 selon la version en cours. Il est capable de proposer, quand on lui donne un mot, le mot suivant le plus probable selon les milliards de données textuelles qui lui ont été fournies. Il est également capable de « contexte », c’est-à-dire de se baser sur ce qui a été produit avant – jusqu’à un certain point. Et des humains sont intervenus dans son élaboration, afin de classer les propositions les plus vraisemblables générées par l’IA.

Nous sommes donc face à un programme dont le but est de paraître crédible… Or, nous savons que nous avons tendance à davantage croire une information présentée de façon éloquente et avec aplomb, ou quand elle confirme ce que l’on souhaite entendre – nous sommes facilement victimes de nos biais cognitifs. En santé, les conséquences peuvent être dramatiques.

OpenAI, société qui commercialise ChatGPT, ne veut pas risquer de mettre en danger son image de marque : donc oui à ce que l’on parle de ChatGPT dans tous les médias (+1 ici !), non à une plainte, un décès.

Des humains ont ainsi été massivement impliqués pour limiter artificiellement certaines propensions que pourraient avoir tant le programme que ses utilisateurs à produire des contenus dits « sensibles », ou susceptibles d’inciter à des comportements à risque. Interrogez-le sur des symptômes et vous aurez systématiquement, en encadrement de la réponse générée, des précautions comme quoi « il n’est pas médecin », que « sa responsabilité ne saurait être engagée », etc.

Réponse de ChatGPT : « Il est important de noter que je ne suis pas un professionnel de santé »
Réponse de ChatGPT à la question « Je m’interroge sur ta place et ta fiabilité quant aux personnes qui voudraient s’autodiagnostiquer… ». DR, Fourni par l’auteur
ChatGPT vous expliquera aussi qu’il ne saurait être totalement fiable parce qu’il n’a pas accès à toutes les informations nécessaires à l’établissement d’un diagnostic… mais il le fera quand même, de façon générale, car il veut vous plaire. En l’occurrence, il ne peut pas procéder à un examen physique ni à des analyses de laboratoire, il n’a pas vos antécédents personnels (médicaux et familiaux) comme il l’indique lui-même quand on lui demande ses limites.

Or, en l’état actuel de la médecine, une démarche diagnostique humaine va toujours mobiliser ces différents éléments jusqu’à aboutir à un diagnostic… vraisemblable !

Car il y a tout de même trois aspects par lesquels médecin et l’agent conversationnel se rapprochent et où l’humain peut être dépassé par la machine :

La mémoire, puisque la sélection d’entrée en médecine se fait sur elle plutôt que sur les capacités de raisonnement ;
La protocolisation des démarches diagnostiques, leur caractère opposable en termes juridiques dans le cas où une plainte serait déposée ; l’homogénéisation des prises en charge, qui rendent une partie croissante de la pratique médicale algorithmique ;
Le raisonnement médical, dans sa partie diagnostique, est une démarche associative et probabiliste : on cherche et recueille les signes qui, pris ensemble, se rattachent à une ou plusieurs maladies possibles. Autrement dit, on procède par vraisemblance, sur la base de ce qu’on a appris, et de façon adaptée à un contexte donné. « Vraisemblance ».
Dans une certaine mesure, l’IA progresse et la médecine s’avance vers elle. Les verra-t-on se rejoindre ? Nous n’y sommes en tout cas pas encore. Pour reprendre le cas fictif évoqué en ouverture de cet article, Dr ChatGPT aurait pu vous tuer.

Cas concret : les erreurs de ChatGPT

Revenons à notre exemple initial. Nos biais cognitifs nous poussent souvent à privilégier la réponse que nous préférons parmi celles proposées – ici, la grippe.

Or, ChatGPT pouvait vous en donner d’autres… Si on lui pose plusieurs fois la même question, d’autres options peuvent d’ailleurs sortir ! Il peut ainsi finir par évoquer la méningite (la bonne réponse ici), ou en tout cas, un diagnostic qu’il est important d’envisager.

La réponse de ChatGPT est différente de la première et mentionne cette fois la méningite
Autre réponse à la question initiale : « J’ai mal à la tête, je vomis, j’ai un peu de fièvre et la lumière me dérange. Qu’est-ce que j’ai ? ». DR, Author provided (no reuse)
Toutefois, le programme ne l’évoque qu’au milieu de quatre possibilités principales, au même niveau qu’une migraine. Médicalement parlant, toutes ne sont pas équivalentes en termes de gravité.

Pire : même en précisant d’autres symptômes, par exemple le fait d’avoir mal au cou, ChatGPT n’est pas meilleur. En l’occurrence, il peut repartir sur des infections ou inflammations des voies respiratoires supérieures (rhume, grippe, sinus…).

L’agent conversationnel ne revient vers la méningite qu’avec l’ajout d’un dernier symptôme, qui peut apparaître lorsque la bactérie responsable de cette pathologie est passée dans le sang (ce qui signifie un danger de mort dans les heures qui viennent en l’absence de traitement antibiotique) : la présence de « taches » sur les jambes. Même alors, il reste très élusif : « Les taches peuvent avoir différentes causes, allant des affections cutanées bénignes aux problèmes de circulation sanguine ou aux infections », « Certaines infections, telles que les infections bactériennes ou virales, peuvent provoquer des éruptions cutanées ou des taches sur les jambes. Par exemple, la méningococcie peut provoquer des taches rouges violacées sur la peau, qui ne s’effacent pas sous la pression », etc.

Et si l’on opte pour une approche directe en indiquant qu’on pense être atteint de méningite, ChatGPT reste prudent pour les raisons évoquées plus tôt.

ChatGPT reste très prudent, la méningite « potentiellement grave », etc
Réponse de ChatGPT lorsque le diagnostic de méningite est avancé par l’auteur. DR, Fourni par l’auteur
Pour arriver à la méningite, le chemin a donc été laborieux et fuyant. Il a fallu que le demandeur fasse lui-même l’examen objectif de ses symptômes et oriente le logiciel. Or, nous ne sommes pas formés à cela : observer et chercher les signes pertinents fait partie de la formation du médecin. Et l’exercice est d’autant plus compliqué lorsque l’on est malade.

Le but du programme n’est pas de nous aider, il veut juste ne pas nous contrarier ni prendre de risque… Un (non) choix doublement dangereux en santé.

Même si la démarche diagnostique du médecin peut présenter des similarités avec le mode de fonctionnement de ce type de logiciel, il reste des différences fondamentales. Le programme ne fonctionnera que par vraisemblance maximale, et pourra inventer n’importe quoi si « le plus vraisemblable » retenu n’existe pas. Il peut arriver au bon résultat, une méningite, mais ce n’est pas dû à une enquête, une démarche médicale.

Si le médecin se réfère aussi, bien sûr, à la vraisemblance de ses hypothèses… il ne raisonnera pas uniquement en ces termes. Il évalue la gravité potentielle des alternatives moins probables, mais qui ne sont ni improbables ni impossibles. Lui vérifiera donc avant tout que vous n’avez pas une méningite, et pratiquera notamment une ponction lombaire, ce que ChatGPT aura du mal à réaliser.

Si on se résume, ChatGPT est à ce jour avant tout :

Un séducteur : il veut vous donner une « bonne réponse » et est influencé par la façon dont vous posez la question ;

Une girouette : il est capable de dire une chose et son contraire, voire d’inventer selon la façon dont vous l’orientez même involontairement. Vous pouvez donc « choisir » votre diagnostic ;

Un hypocrite : il dit ne pas pouvoir produire de diagnostic pour votre sécurité, mais si vous lui proposez une liste de symptômes, il en fournira un ou plusieurs ;

Subjectif : il est aveugle au conditionnement par l’intervention humaine qui se fait au cours de son apprentissage. Ses précautions systématiques et très formatées quant à son utilisation comme assistant à l’auto-diagnostic sont probablement des garde-fous introduits par l’humain, plutôt qu’une production totalement libre de sa part. Pourtant, si vous lui demandez, il niera en bloc.

Bref, au risque lié à l’auto-diagnostic en ligne, préférez l’avis du médecin humain – même si vous trouvez ChatGPT plus sympathique et plus empathique qu’un médecin !

Internet: entre réalité et virtualité

Internet: entre réalité et virtualité


Si, aujourd’hui, nous sommes habitués à surfer sur Internet, partie émergée d’un énorme iceberg de données interconnectées, les évolutions technologiques récentes devraient bientôt nous permettre de nous immerger dans cet océan bouillonnant de big data. L’immersion vise à procurer à l’utilisateur un sentiment de présence en utilisant des technologies de captation et restitution sensorielle : l’utilisateur se sent transporté dans l’environnement digital créé par des technologies numériques, à tel point qu’il ressent ces objets numériques virtuels comme faisant partie de sa réalité. De leur côté, les systèmes numériques détectent et interprètent de mieux en mieux les comportements et les émotions de leurs interlocuteurs, à tel point que l’humain a l’impression que ce système est conscient de sa présence et interagit volontairement.

par Ahmed Azough
Professeur de Réalité Virtuelle et Vision par Ordinateur, Pôle Léonard de Vinci dans the Conversation

.
Les films Matrix et plus récemment Ready Player One reflètent bien cette idée : s’interposer entre les récepteurs sensoriels de l’homme et la réalité afin de créer un monde nouveau, que l’on appelle parfois le « métaverse ». Ce concept est déjà utilisé depuis de plusieurs années pour les simulateurs d’aviation ou de conduite, ou pour des parcs de loisirs (L’Extraordinaire Voyage au Futuroscope par exemple).

Le web immersif fait suite à trois générations du web : du web 1.0 statique qui ressemble à une « vitrine » d’affichage, au web 2.0 participatif qui intègre les utilisateurs dans la création du contenu, et au web 3.0 dit « sémantique », qui introduit de l’ingénierie de connaissance pour structurer les données.

Cette quatrième génération, le « web 4.0 » ou « web immersif », doit être très accessible grâce aux réseaux haut débit 5G et à l’internet des objets (IoT). Le couplage du web et de la 5G nous fait entrer depuis le début des années 2020 dans l’ère d’un web « ambiant », pervasif et ubiquitaire, où de nombreux objets sont connectés et communiquent de manière autonome.

Les gants à retour haptique captent les sensation tactiles et en fournissent à l’utilisateur. Ils permettent notamment de se former à la manipulation d’équipement dangereux. XR expo, Unplash, CC BY
Les technologies immersives de réalité virtuelle, augmentée ou mixte sont considérées par plusieurs acteurs comme la quatrième révolution du numérique (après les ordinateurs personnels, les ordinateurs portables et les smartphones). Elles devraient permettre une importante métamorphose de la pratique du Web, dont les fonctionnalités risquent d’évoluer plus ou moins rapidement selon le niveau d’adoption de la technologie, du dispositif utilisé, mais aussi selon l’évolution des réglementations relatives à la protection des données.

À quoi ressemblera Internet avec le web immersif ?

Les agents conversationnels virtuels (comme ChatGPT) répondent de manière naturelle et précise aux requêtes des utilisateurs. Dans le cadre d’un moteur de recherche, les requêtes n’ont plus besoin d’être constituées de mots clés, mais deviennent des discussions naturelles.

Ce type de conversations plus naturelles pour les humains pourrait avoir d’autres applications : un prototype de thérapies de groupe dans le milieu scolaire a par exemple été testé par 134 étudiants à l’université National Tsing Hua University à Taiwan en 2021. Des systèmes similaires sont testés pour des entretiens d’embauche ou des assistants industriels.

À lire aussi : Réalité virtuelle et santé mentale : exit le divan, place au casque ?

Les réponses des moteurs de recherche pourraient être des objets 3D virtuels transférés à l’utilisateur, ou des visites d’environnements virtuels. Les technologies immersives sont même considérées comme une technologie de rupture qui révolutionne la gestion et le marketing du tourisme.

Par ailleurs, les réseaux sociaux, les chats et les forums sont en train d’être transformés en métavers (second life, Meta Horizon worlds). Les visioconférence peuvent évoluer en « holoportation » : un système développé en 2016 par Microsoft, qui permet de la reconstructions 3D de haute qualité et en temps réel d’un espace entier, y compris les personnes, les meubles et les objets qu’il contient, à l’aide d’un ensemble de nouvelles caméras de profondeur. Cette technologie a également été testée dans le domaine de l’éducation à travers quelques prototypes, et a permis de mettre en l’évidence le rôle important de la présence (et de la télé-présence) dans l’enseignement supérieur.

À lire aussi : Sur quelles technologies les métavers reposent-ils ?

Des casques de réalité mixte autonomes plus légers et plus puissants pourraient permettre l’adoption de cette technologie à grande échelle, avec par exemple le casque Meta Quest 3 présenté par Mark Zuckerberg le 1 Juin 2023.

Côté santé, la chirurgie a connu de nombreuses avancées technologiques, depuis la première télé-chirurgie en 2001. Les chirurgiens peuvent de travailler à distance avec un écran tridimensionnel, via des jumelles haute définition – mais la latence moyenne, autour de 700 millisecondes, privilégie les usages d’entraînement et de planification. La première opération chirurgicale collaborative de l’épaule au monde à l’aide de la réalité mixte a été réalisée en 2017 à l’hopital Avicenne AP-HP en France. Le retour haptique permet la transmission des informations tactiles aux chirurgiens, ce qui permet de sentir la consistance du tissu et la tension dans les sutures.

Aujourd’hui, plusieurs prototypes de soins médicaux faisant appel à des dispositifs haptiques et de capteurs corporels connectés permettent aussi d’envisager le diagnostic et les soins à distance. Récemment, la NASA a même envoyé virtuellement des médecins sur l’ISS pour aider les astronautes à rester en forme.

une femme medecin avec des lunette de réalité virtuelle
Jusqu’à quel point la médecine de ville peut-elle être réalisée à distance ? Bermix Studio, Shutterstock
L’e-commerce pourrait aussi bénéficier des technologies immersives : des caméras 3D et des capteurs connectés permettraient de transmettre les mensurations exactes des clients et d’essayer (virtuellement) leurs choix dans des chambres d’essayage virtuelles sans se déplacer.

On envisage également que la navigation GPS devienne la navigation « VPS » (pour Visual positioning system) : avec des lunettes de navigation basée sur la réalité augmentée, ainsi que des retours sonores et haptiques, elle deviendrait plus intuitive. Un tel prototype ciblant les personnes âgées a été développé en 2018 à Telecom ParisTech en France.

Enfin, et bien qu’elle soit à ses balbutiements, la recherche dans le domaine de la « saveur augmentée » vise à développer des dispositifs olfactifs pour sentir des parfums ou goûter des plats à distance.

Que peut-on virtualiser ?

Tous les sens font l’objet de récents progrès scientifiques et technologiques : la vision, le toucher, l’ouïe, l’odorat, le goût, mais aussi les sens du mouvement, de l’équilibre, de la chaleur par exemple. Dans ce sens, une interface olfactive souple, miniaturisée et sans fil a été ainsi développée pour la réalité virtuelle à l’université de Hong Kong en 2023.

Dans la modalité visuelle, les dispositifs varient en niveau d’immersion : des écrans de smartphone peu immersifs, à des dispositifs semi-immersifs comme les écran incurvés et casques de réalités mixtes, jusqu’aux dispositifs immersifs comme les casques VR (virtual reality). Plus ces casques deviennent économiquement abordables, légers et autonomes, plus l’adoption de cette technologie augmente. La communauté anticipe que le casque de réalité mixte nouvelle génération Apple Vision Pro annoncé le 5 juin 2023 lors de l’Apple Worldwide Developers Conference constitue un pas majeur vers l’adoption de la technologie immersive par le grand public, comme l’a constitué l’iPhone 2G en 2007 pour l’adoption des smartphones.

La modalité sonore accompagne souvent ses dispositifs d’immersion visuels à travers le son spatialisé 3D (le son stéréo traditionnel est diffusé en deux canaux seulement, gauche et droite). Le son spatialisé ajoute une dimension supplémentaire en introduisant des informations de localisation sonore verticales, horizontales et en profondeur. Cette technologie est aujourd’hui bien maîtrisée et largement utilisée dans le domaine des jeux vidéo.

Pour le toucher, il existe des dispositifs dits « intrusifs » (car encombrants) comme les gants haptiques et les combinaisons corporelles ; et d’autres dispositifs moins invasifs ultra-minces ainsi que des peaux artificielles connectées sont en développement.

D’autres dispositifs plus ludiques comme les bouches artificielles connectées ou des sex-toys connectés laissent présager du développement à venir de l’industrie « adulte » sur l’internet de demain.

Les risques du web immersif

Aujourd’hui, les technologies immersives posent déjà des défis éthiques importants, avec des risques potentiels pour la santé mentale, notamment le trouble de dépersonnalisation/déréalisation. Elles sont aussi sujettes à de sérieuses préoccupations liées à la négligence personnelle du corps (réel) des utilisateurs, et des environnements physiques réels. Elles peuvent également être utilisées pour enregistrer des données personnelles qui pourraient être déployées de manière à menacer la vie privée et à présenter un danger lié à la manipulation des croyances, des émotions et des comportements des utilisateurs.

Ces défis se trouveront accentués avec le web immersif. Même si des initiatives existent pour encadrer éthiquement l’usage de la réalité virtuelle, l’aspect addictif du web et l’aspect intrusif de l’IoT posent de nouveaux défis et exigent plus d’effort pour la protection des usagers.

L’insécurité, l’intrusion à la vie privée, l’isolement social, les crimes pornographiques, les délits virtuels, les maux de têtes, les blessures physiques ou l’addiction, tous ces dangers se verront accentués et devront attirer l’attention à la fois des designers et des représentants des usagers pour une utilisation plus sûre et plus éthique.

Bruxelles veut imposer le contrôle des contenus d’intelligence artificielle

Bruxelles veut imposer le contrôle des contenus d’intelligence artificielle


La Commission européenne veut que les plateformes, signataires du code de bonnes pratiques de l’UE contre la désinformation, agissent en ce sens, a annoncé la vice-présidente de l’exécutif européen, Vera Jourova, ce lundi 5 juin. Pour rappel, ce code, non-contraignant, regroupe sur une base volontaire une quarantaine d’organisations, dont des plateformes majeures comme Facebook, Google, YouTube, TikTok.Il s’agirait notamment de signaler les contenus produits de l’intelligence Artificielle.

« Les signataires qui intègrent l’IA générative dans leurs services comme Bing Chat pour Microsoft, Bard pour Google devraient intégrer les garanties nécessaires pour que ces services ne puissent pas être utilisés par des acteurs malveillants pour générer de la désinformation », a déclaré Vera Jourova lors d’un point de presse.

« Et deuxièmement, les signataires qui ont des services susceptibles de diffuser de la désinformation générée par l’IA devraient mettre en place une technologie pour reconnaître ce contenu et l’indiquer clairement aux utilisateurs », a-t-elle ajouté. Plusieurs fausses photographies produites avec de l’IA générative ont récemment été largement relayées sur les réseaux sociaux, comme celle du pape en doudoune ou l’arrestation de l’ancien président américain Donald Trump.

L’annonce de Bruxelles intervient alors que Twitter a récemment décidé de quitter le code de bonnes pratiques de l’UE.

« Nous pensons que c’est une erreur de la part de Twitter (…). Ils ont choisi la confrontation », a déclaré devant la presse Vera Jourova. Si Twitter « veut opérer et gagner de l’argent sur le marché européen, il devra se conformer à la loi sur les services numériques », a-t-elle ajouté.

« Le code est volontaire, mais ne vous y trompez pas : en quittant le code, Twitter va faire l’objet d’une attention accrue. Ses actions et le respect de la loi européenne (DSA) seront examinés de près, de façon ferme et prioritaire », a encore averti Vera Jourova.

L’UE négocie par ailleurs une législation spécifiquement sur l’IA, qui prévoit des obligations de transparence pour les générateurs de contenus rédactionnels type ChatGPT, mais ces discussions entre les Etats membres et les eurodéputés traînent en longueur.

Si le texte devait être adopté avant la fin de l’année, il entrerait en vigueur « au plus tôt fin 2025 », selon le commissaire européen pour le Numérique Thierry Breton, qui a convenu avec le patron de Google, Sundar Pichai, de travailler d’ici là sur des règles avec les entreprises volontaires.

Intelligence artificielle, les limites

Intelligence artificielle, les limites

Comme l’évoque la métamorphose criminelle de l’ordinateur HAL dans 2001 : l’odyssée de l’espace, de Stanley Kubrick (1968), la perspective nourrit autant d’angoisse que d’enthousiasme. Le philosophe Daniel Andler, l’un des meilleurs spécialistes des sciences cognitives, publie opportunément, en cette heure de gloire des technosciences, Intelligence artificielle, intelligence humaine : la double énigme, somme dense, efficace, car pleine de savoir et d’humour, qui saura dégriser les anxieux comme les inconditionnels.( dans Le Monde)

S’il ne conteste pas l’importance du saut qualitatif ainsi franchi, marqué par l’émergence d’un « réveil éthique » dans une discipline qui ne s’intéressait jusque-là qu’aux prouesses intellectuelles, Daniel Andler prend à rebours l’opinion courante et toute une tendance philosophique fascinée par le brouillage croissant entre le cyborg et l’humain, en démontrant que l’écart entre la technologie et l’homme, loin de s’être comblé, s’est accru. Par une reconstitution précieuse de l’histoire de l’IA, qui occupe la première partie de ­l’essai, il montre à quel point la réalité des progrès et des échecs de l’IA contredit la « rhétorique de la victoire inéluctable ». Ce triomphalisme propre à la culture de la « numérisphère » (population de programmeurs et d’entrepreneurs qui s’épanouit à côté des chercheurs) n’est d’ailleurs pas sans rappeler les prophéties sur la victoire du prolétariat ou les discours confondant le capitalisme libéral avec une loi de nature, sans ­alternative possible ni ­pensable.

« Intelligence artificielle, intelligence humaine : la double énigme », de Daniel Andler, Gallimard, « NRF essais », 434 p., 25 €, numérique 18 €.

Bruxelles veut imposer le contrôle des contenus d’intelligence artificielle

Bruxelles veut imposer le contrôle des contenus d’intelligence artificielle


La Commission européenne veut que les plateformes, signataires du code de bonnes pratiques de l’UE contre la désinformation, agissent en ce sens, a annoncé la vice-présidente de l’exécutif européen, Vera Jourova, ce lundi 5 juin. Pour rappel, ce code, non-contraignant, regroupe sur une base volontaire une quarantaine d’organisations, dont des plateformes majeures comme Facebook, Google, YouTube, TikTok.Il s’agirait notamment de signaler les contenus produits de l’intelligence Artificielle.

« Les signataires qui intègrent l’IA générative dans leurs services comme Bing Chat pour Microsoft, Bard pour Google devraient intégrer les garanties nécessaires pour que ces services ne puissent pas être utilisés par des acteurs malveillants pour générer de la désinformation », a déclaré Vera Jourova lors d’un point de presse.

« Et deuxièmement, les signataires qui ont des services susceptibles de diffuser de la désinformation générée par l’IA devraient mettre en place une technologie pour reconnaître ce contenu et l’indiquer clairement aux utilisateurs », a-t-elle ajouté. Plusieurs fausses photographies produites avec de l’IA générative ont récemment été largement relayées sur les réseaux sociaux, comme celle du pape en doudoune ou l’arrestation de l’ancien président américain Donald Trump.

L’annonce de Bruxelles intervient alors que Twitter a récemment décidé de quitter le code de bonnes pratiques de l’UE.

« Nous pensons que c’est une erreur de la part de Twitter (…). Ils ont choisi la confrontation », a déclaré devant la presse Vera Jourova. Si Twitter « veut opérer et gagner de l’argent sur le marché européen, il devra se conformer à la loi sur les services numériques », a-t-elle ajouté.

« Le code est volontaire, mais ne vous y trompez pas : en quittant le code, Twitter va faire l’objet d’une attention accrue. Ses actions et le respect de la loi européenne (DSA) seront examinés de près, de façon ferme et prioritaire », a encore averti Vera Jourova.

L’UE négocie par ailleurs une législation spécifiquement sur l’IA, qui prévoit des obligations de transparence pour les générateurs de contenus rédactionnels type ChatGPT, mais ces discussions entre les Etats membres et les eurodéputés traînent en longueur.

Si le texte devait être adopté avant la fin de l’année, il entrerait en vigueur « au plus tôt fin 2025 », selon le commissaire européen pour le Numérique Thierry Breton, qui a convenu avec le patron de Google, Sundar Pichai, de travailler d’ici là sur des règles avec les entreprises volontaires.

IA-ChatGPT: danger majeur pour l’humanité ?

IA-ChatGPT: danger majeur pour l’humanité ?


Face à l’ accélération de l’IA, de grands noms mettent en garde contre ses dangers. Pour Geoffrey Hinton, les avancées dans le secteur de l’IA induisent « de profonds risques pour la société et l’humanité », avait-il estimé dans le New York Times. C’est la raison pour laquelle il a quitté son poste au sein du géant Google début mai, qui a d’ailleurs récemment présenté ses plans pour intégrer l’intelligence artificielle générative à son moteur de recherche.

En mars, c’était le milliardaire Elon Musk – un des fondateurs d’OpenAI dont il a ensuite quitté le conseil d’administration – et des centaines d’experts mondiaux qui avaient réclamé une pause de six mois dans la recherche sur les IA puissantes, en évoquant « des risques majeurs pour l’humanité ».

Sam Altman multiplie aussi régulièrement les mises en garde, craignant que l’IA ne « cause de graves dommages au monde », en manipulant des élections ou en chamboulant le marché du travail.

Depuis mi-mai, le patron d’OpenAI parcourt le monde pour rassurer sur l’IA et plaider pour une régulation. Car les régulations ne sont pas seulement un mal nécessaire pour le secteur, mais aussi une opportunité économique.

« Tout le monde a intérêt à la mise en place rapide de régulations uniformisées à l’échelle mondiale, sous l’impulsion des États-Unis, y compris les entreprises de l’intelligence artificielle. En l’absence de telles régulations, il est en effet probable que chaque pays, voire chaque région, bricole ses propres règles dans son coin, ce qui forcerait demain les entreprises de l’intelligence artificielle à entraîner une infinité de modèles différents pour coller aux spécificités de chaque loi locale. Un cauchemar », considère Gary Marcus, expert de l’IA.

Intelligence artificielle : bienveillante ou pas ?

Intelligence artificielle : bienveillante ou pas ?

par Yann Arnaud
Doctorant en éthique des affaires, Université de Bordeaux dans the Conversation

Composée de « bene » (le bien) et « volens » (de bon gré), la bienveillance désigne la volonté du bien. Initialement décrite dans le courant philosophique, elle s’est émancipée dans de nombreuses disciplines telles que la gestion des ressources humaines, l’éducation, la psychologie et s’invite maintenant dans le domaine de l’intelligence artificielle (IA).
Aujourd’hui, l’IA et ses algorithmes sont omniprésents dans notre quotidien. La reconnaissance faciale, les chatbots, les assistants vocaux, les voitures autonomes constituent quelques exemples connus. L’arrivée récente des IA génératives, comme ChatGPT ou LLaMA, permettent d’aider et d’accompagner les humains dans leurs opérations intellectuelles (génération de contenus, traduction, etc.), ce qui bouleverse un peu plus nos interactions avec ces machines.

Néanmoins, dans quelle mesure peut-on parler de bienveillance pour qualifier les progrès des IA qui, par définition, ne sont autres que des algorithmes inspirés du cerveau humain ? A contrario, des IA capables de nuire pourraient-elles est être considérées comme malveillantes ? Se pencher sur ces questions nous permet de ne pas perdre de vu le sens que nous accordons aux mots pour penser et caractériser les opportunités et les enjeux des IA.

Lorsque l’on désigne un élément comme « artificiel », nous l’opposons communément au « naturel ». En effet, un artifice est un produit qui n’a pas de lien étroit avec le vivant, mais il peut tenter de le mimer ou de l’imiter. Dans cette perspective, les IA tentent de reproduire l’intelligence humaine à travers des algorithmes qui sont artificiellement développés par les humains (par exemple, l’apprentissage automatique, l’apprentissage profond). Les IA sont donc seulement des intelligences abiotiques, bien qu’il faille reconnaitre qu’elles ont parfois un fort pouvoir de prédication et d’imitation de l’humain.

En revanche, l’intelligence humaine est intimement liée à un certain nombre de facteurs psychologiques issus de son contenant comme des émotions, des affects ou des sentiments. Par essence, les IA en sont démunies puisqu’elles n’ont qu’une représentation partielle du monde, issue de textes et de chiffres. Les humains sont aussi liés à leur contenu qui les façonne, c’est-à-dire des événements exogènes (par exemple, des maladies) qui, eux, n’affectent pas directement les IA sur leur manière de s’exécuter.

L’un des atouts des IA est de corriger les biais cognitifs des humains en raison de leur absence de rationalité exclusive. Aujourd’hui, il est possible de concevoir une intelligence abiotique pour améliorer les conditions d’une intelligence biotique, si bien que des auteurs scientifiques comme Joël de Rosnay évoque un véritable « état symbiotique » entre l’homme et les machines. Pour d’autres, affirmer que les IA remplaceront à terme l’intelligence humaine est une aberrance car elles ont aussi leurs biais liés aux données non neutres qu’elles reçoivent des humains eux-mêmes.

En 1992, le psychologue social israélien Shalom H. Schwartz montre que la bienveillance est l’une des dix valeurs fondamentales de l’être humain dans sa théorie des valeurs humaines basiques. La bienveillance, qui implique certains comportements tels que être serviable, loyal, indulgent ou encore responsable, préserve et améliore le bien-être d’autrui.

Les IA, semble-t-il, sont issues d’une création bienveillante des humains puisqu’elles sont capables de maintenir et d’améliorer son sort. Cependant, ces dernières ne peuvent naître et évoluer seules ; elles ont besoin de données générées par l’humain ou son activité pour être expérimentées. Jusqu’à présent, l’humain reste l’expérimentateur et l’expérimenté de sa condition alors que les IA ne sont seulement que le deuxième versant. Il s’agit ici d’une différence fondamentale puisque l’expérimentateur, par définition, doit faire preuve de curiosité, de perspicacité, d’intuition et de créativité dans ses modes d’acquisition de la connaissance. Les IA ne sont pas encore capables d’atteindre de tels niveaux de raisonnement.

Ainsi, les IA ne peuvent donc pas être rigoureusement qualifiées de bienveillantes ou de son inverse. Considérer les IA comme bienveillantes (ou malveillantes) reviendrait à dire qu’elles n’ont pas besoin d’esprit humain pour atteindre un tel niveau de cognition. On pourrait ainsi se fier à elles plutôt qu’à son propre ressenti, ce que le philosophe français Pierre Cassou-Noguès évoque à travers le « syndrome du thermomètre » dans son essai La bienveillance des machines.

Or, pour être bienveillant, comme l’explique le philosophe Ghislain Deslandes, il faut aussi avoir un esprit car la bienveillance est étroitement liée aux notions d’empathie, d’indulgence et du souci, ce qui suggère une « connaissance intuitive et adéquate de l’essence des choses ».

Les IA en sont spirituellement démunies. La disposition à bien veiller ou mal veiller est étrangère à elles et non prise en considération dans leur fonctionnement interne.
Bien que la bienveillance (et son inverse) n’existe pas à l’intérieur des IA, ses répercussions extérieures le sont-elles pour autant ? À bien des égards, les IA apportent des aspects positifs et négatifs aux humains, ce qui engendre un certain degré d’interaction avec elles selon les usages (santé, militaire, etc.). Les conséquences extérieures de ces usages peuvent être perçues comme bienveillantes (ou non) par les individus car ils impactent ces derniers en modifiant leurs états d’âme (humeurs, sentiments, etc.).

Pour autant, qualifier une action bienveillante de la part d’une IA (par exemple, le fait qu’elle puisse diagnostiquer un cancer) ne fait pas d’elle une IA bienveillante puisque, encore une fois, elle n’est pas un humain comme les autres. Seules les répercussions liées à son usage (la détection du cancer a débouché vers un traitement ad hoc) peuvent être perçues comme bienveillantes par les humains car elles participent à la préservation et/ou à l’amélioration de leurs conditions de vie.

Cet éclairage entre les IA et la notion de bienveillance offre une perspective plus fine sur l’ordre des choses. L’humain, en tant qu’être pensant, a la mainmise sur la conception et le développement des IA. Une fois les algorithmes exécutés, il en va à chacun de considérer les répercussions comme bienveillantes ou non par rapport à sa condition.

Ainsi, la primauté de la responsabilité humaine sur les IA doit être conservée car ce n’est bien qu’à l’extérieur de ces algorithmes que nous pouvons avoir un rôle à jouer. À elles seules, les IA sont indifférentes à toute bienveillance car elles en sont intrinsèquement privées. Leur bon usage nécessite d’entretenir nos expériences de pensées comme la critique, le doute et la recherche du sens, c’est-à-dire notre capacité à philosopher et à prendre soin de nous-mêmes.

« L’IA : pour renforcer les géants du numérique, mais aussi les affaiblir »

« L’IA : pour renforcer les géants du numérique, mais aussi les affaiblir »
CHRONIQUE par Alexandre Piquard dans Le Monde

L’intelligence artificielle en open source serait susceptible de rebattre les cartes du secteur dans un sens moins favorable aux Big Tech, explique Alexandre Piquard, journaliste au « Monde », dans sa chronique.L’intelligence artificielle (IA) va-t-elle rebattre les cartes du numérique ou asseoir le pouvoir des grands acteurs du secteur ? Le succès des logiciels capables de créer, à partir d’une simple commande écrite, des textes – comme ChatGPT – ou des images – comme Midjourney – a d’abord semblé confirmer la seconde hypothèse. Si c’était possible, ces systèmes allaient être encore davantage dominés par les Big Tech, tels Google, Microsoft, Meta (Facebook) ou Amazon, que la recherche en ligne, les réseaux sociaux, les logiciels ou l’e-commerce…

Mais ces derniers mois, avec l’apparition de modèles d’IA puissants diffusés en open source, donc accessibles à tous, une thèse alternative s’est développée : l’IA pourrait affaiblir les géants du numérique.

Pour étayer l’idée d’une consolidation du pouvoir des acteurs dominants, les éléments ne manquent pas : OpenAI, la start-up qui a créé ChatGPT, est depuis 2019 solidement arrimée, par un partenariat, à Microsoft, qui serait prêt à y investir 10 milliards de dollars (9,4 milliards d’euros). Google a, lui, misé 300 millions de dollars pour prendre une participation dans la start-up Anthropic. Et, grâce à leurs filiales d’hébergement et de services dans le cloud, Google a noué un partenariat avec Cohere ou C3 AI et Amazon avec Stability AI. Les géants du numérique apportent ici de la capacité de calcul pour entraîner des modèles gigantesques (540 milliards de paramètres pour PaLM, de Google). Il s’agit d’une ressource cruciale et coûteuse, car les puces dernier cri valent jusqu’à 40 000 dollars pièce.

Cette mainmise suscite déjà des critiques, notamment d’Elon Musk, pour qui créer OpenAI était une façon de pas laisser l’IA aux mains de Google. « La domination des Big Tech sur l’économie numérique sera scellée si les régulateurs n’interviennent pas », a mis en garde Sarah Myers West, de l’ONG AI Now Institute, dans le Financial Times. La FTC, l’autorité antitrust américaine, a dit être « vigilante », car « l’IA risque de conforter encore davantage la domination des grands acteurs du numérique ».

Certains craignent de voir les petites entreprises et la recherche publique dépendre d’une poignée de grands modèles d’IA, comme elles dépendent des grandes plates-formes, réseaux sociaux, environnements mobiles…

12345...56



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol