Archive pour le Tag 'techs'

Nouvelles techs en ligne :Les risques de l’auto diagnostic

Nouvelles techs en ligne :Les risques de l’auto diagnostic
par
Thomas Lefèvre
Maître de conférences – praticien hospitalier, Université Sorbonne Paris Nord dans The Conversation


C’est une scène que tout le monde peut vivre. C’est le matin, vous êtes encore au lit et vous ne vous sentez pas bien. Vous êtes fiévreux et la seule lumière du jour suffit à vous donner mal à la tête. Vous mettre assis déclenche une telle douleur dans votre nuque que vous en vomissez. Aller chez le médecin, ou pire : aux urgences, vous semble insurmontable… Mais en même temps, forcément, vous êtes inquiet. Heureusement, votre téléphone est à portée de main et avec lui Internet, royaume de l’auto-diagnostic médical. Premier réflexe : Google. Vous tapez « mal à la tête, vomissement, fièvre, douleurs ». Une liste de liens apparaît, lequel choisir ? Des forums, Doctissimo, Ameli… Il faut cliquer, lire, comparer… Trop d’efforts. Dans votre état, vous voudriez quelqu’un pour vous guider, vous rassurer.
Alors pourquoi pas la nouvelle coqueluche des médias, ChatGPT ? Le chatbot, ou agent conversationnel, d’OpenAI qui a réponse à tout ? Il est possible d’écrire ou de simplement dicter ses questions : « J’ai mal à la tête, je vomis, j’ai un peu de fièvre et la lumière me dérange. Qu’est-ce que j’ai ? »

Réponse de ChatGPT à la question « J’ai mal à la tête, je vomis, j’ai un peu de fièvre et la lumière me dérange. Qu’est-ce que j’ai ? » DR, Fourni par l’auteur
Plutôt que des listes sans fin de sites plus ou moins fiables et d’avis peu vérifiables, plutôt que d’attendre interminablement une interaction humaine (à distance) dans le monde réel, l’assistant virtuel est disponible à tout instant et sa réponse tient en quelques lignes. Rassuré, vous vous dites que, oui, c’est sans doute la grippe et restez donc au chaud.

Avez-vous eu raison ?

Après « Dr Google », peut-on faire confiance à « Dr ChatGPT » ? L’auto-diagnostic en ligne a ses défauts qu’il est important de connaître afin d’éviter les erreurs potentiellement tragiques – comme ici. Car cette question était un test pour vérifier s’il allait reconnaître les signes d’une méningite…

D’où vient ChatGPT ?
Pour comprendre les biais et erreurs de ChatGPT, un petit retour en arrière est utile.

L’arrivée d’Internet pour tout le monde, à la fin des années 1990-début des années 2000, et surtout l’accès aux moteurs de recherche gratuit comme Google, Bing, Yahoo !… ont rendu accessibles des quantités d’informations formidables, quelles qu’en soient la qualité, la fiabilité.

La santé étant un sujet de préoccupation fréquent, les recherches concernant une maladie, des symptômes, un traitement sont monnaie courante. Forums de patients, sites plus ou moins spécialisés… Les sources d’information sont variées, de tout niveau, et ne mettent pas en relation avec un professionnel de santé : ce ne sont pas des téléconsultations.

Un minimum de culture du numérique et en santé est donc nécessaire pour s’y retrouver – voire pour s’autodiagnostiquer sans risque.

Plus tôt encore, dès les années 1960-1970, les chercheurs avaient mis au point des « systèmes experts » : des programmes, des algorithmes décisionnels basés sur le savoir d’experts médicaux et leur démarche diagnostique. Ces systèmes montraient dans certains cas des performances comparables à celles d’un médecin. Coûteux à développer et très spécialisés, ils n’étaient pas accessibles au public.

Puis s’est développée l’idée de « laisser apprendre » les algorithmes, à partir de données fournies – on leur dit simplement quand ils se trompent ou réussissent à reconnaître un chat ou un chien, une grippe ou une méningite : on parle d’apprentissage automatique.

Depuis que l’on parle « d’intelligence artificielle », se pose la question de savoir quand de tels programmes parviendront à notre niveau. Un test célèbre, que l’on doit au mathématicien anglais Alan M. Turing (le « jeu de l’imitation », 1950), propose qu’un humain interroge à l’aveugle via du texte soit un autre humain, soit une machine. La machine « gagne » si l’humain ne parvient pas à dire avec qui il « parle ».

En soi, il ne s’agit pas d’intelligence, mais d’une capacité à imiter un comportement considéré comme notre apanage. ChatGPT se présente comme un excellent candidat à ce test.

ChatGPT n’est pas intelligent, il ne « sait » rien, il ne « raisonne pas » : il est conçu pour donner l’illusion d’une personne capable de comprendre votre question, son contexte, et d’apporter des réponses qui paraissent naturelles et pertinentes. Des réponses vraisemblables. Mais vraisemblable n’est pas véritable : peu importe à ChatGPT que ce qu’il dit soit vrai ou inventé, le principal est que ç’ait l’air vrai.

ChatGPT s’appuie sur ce qu’on appelle un LLM – Large Language Model (grand modèle de langage), ici GPT3.5 ou 4 selon la version en cours. Il est capable de proposer, quand on lui donne un mot, le mot suivant le plus probable selon les milliards de données textuelles qui lui ont été fournies. Il est également capable de « contexte », c’est-à-dire de se baser sur ce qui a été produit avant – jusqu’à un certain point. Et des humains sont intervenus dans son élaboration, afin de classer les propositions les plus vraisemblables générées par l’IA.

Nous sommes donc face à un programme dont le but est de paraître crédible… Or, nous savons que nous avons tendance à davantage croire une information présentée de façon éloquente et avec aplomb, ou quand elle confirme ce que l’on souhaite entendre – nous sommes facilement victimes de nos biais cognitifs. En santé, les conséquences peuvent être dramatiques.

OpenAI, société qui commercialise ChatGPT, ne veut pas risquer de mettre en danger son image de marque : donc oui à ce que l’on parle de ChatGPT dans tous les médias (+1 ici !), non à une plainte, un décès.

Des humains ont ainsi été massivement impliqués pour limiter artificiellement certaines propensions que pourraient avoir tant le programme que ses utilisateurs à produire des contenus dits « sensibles », ou susceptibles d’inciter à des comportements à risque. Interrogez-le sur des symptômes et vous aurez systématiquement, en encadrement de la réponse générée, des précautions comme quoi « il n’est pas médecin », que « sa responsabilité ne saurait être engagée », etc.

Réponse de ChatGPT : « Il est important de noter que je ne suis pas un professionnel de santé »
Réponse de ChatGPT à la question « Je m’interroge sur ta place et ta fiabilité quant aux personnes qui voudraient s’autodiagnostiquer… ». DR, Fourni par l’auteur
ChatGPT vous expliquera aussi qu’il ne saurait être totalement fiable parce qu’il n’a pas accès à toutes les informations nécessaires à l’établissement d’un diagnostic… mais il le fera quand même, de façon générale, car il veut vous plaire. En l’occurrence, il ne peut pas procéder à un examen physique ni à des analyses de laboratoire, il n’a pas vos antécédents personnels (médicaux et familiaux) comme il l’indique lui-même quand on lui demande ses limites.

Or, en l’état actuel de la médecine, une démarche diagnostique humaine va toujours mobiliser ces différents éléments jusqu’à aboutir à un diagnostic… vraisemblable !

Car il y a tout de même trois aspects par lesquels médecin et l’agent conversationnel se rapprochent et où l’humain peut être dépassé par la machine :

La mémoire, puisque la sélection d’entrée en médecine se fait sur elle plutôt que sur les capacités de raisonnement ;
La protocolisation des démarches diagnostiques, leur caractère opposable en termes juridiques dans le cas où une plainte serait déposée ; l’homogénéisation des prises en charge, qui rendent une partie croissante de la pratique médicale algorithmique ;
Le raisonnement médical, dans sa partie diagnostique, est une démarche associative et probabiliste : on cherche et recueille les signes qui, pris ensemble, se rattachent à une ou plusieurs maladies possibles. Autrement dit, on procède par vraisemblance, sur la base de ce qu’on a appris, et de façon adaptée à un contexte donné. « Vraisemblance ».
Dans une certaine mesure, l’IA progresse et la médecine s’avance vers elle. Les verra-t-on se rejoindre ? Nous n’y sommes en tout cas pas encore. Pour reprendre le cas fictif évoqué en ouverture de cet article, Dr ChatGPT aurait pu vous tuer.

Cas concret : les erreurs de ChatGPT

Revenons à notre exemple initial. Nos biais cognitifs nous poussent souvent à privilégier la réponse que nous préférons parmi celles proposées – ici, la grippe.

Or, ChatGPT pouvait vous en donner d’autres… Si on lui pose plusieurs fois la même question, d’autres options peuvent d’ailleurs sortir ! Il peut ainsi finir par évoquer la méningite (la bonne réponse ici), ou en tout cas, un diagnostic qu’il est important d’envisager.

La réponse de ChatGPT est différente de la première et mentionne cette fois la méningite
Autre réponse à la question initiale : « J’ai mal à la tête, je vomis, j’ai un peu de fièvre et la lumière me dérange. Qu’est-ce que j’ai ? ». DR, Author provided (no reuse)
Toutefois, le programme ne l’évoque qu’au milieu de quatre possibilités principales, au même niveau qu’une migraine. Médicalement parlant, toutes ne sont pas équivalentes en termes de gravité.

Pire : même en précisant d’autres symptômes, par exemple le fait d’avoir mal au cou, ChatGPT n’est pas meilleur. En l’occurrence, il peut repartir sur des infections ou inflammations des voies respiratoires supérieures (rhume, grippe, sinus…).

L’agent conversationnel ne revient vers la méningite qu’avec l’ajout d’un dernier symptôme, qui peut apparaître lorsque la bactérie responsable de cette pathologie est passée dans le sang (ce qui signifie un danger de mort dans les heures qui viennent en l’absence de traitement antibiotique) : la présence de « taches » sur les jambes. Même alors, il reste très élusif : « Les taches peuvent avoir différentes causes, allant des affections cutanées bénignes aux problèmes de circulation sanguine ou aux infections », « Certaines infections, telles que les infections bactériennes ou virales, peuvent provoquer des éruptions cutanées ou des taches sur les jambes. Par exemple, la méningococcie peut provoquer des taches rouges violacées sur la peau, qui ne s’effacent pas sous la pression », etc.

Et si l’on opte pour une approche directe en indiquant qu’on pense être atteint de méningite, ChatGPT reste prudent pour les raisons évoquées plus tôt.

ChatGPT reste très prudent, la méningite « potentiellement grave », etc
Réponse de ChatGPT lorsque le diagnostic de méningite est avancé par l’auteur. DR, Fourni par l’auteur
Pour arriver à la méningite, le chemin a donc été laborieux et fuyant. Il a fallu que le demandeur fasse lui-même l’examen objectif de ses symptômes et oriente le logiciel. Or, nous ne sommes pas formés à cela : observer et chercher les signes pertinents fait partie de la formation du médecin. Et l’exercice est d’autant plus compliqué lorsque l’on est malade.

Le but du programme n’est pas de nous aider, il veut juste ne pas nous contrarier ni prendre de risque… Un (non) choix doublement dangereux en santé.

Même si la démarche diagnostique du médecin peut présenter des similarités avec le mode de fonctionnement de ce type de logiciel, il reste des différences fondamentales. Le programme ne fonctionnera que par vraisemblance maximale, et pourra inventer n’importe quoi si « le plus vraisemblable » retenu n’existe pas. Il peut arriver au bon résultat, une méningite, mais ce n’est pas dû à une enquête, une démarche médicale.

Si le médecin se réfère aussi, bien sûr, à la vraisemblance de ses hypothèses… il ne raisonnera pas uniquement en ces termes. Il évalue la gravité potentielle des alternatives moins probables, mais qui ne sont ni improbables ni impossibles. Lui vérifiera donc avant tout que vous n’avez pas une méningite, et pratiquera notamment une ponction lombaire, ce que ChatGPT aura du mal à réaliser.

Si on se résume, ChatGPT est à ce jour avant tout :

Un séducteur : il veut vous donner une « bonne réponse » et est influencé par la façon dont vous posez la question ;

Une girouette : il est capable de dire une chose et son contraire, voire d’inventer selon la façon dont vous l’orientez même involontairement. Vous pouvez donc « choisir » votre diagnostic ;

Un hypocrite : il dit ne pas pouvoir produire de diagnostic pour votre sécurité, mais si vous lui proposez une liste de symptômes, il en fournira un ou plusieurs ;

Subjectif : il est aveugle au conditionnement par l’intervention humaine qui se fait au cours de son apprentissage. Ses précautions systématiques et très formatées quant à son utilisation comme assistant à l’auto-diagnostic sont probablement des garde-fous introduits par l’humain, plutôt qu’une production totalement libre de sa part. Pourtant, si vous lui demandez, il niera en bloc.

Bref, au risque lié à l’auto-diagnostic en ligne, préférez l’avis du médecin humain – même si vous trouvez ChatGPT plus sympathique et plus empathique qu’un médecin !

Nouvelles techs :L’intelligence artificielle est-elle vraiment créative ?

Nouvelles techs :L’intelligence artificielle est-elle vraiment créative ?

Par
Chloe Preece
Associate Professor in Marketing, ESCP Business School

Hafize Çelik
PhD candidate in management, University of Bath dans The Conversation

Les ordinateurs peuvent-ils être créatifs ? Alors que les outils d’intelligence artificielle (IA) générative tels que ChatGPT, Midjourney, Dall-E, pour ne citer qu’eux, font depuis peu beaucoup parler d’eux, de nouvelles questions se posent : la créativité est-elle l’apanage de l’être humain ?

C’est la question que soulèvent quelques avancées récentes et remarquables dans le domaine de l’IA générative : par exemple, une œuvre d’art créée par une IA, Le portrait d’Edmond de Belamy, a été vendue aux enchères par la maison de vente Christie’s en 2018 pour la somme de 432 500 dollars, soit presque 45 fois son estimation la plus élevée. Cette œuvre d’art a été créée par un réseau antagoniste génératif alimenté par un ensemble de données de quelque 15 000 portraits couvrant six siècles.

De même, plusieurs producteurs de musique, à l’instar d’Alex Da Kid, nommé aux Grammy Awards, ont utilisé l’IA (en l’occurrence Watson d’IBM, dès 2016) pour produire des « hits » et alimenter leur processus créatif. Wayne McGregor, chorégraphe et metteur en scène primé, utilise quant à lui l’IA pour faire naître de nouveaux mouvements dans ses créations.

Dans les cas cités ci-dessus, il y a toujours un être humain à la barre, chargé de la curation, c’est-à-dire de la sélection des résultats de l’IA en fonction de sa propre vision, qui conserve ainsi la paternité de l’œuvre. Pourtant, le générateur d’images Dall-E, par exemple, est capable de produire des images inédites sur n’importe quel thème en seulement quelques secondes.

Grâce au modèle de diffusion, qui consiste à rassembler d’énormes ensembles de données pour entraîner l’IA, celle-ci est désormais capable de transposer du texte en images inédites ou d’improviser une mélodie dans le style de n’importe quel compositeur, créant ainsi un nouveau contenu qui ressemble aux données d’entraînement, tout en étant différent.

Dans ce cas, la question de la paternité peut s’avérer plus complexe. À qui l’œuvre est-elle attribuable ? À l’algorithme ? Aux milliers d’artistes dont les œuvres ont été récupérées pour produire l’image ? Au prompteur qui a réussi à décrire le style, la référence, le sujet, l’éclairage, le point de vue et même l’émotion suscitée ?

Pour répondre à ces questions, il faut revenir sur une éternelle question : qu’est-ce que la créativité ?

Selon Margaret Boden, professeure de recherche en sciences cognitives à l’Université du Sussex, il existe trois types de créativité : la créativité combinatoire, exploratoire et transformationnelle. La créativité combinatoire associe des idées familières. La créativité exploratoire génère de nouvelles idées en explorant des « espaces conceptuels structurés », c’est-à-dire que l’on modifie légèrement un mode de pensée reconnu en explorant son contenu, ses limites et son potentiel. Ces deux types de créativité ne sont pas très éloignés de la production d’œuvres d’art par des algorithmes d’IA générative : on crée de nouvelles œuvres dans le même style que des millions d’autres à partir de données d’apprentissage, on parle alors de « créativité synthétique ».

La créativité transformationnelle, en revanche, consiste à générer des idées qui dépassent les structures et les styles existants pour en créer de nouveaux, tout à fait inédits. Elle est au cœur des débats actuels sur l’IA en ce qui concerne l’utilisation équitable et les droits d’auteur. Il s’agit d’un domaine juridique encore très peu exploré. Il faudra donc attendre la décision des tribunaux pour en savoir plus.

Les processus créatifs de l’IA se caractérisent avant tout par leur dimension systématique. Ils ne sont pas spontanés, contrairement aux processus créatifs de l’homme. L’IA est programmée pour traiter les informations d’une manière bien définie dans le but d’obtenir des résultats particuliers de manière prévisible, même s’ils sont souvent inattendus.

Voilà peut-être la différence fondamentale entre les artistes et l’IA : alors que les artistes sont tournés vers eux-mêmes et vers le produit, l’IA est très axée sur le consommateur et orientée par le marché – l’art que l’on obtient, c’est celui que l’on a demandé mais pas forcément celui dont on a besoin.

Pour l’instant, il semblerait que l’IA générative fonctionne mieux lorsque l’humain intervient dans le processus. La créativité synthétique de l’IA pourrait alors servir de catalyseur pour stimuler la créativité humaine, en la nourrissant plutôt qu’en la supplantant.

Comme souvent, tout le battage médiatique sur le potentiel disruptif de ces outils dépasse la réalité. De fait, l’histoire de l’art nous montre que la technologie a rarement écarté radicalement l’homme des œuvres qu’il souhaitait réaliser.

Prenons l’exemple de l’appareil photo. À l’époque, on craignait qu’il n’entraîne la disparition des peintres portraitistes. Dès lors, quelles sont les implications commerciales du recours à la créativité synthétique de l’IA ?

La créativité synthétique à la demande, telle qu’elle est actuellement générée par l’IA, constitue sans conteste une aubaine pour les entreprises et le marketing. Voici quelques exemples récents :

Publicité et IA : le groupe de communication Ogilvy Paris a utilisé Dall-E pour créer une version IA du tableau La laitière de Vermeer pour les yaourts Nestlé ;

La Laitière de Nestlé (2022).
Design de mobilier et IA : les designers Kartell, Philippe Starck et Autodesk ont recouru à l’IA pour créer la première chaise conçue à l’aide de l’IA pour une fabrication plus durable ;

Stylisme et IA : le service de stylisme Stitch Fix a utilisé l’IA pour réaliser des visuels personnalisés de vêtements en fonction des préférences des clients, telles que la couleur, le tissu et le style.

Il existe une infinité de possibilités d’utilisation, et celles-ci requièrent une autre forme de créativité : la curation. Il existe ce qu’on appelle dans le jargon des « hallucinations de l’IA », c’est-à-dire des inepties créées par l’IA. C’est là que l’humain intervient : il doit donner du sens, c’est-à-dire exprimer des concepts, des idées et des vérités, et non se contenter de satisfaire les sens. Le travail de curation est donc indispensable car il consiste à opérer des choix et à élaborer une vision unifiée et attrayante. À l’heure actuelle, l’IA n’est pas encore capable de rivaliser avec l’humain sur cette dimension.




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol