Archive pour le Tag 'l’IA'

Page 2 sur 2

L’IA générative : défi pour l’Europe

L’IA générative : défi pour l’Europe

Le vieux Continent ne devrait pas se perdre dans les critiques des technologies émergentes comme ChatGPT, ni dans les inquiétudes démesurées comme le remplacement des humains par les automates.

Par Camille Fumard, auteur, et Luc Julia, spécialiste mondial de l’intelligence artificielle et actuel directeur scientifique de Renault. dans la Tribune

Ces derniers mois, la Silicon Valley semblait avoir perdu de sa superbe. Nous avions déjà imaginé la fin de l’idéologie californienne hybridant la culture hippies/yuppies mais aussi la fin d’un lieu « où les grandes idées rencontrent l’argent intelligent », comme aime à le décrire Bill Draper, de la famille Draper, l’une des plus connues dans le domaine du capital-risque mondial. Nous portions alors notre regard vers d’autres contrées telles que la Silicon Wadi (en Israël) ou encore Shenzhen (en Chine). La Silicon Valley, dernier lieu, peut-être, du thymos (l’amour-propre) occidental dont la foi profonde est placée dans le potentiel émancipateur de la technologie, tombait alors en disgrâce. Échec du métaverse, fraude hallucinante de FTX pour les cryptomonnaies, effondrement et faillites bancaires avec notamment la banque régionale des startups, la Silicon Valley Bank…

Et, pourtant ! La Silicon Valley en a vu d’autres et n’en est pas à sa première tempête. De la « dot-com bubble » en passant par la bulle des CleanTech de 2008, elle incarne aussi cette patrie de l’échec, véritable cimetière des innovations. C’est ce lieu des rêveries vulnérables où l’échec représente un passage presque obligé pour réussir. L’esprit de conquête, en référence à la conquête de l’ouest, n’a donc jamais quitté son théâtre de jeu. On le voit récemment avec l’intelligence artificielle (IA) générative. Cette dernière percée technologique des grands modèles linguistiques LLM (s’entraînant sur des trillions de mots) a pris d’assaut l’industrie entraînant une véritable euphorie chez les entrepreneurs et startupers mais aussi les capital-risqueurs. Ce marché devrait atteindre 1.304 milliards de dollars d’ici 2032, selon Bloomberg Intelligence.

La technologie de l’IA générative permet en effet des expériences comme l’écriture d’une semaine de code en quelques secondes ou la génération de conversations textuelles qui semblent encore plus empathiques que celles que nous avons avec les humains. Autrefois associée à l’or, au pétrole, puis au silicium, ou encore à Internet, et aujourd’hui à l’IA générative, la foi profonde dans le potentiel émancipateur de la technologie bat toujours son plein. Finalement, seuls les succès, ceux qui ont un impact énorme sur le réseau, sont retenus. Et, l’IA générative a déjà changé les plans d’affaires des concurrents et des investisseurs.

A cet égard, le vieux Continent ne devrait pas se perdre dans les critiques des technologies émergentes comme ChatGPT, ni dans les inquiétudes démesurées comme le remplacement des humains par les automates dans le monde du travail. Nous avons déjà connu deux cycles de panique liés au chômage dû à la technologie : la panique de l’externalisation dans les années 2000 et la panique de l’automatisation dans les années 2010 comme l’écrit Marc Andreessen, cofondateur et associé général de la société de capital-risque Andreessen

Horowitz, dans son texte « Pourquoi l’IA sauvera le monde ». Non, la technique appelle plutôt à être rationnel. Al Gore dans son célèbre discours de 1993 sur l’expansion d’un réseau informatique national l’avait, par exemple, déjà compris en posant l’expression des « autoroutes de l’information » en opposition à la vision utopique du cyberespace des années 90. L’IA générative n’en est qu’à ses débuts. Elle va traverser des étapes, des étapes toujours domptées par des ingénieurs et architectes du numérique, mais elle façonnera tous les aspects de nos vies. On devrait voir arriver des avancées comme le perfectionnement de la mémoire des LLMs avec des fenêtres contextuelles plus larges ou encore en matière d’interactivité avec l’intégration de modèles multimodaux permettant d’aller au-delà du langage. Ainsi, selon la courbe de Gartner, l’IA générative, qui traverse à une vitesse encore jamais vue la fameuse « Hype Cycle », devrait rapidement atteindre la phase de développement éclairé puis celle de d’adoption progressive.

Démythifier l’IA générative et son fonctionnement, c’est peut-être là que tout se joue aujourd’hui, surtout pour une Europe qui tend à freiner la technologie plutôt que ses usages (l’IA ACT étant le dernier exemple en date). Nous parlons encore de ces dispositifs comme d’un éther conscient qui nous entoure alors que les générations doivent comprendre que nous parlons en réalité de quelque chose que l’homme conçoit, fabrique et contrôle. Le vrai combat à mener pour l’avenir est la lutte contre l’ignorance et l’absence d’une solide compréhension citoyenne du fonctionnement de la tech. En effet, pour que la génération future puisse saisir pleinement les opportunités offertes par l’IA générative et relever les défis qu’elle présente, nous devons agir maintenant. L’IA Literacy, terme dérivé de la littératie numérique qui désigne la capacité d’un individu à comprendre et utiliser l’information au moyen des technologies, est l’une des clés essentielles pour affronter le monde du travail de demain, être un consommateur avisé et un citoyen responsable.

Nous devons donc initier d’urgence un vaste programme d’IA Literacy qui vise à inscrire dans les écoles, à l’université et dans les entreprises des programmes pour apprendre à connaître l’IA, ses aspects techniques, la façon dont elle perçoit le monde, collecte et traite les données. Ce vaste chantier éducatif permettra de former une génération éclairée capable de tempérer la perception souvent inexacte selon laquelle l’IA est une force infaillible et omnisciente mais aussi d’éclairer nos décisions. Une visée qui va d’ailleurs de pair avec un cadre réglementaire pour la gestion des risques liés à l’IA, un « code de conduite » international attaché à de grands principes généraux. « Le génie de l’IA est sorti de la bouteille », explique Cynthia Breazeal, professeur d’arts et de sciences des médias au Massachusetts Institute of Technology. Il ne s’agit pas seulement du domaine de l’informatique et du codage. Cela touche tous les aspects de la société. Savoir solliciter l’outil change la donne et offre des repères pour éviter d’être trompé ou lésé par un programme informatique. Les étudiants devront s’entraîner à obtenir les bonnes informations, à générer les bons prompts mais aussi à détecter les failles ou les biais induits par les machines, de la même manière que les générations précédentes ont appris le système de catalogue pour naviguer dans la bibliothèque.

En saisissant l’importance de l’IA literacy, nous pourrons enfin opérer un glissement sémantique pour parler « d’intelligence augmentée » en lieu et place « d’intelligence artificielle », sans perdre de vue que l’outil technique est là pour d’abord optimiser l’intelligence humaine. Espérons que le nouveau ministre de l’Éducation nationale, Gabriel Attal, et le ministre délégué de la Transition numérique, Jean-Noël Barrot, vont se charger de ce vaste chantier.

Société- l’IA , menace pour l’espèce humaine ?

Société- l’IA , menace pour l’espèce humaine ?

Le développement de l’IA représente une menace de taille pour l’espèce humaine, analyse l’auteur de La Guerre des intelligences (voir résumé) à l’heure de ChatGPT *. Il est urgent, explique-t-il dans le Figaro, de réfléchir à ses conséquences politiques et aux moyens de cohabiter avec elle.

L’arrivée de ChatGPT a relancé le débat sur l’intelligence artificielle générale : de quoi s’agit-il ?

Laurent ALEXANDRE. – Il existe deux types d’IA qui préoccupent les chercheurs. D’abord, l’intelligence artificielle générale, qui serait légèrement supérieure à l’homme dans tous les domaines cognitifs. Ensuite, la super-intelligence artificielle, l’ASI en anglais, qui pourrait être des milliers, voire des millions, de fois supérieure à la totalité des cerveaux sur ­terre.

Faut-il croire à son émergence ou s’agit-il en réalité d’un fantasme ?

Sam Altman, le patron de ChatGPT, a écrit le mois dernier qu’il est convaincu que la super-intelligence artificielle sera là avant 2030. Il n’y a pas de certitude que nous y parviendrons, mais je constate qu’il y a de plus en plus de chercheurs, une grande majorité, même, qui sont aujourd’hui convaincus que l’IA nous dépassera dans tous les domaines.

La Guerre des intelligences -résumé ( de likedin)

Les inégalités de QI sont majoritairement génétiques (de naissance) et globalement héréditaires même si le mode de vie (malbouffe, sous-stimulation…) accentue cet état de fait. De fait, les inégalités de QI se creusent.

Après une période d’augmentation générale du QI (due à une meilleure hygiène de vie), l’effet Flynn s’est tari en occident, entrainant une baisse du QI moyen, car les personnes au meilleur QI font moins d’enfants et les personnes de faibles QI en font plus et les stimulent moins.

En Asie, l’effet Flynn bat son plein : le QI connaît une forte augmentation pour des raisons environnementales (fin de la malnutrition, éducation…).

L’Afrique devrait connaître à son tour une explosion du QI dans les prochaines décennies.

L’éducation est clef : on en est encore à l’âge de pierre. Il n’y a pas d’évaluation des méthodes (cf les débats stériles entre méthode globale et syllabique alors qu’aucune étude sérieuse n’a jamais été menée sur le sujet), process de transmission inchangé depuis des siècles/millénaires (cours magistral de groupe). Grâce aux neurosciences on va vraiment comprendre comment le cerveau apprend / les cerveaux apprennent.

On pourra alors vraiment faire de la pédagogie efficace et individualisée.

Après le QI, le QCIA

Mais au-delà du QI, le vrai enjeu va être le QCIA (quotient de compatibilité avec l’IA) car l’IA arrive à grands pas.

Aujourd’hui, on n’en est qu’aux balbutiements (l’IA est encore faible, il n’existe pas encore d’IA « forte », consciente d’elle-même) mais les développements sont extrêmement rapides.

Les nouvelles IA sont auto-apprenantes (deep-learning) et deviennent des boîtes noires. On ne sait pas vraiment comment elles fonctionnent car elles évoluent d’elles-mêmes en apprenant. Cela les différentie fondamentalement des algorithmes qui sont pré-programmés par quelqu’un, donc auditables.

Les IA apprennent grâce à la masse des données (textes, vidéos, photos, données de navigation…) dont on les nourrit.

Ce n’est pas un hasard si Google et FB sont des créateurs d’IA : avec les datas dont ils disposent, ils peuvent nourrir les IA.

L’Europe en protégeant les données utilisateurs fait prendre un retard à l’IA européenne vs la Chine ou les US.

Les IA vont rapidement remplacer le travail intellectuel (avocat, médecin…) car la masse de données qu’elles possèdent est phénoménale (ex : des millions de clichés radiologiques, des milliards de datas de santé…) et cela permet de réaliser des corrélations impossibles à un humain.

Paradoxalement, les métiers manuels diversifiés seront les derniers remplacés car un robot multitâche coûte plus cher qu’un programme informatique (le radiologue sera remplacé avant l’aide-soignante).

La fin du travail est annoncée par beaucoup, mais cette peur méconnait l’inventivité humaine : de nouveaux métiers vont apparaître autour de l’IA (comme les datascientistes, les développeurs web ou les spécialistes du retargeting n’existaient pas il y a 20 ans). Par nature, on ne peut pas prévoir ce que seront ces jobs, mais ils existeront comme après chaque révolution industrielle. Ce qu’on peut imaginer et que ces futurs emplois seront étroitement liés à l’IA, il est donc essentiel que notre intelligence soit compatible, d’où l’importance du QCIA.

L’IA est pour le court terme une formidable opportunité (elle va résoudre de nombreux problèmes bien mieux que les humains, surtout dans la santé). Le problème est qu’on ne sait pas comment elle va évoluer. Une IA forte (ie avec conscience) peut devenir dangereuse pour l’homme et comme elle sera dupliquée / répartie (via Internet) dans tous les objets connectés, elle sera difficile à tuer en cas de besoin.

Comment l’IA avec conscience se comportera-t-elle avec nous ? Cela est très difficile à prévoir.

Quel avenir pour l’humanité ?

Assez vite, l’homme va être dépassé par l’IA, alors comment rester dans la course et ne pas être asservi ?

- l’eugénisme : les humains mieux sélectionnés in-vitro seront plus intelligents et en meilleure santé (cf Bienvenue à Gattaca). Cela pose évidemment de nombreux problèmes éthiques mais les réponses à ces problèmes seront différentes selon les pays et la Chine et les US sont plus permissifs. Cependant, cette évolution sera lente alors que l’IA évolue en permanence : les humains risquent de rester à la traîne de l’IA. Enfin, maîtriser la conception des enfants doit interroger sur la capacité de survie de l’espèce humaine en tant que telle. Le hasard de la génétique (mutations non prévues) est en effet le moyen trouvé par la vie pour s’adapter, sur le long terme, à un environnement lui-même en évolution permanente (principe de l’évolution).

- l’hybridation : cette solution prônée par Elon Musk consiste à se mettre des implants cérébraux qui vont booster notre cerveau. Si l’idée est très enthousiasmante (maîtriser la connaissance sans effort ni délai), le vrai risque est la manipulation : qui produit les contenus ? seront-ils orientés ? quid du brain washing ? que se passe-t-il si nous sommes hackés ? Ces implants seraient-ils le cheval de Troie d’une véritable dictature de la pensée encore plus aboutie que 1984 ? En effet, si on peut injecter des informations directement dans notre cerveau, il sera possible également de lire nos pensées. Que reste-t-il de nous si nous n’avons même plus de refuge de notre cerveau pour penser en toute liberté ? Quel usage un gouvernement pourrait-il faire de ces informations, qui ne soit pas totalitaire ?

- projeter nos esprits dans des corps robots : la victoire ultime sur la mort. Sans corps, nous sommes immortels. Mais que restera-t-il de nous quand nous serons fusionnés avec l’IA et que la mortalité n’existera plus alors qu’elle est l’essence même de l’homme et vraisemblablement l’origine de son désir créatif ?

Le problème de toutes ces évolutions c’est qu’elles ont des effets bénéfiques individuels indéniables à court terme (moins de maladies, meilleur QI…), mais à la fois vont créer des inégalités temporaires (seuls les riches pourront au début s’offrir cela) et impliquent des changements pour l’humanité toute entière.

Dès lors que les effets bénéfiques sont importants, il sera impossible d’enrayer le développement des IA dans tous les aspects de nos vies. En effet, quel parent pourrait refuser de faire soigner son enfant par une IA plutôt qu’un médecin, si ses chances de survie sont décuplées ? Quel homme politique pourrait assumer de faire prendre à son pays un retard si énorme en terme de santé publique ?

Mais si les humains sont connectés à des implants, l’IA sera certainement dedans. Serons-nous encore des humains ? Comment ne pas être asservis par l’IA si celle-ci est déjà dans nos cerveaux ?

Les technobéats ne réfléchissent pas à plusieurs générations, trop enthousiastes de voir où leur création les mènera. Quant aux politiques ils sont complètement largués et ne comprennent rien à la technologie. De toute manière, ils ne savent pas penser à plus de deux ans.

Au final, l’IA se développe sans maîtrise, car personne ne pense ni ne parle pour l’humanité.

(A ce sujet, je recommande l’essai d’Edmund Burke « Réflexion sur la Révolution de France » qui explique sa pensée, le « conservatisme », et sa vision de la société comme un contrat entre les vivants, mais également entre les vivants, les morts et les futures générations. Il y a certainement des idées pour nourrir le débat.)

Dans tous les cas, la bataille sera gagnée par les tenants de l’hybridation (transhumanistes) car ceux qui s’hybrideront (et ils le feront même si la réglementation le leur interdit) deviendront super-intelligents et deviendront donc de-facto les leaders. Ceux qui refuseront l’hybridation seront à la traîne.

Face à une IA galopante et à l’hybridation, le rôle de l’école va changer. Notre valeur sera dans ce qui fait notre humanité puisque la connaissance sera injectable à la demande sans effort. Donc il faudra former davantage à l’esprit critique, la réflexion, la créativité. L’homme a cet avantage sur la machine de faire des erreurs et c’est des erreurs que viennent des découvertes.

Société-La fin de homme face à l’IA ?

Société-La fin de homme face à l’IA ?

Le développement de l’IA représente une menace de taille pour l’espèce humaine, analyse l’auteur de La Guerre des intelligences (voir résumé) à l’heure de ChatGPT *. Il est urgent, explique-t-il dans le Figaro, de réfléchir à ses conséquences politiques et aux moyens de cohabiter avec elle.

L’arrivée de ChatGPT a relancé le débat sur l’intelligence artificielle générale : de quoi s’agit-il ?

Laurent ALEXANDRE. – Il existe deux types d’IA qui préoccupent les chercheurs. D’abord, l’intelligence artificielle générale, qui serait légèrement supérieure à l’homme dans tous les domaines cognitifs. Ensuite, la super-intelligence artificielle, l’ASI en anglais, qui pourrait être des milliers, voire des millions, de fois supérieure à la totalité des cerveaux sur ­terre.

Faut-il croire à son émergence ou s’agit-il en réalité d’un fantasme ?

Sam Altman, le patron de ChatGPT, a écrit le mois dernier qu’il est convaincu que la super-intelligence artificielle sera là avant 2030. Il n’y a pas de certitude que nous y parviendrons, mais je constate qu’il y a de plus en plus de chercheurs, une grande majorité, même, qui sont aujourd’hui convaincus que l’IA nous dépassera dans tous les domaines.

La Guerre des intelligences -résumé ( de likedin)

Les inégalités de QI sont majoritairement génétiques (de naissance) et globalement héréditaires même si le mode de vie (malbouffe, sous-stimulation…) accentue cet état de fait. De fait, les inégalités de QI se creusent.

Après une période d’augmentation générale du QI (due à une meilleure hygiène de vie), l’effet Flynn s’est tari en occident, entrainant une baisse du QI moyen, car les personnes au meilleur QI font moins d’enfants et les personnes de faibles QI en font plus et les stimulent moins.

En Asie, l’effet Flynn bat son plein : le QI connaît une forte augmentation pour des raisons environnementales (fin de la malnutrition, éducation…).

L’Afrique devrait connaître à son tour une explosion du QI dans les prochaines décennies.

L’éducation est clef : on en est encore à l’âge de pierre. Il n’y a pas d’évaluation des méthodes (cf les débats stériles entre méthode globale et syllabique alors qu’aucune étude sérieuse n’a jamais été menée sur le sujet), process de transmission inchangé depuis des siècles/millénaires (cours magistral de groupe). Grâce aux neurosciences on va vraiment comprendre comment le cerveau apprend / les cerveaux apprennent.

On pourra alors vraiment faire de la pédagogie efficace et individualisée.

Après le QI, le QCIA

Mais au-delà du QI, le vrai enjeu va être le QCIA (quotient de compatibilité avec l’IA) car l’IA arrive à grands pas.

Aujourd’hui, on n’en est qu’aux balbutiements (l’IA est encore faible, il n’existe pas encore d’IA « forte », consciente d’elle-même) mais les développements sont extrêmement rapides.

Les nouvelles IA sont auto-apprenantes (deep-learning) et deviennent des boîtes noires. On ne sait pas vraiment comment elles fonctionnent car elles évoluent d’elles-mêmes en apprenant. Cela les différentie fondamentalement des algorithmes qui sont pré-programmés par quelqu’un, donc auditables.

Les IA apprennent grâce à la masse des données (textes, vidéos, photos, données de navigation…) dont on les nourrit.

Ce n’est pas un hasard si Google et FB sont des créateurs d’IA : avec les datas dont ils disposent, ils peuvent nourrir les IA.

L’Europe en protégeant les données utilisateurs fait prendre un retard à l’IA européenne vs la Chine ou les US.

Les IA vont rapidement remplacer le travail intellectuel (avocat, médecin…) car la masse de données qu’elles possèdent est phénoménale (ex : des millions de clichés radiologiques, des milliards de datas de santé…) et cela permet de réaliser des corrélations impossibles à un humain.

Paradoxalement, les métiers manuels diversifiés seront les derniers remplacés car un robot multitâche coûte plus cher qu’un programme informatique (le radiologue sera remplacé avant l’aide-soignante).

La fin du travail est annoncée par beaucoup, mais cette peur méconnait l’inventivité humaine : de nouveaux métiers vont apparaître autour de l’IA (comme les datascientistes, les développeurs web ou les spécialistes du retargeting n’existaient pas il y a 20 ans). Par nature, on ne peut pas prévoir ce que seront ces jobs, mais ils existeront comme après chaque révolution industrielle. Ce qu’on peut imaginer et que ces futurs emplois seront étroitement liés à l’IA, il est donc essentiel que notre intelligence soit compatible, d’où l’importance du QCIA.

L’IA est pour le court terme une formidable opportunité (elle va résoudre de nombreux problèmes bien mieux que les humains, surtout dans la santé). Le problème est qu’on ne sait pas comment elle va évoluer. Une IA forte (ie avec conscience) peut devenir dangereuse pour l’homme et comme elle sera dupliquée / répartie (via Internet) dans tous les objets connectés, elle sera difficile à tuer en cas de besoin.

Comment l’IA avec conscience se comportera-t-elle avec nous ? Cela est très difficile à prévoir.

Quel avenir pour l’humanité ?

Assez vite, l’homme va être dépassé par l’IA, alors comment rester dans la course et ne pas être asservi ?

- l’eugénisme : les humains mieux sélectionnés in-vitro seront plus intelligents et en meilleure santé (cf Bienvenue à Gattaca). Cela pose évidemment de nombreux problèmes éthiques mais les réponses à ces problèmes seront différentes selon les pays et la Chine et les US sont plus permissifs. Cependant, cette évolution sera lente alors que l’IA évolue en permanence : les humains risquent de rester à la traîne de l’IA. Enfin, maîtriser la conception des enfants doit interroger sur la capacité de survie de l’espèce humaine en tant que telle. Le hasard de la génétique (mutations non prévues) est en effet le moyen trouvé par la vie pour s’adapter, sur le long terme, à un environnement lui-même en évolution permanente (principe de l’évolution).

- l’hybridation : cette solution prônée par Elon Musk consiste à se mettre des implants cérébraux qui vont booster notre cerveau. Si l’idée est très enthousiasmante (maîtriser la connaissance sans effort ni délai), le vrai risque est la manipulation : qui produit les contenus ? seront-ils orientés ? quid du brain washing ? que se passe-t-il si nous sommes hackés ? Ces implants seraient-ils le cheval de Troie d’une véritable dictature de la pensée encore plus aboutie que 1984 ? En effet, si on peut injecter des informations directement dans notre cerveau, il sera possible également de lire nos pensées. Que reste-t-il de nous si nous n’avons même plus de refuge de notre cerveau pour penser en toute liberté ? Quel usage un gouvernement pourrait-il faire de ces informations, qui ne soit pas totalitaire ?

- projeter nos esprits dans des corps robots : la victoire ultime sur la mort. Sans corps, nous sommes immortels. Mais que restera-t-il de nous quand nous serons fusionnés avec l’IA et que la mortalité n’existera plus alors qu’elle est l’essence même de l’homme et vraisemblablement l’origine de son désir créatif ?

Le problème de toutes ces évolutions c’est qu’elles ont des effets bénéfiques individuels indéniables à court terme (moins de maladies, meilleur QI…), mais à la fois vont créer des inégalités temporaires (seuls les riches pourront au début s’offrir cela) et impliquent des changements pour l’humanité toute entière.

Dès lors que les effets bénéfiques sont importants, il sera impossible d’enrayer le développement des IA dans tous les aspects de nos vies. En effet, quel parent pourrait refuser de faire soigner son enfant par une IA plutôt qu’un médecin, si ses chances de survie sont décuplées ? Quel homme politique pourrait assumer de faire prendre à son pays un retard si énorme en terme de santé publique ?

Mais si les humains sont connectés à des implants, l’IA sera certainement dedans. Serons-nous encore des humains ? Comment ne pas être asservis par l’IA si celle-ci est déjà dans nos cerveaux ?

Les technobéats ne réfléchissent pas à plusieurs générations, trop enthousiastes de voir où leur création les mènera. Quant aux politiques ils sont complètement largués et ne comprennent rien à la technologie. De toute manière, ils ne savent pas penser à plus de deux ans.

Au final, l’IA se développe sans maîtrise, car personne ne pense ni ne parle pour l’humanité.

(A ce sujet, je recommande l’essai d’Edmund Burke « Réflexion sur la Révolution de France » qui explique sa pensée, le « conservatisme », et sa vision de la société comme un contrat entre les vivants, mais également entre les vivants, les morts et les futures générations. Il y a certainement des idées pour nourrir le débat.)

Dans tous les cas, la bataille sera gagnée par les tenants de l’hybridation (transhumanistes) car ceux qui s’hybrideront (et ils le feront même si la réglementation le leur interdit) deviendront super-intelligents et deviendront donc de-facto les leaders. Ceux qui refuseront l’hybridation seront à la traîne.

Face à une IA galopante et à l’hybridation, le rôle de l’école va changer. Notre valeur sera dans ce qui fait notre humanité puisque la connaissance sera injectable à la demande sans effort. Donc il faudra former davantage à l’esprit critique, la réflexion, la créativité. L’homme a cet avantage sur la machine de faire des erreurs et c’est des erreurs que viennent des découvertes.

Une application de l’IA devine les mots en analysant les sons du clavier

Une application de l’IA devine les mots en analysant les sons du clavier

D’ après un info du Figaro, Un groupe d’universitaires britanniques a mis au point un puissant algorithme pouvant déchiffrer les codes d’entrée grâce au bruit des doigts qui pressent le clavier, rapporte Phonandroid . Dans leur étude, nommée «une attaque par canal auxiliaire acoustique sur les claviers basée sur l’apprentissage profond », les chercheurs indiquent que l’IA serait fiable à 95%.

Pour connaître la clef d’accès, il suffit d’enregistrer une personne en train de taper son code confidentiel avec un microphone de smartphone. Une fois les sons captés, l’algorithme retranscrit les informations acoustiques en texte.

Pour les chercheurs, cette publication a pour objectif d’alerter sur la vulnérabilité des données personnelles. «L’omniprésence des émanations acoustiques des claviers en fait non seulement un moyen d’attaque facilement accessible, mais aussi un moyen d’attaque très efficace», écrivent-ils.

La fin de homme face à l’IA ?

La fin de homme face à l’IA ?

Le développement de l’IA représente une menace de taille pour l’espèce humaine, analyse l’auteur de La Guerre des intelligences (voir résumé) à l’heure de ChatGPT *. Il est urgent, explique-t-il dans le Figaro, de réfléchir à ses conséquences politiques et aux moyens de cohabiter avec elle.

L’arrivée de ChatGPT a relancé le débat sur l’intelligence artificielle générale : de quoi s’agit-il ?

Laurent ALEXANDRE. – Il existe deux types d’IA qui préoccupent les chercheurs. D’abord, l’intelligence artificielle générale, qui serait légèrement supérieure à l’homme dans tous les domaines cognitifs. Ensuite, la super-intelligence artificielle, l’ASI en anglais, qui pourrait être des milliers, voire des millions, de fois supérieure à la totalité des cerveaux sur ­terre.

Faut-il croire à son émergence ou s’agit-il en réalité d’un fantasme ?

Sam Altman, le patron de ChatGPT, a écrit le mois dernier qu’il est convaincu que la super-intelligence artificielle sera là avant 2030. Il n’y a pas de certitude que nous y parviendrons, mais je constate qu’il y a de plus en plus de chercheurs, une grande majorité, même, qui sont aujourd’hui convaincus que l’IA nous dépassera dans tous les domaines.

La Guerre des intelligences -résumé ( de likedin)

Les inégalités de QI sont majoritairement génétiques (de naissance) et globalement héréditaires même si le mode de vie (malbouffe, sous-stimulation…) accentue cet état de fait. De fait, les inégalités de QI se creusent.

Après une période d’augmentation générale du QI (due à une meilleure hygiène de vie), l’effet Flynn s’est tari en occident, entrainant une baisse du QI moyen, car les personnes au meilleur QI font moins d’enfants et les personnes de faibles QI en font plus et les stimulent moins.

En Asie, l’effet Flynn bat son plein : le QI connaît une forte augmentation pour des raisons environnementales (fin de la malnutrition, éducation…).

L’Afrique devrait connaître à son tour une explosion du QI dans les prochaines décennies.

L’éducation est clef : on en est encore à l’âge de pierre. Il n’y a pas d’évaluation des méthodes (cf les débats stériles entre méthode globale et syllabique alors qu’aucune étude sérieuse n’a jamais été menée sur le sujet), process de transmission inchangé depuis des siècles/millénaires (cours magistral de groupe). Grâce aux neurosciences on va vraiment comprendre comment le cerveau apprend / les cerveaux apprennent.

On pourra alors vraiment faire de la pédagogie efficace et individualisée.

Après le QI, le QCIA

Mais au-delà du QI, le vrai enjeu va être le QCIA (quotient de compatibilité avec l’IA) car l’IA arrive à grands pas.

Aujourd’hui, on n’en est qu’aux balbutiements (l’IA est encore faible, il n’existe pas encore d’IA « forte », consciente d’elle-même) mais les développements sont extrêmement rapides.

Les nouvelles IA sont auto-apprenantes (deep-learning) et deviennent des boîtes noires. On ne sait pas vraiment comment elles fonctionnent car elles évoluent d’elles-mêmes en apprenant. Cela les différentie fondamentalement des algorithmes qui sont pré-programmés par quelqu’un, donc auditables.

Les IA apprennent grâce à la masse des données (textes, vidéos, photos, données de navigation…) dont on les nourrit.

Ce n’est pas un hasard si Google et FB sont des créateurs d’IA : avec les datas dont ils disposent, ils peuvent nourrir les IA.

L’Europe en protégeant les données utilisateurs fait prendre un retard à l’IA européenne vs la Chine ou les US.

Les IA vont rapidement remplacer le travail intellectuel (avocat, médecin…) car la masse de données qu’elles possèdent est phénoménale (ex : des millions de clichés radiologiques, des milliards de datas de santé…) et cela permet de réaliser des corrélations impossibles à un humain.

Paradoxalement, les métiers manuels diversifiés seront les derniers remplacés car un robot multitâche coûte plus cher qu’un programme informatique (le radiologue sera remplacé avant l’aide-soignante).

La fin du travail est annoncée par beaucoup, mais cette peur méconnait l’inventivité humaine : de nouveaux métiers vont apparaître autour de l’IA (comme les datascientistes, les développeurs web ou les spécialistes du retargeting n’existaient pas il y a 20 ans). Par nature, on ne peut pas prévoir ce que seront ces jobs, mais ils existeront comme après chaque révolution industrielle. Ce qu’on peut imaginer et que ces futurs emplois seront étroitement liés à l’IA, il est donc essentiel que notre intelligence soit compatible, d’où l’importance du QCIA.

L’IA est pour le court terme une formidable opportunité (elle va résoudre de nombreux problèmes bien mieux que les humains, surtout dans la santé). Le problème est qu’on ne sait pas comment elle va évoluer. Une IA forte (ie avec conscience) peut devenir dangereuse pour l’homme et comme elle sera dupliquée / répartie (via Internet) dans tous les objets connectés, elle sera difficile à tuer en cas de besoin.

Comment l’IA avec conscience se comportera-t-elle avec nous ? Cela est très difficile à prévoir.

Quel avenir pour l’humanité ?

Assez vite, l’homme va être dépassé par l’IA, alors comment rester dans la course et ne pas être asservi ?

- l’eugénisme : les humains mieux sélectionnés in-vitro seront plus intelligents et en meilleure santé (cf Bienvenue à Gattaca). Cela pose évidemment de nombreux problèmes éthiques mais les réponses à ces problèmes seront différentes selon les pays et la Chine et les US sont plus permissifs. Cependant, cette évolution sera lente alors que l’IA évolue en permanence : les humains risquent de rester à la traîne de l’IA. Enfin, maîtriser la conception des enfants doit interroger sur la capacité de survie de l’espèce humaine en tant que telle. Le hasard de la génétique (mutations non prévues) est en effet le moyen trouvé par la vie pour s’adapter, sur le long terme, à un environnement lui-même en évolution permanente (principe de l’évolution).

- l’hybridation : cette solution prônée par Elon Musk consiste à se mettre des implants cérébraux qui vont booster notre cerveau. Si l’idée est très enthousiasmante (maîtriser la connaissance sans effort ni délai), le vrai risque est la manipulation : qui produit les contenus ? seront-ils orientés ? quid du brain washing ? que se passe-t-il si nous sommes hackés ? Ces implants seraient-ils le cheval de Troie d’une véritable dictature de la pensée encore plus aboutie que 1984 ? En effet, si on peut injecter des informations directement dans notre cerveau, il sera possible également de lire nos pensées. Que reste-t-il de nous si nous n’avons même plus de refuge de notre cerveau pour penser en toute liberté ? Quel usage un gouvernement pourrait-il faire de ces informations, qui ne soit pas totalitaire ?

- projeter nos esprits dans des corps robots : la victoire ultime sur la mort. Sans corps, nous sommes immortels. Mais que restera-t-il de nous quand nous serons fusionnés avec l’IA et que la mortalité n’existera plus alors qu’elle est l’essence même de l’homme et vraisemblablement l’origine de son désir créatif ?

Le problème de toutes ces évolutions c’est qu’elles ont des effets bénéfiques individuels indéniables à court terme (moins de maladies, meilleur QI…), mais à la fois vont créer des inégalités temporaires (seuls les riches pourront au début s’offrir cela) et impliquent des changements pour l’humanité toute entière.

Dès lors que les effets bénéfiques sont importants, il sera impossible d’enrayer le développement des IA dans tous les aspects de nos vies. En effet, quel parent pourrait refuser de faire soigner son enfant par une IA plutôt qu’un médecin, si ses chances de survie sont décuplées ? Quel homme politique pourrait assumer de faire prendre à son pays un retard si énorme en terme de santé publique ?

Mais si les humains sont connectés à des implants, l’IA sera certainement dedans. Serons-nous encore des humains ? Comment ne pas être asservis par l’IA si celle-ci est déjà dans nos cerveaux ?

Les technobéats ne réfléchissent pas à plusieurs générations, trop enthousiastes de voir où leur création les mènera. Quant aux politiques ils sont complètement largués et ne comprennent rien à la technologie. De toute manière, ils ne savent pas penser à plus de deux ans.

Au final, l’IA se développe sans maîtrise, car personne ne pense ni ne parle pour l’humanité.

(A ce sujet, je recommande l’essai d’Edmund Burke « Réflexion sur la Révolution de France » qui explique sa pensée, le « conservatisme », et sa vision de la société comme un contrat entre les vivants, mais également entre les vivants, les morts et les futures générations. Il y a certainement des idées pour nourrir le débat.)

Dans tous les cas, la bataille sera gagnée par les tenants de l’hybridation (transhumanistes) car ceux qui s’hybrideront (et ils le feront même si la réglementation le leur interdit) deviendront super-intelligents et deviendront donc de-facto les leaders. Ceux qui refuseront l’hybridation seront à la traîne.

Face à une IA galopante et à l’hybridation, le rôle de l’école va changer. Notre valeur sera dans ce qui fait notre humanité puisque la connaissance sera injectable à la demande sans effort. Donc il faudra former davantage à l’esprit critique, la réflexion, la créativité. L’homme a cet avantage sur la machine de faire des erreurs et c’est des erreurs que viennent des découvertes.

« L’IA : pour renforcer les géants du numérique, mais aussi les affaiblir »

« L’IA : pour renforcer les géants du numérique, mais aussi les affaiblir »
CHRONIQUE par Alexandre Piquard dans Le Monde

L’intelligence artificielle en open source serait susceptible de rebattre les cartes du secteur dans un sens moins favorable aux Big Tech, explique Alexandre Piquard, journaliste au « Monde », dans sa chronique.L’intelligence artificielle (IA) va-t-elle rebattre les cartes du numérique ou asseoir le pouvoir des grands acteurs du secteur ? Le succès des logiciels capables de créer, à partir d’une simple commande écrite, des textes – comme ChatGPT – ou des images – comme Midjourney – a d’abord semblé confirmer la seconde hypothèse. Si c’était possible, ces systèmes allaient être encore davantage dominés par les Big Tech, tels Google, Microsoft, Meta (Facebook) ou Amazon, que la recherche en ligne, les réseaux sociaux, les logiciels ou l’e-commerce…

Mais ces derniers mois, avec l’apparition de modèles d’IA puissants diffusés en open source, donc accessibles à tous, une thèse alternative s’est développée : l’IA pourrait affaiblir les géants du numérique.

Pour étayer l’idée d’une consolidation du pouvoir des acteurs dominants, les éléments ne manquent pas : OpenAI, la start-up qui a créé ChatGPT, est depuis 2019 solidement arrimée, par un partenariat, à Microsoft, qui serait prêt à y investir 10 milliards de dollars (9,4 milliards d’euros). Google a, lui, misé 300 millions de dollars pour prendre une participation dans la start-up Anthropic. Et, grâce à leurs filiales d’hébergement et de services dans le cloud, Google a noué un partenariat avec Cohere ou C3 AI et Amazon avec Stability AI. Les géants du numérique apportent ici de la capacité de calcul pour entraîner des modèles gigantesques (540 milliards de paramètres pour PaLM, de Google). Il s’agit d’une ressource cruciale et coûteuse, car les puces dernier cri valent jusqu’à 40 000 dollars pièce.

Cette mainmise suscite déjà des critiques, notamment d’Elon Musk, pour qui créer OpenAI était une façon de pas laisser l’IA aux mains de Google. « La domination des Big Tech sur l’économie numérique sera scellée si les régulateurs n’interviennent pas », a mis en garde Sarah Myers West, de l’ONG AI Now Institute, dans le Financial Times. La FTC, l’autorité antitrust américaine, a dit être « vigilante », car « l’IA risque de conforter encore davantage la domination des grands acteurs du numérique ».

Certains craignent de voir les petites entreprises et la recherche publique dépendre d’une poignée de grands modèles d’IA, comme elles dépendent des grandes plates-formes, réseaux sociaux, environnements mobiles…

Derrière l’IA, les travailleurs exploités du Sud

Derrière l’IA, les travailleurs exploités du Sud

par
Clément Le Ludec
Sociologie du numérique, Télécom Paris – Institut Mines-Télécom

Maxime Cornet
Doctorant en sociologie de l’IA, Télécom Paris – Institut Mines-Télécom dans the Conversation

Il n’y a pas que des robots derrière l’intelligence artificielle (IA) : en bout de chaîne, on trouve souvent des travailleurs des pays du sud. Récemment une enquête du Time révélait que des travailleurs kényans payés moins de trois euros de l’heure étaient chargés de s’assurer que les données utilisées pour entraîner ChatGPT ne comportaient pas de contenu à caractère discriminatoire. Les modèles d’IA ont en effet besoin d’être entraînés, en mobilisant une masse de données extrêmement importante, pour leur apprendre à reconnaître leur environnement et à interagir avec celui-ci. Ces données doivent être collectées, triées, vérifiées et mises en forme. Ces tâches chronophages et peu valorisées sont généralement externalisées par les entreprises technologiques à une foule de travailleurs précaires, généralement situés dans les pays des suds.

Ce travail de la donnée prend plusieurs formes, en fonction des cas d’usage de l’algorithme final, mais il peut s’agir par exemple d’entourer les personnes présentes sur les images capturées par une caméra de vidéosurveillance, pour apprendre à l’algorithme à reconnaître un humain. Ou encore corriger manuellement les erreurs produites par un modèle de traitement automatique de factures.

Nous proposons, à travers une enquête menée entre Paris et Antananarivo, capitale de Madagascar, de nous pencher sur l’identité de ces travailleurs de la donnée, leurs rôles et leurs conditions de travail, et de proposer des pistes pour enrichir les discussions autour de la régulation des systèmes d’IA.

Nos recherches appuient l’hypothèse que le développement de l’intelligence artificielle ne signifie pas la fin de travail due à l’automation, comme certains auteurs l’avancent, mais plutôt son déplacement dans les pays en voie de développement.

Notre étude montre aussi la réalité de « l’IA à la française » : d’un côté, les entreprises technologiques françaises s’appuient sur les services des GAFAM pour accéder à des services d’hébergement de données et de puissance de calcul ; d’un autre côté les activités liées aux données sont réalisées par des travailleurs situés dans les ex-colonies françaises, notamment Madagascar, confirmant alors des logiques déjà anciennes en matière de chaînes d’externalisation. La littérature compare d’ailleurs ce type d’industrie avec le secteur textile et minier.

Un constat initial a guidé notre travail d’enquête : les conditions de production de l’IA restent mal connues. En nous appuyant sur des recherches antérieures sur le « travail numérique » (digital labour), nous avons cherché à comprendre où et comment sont façonnés les algorithmes et les jeux de données nécessaires à leurs entraînements ?

Intégrés au sein du groupe de recherche Digital Platform Labor, notre travail consiste à analyser les relations d’externalisation entre entreprises d’intelligence artificielle françaises et leurs sous-traitants basés dans les pays d’Afrique francophone et à dévoiler les conditions de travail de ces « travailleurs de la donnée » malgaches, devenus essentiels au fonctionnement des systèmes intelligents.

Notre enquête a débuté à Paris en mars 2021. Dans un premier temps, nous avons cherché à comprendre le regard que les entreprises françaises productrices d’IA entretenaient sur ces activités liées au travail de la donnée, et quels étaient les processus mis en œuvre pour assurer la production de jeux de données de qualité suffisante pour entraîner les modèles.

Nous nous sommes ainsi entretenus avec 30 fondateurs et employés opérant dans 22 entreprises parisiennes du secteur. Un résultat a rapidement émergé de ce premier travail de terrain : le travail des données est dans sa majorité externalisé auprès de prestataires situés à Madagascar.

Les raisons de cette concentration des flux d’externalisation vers Madagascar sont multiples et complexes. On peut toutefois mettre en avant le faible coût du travail qualifié, la présence historique du secteur des services aux entreprises sur l’île, et le nombre élevé d’organisations proposant ces services.

Lors d’une seconde partie de l’enquête d’abord menée à distance, puis sur place à Antananarivo, nous nous sommes entretenus avec 147 travailleurs, managers, et dirigeants de 10 entreprises malgaches. Nous avons dans le même temps diffusé un questionnaire auprès de 296 travailleurs des données situés à Madagascar.

Les emplois du numérique : solution précaire pour jeunes urbains éduqués
Dans un premier temps, le terrain révèle que ces travailleurs des données sont intégrés à un secteur plus large de production de service aux entreprises, allant des centres d’appels à la modération de contenu web en passant par les services de rédaction pour l’optimisation de la visibilité des sites sur les moteurs de recherche.

Les données du questionnaire révèlent que ce secteur emploie majoritairement des hommes (68 %), jeunes (87 % ont moins de 34 ans), urbains et éduqués (75 % ont effectué un passage dans l’enseignement supérieur).

Quand ils évoluent au sein de l’économie formelle, ils occupent généralement un poste en CDI. La moindre protection offerte par le droit du travail malgache comparée au droit du travail français, la méconnaissance des textes par les travailleurs, et la faiblesse des corps intermédiaires (syndicats, collectifs) et de la représentation en entreprise accentuent néanmoins la précarité de leur position. Ils gagnent en majorité entre 96 et 126 euros par mois, avec des écarts de salaires significatifs, jusqu’à 8 à 10 fois plus élevés pour les postes de supervision d’équipe, également occupés par des travailleurs malgaches situés sur place.

Ces travailleurs sont situés à l’extrémité d’une longue chaîne d’externalisation, ce qui explique en partie la faiblesse des salaires de ces travailleurs qualifiés, même au regard du contexte malgache.

La production de l’IA implique en effet trois types d’acteurs : les services d’hébergement de données et de puissance de calcul proposés par les GAFAM, les entreprises françaises qui vendent des modèles d’IA et les entreprises qui proposent des services d’annotations de données depuis Madagascar, chaque intermédiaire captant une partie de la valeur produite.

Ces dernières sont de plus généralement très dépendantes de leurs clients français, qui gèrent cette force de travail externalisée de manière quasi directe, avec des postes de management intermédiaire dédiés au sein des start-up parisiennes.

L’occupation de ces postes de direction par des étrangers, soit employés par les entreprises clientes en France, soit par des expatriés sur place, représente un frein important aux possibilités d’évolution de carrière offertes à ces travailleurs, qui restent bloqués dans les échelons inférieurs de la chaîne de valeur.

Des entreprises qui profitent des liens postcoloniaux
Cette industrie profite d’un régime spécifique, les « zones franches », institué en 1989 pour le secteur textile. Dès le début des années 1990, des entreprises françaises s’installent à Madagascar, notamment pour des tâches de numérisation liées au secteur de l’édition. Ces zones, présentes dans de nombreux pays en voie de développement, facilitent l’installation d’investisseurs en prévoyant des exemptions d’impôts et de très faibles taux d’imposition.

Aujourd’hui, sur les 48 entreprises proposant des services numériques dans des zones franches, seulement 9 sont tenues par des Malgaches, contre 26 par des Français. En plus de ces entreprises formelles, le secteur s’est développé autour d’un mécanisme de « sous-traitance en cascade », avec, à la fin de la chaîne des entreprises et entrepreneurs individuels informels, moins bien traités que dans les entreprises formelles, et mobilisés en cas de manque de main-d’œuvre par les entreprises du secteur.

En plus du coût du travail, l’industrie de l’externalisation profite de travailleurs bien formés : la plupart sont allés à l’université et parlent couramment le français, appris à l’école, par Internet et à travers le réseau des Alliances françaises. Cette institution d’apprentissage du français a été initialement créé en 1883 afin de renforcer la colonisation à travers l’extension de l’utilisation de la langue du colonisateur par les populations colonisées.

Ce schéma rappelle ce que le chercheur Jan Padios désigne comme le « colonial recall ». Les anciens pays colonisés disposent de compétences linguistiques et d’une proximité culturelle avec les pays donneurs d’ordres dont bénéficient les entreprises de services.

Rendre visibles les travailleurs de l’intelligence artificielle
Derrière l’explosion récente des projets d’IA commercialisés dans les pays du nord, on retrouve un nombre croissant de travailleurs de la donnée. Alors que la récente controverse autour des « caméras intelligentes », prévues par le projet de loi relatif aux Jeux olympiques de Paris, s’est principalement focalisée sur les risques matière de surveillance généralisée, il nous semble nécessaire de mieux prendre en compte le travail humain indispensable à l’entraînement des modèles, tant il soulève de nouvelles questions relatives aux conditions de travail et au respect de la vie privée.

Rendre visible l’implication de ces travailleurs c’est questionner des chaînes de production mondialisées, bien connues dans l’industrie manufacturière, mais qui existent aussi dans le secteur du numérique. Ces travailleurs étant nécessaires au fonctionnement de nos infrastructures numériques, ils sont les rouages invisibles de nos vies numériques.

C’est aussi rendre visible les conséquences de leur travail sur les modèles. Une partie des biais algorithmiques résident en effet dans le travail des données, pourtant encore largement invisibilisé par les entreprises. Une IA réellement éthique doit donc passer par une éthique du travail de l’IA.

L’IA et transformation des métiers

L’IA et transformation des métiers

Avec l’IA générative devrait être au cœur de tout plan d’entreprise concernant cette technologie d’avenir. Par Xavier Dalloz, consultant spécialisé dans les nouvelles technologies.
Xavier Dalloz dans la Tribune


Un article de plus pour éclairer l’influence de l’intelligence artificielle sur la transformation des métiers. Un papier intéressant bien documenté mais forcément encore un peu court pour illustrer les exemples de changement à venir puisque l’IA n’en est qu’à ses balbutiements

Ollie Forsyth résume très bien l’enjeu de l’IA générative en rappelant que l’intelligence artificielle (IA) est un terme général qui fait référence à toute technologie capable d’un comportement intelligent. Cela peut inclure un large éventail de technologies, allant de simples algorithmes capables de trier des données à des systèmes plus avancés capables d’imiter des processus de pensée de type humain.
Dans ce contexte, l’IA Generative (Gen-AI) est un type spécifique d’IA qui se concentre sur la génération de nouveaux contenus, tels que du texte, des images ou de la musique en apprenant à partir d’un grand ensemble de données d’exemples et en utilisant ces connaissances pour générer de nouvelles données similaires aux exemples de l’ensemble de données de formation. Cela se fait à l’aide d’un type d’algorithme d’apprentissage automatique appelé modèle génératif.

Ollie Forsyth classe les types de modèles génératifs de trois façons :

les réseaux antagonistes génératifs (GAN),
les auto-encodeurs variationnels (VAE)
les modèles autorégressifs.
La Gen IA a le potentiel de résoudre de nombreux problèmes importants et va créer des opportunités de business dans de très nombreux domaines, notamment sur les industries créatives. Par exemple :

La Gen-AI peut être utilisée pour créer de nouveaux contenus, tels que de la musique ou des images, qui peuvent être utilisés à diverses fins, telles que fournir aux créatifs plus de flexibilité et d’imagination.
La Gen-AI peut être utilisée pour améliorer les algorithmes d’apprentissage automatique en générant de nouvelles données d’apprentissage.
La Gen-AI va améliorer le travail des créatifs en permettant de créer un contenu plus personnalisé et unique, ou de générer de nouvelles idées et concepts qui n’auraient peut-être pas été possibles sans l’utilisation de l’IA.
Gen-AI est un domaine de recherche et de développement. Par exemple :

Gen-AI peut créer de nouveaux contenus.
o L’un des principaux avantages de Gen-AI est sa capacité à générer de nouveaux contenus, tels que du texte, des images ou de la musique.

o Cela peut être utilisé pour créer de nouveaux arts, de la musique et d’autres formes d’expression créative, et pour générer des données pour la formation de modèles d’apprentissage automatique.

Gen-AI peut améliorer l’efficacité et la productivité.
o En automatisant la génération de contenu, Gen-AI peut aider à gagner du temps et à réduire le besoin de travail manuel.

closevolume_off
o Cela peut améliorer l’efficacité et la productivité dans une variété de domaines, du journalisme et de la création de contenu à l’annotation et à l’analyse des données.

Gen-AI peut améliorer la qualité du contenu généré.
o Avec les progrès de l’apprentissage automatique et du traitement du langage naturel, Gen-AI devient de plus en plus sophistiqué et capable de générer un contenu de haute qualité difficile à distinguer pour les humains du contenu réel.

Gen-AI peut identifier les tendances émergentes et de repérer les opportunités avant qu’elles ne deviennent courantes. Cela pourrait donner par exemple aux commerçants un avantage significatif sur leurs concurrents et entraîner une augmentation des bénéfices.
Les modèles génératifs sont utilisés dans une variété d’applications, y compris la génération d’images, le traitement du langage naturel et la génération de musique. Ils sont particulièrement utiles pour les tâches où il est difficile ou coûteux de générer manuellement de nouvelles données, comme dans le cas de la création de nouvelles conceptions de produits ou de la génération d’un discours réaliste.

ChatGPT (Generative Pretrained Transformer 3) est le meilleur exemple de Gn-AI
Contrairement à un simple assistant vocal comme Siri, ChatGPT est construit sur ce qu’on appelle un LLM (Large Language Model). Ces réseaux de neurones sont formés sur d’énormes quantités d’informations provenant d’Internet pour un apprentissage en profondeur.

Le modèle derrière ChatGPT a été formé sur toutes sortes de contenus Web, y compris les sites Web, les livres, les médias sociaux, les articles de presse, etc., tous affinés dans le modèle linguistique à la fois par l’apprentissage supervisé et le RLHF (Reinforcement Learning From Human Feedback).

GPT-3 et GPT-4 sont des modèles d’IA de traitement du langage de pointe développés par OpenAI. Ils sont capables de générer du texte de type humain et disposent d’un large éventail d’applications, notamment la traduction linguistique, la modélisation linguistique et la génération de texte pour des applications telles que les chatbots. GPT-3 est l’un des modèles d’IA de traitement du langage les plus puissants avec 175 milliards de paramètres.

En plus d’utiliser GPT-4 pour construire des phrases et de la prose en fonction du texte qu’il a étudié, Auto-GPT est capable de naviguer sur Internet et d’inclure les informations qu’il y trouve dans ses calculs et sa sortie. Auto-GPT peut aussi être utilisé pour s’améliorer. Il peut créer, évaluer, réviser et tester des mises à jour de son propre code qui peuvent potentiellement le rendre plus performant et efficace.

Plus concrètement, voici les principaux exemples d’applications de ChatGPT :

Itinéraires de voyage :
o ChatGPT peut proposer ses recommandations de voyage qui est comparables à celles produites par un conseiller avec des années d’expérience. ChatGPT fournit des réponses convaincantes à des questions telles que « Quel est le meilleur hôtel de luxe à Paris ? ». Mais il manque la nuance qui vient du lien personnel qu’un conseiller entretient avec son client.

Rédaction d’articles :
o ChatGPT compose la structure de l’article et génère des idées et en crée les grandes lignes. ChatGPT est capable d’apprendre en mobilisant une infinité de sources du web : forums de discussion, sites d’information, livres, réseaux sociaux, encyclopédies, etc.

o ChatGPT permet de créer du contenu plus rapidement et plus efficacement et de générer des brouillons d’articles ou d’histoires. Cela peut faire gagner du temps et permettre aux créatifs de se concentrer sur les aspects les plus importants de leur travail.

Écriture de code :
o ChatGPT crée des applications sans une intervention humaine. ChatGPT peut également découvrir les erreurs dans le code qui ne fonctionne pas. Trouver ces erreurs peut être à la fois difficile et fastidieux pour les développeurs.

Gestion de projet :
o ChatGPT est capable de générer des plannings adaptés à la portée de projets de construction simples. Par exemple, des universitaires de l’Université de New York à Abu Dhabi ont fourni à l’IA un plan d’étage, une liste de tâches et un énoncé de portée. Ils ont découvert que, même s’il n’était pas parfait, ChatGPT était en mesure d’aider à la gestion et à la réalisation de projet.

Exemple d’applications de ChatGPT pour faire gagner du temps :.

Organisation à domicile
o ChatGPT peut recommander des solutions de rangement pour maximiser notre espace. Cela permettra d’économiser de l’argent en évitant les achats inutiles d’articles qui pourraient ne pas répondre à nos besoins.

Amélioration de l’habitat
o Avec ChatGPT, on pourra accéder à des guides étape par étape et à des tutoriels de bricolage pour divers projets de rénovation domiciliaire. Le modèle d’IA peut également aider à identifier les bons outils et matériaux pour son projet, en nous assurant d’avoir tout ce dont on a besoin avant de commencer.

Santé et bien-être
o ChatGPT peut proposer des séances d’entraînement adaptées à son style de vie et à ses préférences.

o Il peut également suggérer des habitudes de soins personnels et des pratiques de pleine conscience pour aider à réduire le stress, améliorer la concentration et améliorer son humeur générale.

Divertissement et loisirs
o ChatGPT peut proposer diverses formes de divertissement pour nous aider à à se détendre.

o ChatGPT peut suggérer de nouveaux passe-temps ou des projets créatifs qui correspondent à vos intérêts et offrir des conseils étape par étape pour nous aider à démarrer. En explorant de nouvelles activités et intérêts, on découvrira peut-être de nouvelles passions et perspectives qui pourront enrichir notre vie personnelle et professionnelle.

Planification de voyage
o ChatGPT peut nous aider à trouver des expériences de voyage virtuelles, à créer des itinéraires instantanés et à suggérer des visites ou des activités pour nous aider à satisfaire son envie de voyager tout en restant en sécurité chez soi .

o ChatGPT peut également nous aider à planifier un séjour, où on pourra explorer la région et profiter des attractions, restaurants et activités à proximité. Il peut suggérer des ressources liées aux voyages, telles que des blogs et des sites Web de voyage, pour nous aider à rester informé des restrictions de voyage, des mesures de sécurité et d’autres informations importantes.

Un autre exemple de ChatGPT est de permettre aux constructeurs automobiles de faciliter l’achat de voitures avec la fourniture d’un service client via des conversations de chatbot générées par l’IA. Fiat Chrysler, par exemple, utilise ChatGPT pour créer des publicités pour ses véhicules qui sont à la fois personnalisées et attrayantes. L’algorithme ChatGPT produit des publicités en analysant les données des campagnes précédentes, puis en les adaptant à des acheteurs spécifiques sans intervention humaine. Cela permet à Fiat de cibler différents types de clients avec des publicités plus détaillées tout en économisant du temps et de l’argent sur leur production.

Notons aussi que la réussite de toutes ces applications passe par la formulation sans ambiguïté de la question posée à ChatGPT. Les usagers de ChatGPT devront donc devenir des « problématiciens ». En paraphrasant Boileau : Ce que l’on énonce clairement, ChatGPT peut donner une réponse avec les mots…

Pour résumer, Google est le moteur de recherche de référence. ChatGPT sera probablement le futur moteur de trouvage.

Interdire l’IA à l’école ?

Interdire l’IA à l’école ?

par

Fabienne Serina-Karsky
Maître de conférences HDR en Sciences de l’éducation, Institut catholique de Paris (ICP)

Gabriel Maes
Ingénieur pédagogique et formateur, Institut catholique de Paris (ICP)

dans the conversation


L’émergence de l’intelligence artificielle (IA) dans le système éducatif est une arme à double tranchant. D’une part, l’IA peut être utilisée comme un outil efficace pour aider les élèves et les étudiants en leur fournissant du matériel d’apprentissage personnalisé et un retour instantané sur leurs travaux. D’autre part, si l’IA est utilisée sans précaution, elle peut avoir des effets néfastes sur leurs performances et leur préparation au marché du travail.

L’exemple récent de ChatGPT nous montre que certains établissements l’ont interdit de crainte que cet outil facilite la triche et entraîne une baisse des normes académiques, alors que d’autres l’ont accueilli dans leur salle de cours tant il leur semblait impossible de lutter contre ces technologies – et mener une guerre perdue d’avance. Les deux positions se défendent. Les établissements ayant bloqué l’accès à ces technologies ont bien conscience que, si le travail d’un apprenant est relégué à 100 % à la technologie, il n’y a plus ou peu d’apprentissages, qui plus est à une période clé du développement des adolescents.

Cependant, cette interdiction s’est avérée relativement inefficace, les étudiants la contournant aisément par l’utilisation des connexions 4G de leurs téléphones portables, donnant ainsi raison aux partisans de leur intégration. Comment, dès lors, peut-on accompagner les apprenants, mais aussi les enseignants au mieux aux usages des IA ?

La Commission européenne réfléchit depuis plusieurs années à l’intégration du numérique dans l’éducation, de l’élémentaire jusque dans l’enseignement supérieur. Afin de s’assurer que les enseignants et les étudiants bénéficient du potentiel de l’IA pour l’apprentissage, elle a publié les lignes directrices pour une utilisation éthique de l’IA et des données dans l’éducation et, le 30 septembre 2020, elle a ainsi approuvé le plan d’action pour l’éducation numérique 2021-2027. Ces lignes directrices ont pour but de fournir un soutien à tous les niveaux – qu’il s’agisse de l’enseignement ou des tâches administratives qui y sont associées – afin que chacun puisse bénéficier d’une expérience d’apprentissage optimale.

En Amérique du Nord, la Fédération nationale des enseignantes et enseignants du Québec nous donne un exemple de la manière de se saisir de la question.

En France, fin janvier 2022, le ministre de l’Éducation nationale Pap Ndiaye a présenté une stratégie du numérique pour l’éducation 2023-2027 dont le but est de renforcer les compétences numériques des élèves et d’accélérer l’usage des outils numériques pour la réussite des élèves. Les différents axes et mesures sont présentés dans un rapport de 41 pages qui développe notamment les points d’une offre numérique « raisonnée, pérenne et inclusive » au profit d’une communauté éducative et pour « permettre aux élèves de devenir des citoyens éclairés à l’ère du numérique ».

La réflexion engagée s’inscrit bien au-delà du cadre de l’école ou de l’université et demande la mobilisation de tous les éducateurs, parents, enseignants, pour accompagner les nouvelles générations dans les usages de ces technologies qui viennent bouleverser les usages pédagogiques notamment dans le cadre de l’école et de l’université.

La technologie ChatGPT, qui fait la une des journaux depuis son lancement le 30 novembre 2022, est désormais connue de tous. Nombreux sont les collégiens, lycéens et étudiants qui ont tenté de déléguer leurs devoirs à l’IA. Et nombreux sont les enseignants ayant fait part de leur impuissance, tant il est difficile de détecter si une rédaction est rédigée par un élève ou par l’IA, et ce d’autant plus qu’il est possible de demander à ChatGPT d’adapter la rédaction en fonction du statut, qu’il s’agisse d’un collégien ou d’un étudiant préparant un mémoire par exemple.

OpenAI, la société ayant conçu ChatGPT, et d’autres, ont promis de produire des scripts permettant de différencier la rédaction humaine et celle rédigée par l’IA. Aujourd’hui, cela fonctionne assez bien sur des textes en anglais. Cependant, sur la dizaine de tests que nous avons effectués sur des textes français avec un logiciel de détection de plagiat, les résultats montrent que, sur les textes rédigés par une IA, dans 60 % des cas, le logiciel détecte bien l’IA et donc dans 40 % des cas, il pense que c’est un être humain.

Par ailleurs, nous avons pu également constater que, pour les textes générés par l’IA, il suffisait de remplacer deux ou trois mots dans chaque phrase pour que le logiciel de contrôle pense que la rédaction provient d’un être humain. Les seules alternatives qui fonctionnent à ce jour et qui s’imposent aux enseignants sont les évaluations écrites sur table, sans accès Internet, et les évaluations à l’oral. Cependant, les universités n’ont pas tous les moyens techniques et/ou logistiques d’organiser tous les examens en présentiel. Et l’évolution des IA est exponentielle.

Ces transformations questionnent l’évaluation des compétences et pourraient conduire à ébranler la crédibilité des diplômes. On peut alors penser que les recruteurs ne se contenteront plus des reconnaissances universitaires et ajouteront des tests diagnostiques pour vérifier les aptitudes revendiquées par le CV du candidat. Cela inciterait les étudiants à se concentrer sur l’acquisition de compétences et à cesser de se focaliser sur les notes. Le développement des IA nous inciterait-il à envisager autrement l’école ?

Le psychologue suisse Édouard Claparède, dès le début du XXe siècle, parle d’enclencher une révolution copernicienne pour reconnaitre à l’enfant sa capacité à être acteur de sa formation. L’éducateur ne serait plus alors un « enseigneur » mais un « renseigneur », pour reprendre les mots de Roger Cousinet, inspecteur français participant, aux côtés notamment de la célèbre Maria Montessori, à ce mouvement international de l’Éducation nouvelle qui se fédère en 1921 avec pour objectif de transformer l’éducation.

L’innovation pédagogique s’invite alors à l’école par différents outils et méthodes non plus basés sur un enseignement magistral et identique pour tous, mais sur un apprentissage basé sur les capacités propres à chaque élève. C’est l’école inclusive avant l’heure. En partant de ce qui fait sens pour l’enfant ou le jeune, l’enseignant lui apporte les éléments dont il a besoin pour construire son projet, et pense l’évaluation autrement.

Or, pour faire face aux risques des nouvelles technologies et à l’avalanche d’informations désormais à la portée de tous, repenser le rôle de l’enseignant semble être l’un des facteurs clés. À cela s’ajoute le défi de l’école de demain d’intégrer les nouveaux savoirs nécessaires pour l’éducation du futur, parmi lesquels le philosophe Edgar Morin identifie entre autres la connaissance des connaissances, l’incertitude, l’erreur, comme autant d’éléments clés.

Face à la masse de connaissances en accès libre et avec l’IA qui permet désormais de les utiliser à plus ou moins bon escient, l’éducation à la recherche d’information et à leur utilisation à bon escient est l’occasion de sensibiliser les apprenants au sens que chacun peut tirer du fait d’apprendre. En conclusion, il apparait urgent de développer l’esprit critique et de s’interroger sur la façon dont l’école peut se saisir de ces nouveaux défis pour poursuivre cette révolution copernicienne en s’appuyant sur les nouveaux outils qui ne manqueront pas de voir le jour.

Microsoft va aussi intégrer l’IA dans le moteur de recherche et le navigateur

Microsoft va aussi intégrer l’IA dans le moteur de recherche et le navigateur

Réponse directe à Google, Microsoft veut aussi intégrer l’intelligence artificielle dans le moteur de recherche.

Microsoft a annoncé mardi qu’il procédait à une refonte de son moteur de recherche en ligne Bing et de son navigateur internet Edge, pour y inclure l’intelligence artificielle (IA), signalant l’une de ses démarches majeures destinées à innover en matière technologique et dans la recherche d’informations.

Le géant informatique, qui investit des milliards de dollars dans l’IA, entre ainsi en concurrence frontale avec Google, propriété d’Alphabet.

Microsoft s’est associé à la startup OpenAI avec l’objectif de devancer ses concurrents et d’engranger d’importantes recettes en proposant de nouveaux outils novateurs pour accélérer notamment la création de contenus et les tâches automatisées.

La sobriété énergétique passe par des investissements et l’IA

La sobriété énergétique passe par des investissements et l’IA

Il  faudra  d’importants investissements et recourir aux outils de pilotage basés sur l’intelligence artificielle pour que cette sobriété soit réellement efficiente estimenet dans La Tribune José Iván García, PDG de Substrate AI, et Christopher Dembik, économiste et membre du conseil d’administration de Substrate AI.

 

Quelles sont les dépenses les plus énergivores pour un ménage et pour une entreprise ? En haut de la liste, on retrouve en général le triptyque chauffage, ventilation et climatisation (ou CVC, dans le jargon).

Prenons le cas des salles de cinéma. La France en compte environ plus de 2.000 réparties sur tout le territoire. Selon un rapport du Centre national du cinéma et de l’image animée rendu public le 8 juin dernier, le chauffage, la ventilation et la climatisation comptent pour 69 % des dépenses énergétiques. C’est énorme. L’ampleur est tout aussi importante dans de nombreux autres secteurs d’activité. Au moment où les prix énergétiques ne cessent de grimper (la semaine dernière, le prix de l’électricité en France a atteint un niveau record à 495 euros le MWh pour une livraison dans un an), beaucoup d’entreprises sont dans l’urgence de réduire leur facture énergétique.

S’ajoutent à cela les impératifs de la transition énergétique. Plusieurs décrets ces dernières années incitent les entreprises à adopter une trajectoire de réduction de la consommation énergétique. Par exemple, le décret « tertiaire » de 2019 oblige les bâtiments à usage tertiaire et dont la surface d’exploitation est supérieure ou égale à 1.000 m2 à atteindre 40 % d’économies d’énergie d’ici 2030. C’est demain. Une grande partie du parc français de salles de cinéma est concernée. Mais d’autres activités aussi.

Comment faire des économies d’énergie ? La sobriété énergétique est la réponse immédiate. Vous allez entendre cette expression quasiment quotidiennement dans les médias dans les mois à venir. Cela consiste à consommer moins, consommer autrement, comme l’indique en toutes lettres le plan sobriété énergétique du gouvernement présenté le 8 juillet dernier. Concrètement, cela implique trois types d’actions :

1° Travailler sur le regroupement des besoins. Il s’agit, par exemple, de travailler avec les municipalités et les associations pour qu’elles aient des créneaux horaires qui soient regroupés sur des périodes plus restreintes afin de ne pas distiller le chauffage ou encore travailler avec les entreprises du tertiaire afin que le télétravail se massifie et ainsi réduire les températures de consignes ces jours-là (c’est ce que prévoit le plan d’efficience énergétique espagnol présenté en mai dernier pour les administrations publiques)

2° Les écogestes. Les possibilités sont presque infinies : baisser d’un degré la température dans les bâtiments, réduire les horaires d’ouverture des piscines municipales, ne pas recharger son ordinateur portable pendant les heures de pointe sur le réseau électrique mais la nuit (les performances des nouvelles puces M1 et M2 d’Apple sont extraordinaires en termes de consommation), ne plus porter de cravate comme le préconise le Premier ministre espagnol, Pedro Sanchez, ou encore demander à son fournisseur d’énergie un double tarif avec heure pleine/heure creuse afin de consommer intelligemment. Il faudra parfois mettre en concurrence les fournisseurs pour y parvenir. Tout cela suppose, au préalable, une campagne de sensibilisation du gouvernement à destination du grand public.

3° Prévoir des équipements et/ou des travaux afin d’économiser l’énergie. Plusieurs options sont possibles : installer des capteurs et objets connectés qui permettent de réguler l’énergie des sites en prenant en compte les périodes où il n’y a personne ou encore opter pour le relamping qui consiste à remplacer l’éclairage ancien par des luminaires LED. Simple mais efficace.

Les deux premiers types d’action n’ont un effet positif réel sur la consommation énergétique qu’à condition qu’il y ait une prise de conscience collective. C’est incertain. En revanche, certaines actions peuvent entraîner des conséquences positives immédiates et impressionnantes, comme le relamping qui peut diminuer la consommation électrique parfois jusqu’à 80 % ! Ce sont des actions rapides et impactantes. Elles peuvent être mises en œuvre dès aujourd’hui. Mais il faut aussi prévoir de s’inscrire dans le temps long, afin de baisser encore plus et durablement la consommation.

L’intelligence artificielle (IA) est une des solutions possibles. Cela peut induire d’opter pour des sources d’énergies renouvelables (comme la récupération de chaleur) couplées avec des outils de pilotage se basant sur l’IA. C’est ce que propose Dalkia, spécialiste français de la transition énergétique des industriels, avec Dalkia Analytics, par exemple. En Espagne, le groupe d’ingénierie SENER (un géant local) a révolutionné l’énergivore segment du CVC grâce à une technologie adossée à de l’IA. Sa technologie Respira s’intègre dans une couche supérieure du système SCADA (Système de contrôle et d’acquisitions de données en temps réel) en utilisant tous les systèmes d’infrastructure existant sans investissements importants (système Plug & Play). C’est un point important. Beaucoup d’entreprises sont disposées à fournir des efforts dans le domaine de la transition énergétique mais le contexte est peu favorable à des investissements immédiats coûteux. A ce système s’ajoute une brique technologique IA qui, par exemple, s’assure d’un niveau minimal de qualité de l’air ou détermine automatiquement et en temps réel le degré de confort des utilisateurs à l’intérieur des installations. Il n’y a plus besoin d’intervention humaine. Un système de maintenance prédictive permet également de détecter de manière précoce les pannes éventuelles. Les résultats sont impressionnants. Dans le métro de Barcelone (128 stations souterraines, 324 ventilateurs, plus d’un million d’usagers par jour), cela a permis de réduire de 25,1% la consommation énergétique moyenne, de diminuer la température de 1,3°C en moyenne et d’augmenter la satisfaction des usagers de plus de 10%.

Si la Russie décide de couper définitivement l’approvisionnement en gaz à l’Europe (ce qui n’est pas exclu), il faudra s’attendre à un rationnement de l’énergie cet hiver (voire dans certains cas à un blackout – c’est lorsque la puissance appelé par les consommateurs ne peut plus être produite par les usines d’électricité, incapables de fournir toute la puissance demandée). La sobriété énergétique est une priorité de politique publique. Les écogestes sont une solution de court terme. Il n’est pas certain pour autant que cela permette d’éviter un rationnement. En revanche, nous pouvons éviter dès à présent de mettre en péril les objectifs de réduction de la consommation dans le cadre de la transition énergétique. Cela suppose d’investir dès maintenant dans les nouvelles technologies qui vont permettre de réduire significativement et sur le très long terme la consommation. C’est en particulier l’IA.

Réglementation européenne de l’IA : un effet boomerang ?

Réglementation européenne de l’IA : un effet  boomerang ?

Les risques de la future réglementation européenne sur lit à part Par Renaud Pacull, co-fondateur d’EasyPicky dans l‘Opinion

tribune

Depuis plusieurs années, l’intelligence artificielle (IA) est source de multiples fantasmes technologiques dans l’imaginaire collectif. Pourtant, si les cas d’usage les plus médiatisés, évoqués plus haut, sont des domaines critiques qu’il convient de réguler pour en éviter les éventuelles dérives, ils sont loin d’être représentatifs de ce qu’est l’IA aujourd’hui, notamment en Europe. Il ne serait donc pas souhaitable de définir une législation globale pour l’ensemble des domaines d’application que recouvre cette technologie.

Or, jusqu’ici, la tradition culturelle européenne a souvent été de répondre à l’émergence de technologies de rupture par la mise en place d’un cadre législatif, un cadre dans lequel ces nouvelles pratiques peuvent s’épanouir. Tout l’enjeu réside donc ici dans le fait de réellement leur permettre de s’étendre, et non de les étouffer. Car une législation sur l’IA dans son ensemble, contraignant l’innovation et la recherche sur le secteur, pourrait être extrêmement dommageable et laisser ainsi la part belle à des nations hors de la communauté européenne.

« On n’a vraiment peur que de ce qu’on ne comprend pas », disait Maupassant. Et c’est bien là le nœud du problème : comment nos représentants pourraient-ils légiférer justement sur le si récent, vaste et complexe sujet de l’IA ? La réponse la plus courante consisterait à déléguer certaines tâches de contrôle à la sphère privée, plus à même de « labelliser » les IA éthiques et de rejeter les plus dangereuses. Outre le fait que ces sociétés de certifications, pour être justes, devront se baser sur des critères différents et objectifs pour chaque domaine d’application, que devient alors la propriété industrielle ?

Nos quelques pépites européennes ayant développé des IA propriétaires, et qui se sont lancées aussi parce qu’elles avaient à leur disposition des libertés de développements immenses, seraient alors contraintes de laisser entrer un tiers au cœur de leur réacteur sur lequel repose pourtant tout leur avantage concurrentiel. De quoi ralentir le développement d’un écosystème prometteur, ou prendre le risque de le voir s’exiler dans d’autres parties du monde.

… pour une présence forte de l’Europe sur la scène technologique de demain

Alors même que « l’IA forte » n’existe pas encore et n’existera probablement pas avant de nombreuses années, il serait sûrement préférable de laisser pour le moment l’écosystème européen vivre et se développer, gagner des parts de marché et assoir un leadership en la matière, plutôt que de légiférer dès à présent par principe de précaution. Prenons un parallèle plus que jamais dans l’air du temps : la manipulation génétique. Certaines avancées possibles sur ce secteur sont des dérives graves, d’autres sont source d’innovations absolument géniales. Or dans la course aux vaccins liée à la crise sanitaire actuelle, nos laboratoires français ont en partie préféré ne pas travailler sur la technologie de l’ARN messager, se faisant ainsi devancer, sous couvert de ce même principe de précaution.

Réguler trop largement l’IA aujourd’hui, et donc réduire le système de développement scientifique en Europe, c’est laisser une fois de plus le champ libre aux autres grandes puissances que sont les États-Unis et la Chine. Pire, c’est permettre à terme l’arrivée sur notre marché d’outils fondés sur des IA qui pourront être programmées sur la base de valeurs qui ne sont pas les nôtres, ce alors même que le consensus sur les valeurs éthiques de l’IA est bien l’objectif premier de la législation actuellement discutée. Une fois ces outils étrangers adoptés massivement, aucune régulation n’y fera rien. À titre d’exemple, un autre parallèle peut être fait ici : celui du RGPD. Arme de l’Europe contre les Gafa, il n’a fait que renforcer leur pouvoir en ralentissant le développement d’une concurrence saine et locale. Une concurrence qui n’a de fait plus accès à certaines données et n’a pas les moyens de contourner – à l’instar des géants du web – la législation.

Ainsi, plutôt que de chercher à légiférer rapidement et largement, nos autorités publiques auront raison d’entrer dans l’écosystème IA par d’autres portes : financements, initiatives en faveur de la formation, soutien à la recherche… c’est désormais à leur tour d’être innovantes dans leurs approches pour permettre à l’Europe de prendre la tête sur la scène internationale.

Renaud Pacull est co-fondateur d’EasyPicky.

l’IA pour détecter les maladies neuro végétatives

l’IA pour détecter les maladies neuro végétatives

La  medtech Pixyl développe un outil d’aide à la décision des radiologues en se basant sur de l’IA, qui vise à prédire également l’évolution des pathologies neurodégénératives, comme la sclérose en plaques.

 

Cet  outil d’aide à la décision intégrant de l’intelligence artificielle permet déjà de réduire les temps de lecture en neuro-imagerie de 50%, tout en proposant une analyse fine qui permettrait également de réduire la marge d’erreur.

« Nous pouvons détecter également sur des clichés des lésions de plus petite taille, et analyser plus finement des jeux d’images de scanner, qui demandent habituellement beaucoup de temps », indiquent les responsables.

Car en se connectant sur la base de données d’imagerie médicale des hôpitaux ou des cabinets de radiologie, l’outil de Pixyl ne nécessite pas de changer les appareils en place. « Nous traitons les images à partir du matériel existant, dans lequel vient s’insérer notre système de deep-learning, en réinjectant ensuite les clichés analysés, qui peuvent être annotés pour mettre en exergue certaines anomalies, etc ».

Pandémie : plaidoyer pour la tech et l’IA

Pandémie : plaidoyer pour la tech et l’IA

 

Ancienne dirigeante de Sanofi et de GE Healthcare, Pascale Witz défend dans son livre* le recours à la tech et à l’intelligence artificielle (IA) dans la santé.(Interview dans l’Opinion)

Quel est l’apport de la tech dans la course aux vaccins ?

Les vaccins à ARN messager sont des exemples criants de l’apport de la tech. Si Moderna et BioNTech ont réussi ce coup de force, c’est qu’ils travaillaient depuis cinq ans sur cette technologie et qu’ils ont fait pivoter leurs équipes vers le vaccin. C’est ce qui leur a permis de gagner la course. Ce n’est pas le cas de Sanofi et je suis sûre que les équipes, que je connais bien et qui n’ont pas ménagé leurs efforts, sont très déçues. Mais, comme je l’expliquais, chaque laboratoire a utilisé la technologie qu’il maîtrisait.

Comparée à nos voisins anglais qui vaccinent à tour de bras, la France est à la traîne. Faut-il repenser notre sacro-saint principe de précaution?

Je ne pense pas que la France a été plus précautionneuse que la Grande-Bretagne. Le démarrage de notre campagne vaccinale a manqué d’audace mais les choses se déroulent bien mieux à présent. Il faut comprendre une chose : Faire un vaccin, ce n’est pas comme faire du Doliprane ! Ce n’est pas parce qu’on est capable de développer le second qu’on peut faire de même avec le premier. Les lignes de production sont tout à fait différentes. Un vaccin va transiter par la ligne dite des grandes molécules ou des produits biologiques innovants. C’était déjà un marché tendu. Lorsqu’un laboratoire veut développer un nouveau produit, il lui faut réserver un créneau pour la capacité de production des années à l’avance. Les limites de la campagne vaccinale se situent davantage à ce niveau-là selon moi.

En dehors du vaccin, pour quelle pathologie la tech a-t-elle fait ses preuves ?

Quand je parle de la tech, c’est au sens large, j’englobe la puissance du calcul, la miniaturisation, la connectivité. Le diabète est un bon exemple. Il y a 5 ou 6 ans, un patient diabétique devait avoir en permanence avec lui sa trousse de bonne taille contenant tous les outils pour se piquer le doigt. Avec les mini-capteurs de mesure du glucose en continu à patcher sur le bras ou sur le ventre une fois par semaine, cette logistique encombrante est derrière nous. Il suffit de regarder sa montre connectée pour vérifier discrètement son taux de glucose dans le sang.

La tech me semble tout à fait pertinente pour la surveillance cardiaque, en particulier celle des femmes. Elles sont davantage sujettes à la survenue d’un décès que les hommes après un premier événement cardiaque. Les médecins urgentistes vous diront leur inquiétude lorsqu’ils renvoient chez elles des patientes dont le tableau clinique est incertain. Des sociétés comme iRhythm Technologies développent déjà des enregistreurs d’ECG connectés, discrets. Il n’y a pas si longtemps, on faisait porter aux patients un holter, dispositif contraignant qui permettait l’enregistrement en continu de l’électrocardiogramme (pendant au moins 24 heures, NDLR). C’était impossible de l’oublier !

Selon vous, l’intégration de l’IA dans les protocoles médicaux va permettre de «  réhumaniser  » la médecine, en particulier à l’hôpital. N’est-ce pas paradoxal ?

La tech démocratise l’innovation médicale, elle pousse vers une santé de plus en plus humaine. Ce n’est pas du tout un paradoxe.

L’IA doit être conçue comme un outil de support à la décision. Elle permet l’analyse d’un plus grand nombre de données et, ce faisant, accorde au médecin davantage de temps pour se recentrer sur le patient. C’est l’autre aspect que je défends, quand je parle du suivi médical «  déporté  » à la maison grâce à la tech. Cette approche contribue au désengorgement des urgences et recentre l’hôpital sur son cœur de métier : la prise en charge des pathologies les plus graves.

Nous avons de grandes exigences vis-à-vis de la médecine. Je ne vois pas d’autres moyens que de faire confiance à la tech et à l’utilisation sécurisée des données

Vous prônez le principe de l’algorithme personnel de santé. De quoi s’agit-il ? Est-ce applicable en France, ou la population se méfie volontiers des GAFAM ?

Prenons l’exemple de l’asthme. La société Propeller Health a développé un inhalateur connecté, qui prend en considération l’environnement immédiat du patient et lui permet d’anticiper des crises d’asthme et d’éviter une fois de plus un recours aux urgences. Il s’agit donc, en somme, d’ajuster au plus près et de façon la plus personnelle le traitement au patient.

Quant à la défiance, je rappelle que nos données sont bien plus souvent enregistrées par des sociétés commerciales qu’à des fins scientifiques. Et, sincèrement, il faut en passer par là pour avancer dans la recherche clinique. Nous avons de grandes exigences vis-à-vis de la médecine. Je ne vois pas d’autres moyens que de faire confiance à la tech et à l’utilisation sécurisée des données. En ce sens, la création du Health data hub (nouvelle banque de données nationale, NDLR) est une très bonne initiative.

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol