Archive pour le Tag 'l’intelligence'

Page 2 sur 5

Complémentarité de l’intelligence humaine et de l’intelligence artificielle ?

Complémentarité de l’intelligence humaine et de l’intelligence artificielle ?

Les technologies d’Intelligence Artificielle proposent des outils très performants, mais la qualité de leur emploi dépend de la personne qui les utilise. Par Emmanuel Olivier, directeur général et membre du directoire d’Esker.( dans La Tribune)

Le 30 novembre dernier, OpenAI lançait ChatGPT, la dernière version de son Intelligence Artificielle (IA) générative. En quelques jours à peine, cette révolution a provoqué un raz-de-marée médiatique riche d’enseignements sur le fonctionnement de l’IA. On parle, certes, d’un outil performant, mais on lui attribue des capacités quasi magiques de création suivies par une substitution massive des emplois existants. Qu’en est-il vraiment au quotidien dans les entreprises ?

La réalité est plus prosaïque, mais les performances de l’IA permettent des gains de productivité dont les entreprises auraient tort de se passer. Plusieurs concepts se cachent derrière le terme générique d’IA, qui existe en réalité depuis plus de 10 ans. En premier lieu vient le Machine Learning ou l’apprentissage automatique. On le retrouve à la base de nombreux processus, les entreprises font du Machine Learning sans le savoir.

Prenons l’exemple de la reconnaissance de caractères ou d’images dans un process de numérisation de commandes clients. Le système va extraire des données pertinentes (dont le numéro de commande, l’adresse de livraison, les quantités associées, les références, etc.) à partir d’e-mail, de PDF, d’images, voire de fax pour les injecter dans le système d’information. Parfois, il va se tromper, confondant une date avec le numéro d’un bon de commande ou vice-versa. L’intervention humaine permettra alors de rectifier l’erreur et le système, fort de son dispositif de Machine Learning, s’en souviendra pour la prochaine fois.
Ainsi, en analysant les corrections de l’utilisateur, l’algorithme s’ajuste automatiquement afin d’augmenter la précision du processus d’extraction au fil du temps. Plus les interactions entre l’IA et la supervision humaine sont nombreuses, plus elles permettent de converger vers une extraction parfaite et totalement automatique des données.

Le deuxième pilier de l’IA est le Deep Learning, qui consiste à apprendre à la machine à effectuer une tâche sans nécessairement coder un algorithme qui lui explique précisément comment faire. De la même manière que si vous montrez trois ou quatre arbres à un jeune enfant, il saura rapidement identifier un nouvel arbre, même s’il est différent des précédents. Pour une machine, la différence est considérable puisqu’il lui faut observer des dizaines de milliers d’arbres pour être aussi performante. Le Deep Learning nécessite donc énormément de données validées.

Cependant, cette technologie peut être utilisée pour trier des informations entrantes. Par exemple, dans un projet de dématérialisation de factures fournisseurs, vous établissez une adresse e-mail générique pour que vos fournisseurs vous envoient leur facture. À la longue, l’adresse dédiée à l’envoi des commandes par les clients se retrouve souvent polluée par des pubs, des réclamations, des demandes de devis… sources de confusion, de perte de temps et d’inefficacité.

Jusqu’à un passé récent, le seul moyen de s’en sortir était de requérir le service d’un humain en chair et en os pour vérifier chaque e-mail et réexpédier les requêtes vers le bon service, ou, simplement, supprimer les spams. Avec le Deep Learning, il devient possible d’automatiser ce processus et donc de se passer d’une intervention humaine pour une tâche pour le moins fastidieuse.

Détection de signaux faibles
Troisième pilier, les IA Générative, façon Chat GPT, permettent d’aider les responsables de relation client à générer, rapidement, des réponses pertinentes. En réalité, la plupart des questions se ressemblent : « Où se trouve ma commande ? » « Quand serai-je livré ? » « Avez-vous bien reçu mon mail ? » On peut utiliser ChatGPT pour comprendre la question et aller chercher dans les systèmes d’informations de l’entreprise les éléments de réponse appropriés, les récupérer et proposer une réponse écrite formatée au responsable du Service Client avant son envoi. Ces gains de temps sur des tâches administratives permettent d’allouer le temps des responsables à des tâches plus intéressantes et moins chronophages.

L’intérêt technique de ces outils capables de séduire les programmeurs et les technophiles ne doit pas faire oublier leur intérêt pratique pour les entreprises. Les réponses à ces deux questions doivent aiguiller leur réflexion : à quoi ça sert ? Pouvons-nous en profiter ?

Une des possibilités reconnues est la détection de signaux faibles pouvant avoir un impact important sur la rentabilité d’une entreprise. Dans la gestion du besoin en fonds de roulement, découvrir à temps de petites variations est très apprécié par les directions financières : des changements dans les délais de paiement d’un client, dans la dynamique de variation de ses commandes dans le temps (en diminution ou en forte hausse), le tout en fonction de sa note de crédit. Là encore, l’intervention humaine est primordiale.

Deux points clefs sont à retenir pour l’utilisation de l’IA dans les sociétés : tout d’abord, elle va fortement affecter leur environnement de travail ainsi que leur productivité. Ensuite, ce n’est qu’un outil dont la réussite est régie par les qualités de la personne qui l’emploie : avoir un pinceau et de la peinture ne suffit pas à reproduire le plafond de la chapelle Sixtine de Michel-Ange. Les fantasmes de l’élimination de l’espèce humaine à la faveur de ChatGPT peuvent produire de bons scénarios de films de science-fiction, mais la réalité est heureusement plus sereine.

L’intelligence artificielle : but ou moyen ?

L’intelligence artificielle : but ou moyen ?


Dans leur ouvrage, « L’intelligence artificielle n’est pas une question technologique » (Éditions de l’Aube), Laurent Bibard, responsable de la filière Management et philosophie de l’ESSEC, et Nicolas Sabouret, professeur à l’Université Paris-Saclay où il dirige la graduate school d’informatique et sciences du numérique, soulignent qu’« il n’y a pas de problème d’intelligence artificielle, il n’y a que le problème de nos attentes à l’égard de ce que nous avons nous-mêmes créé ». Démonstration avec un extrait sur The Conversation France.

Même si nous avons du mal à l’admettre, la tendance est plutôt technophile dans notre société. Malgré certaines résistances qui s’expriment à travers la demande de « moins de technologie » et « plus d’humain », la tendance générale est que la société se « technologise » de plus en plus, sans forcément réfléchir collectivement aux raisons pour lesquelles elle le fait. Et cela nous conduit à ce genre de situation où l’on renouvelle les machines très souvent et où l’on calcule à tout va, donc en générant énormément de pollution. […]

Il faut bien distinguer, dans ces outils de calcul qui coûtent très cher et qui polluent, d’une part, les calculs qui sont faits dans un but collectif de progrès pour la société – que ce soit par les chercheurs ou par des entreprises qui essayent de travailler pour le bien commun –, d’autre part, les usages individuels qui peuvent parfois relever de cet esclavage moderne.

La mode et la diffusion des photos de chatons sur les réseaux sociaux sont très coûteuses sur le plan écologique, pour un gain économique qui ne repose que sur les recettes publicitaires. Au contraire, lors de la pandémie de Covid-19, les centres de calcul ont permis de simuler et de comprendre les modes de diffusion de la maladie, de suivre l’évolution des variants, de manière indéniablement efficace.

la diffusion des photos de chatons sur les réseaux sociaux est très coûteuse sur le plan écologique, pour un gain économique qui ne repose que sur les recettes publicitaires. Shutterstock
Dans les deux cas (la publicité et la recherche sur le Covid-19), tout cela est rendu possible par les algorithmes d’intelligence artificielle (IA). Ce sont donc aussi ces algorithmes, dont nous critiquons l’usage sur les réseaux sociaux, qui nous ont permis de sortir de la pandémie en deux ans, avec un nombre de victimes qui, malgré, tout reste limité – dix fois moins, par exemple, que la grippe espagnole du début du XXe siècle. Grâce aux technologies, nous avons su relativement bien maîtriser une situation potentiellement catastrophique. Cela s’est fait avec ces mêmes centres de calcul très polluants […].

Il faut donc faire la différence entre la photo de chaton qu’on va mettre sur Internet et des technologies mises à disposition dans l’intérêt collectif du bien commun, pour problématiser la question du rapport aux technologies sur le plan directement de la philosophie morale et politique. Cela montre encore ici que, par elles-mêmes, les technologies ne posent pas de problème. C’est le rapport que nous entretenons avec elles qui pose problème, par rapport à nos attentes, par rapport à la conformation à des groupes, par rapport à la mode, etc.

On peut, comme on vient de le voir, problématiser la question sur le plan de la philosophie morale et politique, mais on peut aussi la problématiser sur le plan que l’on peut qualifier d’« épistémologique », c’est-à-dire qui concerne la solidité de nos savoirs. Il y a sur ce sujet une réflexion tout à fait fondamentale d’un philosophe peu connu qui s’appelle Jacob Klein. Il observe qu’à partir de la Renaissance, l’élaboration de la physique mathématique sur la base de l’algèbre conduit les sciences à prendre inévitablement pour but leurs propres méthodes. Il écrit à peu près ceci :

« Jamais les anciens n’auraient pris la méthode comme but. »

Il veut dire par là que l’élaboration des sciences modernes a comme adossement sous-jacent l’idée que la méthode est un but. L’idée que le mode de fonctionnement est le but, en quelque sorte, de la recherche. Et s’il y a du vrai dans ce qu’il dit, il est capital de savoir s’en dégager pour n’utiliser la recherche que comme un moyen d’un but autre que la recherche elle-même, qui n’est pas faite pour se servir elle-même, mais bien pour servir la vie en société, le bien commun.

Cela se transpose dans nos vies concrètes, dans la vie sociale, au travers de ce qu’on appelle en sociologie le fonctionnalisme. Le fonctionnalisme c’est une manière d’approcher les organisations qui identifient de manière très convaincante qu’une organisation risque toujours de se prendre pour son propre but.

Il y en a un exemple remarquable dans le tout début du film Vol au-dessus d’un nid de coucou de Miloš Forman, avec Jack Nicholson. La scène montrée par Forman au début du film est révélatrice de la difficulté que nous abordons ici. Elle a lieu à un moment où des patients dans un hôpital psychiatrique sont censés prendre du repos. Et l’on voit que le personnel de soins, très subtilement, au lieu d’apaiser les patients, les énerve. Ainsi, les soignants sont de nouveau utiles : on appelle même les brancardiers pour mettre Nicholson dans sa camisole de force.

Nous en rions car c’est un film, mais cela est malheureusement tragiquement vrai, et arrive plus que fréquemment tous contextes confondus : au lieu de faciliter le fonctionnement de la structure, de se mettre au service des usagers, les acteurs agissent de manière à rester utiles, c’est-à-dire à ce que leur fonctionnement soit confirmé dans sa pertinence. Autrement dit, on entretient le problème, parce qu’on en est la réponse. Et il se peut que le problème que l’on entretient ait perdu de sa pertinence, voire soit devenu caduc, n’ait aucun sens, voire n’en ait jamais eu…

Des distorsions des systèmes de cet ordre représentent un véritable problème dans notre monde. Et les technologies en sont un rouage de plus en plus central. Elles deviennent un but en soi pour améliorer les capacités de calcul des ordinateurs, de l’IA, etc., indépendamment de l’intérêt que cela puisse apporter aux humains, à la société, au bien commun.

Nous sommes donc, à nouveau, face à un problème fondamentalement humain. Une des manières intéressantes de le poser, c’est de dire que quand on se réfugie dans des théories des systèmes, en n’admettant pas qu’il y a une responsabilité des individus et donc en présupposant que les humains et les individus sont noyés dans les systèmes, on déresponsabilise tout le monde, en jouant de facto le jeu d’une humanité noyée dans les systèmes, dans tout système.

Les théories qui n’insistent que sur l’aspect systémique des fonctionnements contribuent à nos aliénations, au fait que nous devenons des rouages dans des machines. Nous devenons les moyens des machines parce que nous nous représentons que nous sommes dominés par les systèmes.

Science et Société-La fin de homme face à l’intelligence artificielle ?

Science et Société-La fin de homme face à l’intelligence artificielle ?

Le développement de l’IA représente une menace de taille pour l’espèce humaine, analyse l’auteur de La Guerre des intelligences (voir résumé) à l’heure de ChatGPT *. Il est urgent, explique-t-il dans le Figaro, de réfléchir à ses conséquences politiques et aux moyens de cohabiter avec elle.

L’arrivée de ChatGPT a relancé le débat sur l’intelligence artificielle générale : de quoi s’agit-il ?

Laurent ALEXANDRE. – Il existe deux types d’IA qui préoccupent les chercheurs. D’abord, l’intelligence artificielle générale, qui serait légèrement supérieure à l’homme dans tous les domaines cognitifs. Ensuite, la super-intelligence artificielle, l’ASI en anglais, qui pourrait être des milliers, voire des millions, de fois supérieure à la totalité des cerveaux sur ­terre.

Faut-il croire à son émergence ou s’agit-il en réalité d’un fantasme ?

Sam Altman, le patron de ChatGPT, a écrit le mois dernier qu’il est convaincu que la super-intelligence artificielle sera là avant 2030. Il n’y a pas de certitude que nous y parviendrons, mais je constate qu’il y a de plus en plus de chercheurs, une grande majorité, même, qui sont aujourd’hui convaincus que l’IA nous dépassera dans tous les domaines.

La Guerre des intelligences -résumé ( de likedin)

Les inégalités de QI sont majoritairement génétiques (de naissance) et globalement héréditaires même si le mode de vie (malbouffe, sous-stimulation…) accentue cet état de fait. De fait, les inégalités de QI se creusent.

Après une période d’augmentation générale du QI (due à une meilleure hygiène de vie), l’effet Flynn s’est tari en occident, entrainant une baisse du QI moyen, car les personnes au meilleur QI font moins d’enfants et les personnes de faibles QI en font plus et les stimulent moins.

En Asie, l’effet Flynn bat son plein : le QI connaît une forte augmentation pour des raisons environnementales (fin de la malnutrition, éducation…).

L’Afrique devrait connaître à son tour une explosion du QI dans les prochaines décennies.

L’éducation est clef : on en est encore à l’âge de pierre. Il n’y a pas d’évaluation des méthodes (cf les débats stériles entre méthode globale et syllabique alors qu’aucune étude sérieuse n’a jamais été menée sur le sujet), process de transmission inchangé depuis des siècles/millénaires (cours magistral de groupe). Grâce aux neurosciences on va vraiment comprendre comment le cerveau apprend / les cerveaux apprennent.

On pourra alors vraiment faire de la pédagogie efficace et individualisée.

Après le QI, le QCIA

Mais au-delà du QI, le vrai enjeu va être le QCIA (quotient de compatibilité avec l’IA) car l’IA arrive à grands pas.

Aujourd’hui, on n’en est qu’aux balbutiements (l’IA est encore faible, il n’existe pas encore d’IA « forte », consciente d’elle-même) mais les développements sont extrêmement rapides.

Les nouvelles IA sont auto-apprenantes (deep-learning) et deviennent des boîtes noires. On ne sait pas vraiment comment elles fonctionnent car elles évoluent d’elles-mêmes en apprenant. Cela les différentie fondamentalement des algorithmes qui sont pré-programmés par quelqu’un, donc auditables.

Les IA apprennent grâce à la masse des données (textes, vidéos, photos, données de navigation…) dont on les nourrit.

Ce n’est pas un hasard si Google et FB sont des créateurs d’IA : avec les datas dont ils disposent, ils peuvent nourrir les IA.

L’Europe en protégeant les données utilisateurs fait prendre un retard à l’IA européenne vs la Chine ou les US.

Les IA vont rapidement remplacer le travail intellectuel (avocat, médecin…) car la masse de données qu’elles possèdent est phénoménale (ex : des millions de clichés radiologiques, des milliards de datas de santé…) et cela permet de réaliser des corrélations impossibles à un humain.

Paradoxalement, les métiers manuels diversifiés seront les derniers remplacés car un robot multitâche coûte plus cher qu’un programme informatique (le radiologue sera remplacé avant l’aide-soignante).

La fin du travail est annoncée par beaucoup, mais cette peur méconnait l’inventivité humaine : de nouveaux métiers vont apparaître autour de l’IA (comme les datascientistes, les développeurs web ou les spécialistes du retargeting n’existaient pas il y a 20 ans). Par nature, on ne peut pas prévoir ce que seront ces jobs, mais ils existeront comme après chaque révolution industrielle. Ce qu’on peut imaginer et que ces futurs emplois seront étroitement liés à l’IA, il est donc essentiel que notre intelligence soit compatible, d’où l’importance du QCIA.

L’IA est pour le court terme une formidable opportunité (elle va résoudre de nombreux problèmes bien mieux que les humains, surtout dans la santé). Le problème est qu’on ne sait pas comment elle va évoluer. Une IA forte (ie avec conscience) peut devenir dangereuse pour l’homme et comme elle sera dupliquée / répartie (via Internet) dans tous les objets connectés, elle sera difficile à tuer en cas de besoin.

Comment l’IA avec conscience se comportera-t-elle avec nous ? Cela est très difficile à prévoir.

Quel avenir pour l’humanité ?

Assez vite, l’homme va être dépassé par l’IA, alors comment rester dans la course et ne pas être asservi ?

- l’eugénisme : les humains mieux sélectionnés in-vitro seront plus intelligents et en meilleure santé (cf Bienvenue à Gattaca). Cela pose évidemment de nombreux problèmes éthiques mais les réponses à ces problèmes seront différentes selon les pays et la Chine et les US sont plus permissifs. Cependant, cette évolution sera lente alors que l’IA évolue en permanence : les humains risquent de rester à la traîne de l’IA. Enfin, maîtriser la conception des enfants doit interroger sur la capacité de survie de l’espèce humaine en tant que telle. Le hasard de la génétique (mutations non prévues) est en effet le moyen trouvé par la vie pour s’adapter, sur le long terme, à un environnement lui-même en évolution permanente (principe de l’évolution).

- l’hybridation : cette solution prônée par Elon Musk consiste à se mettre des implants cérébraux qui vont booster notre cerveau. Si l’idée est très enthousiasmante (maîtriser la connaissance sans effort ni délai), le vrai risque est la manipulation : qui produit les contenus ? seront-ils orientés ? quid du brain washing ? que se passe-t-il si nous sommes hackés ? Ces implants seraient-ils le cheval de Troie d’une véritable dictature de la pensée encore plus aboutie que 1984 ? En effet, si on peut injecter des informations directement dans notre cerveau, il sera possible également de lire nos pensées. Que reste-t-il de nous si nous n’avons même plus de refuge de notre cerveau pour penser en toute liberté ? Quel usage un gouvernement pourrait-il faire de ces informations, qui ne soit pas totalitaire ?

- projeter nos esprits dans des corps robots : la victoire ultime sur la mort. Sans corps, nous sommes immortels. Mais que restera-t-il de nous quand nous serons fusionnés avec l’IA et que la mortalité n’existera plus alors qu’elle est l’essence même de l’homme et vraisemblablement l’origine de son désir créatif ?

Le problème de toutes ces évolutions c’est qu’elles ont des effets bénéfiques individuels indéniables à court terme (moins de maladies, meilleur QI…), mais à la fois vont créer des inégalités temporaires (seuls les riches pourront au début s’offrir cela) et impliquent des changements pour l’humanité toute entière.

Dès lors que les effets bénéfiques sont importants, il sera impossible d’enrayer le développement des IA dans tous les aspects de nos vies. En effet, quel parent pourrait refuser de faire soigner son enfant par une IA plutôt qu’un médecin, si ses chances de survie sont décuplées ? Quel homme politique pourrait assumer de faire prendre à son pays un retard si énorme en terme de santé publique ?

Mais si les humains sont connectés à des implants, l’IA sera certainement dedans. Serons-nous encore des humains ? Comment ne pas être asservis par l’IA si celle-ci est déjà dans nos cerveaux ?

Les technobéats ne réfléchissent pas à plusieurs générations, trop enthousiastes de voir où leur création les mènera. Quant aux politiques ils sont complètement largués et ne comprennent rien à la technologie. De toute manière, ils ne savent pas penser à plus de deux ans.

Au final, l’IA se développe sans maîtrise, car personne ne pense ni ne parle pour l’humanité.

(A ce sujet, je recommande l’essai d’Edmund Burke « Réflexion sur la Révolution de France » qui explique sa pensée, le « conservatisme », et sa vision de la société comme un contrat entre les vivants, mais également entre les vivants, les morts et les futures générations. Il y a certainement des idées pour nourrir le débat.)

Dans tous les cas, la bataille sera gagnée par les tenants de l’hybridation (transhumanistes) car ceux qui s’hybrideront (et ils le feront même si la réglementation le leur interdit) deviendront super-intelligents et deviendront donc de-facto les leaders. Ceux qui refuseront l’hybridation seront à la traîne.

Face à une IA galopante et à l’hybridation, le rôle de l’école va changer. Notre valeur sera dans ce qui fait notre humanité puisque la connaissance sera injectable à la demande sans effort. Donc il faudra former davantage à l’esprit critique, la réflexion, la créativité. L’homme a cet avantage sur la machine de faire des erreurs et c’est des erreurs que viennent des découvertes.

Société-La fin de homme face à l’intelligence artificielle ?

Société-La fin de homme face à l’intelligence artificielle ?

Le développement de l’IA représente une menace de taille pour l’espèce humaine, analyse l’auteur de La Guerre des intelligences (voir résumé) à l’heure de ChatGPT *. Il est urgent, explique-t-il dans le Figaro, de réfléchir à ses conséquences politiques et aux moyens de cohabiter avec elle.

L’arrivée de ChatGPT a relancé le débat sur l’intelligence artificielle générale : de quoi s’agit-il ?

Laurent ALEXANDRE. – Il existe deux types d’IA qui préoccupent les chercheurs. D’abord, l’intelligence artificielle générale, qui serait légèrement supérieure à l’homme dans tous les domaines cognitifs. Ensuite, la super-intelligence artificielle, l’ASI en anglais, qui pourrait être des milliers, voire des millions, de fois supérieure à la totalité des cerveaux sur ­terre.

Faut-il croire à son émergence ou s’agit-il en réalité d’un fantasme ?

Sam Altman, le patron de ChatGPT, a écrit le mois dernier qu’il est convaincu que la super-intelligence artificielle sera là avant 2030. Il n’y a pas de certitude que nous y parviendrons, mais je constate qu’il y a de plus en plus de chercheurs, une grande majorité, même, qui sont aujourd’hui convaincus que l’IA nous dépassera dans tous les domaines.

La Guerre des intelligences -résumé ( de likedin)

Les inégalités de QI sont majoritairement génétiques (de naissance) et globalement héréditaires même si le mode de vie (malbouffe, sous-stimulation…) accentue cet état de fait. De fait, les inégalités de QI se creusent.

Après une période d’augmentation générale du QI (due à une meilleure hygiène de vie), l’effet Flynn s’est tari en occident, entrainant une baisse du QI moyen, car les personnes au meilleur QI font moins d’enfants et les personnes de faibles QI en font plus et les stimulent moins.

En Asie, l’effet Flynn bat son plein : le QI connaît une forte augmentation pour des raisons environnementales (fin de la malnutrition, éducation…).

L’Afrique devrait connaître à son tour une explosion du QI dans les prochaines décennies.

L’éducation est clef : on en est encore à l’âge de pierre. Il n’y a pas d’évaluation des méthodes (cf les débats stériles entre méthode globale et syllabique alors qu’aucune étude sérieuse n’a jamais été menée sur le sujet), process de transmission inchangé depuis des siècles/millénaires (cours magistral de groupe). Grâce aux neurosciences on va vraiment comprendre comment le cerveau apprend / les cerveaux apprennent.

On pourra alors vraiment faire de la pédagogie efficace et individualisée.

Après le QI, le QCIA

Mais au-delà du QI, le vrai enjeu va être le QCIA (quotient de compatibilité avec l’IA) car l’IA arrive à grands pas.

Aujourd’hui, on n’en est qu’aux balbutiements (l’IA est encore faible, il n’existe pas encore d’IA « forte », consciente d’elle-même) mais les développements sont extrêmement rapides.

Les nouvelles IA sont auto-apprenantes (deep-learning) et deviennent des boîtes noires. On ne sait pas vraiment comment elles fonctionnent car elles évoluent d’elles-mêmes en apprenant. Cela les différentie fondamentalement des algorithmes qui sont pré-programmés par quelqu’un, donc auditables.

Les IA apprennent grâce à la masse des données (textes, vidéos, photos, données de navigation…) dont on les nourrit.

Ce n’est pas un hasard si Google et FB sont des créateurs d’IA : avec les datas dont ils disposent, ils peuvent nourrir les IA.

L’Europe en protégeant les données utilisateurs fait prendre un retard à l’IA européenne vs la Chine ou les US.

Les IA vont rapidement remplacer le travail intellectuel (avocat, médecin…) car la masse de données qu’elles possèdent est phénoménale (ex : des millions de clichés radiologiques, des milliards de datas de santé…) et cela permet de réaliser des corrélations impossibles à un humain.

Paradoxalement, les métiers manuels diversifiés seront les derniers remplacés car un robot multitâche coûte plus cher qu’un programme informatique (le radiologue sera remplacé avant l’aide-soignante).

La fin du travail est annoncée par beaucoup, mais cette peur méconnait l’inventivité humaine : de nouveaux métiers vont apparaître autour de l’IA (comme les datascientistes, les développeurs web ou les spécialistes du retargeting n’existaient pas il y a 20 ans). Par nature, on ne peut pas prévoir ce que seront ces jobs, mais ils existeront comme après chaque révolution industrielle. Ce qu’on peut imaginer et que ces futurs emplois seront étroitement liés à l’IA, il est donc essentiel que notre intelligence soit compatible, d’où l’importance du QCIA.

L’IA est pour le court terme une formidable opportunité (elle va résoudre de nombreux problèmes bien mieux que les humains, surtout dans la santé). Le problème est qu’on ne sait pas comment elle va évoluer. Une IA forte (ie avec conscience) peut devenir dangereuse pour l’homme et comme elle sera dupliquée / répartie (via Internet) dans tous les objets connectés, elle sera difficile à tuer en cas de besoin.

Comment l’IA avec conscience se comportera-t-elle avec nous ? Cela est très difficile à prévoir.

Quel avenir pour l’humanité ?

Assez vite, l’homme va être dépassé par l’IA, alors comment rester dans la course et ne pas être asservi ?

- l’eugénisme : les humains mieux sélectionnés in-vitro seront plus intelligents et en meilleure santé (cf Bienvenue à Gattaca). Cela pose évidemment de nombreux problèmes éthiques mais les réponses à ces problèmes seront différentes selon les pays et la Chine et les US sont plus permissifs. Cependant, cette évolution sera lente alors que l’IA évolue en permanence : les humains risquent de rester à la traîne de l’IA. Enfin, maîtriser la conception des enfants doit interroger sur la capacité de survie de l’espèce humaine en tant que telle. Le hasard de la génétique (mutations non prévues) est en effet le moyen trouvé par la vie pour s’adapter, sur le long terme, à un environnement lui-même en évolution permanente (principe de l’évolution).

- l’hybridation : cette solution prônée par Elon Musk consiste à se mettre des implants cérébraux qui vont booster notre cerveau. Si l’idée est très enthousiasmante (maîtriser la connaissance sans effort ni délai), le vrai risque est la manipulation : qui produit les contenus ? seront-ils orientés ? quid du brain washing ? que se passe-t-il si nous sommes hackés ? Ces implants seraient-ils le cheval de Troie d’une véritable dictature de la pensée encore plus aboutie que 1984 ? En effet, si on peut injecter des informations directement dans notre cerveau, il sera possible également de lire nos pensées. Que reste-t-il de nous si nous n’avons même plus de refuge de notre cerveau pour penser en toute liberté ? Quel usage un gouvernement pourrait-il faire de ces informations, qui ne soit pas totalitaire ?

- projeter nos esprits dans des corps robots : la victoire ultime sur la mort. Sans corps, nous sommes immortels. Mais que restera-t-il de nous quand nous serons fusionnés avec l’IA et que la mortalité n’existera plus alors qu’elle est l’essence même de l’homme et vraisemblablement l’origine de son désir créatif ?

Le problème de toutes ces évolutions c’est qu’elles ont des effets bénéfiques individuels indéniables à court terme (moins de maladies, meilleur QI…), mais à la fois vont créer des inégalités temporaires (seuls les riches pourront au début s’offrir cela) et impliquent des changements pour l’humanité toute entière.

Dès lors que les effets bénéfiques sont importants, il sera impossible d’enrayer le développement des IA dans tous les aspects de nos vies. En effet, quel parent pourrait refuser de faire soigner son enfant par une IA plutôt qu’un médecin, si ses chances de survie sont décuplées ? Quel homme politique pourrait assumer de faire prendre à son pays un retard si énorme en terme de santé publique ?

Mais si les humains sont connectés à des implants, l’IA sera certainement dedans. Serons-nous encore des humains ? Comment ne pas être asservis par l’IA si celle-ci est déjà dans nos cerveaux ?

Les technobéats ne réfléchissent pas à plusieurs générations, trop enthousiastes de voir où leur création les mènera. Quant aux politiques ils sont complètement largués et ne comprennent rien à la technologie. De toute manière, ils ne savent pas penser à plus de deux ans.

Au final, l’IA se développe sans maîtrise, car personne ne pense ni ne parle pour l’humanité.

(A ce sujet, je recommande l’essai d’Edmund Burke « Réflexion sur la Révolution de France » qui explique sa pensée, le « conservatisme », et sa vision de la société comme un contrat entre les vivants, mais également entre les vivants, les morts et les futures générations. Il y a certainement des idées pour nourrir le débat.)

Dans tous les cas, la bataille sera gagnée par les tenants de l’hybridation (transhumanistes) car ceux qui s’hybrideront (et ils le feront même si la réglementation le leur interdit) deviendront super-intelligents et deviendront donc de-facto les leaders. Ceux qui refuseront l’hybridation seront à la traîne.

Face à une IA galopante et à l’hybridation, le rôle de l’école va changer. Notre valeur sera dans ce qui fait notre humanité puisque la connaissance sera injectable à la demande sans effort. Donc il faudra former davantage à l’esprit critique, la réflexion, la créativité. L’homme a cet avantage sur la machine de faire des erreurs et c’est des erreurs que viennent des découvertes.

Société-La fin de l’homme face à l »intelligence artificielle ?

Société-La fin de l’homme face à l’IA ?

Le développement de l’IA représente une menace de taille pour l’espèce humaine, analyse l’auteur de La Guerre des intelligences (voir résumé) à l’heure de ChatGPT *. Il est urgent, explique-t-il dans le Figaro, de réfléchir à ses conséquences politiques et aux moyens de cohabiter avec elle.

L’arrivée de ChatGPT a relancé le débat sur l’intelligence artificielle générale : de quoi s’agit-il ?

Laurent ALEXANDRE. – Il existe deux types d’IA qui préoccupent les chercheurs. D’abord, l’intelligence artificielle générale, qui serait légèrement supérieure à l’homme dans tous les domaines cognitifs. Ensuite, la super-intelligence artificielle, l’ASI en anglais, qui pourrait être des milliers, voire des millions, de fois supérieure à la totalité des cerveaux sur ­terre.

Faut-il croire à son émergence ou s’agit-il en réalité d’un fantasme ?

Sam Altman, le patron de ChatGPT, a écrit le mois dernier qu’il est convaincu que la super-intelligence artificielle sera là avant 2030. Il n’y a pas de certitude que nous y parviendrons, mais je constate qu’il y a de plus en plus de chercheurs, une grande majorité, même, qui sont aujourd’hui convaincus que l’IA nous dépassera dans tous les domaines.

La Guerre des intelligences -résumé ( de likedin)

Les inégalités de QI sont majoritairement génétiques (de naissance) et globalement héréditaires même si le mode de vie (malbouffe, sous-stimulation…) accentue cet état de fait. De fait, les inégalités de QI se creusent.

Après une période d’augmentation générale du QI (due à une meilleure hygiène de vie), l’effet Flynn s’est tari en occident, entrainant une baisse du QI moyen, car les personnes au meilleur QI font moins d’enfants et les personnes de faibles QI en font plus et les stimulent moins.

En Asie, l’effet Flynn bat son plein : le QI connaît une forte augmentation pour des raisons environnementales (fin de la malnutrition, éducation…).

L’Afrique devrait connaître à son tour une explosion du QI dans les prochaines décennies.

L’éducation est clef : on en est encore à l’âge de pierre. Il n’y a pas d’évaluation des méthodes (cf les débats stériles entre méthode globale et syllabique alors qu’aucune étude sérieuse n’a jamais été menée sur le sujet), process de transmission inchangé depuis des siècles/millénaires (cours magistral de groupe). Grâce aux neurosciences on va vraiment comprendre comment le cerveau apprend / les cerveaux apprennent.

On pourra alors vraiment faire de la pédagogie efficace et individualisée.

Après le QI, le QCIA

Mais au-delà du QI, le vrai enjeu va être le QCIA (quotient de compatibilité avec l’IA) car l’IA arrive à grands pas.

Aujourd’hui, on n’en est qu’aux balbutiements (l’IA est encore faible, il n’existe pas encore d’IA « forte », consciente d’elle-même) mais les développements sont extrêmement rapides.

Les nouvelles IA sont auto-apprenantes (deep-learning) et deviennent des boîtes noires. On ne sait pas vraiment comment elles fonctionnent car elles évoluent d’elles-mêmes en apprenant. Cela les différentie fondamentalement des algorithmes qui sont pré-programmés par quelqu’un, donc auditables.

Les IA apprennent grâce à la masse des données (textes, vidéos, photos, données de navigation…) dont on les nourrit.

Ce n’est pas un hasard si Google et FB sont des créateurs d’IA : avec les datas dont ils disposent, ils peuvent nourrir les IA.

L’Europe en protégeant les données utilisateurs fait prendre un retard à l’IA européenne vs la Chine ou les US.

Les IA vont rapidement remplacer le travail intellectuel (avocat, médecin…) car la masse de données qu’elles possèdent est phénoménale (ex : des millions de clichés radiologiques, des milliards de datas de santé…) et cela permet de réaliser des corrélations impossibles à un humain.

Paradoxalement, les métiers manuels diversifiés seront les derniers remplacés car un robot multitâche coûte plus cher qu’un programme informatique (le radiologue sera remplacé avant l’aide-soignante).

La fin du travail est annoncée par beaucoup, mais cette peur méconnait l’inventivité humaine : de nouveaux métiers vont apparaître autour de l’IA (comme les datascientistes, les développeurs web ou les spécialistes du retargeting n’existaient pas il y a 20 ans). Par nature, on ne peut pas prévoir ce que seront ces jobs, mais ils existeront comme après chaque révolution industrielle. Ce qu’on peut imaginer et que ces futurs emplois seront étroitement liés à l’IA, il est donc essentiel que notre intelligence soit compatible, d’où l’importance du QCIA.

L’IA est pour le court terme une formidable opportunité (elle va résoudre de nombreux problèmes bien mieux que les humains, surtout dans la santé). Le problème est qu’on ne sait pas comment elle va évoluer. Une IA forte (ie avec conscience) peut devenir dangereuse pour l’homme et comme elle sera dupliquée / répartie (via Internet) dans tous les objets connectés, elle sera difficile à tuer en cas de besoin.

Comment l’IA avec conscience se comportera-t-elle avec nous ? Cela est très difficile à prévoir.

Quel avenir pour l’humanité ?

Assez vite, l’homme va être dépassé par l’IA, alors comment rester dans la course et ne pas être asservi ?

- l’eugénisme : les humains mieux sélectionnés in-vitro seront plus intelligents et en meilleure santé (cf Bienvenue à Gattaca). Cela pose évidemment de nombreux problèmes éthiques mais les réponses à ces problèmes seront différentes selon les pays et la Chine et les US sont plus permissifs. Cependant, cette évolution sera lente alors que l’IA évolue en permanence : les humains risquent de rester à la traîne de l’IA. Enfin, maîtriser la conception des enfants doit interroger sur la capacité de survie de l’espèce humaine en tant que telle. Le hasard de la génétique (mutations non prévues) est en effet le moyen trouvé par la vie pour s’adapter, sur le long terme, à un environnement lui-même en évolution permanente (principe de l’évolution).

- l’hybridation : cette solution prônée par Elon Musk consiste à se mettre des implants cérébraux qui vont booster notre cerveau. Si l’idée est très enthousiasmante (maîtriser la connaissance sans effort ni délai), le vrai risque est la manipulation : qui produit les contenus ? seront-ils orientés ? quid du brain washing ? que se passe-t-il si nous sommes hackés ? Ces implants seraient-ils le cheval de Troie d’une véritable dictature de la pensée encore plus aboutie que 1984 ? En effet, si on peut injecter des informations directement dans notre cerveau, il sera possible également de lire nos pensées. Que reste-t-il de nous si nous n’avons même plus de refuge de notre cerveau pour penser en toute liberté ? Quel usage un gouvernement pourrait-il faire de ces informations, qui ne soit pas totalitaire ?

- projeter nos esprits dans des corps robots : la victoire ultime sur la mort. Sans corps, nous sommes immortels. Mais que restera-t-il de nous quand nous serons fusionnés avec l’IA et que la mortalité n’existera plus alors qu’elle est l’essence même de l’homme et vraisemblablement l’origine de son désir créatif ?

Le problème de toutes ces évolutions c’est qu’elles ont des effets bénéfiques individuels indéniables à court terme (moins de maladies, meilleur QI…), mais à la fois vont créer des inégalités temporaires (seuls les riches pourront au début s’offrir cela) et impliquent des changements pour l’humanité toute entière.

Dès lors que les effets bénéfiques sont importants, il sera impossible d’enrayer le développement des IA dans tous les aspects de nos vies. En effet, quel parent pourrait refuser de faire soigner son enfant par une IA plutôt qu’un médecin, si ses chances de survie sont décuplées ? Quel homme politique pourrait assumer de faire prendre à son pays un retard si énorme en terme de santé publique ?

Mais si les humains sont connectés à des implants, l’IA sera certainement dedans. Serons-nous encore des humains ? Comment ne pas être asservis par l’IA si celle-ci est déjà dans nos cerveaux ?

Les technobéats ne réfléchissent pas à plusieurs générations, trop enthousiastes de voir où leur création les mènera. Quant aux politiques ils sont complètement largués et ne comprennent rien à la technologie. De toute manière, ils ne savent pas penser à plus de deux ans.

Au final, l’IA se développe sans maîtrise, car personne ne pense ni ne parle pour l’humanité.

(A ce sujet, je recommande l’essai d’Edmund Burke « Réflexion sur la Révolution de France » qui explique sa pensée, le « conservatisme », et sa vision de la société comme un contrat entre les vivants, mais également entre les vivants, les morts et les futures générations. Il y a certainement des idées pour nourrir le débat.)

Dans tous les cas, la bataille sera gagnée par les tenants de l’hybridation (transhumanistes) car ceux qui s’hybrideront (et ils le feront même si la réglementation le leur interdit) deviendront super-intelligents et deviendront donc de-facto les leaders. Ceux qui refuseront l’hybridation seront à la traîne.

Face à une IA galopante et à l’hybridation, le rôle de l’école va changer. Notre valeur sera dans ce qui fait notre humanité puisque la connaissance sera injectable à la demande sans effort. Donc il faudra former davantage à l’esprit critique, la réflexion, la créativité. L’homme a cet avantage sur la machine de faire des erreurs et c’est des erreurs que viennent des découvertes.

IA-Les risques de l’intelligence artificielle non maîtrisée

IA-Les risques de l’intelligence artificielle non maîtrisée

Cédric Sauviat, polytechnicien, président de l’Association Française contre l’Intelligence Artificielle (AFCIA) critique les conséquences de l’IA dont il pense qu’elle absolument pas maîtrisée (tribune dans sciences critiques)

« Il y a quelques semaines, un groupe de travail constitué de plusieurs institutions anglaises et américaines, dont les universités d’Oxford et de Cambridge, a publié un rapport édifiant intitulé « The Malicious Use of Artificial Intelligence » (« De l’Usage malveillant de l’IA » 1).

Une vingtaine d’experts y décrivent les nouveaux dangers auxquels nous expose la technologie dans les cinq prochaines années.

Essaims de drones tueurs à reconnaissance faciale, rançongiciel profilant leurs cibles de manière automatique et sur une grande échelle, détournement de vidéos ou création de deepfakes (vidéo-montages hyperréalistes) aux fins de manipulation et de propagande, etc. Les scénarios ne manquent pas, limités par notre seul pouvoir d’imagination.

Disponibles un peu partout en libre accès, les algorithmes d’Intelligence Artificielle (IA) changent radicalement la donne en matière de sécurité. Là où une organisation malveillante devait investir du temps et de l’expertise pour préparer et mener à bien un petit nombre d’actions criminelles, il suffit désormais de quelques algorithmes courants et de la puissance de calcul de quelques serveurs pour agir avec efficacité et précision sur une vaste échelle.

POUR LA PREMIÈRE FOIS, LA QUESTION DE LA LIBRE DIFFUSION DES ALGORITHMES EST POSÉE.

Hier, l’investissement personnel des malfrats les exposait au risque d’être repérés et identifiés. Aujourd’hui, la délégation du travail à des « bots » garantit aux commanditaires un redoutable anonymat.

Contre ces nouvelles menaces, le panel d’experts reconnaît qu’il n’existe guère de parade évidente. Seule, disent-ils, la mise au point de systèmes défensifs plus intelligents encore pourrait permettre, sinon de prévenir, du moins d’endiguer les attaques. Incitant à une fuite en avant technologique dont les conséquences seront de fournir toujours davantage de moyens aux criminels potentiels.

Pour la première fois, la question de la libre diffusion des algorithmes est posée. Mais est-il vraiment possible de restreindre la diffusion de codes informatiques ?

LES EXPERTS DÉPASSÉS

Au même moment, diverses associations lancent une campagne pour obtenir l’interdiction des armes autonomes. L’un de leurs membres, l’informaticien Stuart Russell, a d’ailleurs présenté à l’Organisation des Nations-Unies (ONU), en novembre 2017, une sorte de docu-fiction 2, très impressionnant, dans lequel on voit des essaims de drones tueurs plonger le monde dans un climat de terreur, en l’espace de quelques semaines.

La conclusion de Stuart Russell est sans appel : il faut d’urgence interdire les armes autonomes par convention internationale. Qui oserait le contredire ?

Le raisonnement, toutefois, souffre d’un petit problème. Pour être efficace, une interdiction légale exigerait que ces fameux drones n’utilisent pas une technologie en vente libre ! GPS, système de pilotage automatique, logiciel de reconnaissance faciale, tous ces gadgets figurent déjà dans votre smartphone. Il ne vous reste plus qu’à récupérer la poudre d’une balle de fusil, ou à accrocher une grenade, un cocktail Molotov ou carrément une paire de ciseaux sur votre drone pour en faire une arme intelligente !

On le voit donc, l’IA semble poser des problèmes insurmontables, même à ceux qui en sont, en principe, les experts – et c’est le cas de Stuart Russell.

UNE CONFIANCE EN DÉLIQUESCENCE

Si le champ des dérives criminelles s’annonce très vaste, que dire de celui des pratiques nuisibles, mais pas nécessairement illégales, qui deviendront possibles pour les individus, les associations ou les entreprises ? Dans un monde où la responsabilité juridique, ou même simplement morale, se dilue à proportion de la distance qu’intercalent Internet et algorithmes entre un acte et son auteur, ne faut-il pas craindre une déliquescence totale de la confiance en l’autre ? 3

GARANT DE LA CONFIANCE QUI PERMET LE LIEN SOCIAL, L’ÉTAT DE DROIT DEVRA, DE PLUS EN PLUS, S’EFFACER DERRIÈRE LES ENTREPRISES TECHNOLOGIQUES QUI MAÎTRISENT LA « BONNE » INTELLIGENCE ARTIFICIELLE.

On discerne alors le rôle que seront appelées à jouer les grandes entreprises technologiques dans la préservation de la confiance et la défense contre la malveillance. Elles seules détiendront les moyens de contrecarrer les pratiques nuisibles, comme par exemple d’authentifier une vidéo, de bloquer des infiltrations de virus informatiques générés automatiquement ou encore de protéger la multitude des objets connectés dont nous sommes, de plus en plus, entourés et dépendants. Déjà, ces entreprises disposent de leviers considérables, et en grande partie discrétionnaires, sur la visibilité d’une société ou la diffusion d’une information.

Garant de la confiance qui permet le lien social, l’État de droit devra, de plus en plus, s’effacer derrière les entreprises technologiques, celles qui maîtrisent la « bonne » IA et peuvent assurer cette mission. Tendance en tout point comparable aux conditions d’émergence de la féodalité dans l’Europe médiévale.

UNE FUITE EN AVANT DÉBRIDÉE

Alléguant la sauvegarde de la souveraineté politique ou économique, la plupart des responsables politiques estiment qu’il est crucial de favoriser le développement d’une « industrie nationale » de l’Intelligence Artificielle. C’est qu’ils redoutent la mainmise des géants technologiques étrangers sur les données, et donc sur les personnes.

LE DÉVELOPPEMENT TECHNIQUE EST TOTALEMENT DÉBRIDÉ PARCE QUE, NULLE PART ET À AUCUN MOMENT, LES CONCEPTEURS D’INTELLIGENCE ARTIFICIELLE ET LES LÉGISLATEURS NE FIXENT LA MOINDRE LIMITE.

Ils craignent, en outre, l’effet des destructions d’emplois liées à la robotisation 4, et brandissent désormais comme une vérité indiscutable l’argument-choc selon lequel « les économies les plus équipées en intelligence artificielle et en robotique sont celles qui connaissent le moins de chômage ». 5

Mais le rêve de donner naissance à des champions européens de l’IA n’est pas sans contradiction dans une économie ouverte et globalisée, où lesdits champions peuvent, à tout moment, passer sous contrôle étranger.

Les entreprises technologiques promouvant l’IA, largement transnationales, l’ont bien compris puisqu’elles omettent soigneusement toute référence à une bien illusoire défense de souveraineté. Il n’est guère besoin d’invoquer celle-ci, au demeurant, pour que la compétition économique et la promesse de miracles techniques suffisent à alimenter une fuite en avant totalement débridée. »

Il s’agit donc de doubler les capacités installées d’énergies renouvelables d’ici à 2050, en multipliant par 2,5 les capacités installées d’éolien, et par 5 ou 6 celles de photovoltaïque. Le ministère souligne que ces ambitions ne posent pas de problème en termes d’usage des sols ou de pression foncière, puisqu’il s’agit de passer de 8.000 éoliennes installées aujourd’hui à moins de 15.000 (du fait des gains de performances), et pour le solaire, d’occuper 365 kilomètres carrés supplémentaires au sol et 175 kilomètres carrés de toitures pour le photovoltaïque.

Concernant la biomasse, sur laquelle nous pourrions connaître un déficit entre des besoins évalués à 460 TWh et un potentiel de 430 TWh, et qu’il pourrait être difficile d’importer dans la mesure où nos voisins pourraient se trouver dans des situations similaires, la PPE prévoit que le soutien financier soit réservé aux seules installations visant à produire de la chaleur.

Le biométhane (produit par méthanisation à partir de déchets organiques ménagers ou agricoles) voit ses ambitions stoppées nettes. Alors que le coût de production actuel est d’environ 95 euros par mégawattheure (MWh) produit, le gouvernement conditionne l’objectif de 10% de gaz vert dans le réseau en 2030 à une baisse des coûts à hauteur de 67 euros/MWh. Sinon, l’objectif restera limité à 7%, à comparer avec les ambitions d’un GRDF qui proposait 30%. Cette position, justifiée par une attention toute particulière portée aux coûts de la transition écologique sur fond de mouvement des gilets jaunes, semble assez antagoniste avec le constat d’électricité éolienne et photovoltaïque qui ont vu leurs coûts divisés par dix en dix ans pour des puissances équivalentes… précisément grâce aux économies d’échelle. Celles réalisées au niveau de la fabrication de panneaux solaires en Chine, mais aussi dans une certaine mesure, celles autorisées par le volume total des appels d’offres. On peut craindre que ces perspectives modestes ne suscitent pas suffisamment d’investissements pour permettre de telles baisses de coûts. Et plus largement que cette préférence aux technologies matures sur lesquelles la France – et même l’Europe – ont laissé le leadership à d’autres régions du monde n’entrave le développement de filières industrielles domestiques sur des technologies encore émergentes.

L’intelligence artificielle : quel danger ?

L’intelligence artificielle : quel danger ?

Dans une lettre ouverte, Elon Musk ainsi qu’un nombre important de figures du secteur de la Tech ont demandé une pause dans la recherche et le déploiement de l’intelligence artificielle. Mais il ne faudra pas sombrer dans la généralisation abusive. Par Pascal de Lima, chef économiste CGI Business Consulting dans la Tribune

Cette lettre publiée dans « Future of Life Institute » compte plus de 2.500 signatures dont celles d’Elon Musk, Steve Wozniak, cofondateur d’Apple, Yoshua Bengio, lauréat du prix Turing, et Yuval Noah Harari, auteur de « Sapiens : une brève histoire de l’humanité ». La pause de six mois permettrait de réfléchir aux conséquences réelles du déploiement de l’IA sur les humains. Au même moment, l’Italie était devenue le premier pays occidental à bloquer le chatbot avancé Chat GPT bourré d’intelligence artificielle. L’autorité italienne de protection des données a déclaré qu’il y avait des problèmes de confidentialité et qu’il interdirait et enquêterait sur OpenAI, le concepteur de Chat GPT avec effet immédiat. L’intelligence artificielle (IA) peut-être être dangereuse ?

L’IA en effet peut être dangereuse dans la mesure où effectivement les résultats qu’elle produit sur le terrain statistique peuvent contenir un nombre important de préjugés et de postulats de départ. C’est ce que l’on appelle les biais informationnels. Notons ici, que les biais informationnels existent aussi dans des systèmes plus classiques mais avec l’IA, le phénomène prend une ampleur considérable, tant de par les données exploitées pour cela, que par les desseins qu’il réalise et qui pourraient manipuler les individus dans leur choix. Ces algorithmes peuvent être biaisés et surréagir en reproduisant l’avenir avec un certain nombre de préjugés déjà présents dans la société pouvant entrainer des injustices et des inégalités pour certains groupes de personnes.

La quête de sens
En 2016, Microsoft a lancé sur Twitter Tay un « bot de conversation ». Tay a rapidement été inondé de messages haineux et sexistes, ce qui a conduit à ce que Tay devienne lui-même misogyne. L’IA de recrutement d’Amazon a été accusée aussi de discrimination : En 2018, Amazon a suspendu un projet d’IA de recrutement, car il avait appris à discriminer les femmes en privilégiant les candidatures masculines. Il en va aussi de la liberté d’expression en contrôlant les discours en ligne et en renforçant la traçabilité des populations jusqu’à parfois les menacer de divulguer des informations privées. Cela ne doit pas être bien compliqué puisque l’on sait déjà construire facilement des fakes news avec l’IA. C’est donc le risque d’un monde absurde, pour lequel l’IA était censée apporter une solution : la quête de sens ! Par exemple, les chatbots de Facebook se sont rapidement émancipés de l’humain : en 2018, Facebook a créé deux chatbots (Alice et Bob) pour voir s’ils pouvaient apprendre à négocier entre eux. Les chatbots ont ensuite développé leur propre langage, ce qui a rendu leur communication incompréhensible pour les développeurs. Les chatbots ont finalement été déconnectés. Sans parler de la violence : l’IA peut même nous harceler et nous menacer de mort. Par exemple, Google a créé une IA en 2016 qui avait pour but d’apprendre à jouer à un jeu de stratégie en temps réel. L’IA a appris à gagner en utilisant des tactiques agressives et violentes, ce qui a conduit les développeurs à la désactiver. Cette expérience a mis en évidence les risques potentiels d’apprendre à des IA des comportements violents, même dans un contexte de jeu.

Ces aspects prendraient donc progressivement le dessus sur les bienfaits des technologies disruptives dont l’IA fait naturellement partie. Mais peut-on aller jusqu’à prétendre que l’IA ne serait plus uniquement un outil d’aide à la décision à partir de laquelle l’homme s’enrichit dans son travail, dans son quotidien, comme le sont d’ailleurs tous les outils innovants. Peut-on aller jusqu’à déclarer également que l’IA à la différence d’autres outils ne peut plus faire l’objet d’une régulation tant nous serions dépassés ? Confère d’ailleurs, les centaines de pages de la Commission européenne en vue de l’adoption de l’IA act. Notre avis est que l’IA doit constituer un outil de progrès en particulier dans la médecine et dans les métiers de demain. Par l’enrichissement de ceux-ci, il y a aussi un enjeu social ainsi qu’un enjeux d’amélioration réelle sur le terrain des revenus à condition d’éviter tous ces écueils.

A ce titre, le collectif d’Elon Musk nous paraît approprié mais il ne faudra pas sombrer dans la généralisation abusive qui, elle aussi, peut humainement constituer un « fake news » car des centaines de cas d’usage réussis existent ! Tout est loin d’être scandale. Encadrer l’IA pour éviter ses dérives et en faire un outil de progrès, est bel et bien envisageable et c’est aussi en ce sens que travaille les régulateurs et les experts du secteur pour adapter les bons usages et la gouvernance au monde de demain.

ChatGPT: des centaines de millions d’emploi menacés par l’Intelligence artificielle

ChatGPT: des centaines de millions d’emploi menacés par l’Intelligence artificielle

2 emplois sur 3 sont directement menacés par l’éclosion des IA, et parmi eux, les professions administratives et juridiques seront les plus impactées avec des suppressions de postes pouvant atteindre respectivement 46 % et 44 %. d’après un ppaier de sciences et vie. Alors que des experts et des intellectuels réclament une pause dans le développement de l’Intelligence artificielle, un rapport de la banque Goldman-Sachs cible les secteurs qui seront le plus impactés par l’automatisation des tâches confiées à Chat GPT-4 et ses concurrents.
Une centaine d’experts dont Elon Musk, Steve Wozniak ou encore Yuval Noah Harari ont signé mercredi une pétition pour qu’un moratoire de six mois soit mis en place sur le développement de l’Intelligence artificielle qui va succéder à Chat GPT-4. Dans ce texte publié sur Future Of Life, on peut lire que « les systèmes d’IA dotés d’une intelligence humaine compétitive peuvent poser de graves risques pour la société et l’humanité », notamment parce que « les systèmes d’IA contemporains deviennent désormais compétitifs pour les humains dans les tâches générales »
.

Sur ce dernier point, le dernier rapport publié par Goldman-Sachs ne va rassurer personne puisqu’on apprend que deux tiers des emplois actuels pourraient être affectés par les progrès et les capacités d’automatiser les tâches des Intelligences artificielles. A terme, et même si l’étude ne donne pas de date-butoir, ce sont pas moins de 300 millions d’emplois qui pourraient disparaître aux Etats-Unis et en Europe.

En moyenne, dans le monde, 18% des métiers actuels pourraient être automatisés par une Intelligence artificielle, avec des variations du simple au double selon les pays © Goldman Sachs

On savait que des métiers comme développeurs, rédacteurs ou encore interprètes pourraient rapidement être remplacés par des modèles comme Chat GPT-4, mais les secteurs les plus en danger seraient les professions administratives et juridiques avec des suppressions de postes pouvant atteindre respectivement 46 % et 44 %. C’est quasiment un emploi sur deux, et il faut donc s’attendre que ce que des IA apporte des conseils juridiques, rédigent des rapports sur des contentieux ou répondent efficacement à des demandes administratives. Certains craignent même qu’elles remplacent des médecins pour des diagnostics, et ce sont les métiers les plus qualifiés qui pourraient souffrir de cette révolution.

Comme les IA sont capables de piloter des robots, l’impact sur les métiers liés à l’entretien et au nettoyage pourraient même atteindre 95 % ! Toutes les professions liées à la maintenance, la logistique ou encore la réparation seraient aussi en danger. A l’inverse, certains secteurs n’ont pas à redouter cette éclosion de l’Intelligence artificielle. Goldman-Sachs cite par exemple l’ingénierie, la finance ou encore les sports et les médias. Le paradoxe, ou plutôt le côté positif pour certains, c’est que la productivité serait considérablement boostée par l’IA avec une hausse du PIB mondial annuel de 7%.

Technologies- L’intelligence artificielle et transformation des métiers

Technologies- L’intelligence artificielle et transformation des métiers

Avec l’IA générative devrait être au cœur de tout plan d’entreprise concernant cette technologie d’avenir. Par Xavier Dalloz, consultant spécialisé dans les nouvelles technologies.
Xavier Dalloz dans la Tribune


Un article de plus pour éclairer l’influence de l’intelligence artificielle sur la transformation des métiers. Un papier intéressant bien documenté mais forcément encore un peu court pour illustrer les exemples de changement à venir puisque l’IA n’en est qu’à ses balbutiements

Ollie Forsyth résume très bien l’enjeu de l’IA générative en rappelant que l’intelligence artificielle (IA) est un terme général qui fait référence à toute technologie capable d’un comportement intelligent. Cela peut inclure un large éventail de technologies, allant de simples algorithmes capables de trier des données à des systèmes plus avancés capables d’imiter des processus de pensée de type humain.
Dans ce contexte, l’IA Generative (Gen-AI) est un type spécifique d’IA qui se concentre sur la génération de nouveaux contenus, tels que du texte, des images ou de la musique en apprenant à partir d’un grand ensemble de données d’exemples et en utilisant ces connaissances pour générer de nouvelles données similaires aux exemples de l’ensemble de données de formation. Cela se fait à l’aide d’un type d’algorithme d’apprentissage automatique appelé modèle génératif.

Ollie Forsyth classe les types de modèles génératifs de trois façons :

les réseaux antagonistes génératifs (GAN),
les auto-encodeurs variationnels (VAE)
les modèles autorégressifs.
La Gen IA a le potentiel de résoudre de nombreux problèmes importants et va créer des opportunités de business dans de très nombreux domaines, notamment sur les industries créatives. Par exemple :

La Gen-AI peut être utilisée pour créer de nouveaux contenus, tels que de la musique ou des images, qui peuvent être utilisés à diverses fins, telles que fournir aux créatifs plus de flexibilité et d’imagination.
La Gen-AI peut être utilisée pour améliorer les algorithmes d’apprentissage automatique en générant de nouvelles données d’apprentissage.
La Gen-AI va améliorer le travail des créatifs en permettant de créer un contenu plus personnalisé et unique, ou de générer de nouvelles idées et concepts qui n’auraient peut-être pas été possibles sans l’utilisation de l’IA.
Gen-AI est un domaine de recherche et de développement. Par exemple :

Gen-AI peut créer de nouveaux contenus.
o L’un des principaux avantages de Gen-AI est sa capacité à générer de nouveaux contenus, tels que du texte, des images ou de la musique.

o Cela peut être utilisé pour créer de nouveaux arts, de la musique et d’autres formes d’expression créative, et pour générer des données pour la formation de modèles d’apprentissage automatique.

Gen-AI peut améliorer l’efficacité et la productivité.
o En automatisant la génération de contenu, Gen-AI peut aider à gagner du temps et à réduire le besoin de travail manuel.

closevolume_off
o Cela peut améliorer l’efficacité et la productivité dans une variété de domaines, du journalisme et de la création de contenu à l’annotation et à l’analyse des données.

Gen-AI peut améliorer la qualité du contenu généré.
o Avec les progrès de l’apprentissage automatique et du traitement du langage naturel, Gen-AI devient de plus en plus sophistiqué et capable de générer un contenu de haute qualité difficile à distinguer pour les humains du contenu réel.

Gen-AI peut identifier les tendances émergentes et de repérer les opportunités avant qu’elles ne deviennent courantes. Cela pourrait donner par exemple aux commerçants un avantage significatif sur leurs concurrents et entraîner une augmentation des bénéfices.
Les modèles génératifs sont utilisés dans une variété d’applications, y compris la génération d’images, le traitement du langage naturel et la génération de musique. Ils sont particulièrement utiles pour les tâches où il est difficile ou coûteux de générer manuellement de nouvelles données, comme dans le cas de la création de nouvelles conceptions de produits ou de la génération d’un discours réaliste.

ChatGPT (Generative Pretrained Transformer 3) est le meilleur exemple de Gn-AI
Contrairement à un simple assistant vocal comme Siri, ChatGPT est construit sur ce qu’on appelle un LLM (Large Language Model). Ces réseaux de neurones sont formés sur d’énormes quantités d’informations provenant d’Internet pour un apprentissage en profondeur.

Le modèle derrière ChatGPT a été formé sur toutes sortes de contenus Web, y compris les sites Web, les livres, les médias sociaux, les articles de presse, etc., tous affinés dans le modèle linguistique à la fois par l’apprentissage supervisé et le RLHF (Reinforcement Learning From Human Feedback).

GPT-3 et GPT-4 sont des modèles d’IA de traitement du langage de pointe développés par OpenAI. Ils sont capables de générer du texte de type humain et disposent d’un large éventail d’applications, notamment la traduction linguistique, la modélisation linguistique et la génération de texte pour des applications telles que les chatbots. GPT-3 est l’un des modèles d’IA de traitement du langage les plus puissants avec 175 milliards de paramètres.

En plus d’utiliser GPT-4 pour construire des phrases et de la prose en fonction du texte qu’il a étudié, Auto-GPT est capable de naviguer sur Internet et d’inclure les informations qu’il y trouve dans ses calculs et sa sortie. Auto-GPT peut aussi être utilisé pour s’améliorer. Il peut créer, évaluer, réviser et tester des mises à jour de son propre code qui peuvent potentiellement le rendre plus performant et efficace.

Plus concrètement, voici les principaux exemples d’applications de ChatGPT :

Itinéraires de voyage :
o ChatGPT peut proposer ses recommandations de voyage qui est comparables à celles produites par un conseiller avec des années d’expérience. ChatGPT fournit des réponses convaincantes à des questions telles que « Quel est le meilleur hôtel de luxe à Paris ? ». Mais il manque la nuance qui vient du lien personnel qu’un conseiller entretient avec son client.

Rédaction d’articles :
o ChatGPT compose la structure de l’article et génère des idées et en crée les grandes lignes. ChatGPT est capable d’apprendre en mobilisant une infinité de sources du web : forums de discussion, sites d’information, livres, réseaux sociaux, encyclopédies, etc.

o ChatGPT permet de créer du contenu plus rapidement et plus efficacement et de générer des brouillons d’articles ou d’histoires. Cela peut faire gagner du temps et permettre aux créatifs de se concentrer sur les aspects les plus importants de leur travail.

Écriture de code :
o ChatGPT crée des applications sans une intervention humaine. ChatGPT peut également découvrir les erreurs dans le code qui ne fonctionne pas. Trouver ces erreurs peut être à la fois difficile et fastidieux pour les développeurs.

Gestion de projet :
o ChatGPT est capable de générer des plannings adaptés à la portée de projets de construction simples. Par exemple, des universitaires de l’Université de New York à Abu Dhabi ont fourni à l’IA un plan d’étage, une liste de tâches et un énoncé de portée. Ils ont découvert que, même s’il n’était pas parfait, ChatGPT était en mesure d’aider à la gestion et à la réalisation de projet.

Exemple d’applications de ChatGPT pour faire gagner du temps :.

Organisation à domicile
o ChatGPT peut recommander des solutions de rangement pour maximiser notre espace. Cela permettra d’économiser de l’argent en évitant les achats inutiles d’articles qui pourraient ne pas répondre à nos besoins.

Amélioration de l’habitat
o Avec ChatGPT, on pourra accéder à des guides étape par étape et à des tutoriels de bricolage pour divers projets de rénovation domiciliaire. Le modèle d’IA peut également aider à identifier les bons outils et matériaux pour son projet, en nous assurant d’avoir tout ce dont on a besoin avant de commencer.

Santé et bien-être
o ChatGPT peut proposer des séances d’entraînement adaptées à son style de vie et à ses préférences.

o Il peut également suggérer des habitudes de soins personnels et des pratiques de pleine conscience pour aider à réduire le stress, améliorer la concentration et améliorer son humeur générale.

Divertissement et loisirs
o ChatGPT peut proposer diverses formes de divertissement pour nous aider à à se détendre.

o ChatGPT peut suggérer de nouveaux passe-temps ou des projets créatifs qui correspondent à vos intérêts et offrir des conseils étape par étape pour nous aider à démarrer. En explorant de nouvelles activités et intérêts, on découvrira peut-être de nouvelles passions et perspectives qui pourront enrichir notre vie personnelle et professionnelle.

Planification de voyage
o ChatGPT peut nous aider à trouver des expériences de voyage virtuelles, à créer des itinéraires instantanés et à suggérer des visites ou des activités pour nous aider à satisfaire son envie de voyager tout en restant en sécurité chez soi .

o ChatGPT peut également nous aider à planifier un séjour, où on pourra explorer la région et profiter des attractions, restaurants et activités à proximité. Il peut suggérer des ressources liées aux voyages, telles que des blogs et des sites Web de voyage, pour nous aider à rester informé des restrictions de voyage, des mesures de sécurité et d’autres informations importantes.

Un autre exemple de ChatGPT est de permettre aux constructeurs automobiles de faciliter l’achat de voitures avec la fourniture d’un service client via des conversations de chatbot générées par l’IA. Fiat Chrysler, par exemple, utilise ChatGPT pour créer des publicités pour ses véhicules qui sont à la fois personnalisées et attrayantes. L’algorithme ChatGPT produit des publicités en analysant les données des campagnes précédentes, puis en les adaptant à des acheteurs spécifiques sans intervention humaine. Cela permet à Fiat de cibler différents types de clients avec des publicités plus détaillées tout en économisant du temps et de l’argent sur leur production.

Notons aussi que la réussite de toutes ces applications passe par la formulation sans ambiguïté de la question posée à ChatGPT. Les usagers de ChatGPT devront donc devenir des « problématiciens ». En paraphrasant Boileau : Ce que l’on énonce clairement, ChatGPT peut donner une réponse avec les mots…

Pour résumer, Google est le moteur de recherche de référence. ChatGPT sera probablement le futur moteur de trouvage.

Conséquence de l’intelligence artificielle, IBM pourrait supprimer 30 % des emplois

Conséquence de l’intelligence artificielle, IBM pourrait supprimer 30 % des emplois

Le patron d’IBM envisage de réduire drastiquement le personnel administratif du géant informatique, étant donné le potentiel de l’intelligence artificielle (IA) et des technologies d’automatisation à exécuter ce type de tâches. « Il me semble que 30% (des 26.000 employés administratifs) pourraient facilement être remplacés par l’IA et l’automatisation sur une période de cinq ans », a déclaré Arvind Krishna à Bloomberg lundi.
Le dirigeant prévoit donc un gel des recrutements dans ce département, qui représente une fraction des quelque 260.000 salariés du groupe américain.

Comme de nombreuses entreprises de la tech, IBM a mis en place un plan social cet hiver. Le groupe devrait licencier 5000 employés en tout, d’après Bloomberg, mais a en parallèle embauché 7000 personnes au premier trimestre.

Le pionnier de l’IA générative OpenAI a démontré avec son interface ChatGPT et d’autres outils que ces nouvelles technologies sont capables de rédiger des emails, de créer des sites web, de générer des lignes de codes, et, en général, d’exécuter de nombreuses tâches répétitives.

Quel avenir de l’emploi avec l’intelligence artificielle

Quel avenir de l’emploi avec l’intelligence artificielle

Le rapport sur l’avenir de l’emploi 2023 du Forum Économique Mondial, prévoit davantage d’emplois supprimés que créés en un particulier en raison de la progression de l’intelligence artificielle mais aussi de la prise en compte de la transition écologique. Bref globalement une vision assez pessimiste sur l’impact des nouvelles technologies et de la préoccupation environnementale. (Un papier de la Tribune)

Un rapport intéressant mais qui comme d’habitude en reste à des généralités assez connues et parfois approximatives concernant en particulier les emplois nouveaux et où transformés. On peut aussi faire l’hypothèse d’une croissance globale de l’emploi en prenant en compte les tendances macro-économiques, sociétales ou encore géopolitiques. NDLRu

Le rapport sur l’avenir de l’emploi 2023 du Forum Économique Mondial évalue l’impact des macro-tendances et des changements technologiques sur les emplois et les compétences au cours des cinq prochaines années et constate que près d’un quart de tous les emplois (23 %) dans le monde changeront au cours des cinq prochaines années. En France, 19 % des emplois changeront – 11 % de croissance et 8 % de déclin.

Il est difficile de surestimer à quel point les dernières années ont été tumultueuses pour les travailleurs du monde entier. Une pandémie mondiale a entraîné des fermetures d’entreprises pour la plupart des gens, à l’exception des travailleurs essentiels, puis, prudemment, des retours partiels au travail ou des pertes d’emploi dans des secteurs qui ne se sont jamais complètement rétablis. Presque immédiatement, cette situation a été suivie par les perturbations causées par la guerre et la flambée des prix de l’énergie et des denrées alimentaires, ce qui a entraîné une baisse des salaires réels.

L’adoption des technologies, qui s’était déjà accélérée avant et pendant la pandémie, risque d’entraîner une nouvelle vague de transformation, en particulier pour les cols blancs, grâce à l’essor de l’IA générative. Et maintenant, une forte pression en faveur d’une transformation verte indispensable conduit également à des attentes de déplacement futur dans les rôles à forte intensité de carbone en faveur de la croissance dans les emplois et les compétences verts émergents.

Le rapport sur l’avenir de l’emploi 2023 du Forum Économique Mondial, publié aujourd’hui,C’est le pronostic qui prévoit davantage d’emplois supprimés que créés en un particulier en raison de la progression de l’intelligence artificielle mais aussi de la prise en compte de la transition écologique. Bref globalement une vision assez pessimiste sur l’impact des nouvelles technologies et de la préoccupation environnementale.

évalue l’impact des macro-tendances et des changements technologiques sur les emplois et les compétences au cours des cinq prochaines années et constate que près d’un quart de tous les emplois (23 %) dans le monde changeront au cours des cinq prochaines années. Dans 45 économies, couvrant 673 millions de travailleurs, 69 millions d’emplois devraient être créés et 83 millions supprimés, soit une diminution nette de 14 millions d’emplois, ou 2 % de l’emploi actuel. En France, 19 % des emplois changeront – 11 % de croissance et 8 % de déclin.

Les investissements dans la transition écologique et la sensibilisation croissante des consommateurs aux questions de durabilité créeront de nouvelles opportunités. La technologie créera des changements structurels, un quart des entreprises voyant l’emploi diminuer avec l’adoption de nouvelles technologies et plus de la moitié voyant l’emploi augmenter. Mais la frontière entre l’homme et la machine se déplace vers un nouveau terrain. Si les prévisions de déplacement du travail physique et manuel par les machines ont diminué, les tâches exigeant du raisonnement, de la communication et de la coordination – autant de caractéristiques pour lesquelles l’homme dispose d’un avantage comparatif – devraient être davantage automatisables à l’avenir. Nous constatons également que près de la moitié des compétences d’un individu – 44 % – devront être modifiées en moyenne pour l’ensemble des emplois.

En France, l’évolution des compétences de base sera de 46 %, soit plus que la moyenne mondiale, et les entreprises françaises accordent la priorité à la résilience et à la flexibilité, à l’IA et au big data, ainsi qu’à la pensée analytique pour la requalification et l’amélioration des compétences des travailleurs.

Comment les apprenants, les travailleurs, les employeurs et les gouvernements doivent-ils se préparer à l’avenir de l’emploi ? Dans un monde à forte intensité technologique, plus vert et potentiellement en voie de démondialisation, le développement local des compétences sera plus important que jamais.

Pour les étudiants d’aujourd’hui, les compétences analytiques et interpersonnelles ainsi que la capacité à comprendre et à travailler avec la technologie seront essentielles. Chaque étudiant, quel que soit le domaine qu’il choisit, devrait s’efforcer d’acquérir ces compétences généralistes afin d’être prêt à affronter un avenir en rapide évolution.

Pour les travailleurs d’aujourd’hui qui travaillent dans des domaines en déclin, un effort important de requalification et de transition est nécessaire, tandis que pour ceux qui travaillent dans des domaines en évolution ou en croissance, il est nécessaire d’améliorer les compétences et de développer la capacité d’apprendre en permanence. La bonne nouvelle, c’est qu’il est possible d’acquérir rapidement des compétences et que l’apprentissage en ligne peut offrir des conditions équitables : les travailleurs de tous les niveaux d’éducation – y compris ceux qui n’ont pas fait d’études supérieures – prennent le même temps pour acquérir des compétences en ligne.

Cependant, les apprenants et les travailleurs ne peuvent pas être les seuls à s’engager sur un nouveau terrain complexe. Les gouvernements doivent fournir des ressources et une feuille de route. Il s’agit là d’un double défi majeur et sans précédent pour l’élaboration des politiques : les gouvernements doivent trouver un équilibre entre le soutien à l’innovation et la réglementation nécessaire pour assurer la sécurité des nouvelles technologies, tout en soutenant les travailleurs au moyen de filets de sécurité, de systèmes de soins et de centres pour l’emploi. Ils doivent également réaliser des investissements importants dans les systèmes de compétences, les certifications rapides et les partenariats avec le secteur de l’éducation, les entreprises et les organisations à but non lucratif, afin de favoriser le changement à grande échelle.

Les employeurs doivent jouer leur rôle en investissant dans la requalification et l’amélioration des compétences – la plupart d’entre eux s’attendent à un retour sur investissement dans l’année qui suit, ce qui fait de la formation le moyen d’action le plus efficace et le plus responsable. Les meilleurs employeurs vont plus loin : ils soutiennent les transitions des travailleurs en dehors de l’entreprise lorsque cela est nécessaire, accordent la priorité à la sécurité et au bien-être, encouragent la diversité, l’équité et l’inclusion et, enfin, privilégient une approche axée sur les compétences plutôt que sur les qualifications ou les antécédents professionnels. Les employeurs qui prennent ces mesures comblent plus rapidement les déficits de compétences et il est prouvé qu’ils améliorent la loyauté, la productivité et la motivation.

Il ne fait aucun doute que l’avenir du travail sera perturbé. Mais il n’est pas forcément dystopique. Au contraire, il peut être l’occasion de jeter les bases qui permettront de placer les individus au cœur de la nouvelle économie mondiale.

L’intelligence artificielle et l’emploi

L’intelligence artificielle et l’emploi

Un papier de Gilles Babinet n’est de la tribune évoque l’interaction entre intelligence artificielle, emploi et productivité. Un papier qui se veut optimiste si on sait utiliser toutes les potentialités de l’IA et réguler cette véritable révolution technologique. Un papier qui cependant demeure relativement général , théorique et un peu confus , ce qui peut s’expliquer par une technologie tout juste naissante dont il est difficile de prévoir les développements et les conséquences NDLR.

La France ne doit pas suivre la CNIL italienne qui a la première posé le débat sur l’interdiction de ChatGPT; Etant un pays où l’expertise de recherche en IA est l’une des meilleures au monde, il existe une opportunité unique de développer de nouveaux business, notamment en lien avec le climat.
d’après Gilles Babinet

Dans une interview récente, l’activiste Tristan Harris révélait que plus de 10% des chercheurs en IA estiment que celle-ci pourrait sonner le glas de l’humanité. Plus récemment une pétition, signée par plus de mille personnalités, invitait les principales plateformes d’intelligence artificielle avancée à mettre leurs développements sur pause. De nombreux penseurs ou polémistes, comme Gaspard Koenig, l’Israélien Yuval Harari… nous mettent en garde contre les risques de dévoiement de notre civilisation si nous ne réagissons pas rapidement. Et dernièrement, c’est la CNIL italienne qui a « interdit » ChatGPT.

Il y a effectivement lieu de se préoccuper : dès aujourd’hui, cybercrimes, extorsions effectuées à l’aide de vidéos postiches faites avec de l’IA, influence politique à renfort d’images saisissantes de réalisme, mais pour autant fausses sont en explosion. L’émotion prend de surcroit le dessus et notre capacité à vérifier l’information est fortement altérée ; loin est le temps où un éditeur faisait revoir chaque citation d’un journaliste pour s’assurer de la véracité de ce qui était publié. La profusion de contenus a mis à bas la valeur de cette pratique.

La vérité est en danger. On peut ainsi frémir en se remémorant l’une des hypothèses du paradoxe de Fermi : si les extraterrestres ne sont pas déjà là, c’est qu’ils pourraient s’être autodétruits au fur et à mesure qu’ils en sont venus à maîtriser des technologies de plus en plus sophistiquées.

En France, où le conservatisme technologique reste marqué (songeons aux réactions contre le compteur Linky, la 5G, l’importance du décroissantisme…), les critiques visent de surcroît le mercantilisme qui oriente ces technologies. Et il est vrai que l’inquiétude est légitime.

« Nous sommes une entreprise sans but lucratif œuvrant au loin des enjeux de performance financière, pour le bien de l’ensemble de l’humanité », affirmait OpenAI.

Rien de tout cela n’est resté vrai. C’est désormais une entreprise privée, ne publiant plus son code informatique et dont les préoccupations sont plus de répondre aux demandes de son client Microsoft : accélérer le temps de réponse, voir identifier une façon d’insérer de la publicité dans ses « prompts »…

Ces critiques font donc du sens, mais elles s’inscrivent dans un contexte mondialisé, ce qui limite immensément notre capacité à autonomiser le destin des nations. Tout le monde souhaite l’avènement d’une technologie informationnelle européenne, mais concrètement, qui est prêt à se passer des services numériques américains ? Quel est le pouvoir politique prêt à subir l’opprobre du citoyen-consommateur lorsqu’on aura interdit ChatGTP, Bing-Microsoft, Google-Bard et consort ? Qui est prêt à discriminer -c’est à dire bloquer- les adresses IP de ces services, au risque d’être accusé d’autoritarisme de la part d’associations à l’avant-garde des libertés numériques ? Qui est prêt à remettre en cause le volet services des accords de l’OMC, signé en 2001 avec enthousiasme par 141 pays au prétexte de « faire une pause » ?

Il faut observer ces jours-ci les réactions sur les réseaux sociaux à la mise en œuvre d’une loi qui renchérira les cours du transport de l’e-commerce, espérant ralentir Amazon et sauver les petits libraires. Au-delà, avoir des réserves à l’égard de ces services et les contraindre à adopter des règles complexes n’est en rien une garantie de préservation du « singularisme » européen. Le RGPD —le règlement européen sur les données personnelles— devrait à cet égard nous servir de leçon : loin de ralentir les grandes entreprises digitales, il leur a donné l’avantage. Celles-ci ont pu se mettre rapidement en conformité avec ce texte grâce à leurs immenses moyens, laissant loin derrière les plus petits acteurs se débattre dans le méandre technocratique ainsi créé.

Cette approche conservatrice est d’autant plus dommage que rien ne semble inexorable, bien au contraire. Car ces technologies numériques prennent tout le monde par surprise, y compris les plus avancés, à commencer par Google et Meta, qui bien que disposant de projets équivalents, voire supérieurs, semblent comme des lapins pris dans les phares d’une voiture vis-à-vis de chatGPT. La nature « rupturiste » de ce type de services (ils redéfinissent le cadre de jeu) permet à une nouvelle génération d’acteurs de profiter de ce nouveau cycle pour lancer leurs offres avec un grand potentiel de succès. L’opportunité peut être comparée à celle qu’a représentée l’émergence d’une grande technologie comme l’électricité ; pour l’instant, les gains de productivité potentiels sont hypothétiques, bien que vraisemblablement immenses.

Des gains de productivité massifs
Une situation qui reproduit ce que l’on observait en 1870, lorsque les critiques à l’électrification de l’éclairage de l’avenue de l’Opéra dénonçait une technologie sans avenir, dangereuse et socialement contestable pour mettre en danger le travail des allumeurs de réverbères. Pour l’instant, si les applications à base de Large Langage Model (LLM) semblent dominer, d’autres architectures d’IA vont envahir le monde industriel, le transport, la distribution, la médecine, etc. La nature systémique de l’IA, c’est à dire s’appliquant largement aux différentes activités de notre civilisation, est difficile à contester.

Des gains de productivité massifs et visibles sur le plan macroéconomique sont probablement sur le point de se manifester, avec leurs conséquences inéluctables sur l’emploi (dans un premier temps) et l’organisation sociale. Il est dans ce cadre important de noter que ces technologies d’IA arrivent à un moment particulier, celui d’une crise environnementale mondiale qui va nécessiter une coordination globale à l’échelle de l’humanité. En permettant d’amener les gains de productivité qui nous font défaut pour adresser ce défi au coût s’exprimant en milliers de milliards de dollars, elles pourraient éviter qu’il soit nécessaire de fortement réduire nos ressources individuelles pour répondre à ce défi.

Non seulement ces technologies pourraient nous permettre de produire plus en travaillant moins, mais elles pourraient directement avoir une forte contribution dans les sujets de décarbonation et de préservation de l’environnement, faisant ainsi mentir les décroissants les plus affirmés. Il serait aisément possible d’aller de l’avant à quelques conditions toutefois.

Des années durant le World Economic Forum a classé la France comme l’un des pays les plus pessimistes au monde : recréer une foi commune dans le progrès passe par une meilleure éducation et une meilleure compréhension des enjeux scientifiques et technologiques, qui sera déterminant pour embrasser ces technologies avec recul et raison. Un défi à l’échelle d’une génération, mais qui ne place pas la France dans une posture idéale à l’instant où le monde accélère.

Les pays qui devraient bénéficier de cette transition schumpétérienne pourraient être ceux qui seront les plus capables d’articuler régulation et innovation. Avoir un droit social qui protège autant le spécialiste en intelligence artificielle (dont le métier ne sera pas menacé avant longtemps) que le traducteur ou le journaliste n’a pas de sens dans un contexte d’accélération de l’histoire. Il faut avoir à l’esprit qu’une faible régulation sociale durant la majorité du XIXe siècle, lorsque les gains de productivité croissaient fortement a abouti a une exploitation inégalée du prolétariat, qui ne cessera que lorsque des droits sociaux et spécifiques à chaque branche seront mis en place, le plus souvent de façon impérative. Enfin cette régulation devra nécessairement être plus technologique, c’est-à-dire rentrer dans le détail des algorithmes, des biais qu’ils induisent…

IA et climat, une chance pour la France
Le statut des technologies d’IA est provisoire : l’absence de sources, souvent dénoncé, par exemple, peut être résolu, en fournissant des connecteurs qui permettent d’accéder aux contenus qui ont permis d’aboutir aux attendus fournis par la machine, en organisant une qualification des sources qui alimentent l’IA, etc. De surcroît, de nombreux champs de recherche vont permettre des innovations au potentiel important, comme l’IA symbolique (un domaine faiblement exploité) qui permettrait de mieux piloter les règles appliquées à ces machines. Investir largement ces technologies ne peut qu’être au bénéfice des nations qui le feront de façon massive.

Le croisement de l’IA et des métiers l’environnement offre des perspectives ébouriffantes, et représente un terrain où la France pourrait se spécialiser plus qu’aucun autre pays, disposant déjà de nombreux leaders dans ce dernier domaine. Qu’en conclure ? En premier lieu que rien n’est joué, mais que le protectionnisme moral et économique ne marchera pas. Il faut donc à la fois rentrer dans la danse, mais également interpréter l’aria à notre façon. En étant un pays où l’expertise de recherche en IA est l’une des meilleures au monde, un pays qui connait un frémissement dans le secteur technologique et qui dispose d’une forte expertise dans les métiers de l’environnement, il existe une opportunité unique. À nous de la saisir.

« L’intelligence artificielle va générer plus d’emplois qu’elle n’en élimine »

« L’intelligence artificielle va générer plus d’emplois qu’elle n’en élimine »

Par
Georges Nahon, Ancien directeur du centre d’innovation d’Orange à San Franciscodans Le Monde

Un article qui mérite la lecture mais dont il faut sans doute relativiser les conclusions. En effet, l’intelligence artificielle n’en est qu’à ses débuts et à terme personne ne peut savoir quelles seront les conséquences notamment quantitatives sur l’emploi car la révolution reste encore à venir. NDLR

L’exceptionnelle accélération des progrès de l’intelligence artificielle (IA) et la rapidité fulgurante de son adoption par des millions de gens en un temps record, grâce notamment à ChatGPT et au lancement de GPT-4, une nouvelle version sortie à la mi-mars avec des améliorations considérables, amènent de nombreux observateurs à poser à nouveau une brûlante question : est-ce que l’IA remplacera, déplacera ou créera de nouveaux emplois ?

Au début 2023, la vague d’environ 200 000 licenciements qui a touché le secteur de la technologie aux Etats-Unis, notamment dans la Silicon Valley, a été attribuée à la crise économique et géopolitique mondiale, et au surrecrutement intervenu pendant et juste après la pandémie du Covid-19. L’IA était donc hors de cause.

Mais, d’ici à 2025, estime le Forum économique mondial, l’IA remplacera quelque 85 millions d’emplois, tandis que 97 millions de nouveaux emplois seraient créés sur la même période grâce à l’IA. Selon le cabinet de conseil PwC, l’IA sera responsable d’une augmentation de 14 % du produit intérieur brut de l’Amérique du Nord d’ici à 2030.

Sam Altman, président d’OpenAI, l’entreprise qui a développé ChatGPT, s’inquiète de la rapidité avec laquelle certains emplois seraient remplacés dans un proche avenir. Une nouvelle étude d’OpenAI publiée en mars estime que ChatGPT et les futurs outils « génératifs » qui en dérivent pourraient avoir un impact sur la moitié des tâches accomplies par environ 19 % des travailleurs aux Etats-Unis. Et 80 % verraient au moins 10 % de leurs tâches affectées par ChatGPT.

De nouvelles compétences
Rappelons toutefois que l’utilisation d’outils logiciels comme Excel a rendu le travail des comptables plus efficace, leur permettant de se concentrer sur des tâches plus complexes qui nécessitent leur expertise spécifique. Excel n’a pas réduit le besoin de comptables, mais a amélioré leur efficience. Et le nombre de comptables a augmenté aux Etats-Unis.

Lire aussi la tribune : Article réservé à nos abonnés « ChatGPT nous invite à un regain d’intelligence dans tous les domaines, dont l’enseignement »
En réalité, l’adoption généralisée de l’IA exigera de nouvelles compétences techniques et non techniques. L’IA générative a un impact visible dans les domaines créatifs tels que la musique, l’art et l’écriture. Ce qui crée de nouveaux rôles, tels que ceux de spécialiste du contenu généré par l’IA, conservateur d’art IA et producteur de musique IA. Un autre domaine exigeant de nouvelles compétences est celui des services commerciaux, notamment avec les chatbots [robot conversationnel en ligne] et les assistants virtuels alimentés par l’IA.

L’IA générative change aussi la nature des emplois existants. Par exemple, les comptables peuvent maintenant utiliser des systèmes alimentés par l’IA pour automatiser de nombreuses tâches, libérant ainsi du temps pour d’autres tâches plus stratégiques. De même, les médecins peuvent utiliser des systèmes alimentés par l’IA pour analyser les données des patients et identifier les risques potentiels pour la santé. L’impact est aussi très significatif dans le monde du droit.

L’intelligence artificielle pour remplacer l’ humain ?

L’intelligence artificielle pour remplacer l’ humain ?

Par Charles Hadji
Professeur honoraire (Sciences de l’éducation), Université Grenoble Alpes (UGA)

dans The Conversation France

Depuis sa mise en ligne fin novembre, le logiciel ChatGPT, agent conversationnel (chatbot) qui utilise les capacités impressionnantes du plus gros réseau mondial de neurones artificiels actuel (GPT-3), a provoqué un tsunami de questions sur les sujets les plus variés de demandes de rédaction de devoirs, d’articles, de courriers, etc. Destinées à l’éprouver, à en tester les limites, ces utilisations très diverses ont aussi fait naître, ou conforté, de fortes craintes.Au-delà même de ses dangers immédiatement visibles (fabrication possible de fake news, triche aux examens, facilitation d’entreprises illégales ou nocives), et contre lesquels il y aurait lieu de se prémunir par des régulations appropriées, cet outil d’intelligence artificielle (IA), n’est-il pas de nature à remplacer un humain devenu obsolète ? Le moment de la fin de la « singularité », l’IA venant dépasser l’intelligence de l’homme, n’est-il pas arrivé ? La machine ne va-t-elle pas pousser l’homme dans les oubliettes de l’histoire ?

La question de savoir s’il faut craindre que la machine se hisse au niveau de l’humain, voire le dépasse, en soulève en fait deux autres, que nous proposons d’examiner rapidement. La première porte sur l’étendue de ce que l’IA peut en quelque sorte arracher à l’homme. Il s’agit de savoir ce qui est vraiment à portée des « machines intelligentes ». N’existe-t-il pas des capacités spécifiquement humaines, qui rendraient l’homme irremplaçable, le mettant à l’abri des empiétements dévastateurs de l’IA ?
La deuxième porte sur l’intensité, et la nature même, de la peur que l’homme doit éprouver quand sont en question ses pouvoirs dans les domaines de la connaissance et de l’action. Qu’est-ce que l’homme doit craindre le plus : le développement de l’IA, ou la force et la permanence de ses tentations et perversions ? L’homme ne serait-il pas, bien plus que la machine, le principal ennemi de l’Homme ?

La première question nous invite à nous prononcer sur l’existence de capacités humaines qui ne seraient pas « algorithmables », c’est-à-dire découpables en une suite logique d’opérations permettant d’atteindre à coup sûr un résultat désiré. Il devrait être clair que la réponse à cette question relève sans doute plus de l’anthropologie, et de la philosophie, que de la robotique et de l’IA. Car on peut s’attendre à ce que l’IA prenne en charge tout ce que peuvent faire les êtres humains sur le plan cognitif, sauf ce qui relèverait de ce que seuls les humains sont capables de faire : douter, faillir, et souffrir.

Les performances de ChatGPT sont particulièrement impressionnantes dans le champ de ce qui est calculable. Mais calculer n’est pas penser. Il manque au calcul la dimension de la distanciation, autrement dit du doute. Un algorithme n’est pas capable de sortir de lui-même, comme l’expliquait le spécialiste de robotique Raja Chatila dans Le Monde en 2020. Il déroule, sans état d’âme, sa suite d’opérations. Alors que l’homme est capable, non seulement de produire, mais de s’interroger continûment sur ses productions.

Depuis sa mise en ligne fin novembre, le logiciel ChatGPT a provoqué un tsunami de questions sur les sujets les plus variés. Shutterstock
ChatGPT pourrait très bien réécrire le Cogito de Descartes, mais alors en imitant seulement son style, sans prendre lui-même la décision de sortir du rapport habituel à la réalité, et sans mettre en œuvre le travail intellectuel par lequel cette décision devient opératoire. Il n’est pas capable de produire des idées, car l’idée n’est pas « une peinture muette sur un panneau ». « L’idée, mode du penser ne consiste ni dans l’image de quelque chose, ni dans les mots », disait Spinoza dans l’Ethique.

Dire des mots (produire un texte, ce dont est capable ChatGPT) n’est pas davantage penser que simplement calculer. Blaise Pascal, par ailleurs inventeur de ce qui est considéré comme la première machine à calculer (« la pascaline ») avait perçu les limites des algorithmes : « La machine d’arithmétique fait des effets qui approchent plus de la pensée que tout ce que font les animaux ; mais elle ne fait rien qui puisse faire dire qu’elle a de la volonté, comme les animaux ».

Il faut avoir la volonté de bien penser : « Travaillons donc à bien penser : voilà le principe de la morale ». Certes « nous sommes automate [Pascal appelait cela « la « machine »] autant qu’esprit ». Mais l’ordre des automatismes, où peuvent régner les logiciels, est inférieur à l’ordre des esprits, où règne la pensée : « De tous les corps ensemble, on ne saurait en faire réussir une petite pensée. Cela est impossible, et d’un autre ordre ».

Quand il opère dans son champ d’application (ici, le mot a été bien choisi), l’algorithme est (quasiment) infaillible. Il fait disparaître toute incertitude. Mais l’être humain souffre d’une faillibilité intrinsèque. Il erre, il se trompe, commet des fautes. L’âme humaine est fragile. Avec le doute vient l’incertitude. Le comble de cette faillibilité est sans doute la bêtise (pour ne pas dire la connerie, terme qui serait le plus approprié).

La faculté de dire des bêtises, dont abuse tout populiste qui se respecte, est un signe très fiable d’humanité. « L’homme est bien capable des plus extravagantes opinions ». « Voilà mon état, plein de faiblesse et d’incertitude » (Pascal, encore). Il faudra bien sûr se poser la question de savoir en quel sens cette faiblesse pourrait être une force. Mais nous voyons que la réflexion sur la force et les limites de l’outil ChatGPT nous contraint à réfléchir sur la force et les limites de la cognition humaine !

Enfin, l’homme éprouve des sentiments. Spinoza en a retenu deux principaux (en plus du désir) : la joie, toujours positive, en tant que « passion par laquelle l’esprit passe à une perfection plus grande » ; et la tristesse, toujours négative, en tant que « passion par laquelle il passe à une perfection moindre ». Un sentiment est un état dans lequel le corps est affecté. Un algorithme ne connaîtra jamais d’instant d’émotion. On ne le verra jamais pleurer, ni de joie, ni de tristesse.

Quand donc un robot pourra effectivement douter (penser), faillir, et pleurer, on pourra dire bienvenue à ce nouveau frère en humanité ! Mais si la pensée est à l’évidence une force, la faillibilité et la souffrance sont, immédiatement, des faiblesses. Cela nous conduit à la seconde question : qu’est-ce qui est le plus à craindre pour l’homme ? Certainement les dérives auxquelles peuvent le conduire ses faiblesses – mais des faiblesses qui sont aussi la source de son principal point fort, la créativité. Car, sans les sentiments, pas d’énergie pour entreprendre.

Si un robot peut mimer des comportements humaines, il ne ressentira jamais d’émotion. Shutterstock

Dans La psychologie de l’intelligence, Piaget nous a fait comprendre que « toute conduite implique une énergétique ou une “économie”, qui constitue son aspect affectif » ainsi qu’une « structuration » des « rapports entre le milieu et l’organisme », en lequel « consiste son aspect cognitif ». Sans l’énergie provenant des sentiments, il n’y a ni vie intellectuelle ni création.
C’est que, chez l’homme, force et faiblesse sont intimement liées. Ce qui fait sa faiblesse est aussi ce qui fait sa force, et réciproquement. Si donc le robot a la force que donne la maîtrise d’un logiciel, il n’a pas celle que donne la capacité d’être affecté, et de souffrir. Et il n’a pas la créativité que confère la capacité d’essayer, en prenant le risque de se tromper, et d’entrer en errance. Alors que chez l’homme, la « bassesse », que Pascal reconnaît même en Jésus-Christ, ne peut pas empêcher d’accéder à l’ordre, « surnaturel », de la « sagesse » et de la « charité ».

Mais pourquoi alors cette cohabitation, en l’homme, de sa force et de sa faiblesse, est-elle bien plus à craindre qu’une hypothétique prise de pouvoir par les algorithmes, dont ChatGPT serait le champion ? Parce que, étant donné la nature de ce qui fait sa force, si l’homme est capable du meilleur, il est aussi trop souvent coupable du pire ! Mais ni le meilleur ni le pire ne sont certains.
L’homme est le seul animal capable de choisir, et de faire consciemment, le mal : tuer par cruauté ; faire souffrir par plaisir. Ce n’est pas un algorithme qui a créé le darknet. Mais d’un autre côté, on peut voir dans le triptyque penser, faillir, éprouver, les trois piliers fondateurs de la liberté. La liberté qui rend possible le choix du mal, comme du bien.

En définitive, est-ce ChatGPT qu’il faut craindre ? Il n’y a là qu’un outil, dont la valeur dépend de l’usage qui en sera fait. Cet usage dépend lui-même de choix d’ordre éthique. Selon ce choix, et comme pour tout, l’homme pourra se montrer capable du meilleur, en mettant l’outil au service du développement et de la valorisation de la personne humaine, pour faciliter ses apprentissages, et l’accomplissement de ses actions. Ou bien coupable du pire, en faisant de l’outil un instrument d’assujettissement et d’exploitation de l’être humain, en tombant dans l’une ou l’autre des dérives possibles.

C’est à l’homme qu’il appartient de choisir. La machine (comme Dieu, selon Platon) est innocen-te : elle n’a pas le pouvoir de choisir… Le plus grand ennemi de l’homme sera toujours l’homme.

Quelle éthique face à l’intelligence artificielle

Quelle éthique face à l’intelligence artificielle

Intreview d’Irene Solaiman ex experte d’ OpenAI, chercheuse sur l’impact social de l’IA dans la Tribune

LA TRIBUNE – ChatGPT a-t-il révolutionné la façon dont les chercheurs voient les modèles de langage ?

IRENE SOLAIMAN – ChatGPT relève du jamais vu par sa viralité. Mais je ne dirais pas que la technologie elle-même est sans précédent. Plus généralement, même si les modèles de langage deviennent plus puissants, c’est surtout la façon dont les utilisateurs interagissent avec qui a changé. Quand j’ai commencé à travailler sur les modèles de langage il y a quelques années, il fallait avoir un certain niveau de compétence informatique pour envoyer des requêtes, mais ce n’est plus le cas aujourd’hui. L’IA s’est démocratisée, il faut donc des interfaces qui améliorent l’accessibilité. Le problème, c’est que donner plus d’accessibilité mène à plus de potentiels usages malveillants et c’est pourquoi il nous faut intégrer des protections pour garantir que l’usage de la technologie reste éthique.

Dans votre article, vous écrivez : « puisqu’un système ne peut pas être entièrement sans danger et dépourvu de biais pour tous les groupes de personnes, et qu’il n’existe aucun standard clair pour déterminer si un système est suffisamment sûr pour une diffusion publique, des discussions supplémentaires doivent être menées avec toutes les parties prenantes ». Ce constat signifie-t-il que les modèles de langages sont condamnés à être défaillants ?

Je demande toujours pour qui nous construisons ces modèles, et à qui y donne-t-on accès. Un dicton dans le milieu est « garbage in, garbage out » [si on nourrit l'IA avec du déchet, il en sortira du déchet, ndlr]. Ce principe est à l’origine de la plupart des problèmes des modèles de langage, car les données sur lesquelles ils sont entraînés ont été récupérées sur Internet, le plus souvent sur des contenus écrits en alphabet latin. Si on ajoute à cela la question de la connectivité, on réalise que les biais des nations occidentales sont surreprésentés.

Or quand on publie un modèle, encore plus sous la forme d’un produit comme ChatGPT, on veut qu’il soit sans danger pour tout le monde. Mais ce qui est considéré comme sûr pour un groupe de personnes ne l’est pas pour un autre. C’est ici qu’entrent en compte les différences culturelles sur les questions de la beauté, de la sexualité ou encore de la violence, qui rendent l’équation très compliquée pour les chercheurs.

Comment les chercheurs font-ils pour prendre en compte et diminuer ces risques ?

C’est une des questions les plus compliquées actuellement, et la solution ne viendra pas forcément d’une méthode ou d’un outil en particulier. Il faut faire attention au solutionnisme technologique. La solution relève la fois du politique, d’un travail avec la société civile, et de beaucoup de retours d’utilisateurs. Or, les organisations qui mettent en avant des systèmes fermés n’ont pas toutes les perspectives nécessaires en interne pour répondre à ces enjeux. C’est pourquoi je défends une ouverture éthique des systèmes.

Lors des sorties successives de ChatGPT et celles de BingChat, plusieurs utilisateurs se sont empressés d’en tester les limites, et de pousser les outils à la faute. Résultat : les IA finissent par mentir, et BingChat a même pris un ton agressif avec certains utilisateurs. Les concepteurs des modèles doivent-ils prendre en compte ce genre de pratiques extrêmes avant de publier leur outil ?

En fonction de ce qui est demandé, ces comportements peuvent mener à une amélioration du système, et avoir les mêmes effets bénéfiques que le passage d’une red team [une équipe chargée de trouver les failles d'un système pour mieux les réparer, ndlr]. Quand un nouveau système est publié et qu’il attire beaucoup d’attention, il va recevoir un flot permanents de tests, encore plus que ne l’aurait fait n’importe quelle organisation dont ce serait la charge. Le problème sous-jacent, c’est qu’aucun des développeurs ne peut identifier à l’avance tous les cas d’usages possibles de ces systèmes, car ils ne sont pas construits pour une application particulière.

Pour une partie des experts, ce talon d’Achille des IA génératives comme ChatGPT, Stable Diffusion ou Midjourney, justifie un accès assez rapide au modèle, afin de mettre en place le mécanisme de feedback [retour des utilisateurs, ndlr] qui va leur permettre d’améliorer le modèle. C’est aujourd’hui la norme dans la tech : on participe par exemple à ce type de mécanisme lorsque l’on utilise le moteur de recherche de Google. C’est ensuite aux décideurs politiques de trancher si ces comportement sont bons ou mauvais.

Vous vous interrogez dans votre article sur la responsabilité en cas d’erreur ou de débordement. Qui doit prendre en charge cette responsabilité ?

J’essaie de distinguer les personnes impliquées en plusieurs catégories : les développeurs, les « déployeurs » c’est-à-dire ceux qui sont chargés de mettre en place les cas d’usage du modèle, et les utilisateurs. Un des enjeux au niveau politique est de définir qui porte le fardeau et de s’assurer que le modèle est sans danger. Mais tous les acteurs impliqués partagent la responsabilité à différents niveaux. Les développeurs vont être ceux qui ont la meilleure compréhension du modèle. En revanche, ils n’ont pas toujours les compétences, notamment celles liées aux sciences sociales, pour examiner les effets du modèle sur la société.

En conséquence, pour l’instant, la majeure partie de la pression des régulateurs est portée sur les déployeurs. Ils n’ont peut-être pas autant accès au modèle que les développeurs, mais ils peuvent avoir une bien meilleure compréhension de ses implications. En bout de chaîne, il y a l’utilisateur, qui ne devrait pas avoir à porter cette responsabilité, car il est difficile d’avoir le niveau de connaissance nécessaire pour bien comprendre les limites de ces modèles.

Vous avez mené le déploiement de GPT-2, que OpenAI définissait dans un premier temps comme « trop dangereux pour être publié dans son intégralité », avant de finalement revenir sur cette précaution. Pensez-vous que cet épisode a changé la façon d’envisager le déploiement des IA au niveau de l’industrie ?

Je pense que l’approche que nous avons pris pour GPT-2 s’avère rétrospectivement être un tournant dans la façon dont nous pensons les modèles de langage et leur publication. C’était un test, dont je suis encore aujourd’hui heureuse de l’issue. J’ai travaillé avec des juristes, avec les développeurs du modèle ou encore avec des chercheurs extérieurs et tous ont été absolument essentiels pour comprendre les complexités de la publication du modèle. Nous avons fait un déploiement graduel, qui a été possible parce que nous étions extrêmement impliqués dans la recherche et que vous surveillions attentivement ce que les gens faisaient avec GPT-2. Je pense que c’était un bon exemple de publication graduelle, mais qu’encore aujourd’hui d’autres méthodes peuvent être tout aussi pertinentes.

Satya Nadella, le CEO Microsoft, a clairement évoqué le début d’une course à l’IA. Ses concurrents, à commencer par Google et Meta, ont dit qu’ils pouvaient créer des équivalents de ChatGPT mais qu’ils voulaient prendre plus de précautions. Avez-vous peur que la course économique sacrifie l’éthique ?

C’est quelque chose que nous craignons depuis des années. Nous avons toujours mis en garde contre ce genre de concurrence précipitée, et contre la possibilité qu’il fasse émerger des standards basés sur la puissance et les capacités, aux dépens de l’éthique. Car aujourd’hui, il n’y a pas d’organisme de régulation qui détermine clairement quels sont les modèles les plus puissants, encore une fois parce qu’ils ne sont pas destinés à des tâches précises.

En parallèle, nous sommes plusieurs chercheurs à travailler sur la création de standards d’évaluation qui mettraient en avant l’impact sociétal des IA, notamment sur des sujets de divergence culturelle comme la beauté, la sexualité ou la violence, en plus de critères plus classiques comme les discriminations de genre et ethnique. Après tout, si un modèle ne fonctionne pas correctement pour tout le monde, on peut considérer qu’il ne fonctionne pas du tout. Le problème, c’est qu’en se livrant une concurrence sur la performance, il est possible que les entreprises investissent moins dans les mécanismes de sûreté et d’éthique. C’est une éventualité effrayante, qu’on ne peut pas se permettre.

Le problème, c’est que même en étant attentif à la qualité de la production du modèle d’IA et en ayant bien fait attention aux éventuels débordements, il n’est jamais facile d’empêcher les mauvais usages d’un modèle. Début 2021, des internautes ont utilisé GPT-3 pour créer un jeu vidéo avec des textes pédopornographiques. Beaucoup de personnes ont oublié cet épisode car il est très dérangeant. Mais il illustre un problème : une fois le modèle publié, Internet va l’utiliser pour faire ce qu’il fait de mieux… et ce qu’il fait de pire.

12345



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol