Sciences- « Démythifier l’IA »
Ni intelligente, ni créative, l’IA n’en reste pas moins un outil très puissant qui prend une place croissante dans nos vies. Il est urgent de comprendre les forces et les faiblesses de ces technologies. Par Philippe Boyer, directeur relations institutionnelles et innovation à Covivio. dans La Tribune
Les professeurs qui corrigeront des épreuves de philosophie qui se sont déroulées en début de semaine devraient se lancer un pari : estimer le nombre de fois où les termes « IA générative », « Chat GPT » et autres acronymes à consonnances technologiques (GenAI…) seront présents dans les copies des élèves de la filière générale qui auront choisi le sujet : « Notre avenir dépend-il de la technique ? ». Aux côtés de développements savants sur le fait que la technique nous a donné l’espoir de pouvoir mieux contrôler l’avenir (thèse), tout en insistant sur le fait que cette même technique menace par ailleurs d’échapper à notre contrôle (antithèse), on pourrait imaginer que la synthèse porte sur le fait de savoir si nous pouvons encore décider de ce qui sera développé demain…
Vaste sujet qui nécessite, pour y répondre, d’avoir les idées claires sur ces technologies et en particulier sur les IA génératives qui envahissent les discours. Là n’est pas le plus facile car entre propos apocalyptiques des uns et approximations des autres, fleurissent d’innombrables idées fausses, contrevérités et autres mensonges qui ne font que brouiller les cartes. Pour se recentrer, rien de vaut le regard précis et affuté d’un incontestable et légitime spécialiste du sujet, en l’occurrence celui d’un scientifique et ingénieur, inventeur de l’assistant vocal SIRI, excusez du peu… Dans « IA génératives, pas créatives », Luc Julia fait œuvre de salut public. Sa thèse ? Ni plus ni moins que de déconstruire les idées reçues les plus répandues, à commencer par celle selon laquelle les IA génératives seraient créatives.
Dès l’avant-propos, l’auteur n’y va pas par quatre chemins : « l’intelligence artificielle n’existe pas !» Sa formule est ensuite nuancée en rappelant trois choses : la première c’est que le terme « intelligence » draine de nombreux fantasmes anthropomorphiques en faisant croire que ces systèmes penseraient comme des humains. Nous en sommes loin. La deuxième, c’est qu’en anglais, le terme « intelligence » présente plusieurs significations dont la notion « d’information », celle par exemple que l’on retrouve dans l’acronyme de l’agence étatsunienne « CIA ». Vu sous cet angle, dire qu’une technologie est « intelligente » signifie qu’elle sait certes mieux qu’un humain organiser de l’information – l’IA ne remplace pas l’humain, mais l’augmente – mais certainement pas de réfléchir comme peuvent le faire les humains, et encore moins être créatif. Et Luc Julia d’enfoncer le clou : « Quand les savants réunis à Dartmouth aux Etats-Unis en 1956 ont choisi le terme IA, ils pensaient à information mais, malgré eux, le public a retenu le sens smartness et les fantasmes ont commencé. » Enfin, et c’est le troisième aspect, il n’existe pas une seule mais plusieurs intelligences artificielles. Dès les premiers chapitres, le cadre est posé : Luc Julia assume et revendique ce rôle d’iconoclaste : au sens étymologique, il est ce briseur de miroirs.
Mythes à déconstruire
Parmi les milles morceaux de ce miroir, sept d’entre eux sont méthodiquement décortiqués par l’auteur, à commencer par le mythe (tenace) que ces machines seraient « créatives ». La réponse est cinglante : une IA n’est en rien créative et cela pour au moins 2 raisons : d’abord, car elle ne fait que «moyenner » des données qu’elle extraie de modèles et qu’ensuite, elle ne peut rien faire sans que nous, les humains, lui fournissions des instructions (prompt). Deuxième mythe : l’IA « comprendrait », voire saurait « raisonner ». Là encore, et par tentation anthropomorphique, nous nous plaisons à croire que la machine serait presque notre égal lorsqu’il s’agit de répondre à des problématiques complexes. Mais « réaliser des tâches complexes » n’a rien à voir avec le fait d’être « intelligent ». L’IA n’est pas « intelligente » car elle ne sait pas s’adapter. On se fait berner car on associe langage à intelligence humaine. Certes, l’IA « nous parle » via notre langage comme vecteur mais dans les faits, elle ne comprend rien à ce qu’elle « dit ».
L’IA, boîte noire inexplicable et imprévisible ?
Souvent entouré de mystère sur ce qui se cacherait vraiment « sous le capot » de ces IA du fait de la quantité de données et d’algorithmes à l’œuvre, Luc Julia prend un malin plaisir à déconstruire l’idée selon laquelle ces IA seraient des « boîtes noires », technologies totalement opaques et impénétrables. Là encore, et derrière ce terme volontairement inquiétant faisant clairement allusion à l’univers de la surveillance, voire à celui des catastrophes aériennes, l’auteur tord le cou à ce mythe en précisant qu’il n’y a ni boîte noire ni inexplicabilité ; tout au plus des concepteurs d’IA qui, en humains qu’ils sont, peuvent faire des erreurs de programmation. Et d’en conclure qu’il sera toujours possible de créer une IA pour contrôler les actions réalisées par une autre IA. Vision un brin fractale de cette technologie.
Route pavée d’obstacles
Au titre des autres mythes technologiques que ce livre s’emploie à remettre en perspective, figurent ceux qui attisent inutilement les peurs (« L’IA va tous nous tuer » ou « détruire tous les emplois ») ou s’appliquent à faire passer les humains pour une espèce déclassée (« L’IA peut tout apprendre » ou « L’IA est bienveillante »). Au final, ce deuxième ouvrage de Luc Julia sur ce sujet, après « L’intelligence artificielle n’existe pas » paru en 2019, fait œuvre de pédagogie en s’appliquant à rappeler que si cette technologie est assez extraordinaire pour transformer certains aspects de nos sociétés dont notre rapport à l’information, à la création et à l’énergie, il n’empêche que la route vers ce monde baignée d’IA est semée d’obstacles. Le premier d’entre eux c’est évidemment le fait que l’IA générative et ses data centers spécialisés demeurent des gouffres à eau et à électricité. Un seul exemple pour s’en convaincre : si Chat GPT devait avoir le même nombre de requêtes moyennes quotidiennes que celles de Google (8,5 milliards), sur une année, cela demanderait 1241 TWh. Dit autrement, cette puissance électrique requise nécessiterait de tripler la capacité actuelle des data centers. Certes l’IA nous permettra de plus en plus déléguer les tâches ingrates et rébarbatives et de nous concentrer sur des tâches plus intéressantes, mais à quel prix tout cela doit-il se faire ? On le comprend, la création de futures IA plus frugales est une priorité.
Quelles IA pour demain ?
A l’heure où la course aux IA bat son plein avec pour but ultime de créer une intelligence au moins aussi performante que celle des humains (sur ce sujet on se reportera aux dernières déclarations de Yann Le Cun, Chief AI Scientist de Meta, qui précise que le lancement de V-JEPA 2 permettra à une IA capable de comprendre le monde réel), les IA, et singulièrement les IA génératives, sont et restent une technologie à la fois fascinante mais inquiétante, une technologie à double tranchant, capable du meilleur comme du pire dès lors que ceux qui les conçoivent et les utilisent se prennent pour des démiurges. L’un des sujets du BAC philo de l’année prochaine est tout trouvé : « L’avenir de l’Hommes peut-il se construire avec ou sans IA ? ». Vous avez quatre heures !
_______
« IA génératives, pas créatives / L’intelligence artificielle n’existe (toujours) pas » par Luc Julia, mai 2025, Cherche Midi éditeur, 250 pages
Sciences: Comment le cerveau a-t-il évolué ?
Sciences: Comment le cerveau a-t-il évolué ?
La nature singulière et les capacités exceptionnelles du cerveau humain ne cessent de nous surprendre. Sa forme arrondie, son organisation complexe et sa longue maturation le distinguent du cerveau des autres primates actuels, et plus particulièrement des grands singes auxquels nous sommes directement apparentés. À quoi doit-on ses spécificités ? Puisque le cerveau ne fossilise pas, il faut chercher la réponse dans les os du crâne retrouvés sur les sites paléontologiques pour remonter le cours de l’histoire. La boîte crânienne renferme des empreintes du cerveau qui constituent de précieuses données sur les 7 millions d’années d’évolution de notre cerveau qui nous séparent de notre plus vieil ancêtre connu : Toumaï (Sahelanthropus tchadensis).
par Amélie Beaudet, Paléoanthropologue (CNRS), Université de Poitiers dans The Conversation
Pendant la croissance, le cerveau et son contenant, le crâne, entretiennent un lien étroit et, par un processus de modelage et remodelage, l’os enregistre la position des sillons à la surface du cerveau qui délimitent les lobes et les aires cérébrales. À partir de ces empreintes, les paléoneurologues cherchent à reconstituer l’histoire évolutive de notre cerveau (par exemple, quand et comment les spécificités cérébrales humaines sont apparues ?), mais également à élaborer des hypothèses sur les capacités cognitives de nos ancêtres (par exemple, quand ont-il commencé à fabriquer des outils ?).
L’Afrique du Sud a joué un rôle central dans la recherche et la découverte d’indices sur les grandes étapes de l’évolution de notre cerveau. Les sites paléontologiques situés dans le « Berceau de l’Humanité », classé au patrimoine mondial par l’Unesco, sont particulièrement riches en fossiles piégés dans d’anciennes grottes dont les dépôts sont aujourd’hui exposés à la surface.
Parmi ces fossiles, on compte des spécimens emblématiques comme « l’enfant de Taung » (3-2,6 millions d’années), le tout premier fossile de la lignée humaine découvert sur le continent africain qui sera à l’origine du genre Australopithecus, ou « Little Foot » (3,7 millions d’années), le squelette le plus complet d’Australopithecus jamais mis au jour (50 % plus complet que celui de « Lucy » découvert en Éthiopie et daté à 3,2 millions d’années). Ces sites exceptionnels ont ainsi mené à la découverte de crânes relativement complets (par exemple « Mrs Ples » datée à 3,5-3,4 millions d’années), ainsi que de moulages internes naturels de crânes (par exemple celui de « l’enfant de Taung »), préservant des traces du cerveau de ces individus fossilisés qui ont été étudiés par des experts et ont servi de référence depuis des décennies.
Malgré la relative abondance et la préservation remarquable des spécimens fossiles sud-africains relativement aux sites contemporains est-africains, l’étude des empreintes cérébrales qu’ils conservent est limitée par la difficulté à déchiffrer et interpréter ces traces.
Devant ce constat, notre équipe constituée de paléontologues et de neuroscientifiques a cherché dans un premier temps à intégrer, dans l’étude des spécimens fossiles, les compétences techniques développées en imagerie et en informatique.
Nous avons alors mis en place le projet EndoMap, développé autour de la collaboration entre des équipes de recherche françaises et sud-africaines, dans le but de pousser plus loin l’exploration du cerveau en y associant des méthodes de visualisation et d’analyses virtuelles.
À partir de modèles numériques 3D de spécimens fossiles du « Berceau de l’Humanité » et d’un référentiel digital de crânes de primates actuels, nous avons développé et mis à disposition une base de données unique de cartographies pour localiser les principales différences et similitudes entre le cerveau de nos ancêtres et le nôtre. Ces cartographies reposent sur le principe d’atlas traditionnellement utilisé en neuroscience et ont permis à la fois une meilleure connaissance de la variabilité dans la distribution spatiale des sillons du cerveau humain actuel et l’identification des caractéristiques cérébrales chez les fossiles. En effet, certains désaccords scientifiques majeurs dans la discipline sont la conséquence de notre méconnaissance de la variation inter-individuelle, qui entraîne une surinterprétation des différences entre les spécimens fossiles.
Cependant, EndoMap fait face à un défi majeur dans l’étude des restes fossiles, comment analyser des spécimens incomplets ou pour lesquels certaines empreintes cérébrales sont absentes ou illisibles ? Ce problème de données manquantes, bien connu en informatique et commun à de nombreuses disciplines scientifiques, est un frein à la progression de notre recherche sur l’évolution du cerveau.
Le bond technologique réalisé récemment dans les domaines de l’intelligence artificielle permet d’entrevoir une solution. En particulier, devant le nombre limité de spécimens fossiles et leur caractère unique, les méthodes d’augmentation artificielle des échantillons pourront pallier le problème d’effectif réduit en paléontologie. Par ailleurs, le recours à l’apprentissage profond à l’aide d’échantillons actuels plus complets constitue une piste prometteuse pour la mise au point de modèles capables d’estimer les parties manquantes des spécimens incomplets.
Nous avons alors invité à Johannesburg en 2023 des paléontologues, géoarchéologues, neuroscientifiques et informaticiens de l’Université du Witwatersrand et de l’Université de Cape Town (Afrique du Sud), de l’Université de Cambridge (Royaume-Uni), de l’Université de Toulouse, du Muséum national d’histoire naturelle de Paris et de l’Université de Poitiers à alimenter notre réflexion sur le futur de notre discipline au sein du colloque « BrAIn Evolution : Palaeosciences, Neuroscience and Artificial Intelligence ».
Cette discussion est à l’origine du numéro spécial de la revue de l’IFAS-Recherche, Lesedi, qui vient de paraître en ligne et qui résume les résultats de ces échanges interdisciplinaires. À la suite de cette rencontre, le projet a reçu le soutien financier de la Mission pour les initiatives transverses et interdisciplinaires (MITI) du CNRS dans le cadre l’appel d’offres « Jumeaux numériques : nouvelles frontières et futurs développements » pour intégrer l’IA à la paléoneurologie.