Sciences-Innovation et intelligence artificielle : vigilance
Avec le développement exponentiel des capacités de l’Intelligence Artificielle, humains et machines sont-ils amenés à s’opposer, voire à se faire la guerre, comme le prédisent depuis longtemps certains auteurs de SF ? S’il est certain que le futur ne ressemblera en rien au présent, personne ne peut aujourd’hui sérieusement prétendre prévoir l’issue des fulgurants progrès de l’IA. Raison de plus pour être vigilants. Au quotidien. Ce devoir de vigilance concerne chaque jour chacun d’entre nous. Par Alain Conrard, CEO de Prodware Group et le Président de la Commission Digitale et Innovation du Mouvement des ETI (METI) dans la Tribune
(Crédits : DR)
En général, une chronique est l’expression d’un point de vue qui, lorsqu’il est bien mené, conduit à une conclusion, forte si possible. Autant vous prévenir tout de suite : cette chronique ne débouchera sur aucune conclusion. Tout simplement parce que son sujet est aujourd’hui si complexe et si ouvert – et surtout si indéterminé – qu’il semble impossible d’y apposer sérieusement une conclusion. Même pour un spécialiste et praticien au quotidien de l’innovation comme moi.
Son sujet ? Le développement exponentiel des capacités des IA est-il nécessairement bénéfique pour les humains et/ou, s’il n’est pas canalisé, contient-il un « risque existentiel » (pour reprendre le concept de Nick Bostrom, directeur du Future of Humanity Institute) pour l’humanité.
Soit dit en passant, et sans aucune spoiler alert, il peut d’ailleurs parfaitement être bénéfique un temps pour les humains (individuellement ou culturellement) et constituer à terme un risque existentiel pour l’humanité. Et, pour complexifier le tout, l’optimisme le plus béat et le pessimisme le plus sombre sur ce sujet cohabitent parfois chez les mêmes personnes.
Ce qui est certain, c’est qu’en raison du potentiel de nouveauté et de transformation dont elle est porteuse, à travers les nouvelles frontières qu’elle établit et fait évoluer en permanence, l’innovation génère toujours par définition des possibilités de risque. Le nucléaire, par exemple, a pris le dessus sur son créateur à certaines occasions (catastrophes de Three Mile Island, Tchernobyl ou encore Fukushima).
Plus on donne de place à la technologie, plus on expose l’humanité ou le plus grand nombre à l’éventualité de dérives. Malgré ses vertus, le nucléaire contient plus de risques que le charbon, les possibles dérives de l’IA peuvent-elles être à leur tour encore plus dangereuses ?
On sait que l’Intelligence Artificielle va plus vite, plus loin et plus longtemps. On sait que le machine learning peut, comme son nom l’indique, développer de façon autonome une algorithmique de plus en plus élitiste, de plus en plus fine, de plus en plus juste. En partant de ce constat, que peut-on dire ? Bien que conscients de la situation actuelle et de l’état des forces en présence, est-on pour autant capables d’anticiper avec pertinence leur évolution ? Dans sa totalité, je n’en suis pas sûr. Est-on capables de mesurer tous les impacts ? Je n’en suis pas sûr non plus. Cette incertitude dans la prévisibilité de l’évolution est la partie la plus inquiétante de cette problématique. Pourtant, nombreux sont ceux qui prennent aujourd’hui la parole pour raconter avec assurance de quoi le futur sera fait.
En fait les humains ne sont pas très doués pour prévoir les progressions exponentielles (« L’intuition humaine est mauvaise pour prévoir les courbes exponentielles » constate Sam Altman, le PDG d’OpenAI). Donc, les points de vue sur l’avenir de l’IA, et par conséquent sur le bon usage de l’innovation, restent conjecturaux pour une large part. En fait, ils ne sont généralement que la projection naïve dans le futur de nos aprioris. Selon que l’on est confiant dans la capacité des humains à vouloir le bien (le leur ou celui des autres) ; selon que l’on est optimiste ou pessimiste ; selon que l’on a confiance ou pas dans le politique pour prendre en charge et régler les problèmes de l’humanité ; selon que l’on a une foi sans réserve dans la capacité de la science à faire le bien ; selon que nos récits projectifs sont utopiques ou dystopiques ; etc.
Ainsi, les transhumanistes ou les long-termistes diront que l’hybridation entre les humains et les machines ne peut qu’augmenter positivement l’humanité ; les technophiles inconditionnels, que la technologie ne saurait être mauvaise ; les sceptiques, que rien de bon ne peut sortir d’un progrès aussi rapide ; les industriels de l’IA, que leurs machines sont la clé du bonheur de l’humanité ; les politiques, qu’il suffit de légiférer pour régler le problème ; les apprentis sorciers ou ceux qui aiment le goût du risque, qu’émettre des réserves ne fait que ralentir inutilement le mouvement, et qu’il sera toujours temps de réfléchir plus tard.
Quoi qu’il en soit, ce que l’on en dit (ou ce que l’on en pense) dépend largement des intérêts de pouvoir qui sont engagés.
Si l’IA est nouvelle, l’inquiétude générée par les machines ne l’est pas. Même si elles étaient moins concrètes qu’aujourd’hui, on se posait les mêmes questions dès les débuts de la robotique. On faisait déjà part des mêmes craintes : est-ce qu’en se développant, le robot allait inéluctablement dépasser l’être humain ? Est-ce que, tel un Frankenstein électronique doté de colossaux réseaux de neurones et de capacités de calcul démesurées, l’humanoïde allait détrôner l’humain qui l’a créé ? La philosophie avait aussi posé des ponts théoriques entre le vivant et l’univers machinique, permettant mentalement le passage de l’un à l’autre, notamment avec le concept d’animal-machine formulé par Descartes, puis, au siècle suivant, avec L’Homme-Machine de La Mettrie. Pourtant, l’hypothèse réelle, politique, culturelle, restait à l’époque encore très lointaine. L’IA nous confronte à un risque réel. La nature (ou tout du moins l’intensité) de l’inquiétude a changé.
La zone d’incertitude s’est elle-même modifiée : tout va changer, c’est certain, mais modalités et ampleur du changement restent incertaines. Le futur ne ressemblera en rien au présent, mais ni les zones ni l’ampleur des impacts sont pour l’instant vraiment prévisibles. Le grand changement, la grande bascule, est-ce que c’est maintenant, ou jamais, ou dans 10 ans ? Qui peut le dire avec certitude aujourd’hui ?
De « 1984 » au « Meilleur des mondes » en passant par « Bienvenue à Gattaca », la littérature ou le cinéma nous ont depuis longtemps mis en garde : les techno-utopies sont dangereuses lorsqu’on y adhère sans mesure.
Il ne suffit donc pas de dire « IA qu’à ». Cette question contient une telle épaisseur de complexité et d’indétermination qu’elle défie pour l’instant toute conclusion péremptoire.
« Que faire ? », demandait Lénine pour savoir quelle suite à donner à la révolution, et à quelle condition elle pouvait réussir. La question se pose pour tout mouvement de ce type, et le digital ou l’IA sont autant de révolutions, plus aptes encore à transformer le monde en profondeur que les modalités politiques qui les ont précédées. Il n’y a pas aujourd’hui de réponse générale à cette question.
Pour certains, l’arme de protection absolue contre l’emprise des machines tient en un mot : légiférer. Mais qui peut prétendre qu’une IA devenue hyper-intelligente et parfaitement autonome restreindra docilement son pouvoir parce qu’on lui dira que la loi l’interdit ?
On n’empêchera par ailleurs jamais personne de créer l’invention de trop, celle qu’il n’aurait jamais fallu concevoir, celle qui fait basculer l’ensemble d’une société dans une autre dimension porteuse de dangers. On n’évitera pas que, dotés de moyens importants, certains mettent en place des projets « toxiques ». Aujourd’hui, en effet, les dérives possibles sont alimentées en grande partie par les perspectives de profit. D’énormes masses d’argent sont en effet aimantées par ces secteurs. Une partie de ces gigantesques financements rencontrera nécessairement des projets hasardeux.
La bonté de la plupart des êtres humains ne s’exprime souvent que dans la limite de l’expression de leur intérêt. Un créateur saura-t-il résister à ce qu’il peut inventer, même si cela contrevient au bien commun ou aux exigences du citoyen ? Rien n’est moins sûr. Le plaisir de la création prévaut souvent sur tout. Le remords ne vient éventuellement qu’après, comme pour Oppenheimer, le père de la bombe atomique après l’expérience de Hiroshima, ou pour Alfred Nobel, l’inventeur de la dynamite. Les regrets viennent toujours trop tard. Les inventeurs de l’IA auront-ils les mêmes remords ? Certains d’entre eux émettent déjà de fortes réserves (Yoshua Bengio, l’un des pères de l’IA) ou des inquiétudes majeures (Geoffrey Hinton, pionnier de l’IA). En attendant, rien ne semble pouvoir arrêter son développement. Et il y a sans doute une bonne dose d’hypocrisie ou d’opportunisme pour quelqu’un comme Sam Altman de créer et développer Chat GPT tout en appelant en même temps à la régulation.
Il ne faut donc pas être naïf, et ne pas se laisser endormir par des discours lénifiants ou exagérément rassurants. Il faut accepter le progrès avec enthousiasme, tout en faisant preuve d’une extrême vigilance quant à ses conséquences.
Les artefacts sont toujours le reflet d’une époque, et disent toujours quelque chose sur elle. L’IA dit en même temps notre incroyable degré de sophistication technologique, notre dépendance au numérique et notre capacité à dénier les risques liés à ce que nous inventons.
En fait, les machines, c’est nous. Elles sont à notre image. Mieux : elles sont un miroir. Il peut être neutre ou grossissant ou déformant. Il peut aussi, comme dans certains contes, donner une image de l’avenir. C’est pour cette raison que le développement de l’IA concerne tout le monde.
Personne aujourd’hui ne peut prétendre détenir « la » solution pour la maîtrise de sa progression. Mais l’absence temporaire de solution ne doit pas pour autant conduire à la résignation.
Bien que cela soit difficile, il faut essayer d’éveiller le plus grand nombre à la certitude du risque lié à ces technologies surpuissantes. Certains ont d’autres urgences ou d’autres priorités quand d’autres ne se sentent pas impliqués ou ne voient pas comment ils pourraient agir. Le simple fait de se sentir intimement touché par ces phénomènes (car objectivement nous le sommes absolument tous) est déjà un début de réflexion.
Hormis une prise en compte systématique du risque, voire dans le meilleur des cas un devoir d’alerte, on n’a sans doute pas encore trouvé la solution pour éliminer ou minorer de potentiels dangers liés aux dérives de l’innovation. Pour l’instant, la seule piste est d’attirer l’attention du plus grand nombre sur tous les effets (aussi bien positifs que négatifs) de ces phénomènes. Et de regarder avec vigilance comment bâtir et utiliser des systèmes porteurs de la plus grande valeur ajoutée.
Une prise de conscience individuelle autant que collective est donc essentielle. Chacun d’entre nous est concerné, et devrait se poser cette question chaque jour, à chaque utilisation d’une innovation : est-ce bien ? Est-ce que la machine que j’utilise renforce le bien commun ? Est-ce que l’algorithme ou le dispositif que je suis en train d’inventer présente des risques ? Est-ce que la politique que je mène ou que je propose permet de guider les réflexions et de conscientiser
S’il n’y a aujourd’hui pas de grande réponse sérieuse, rien n’interdit en attendant à chacun d’apporter sa petite réponse.
_____
(*) Par Alain Conrard, auteur de l’ouvrage « Osons ! Un autre regard sur l’innovation », un essai publié aux éditions Cent Mille Milliards, en septembre 2020, CEO de Prodware Group et le Président de la Commission Digitale et Innovation du Mouvement des ETI (METI) (LinkedIn).
Sciences: Comment le cerveau a-t-il évolué ?
La nature singulière et les capacités exceptionnelles du cerveau humain ne cessent de nous surprendre. Sa forme arrondie, son organisation complexe et sa longue maturation le distinguent du cerveau des autres primates actuels, et plus particulièrement des grands singes auxquels nous sommes directement apparentés. À quoi doit-on ses spécificités ? Puisque le cerveau ne fossilise pas, il faut chercher la réponse dans les os du crâne retrouvés sur les sites paléontologiques pour remonter le cours de l’histoire. La boîte crânienne renferme des empreintes du cerveau qui constituent de précieuses données sur les 7 millions d’années d’évolution de notre cerveau qui nous séparent de notre plus vieil ancêtre connu : Toumaï (Sahelanthropus tchadensis).
par Amélie Beaudet, Paléoanthropologue (CNRS), Université de Poitiers dans The Conversation
Pendant la croissance, le cerveau et son contenant, le crâne, entretiennent un lien étroit et, par un processus de modelage et remodelage, l’os enregistre la position des sillons à la surface du cerveau qui délimitent les lobes et les aires cérébrales. À partir de ces empreintes, les paléoneurologues cherchent à reconstituer l’histoire évolutive de notre cerveau (par exemple, quand et comment les spécificités cérébrales humaines sont apparues ?), mais également à élaborer des hypothèses sur les capacités cognitives de nos ancêtres (par exemple, quand ont-il commencé à fabriquer des outils ?).
L’Afrique du Sud a joué un rôle central dans la recherche et la découverte d’indices sur les grandes étapes de l’évolution de notre cerveau. Les sites paléontologiques situés dans le « Berceau de l’Humanité », classé au patrimoine mondial par l’Unesco, sont particulièrement riches en fossiles piégés dans d’anciennes grottes dont les dépôts sont aujourd’hui exposés à la surface.
Parmi ces fossiles, on compte des spécimens emblématiques comme « l’enfant de Taung » (3-2,6 millions d’années), le tout premier fossile de la lignée humaine découvert sur le continent africain qui sera à l’origine du genre Australopithecus, ou « Little Foot » (3,7 millions d’années), le squelette le plus complet d’Australopithecus jamais mis au jour (50 % plus complet que celui de « Lucy » découvert en Éthiopie et daté à 3,2 millions d’années). Ces sites exceptionnels ont ainsi mené à la découverte de crânes relativement complets (par exemple « Mrs Ples » datée à 3,5-3,4 millions d’années), ainsi que de moulages internes naturels de crânes (par exemple celui de « l’enfant de Taung »), préservant des traces du cerveau de ces individus fossilisés qui ont été étudiés par des experts et ont servi de référence depuis des décennies.
Malgré la relative abondance et la préservation remarquable des spécimens fossiles sud-africains relativement aux sites contemporains est-africains, l’étude des empreintes cérébrales qu’ils conservent est limitée par la difficulté à déchiffrer et interpréter ces traces.
Devant ce constat, notre équipe constituée de paléontologues et de neuroscientifiques a cherché dans un premier temps à intégrer, dans l’étude des spécimens fossiles, les compétences techniques développées en imagerie et en informatique.
Nous avons alors mis en place le projet EndoMap, développé autour de la collaboration entre des équipes de recherche françaises et sud-africaines, dans le but de pousser plus loin l’exploration du cerveau en y associant des méthodes de visualisation et d’analyses virtuelles.
À partir de modèles numériques 3D de spécimens fossiles du « Berceau de l’Humanité » et d’un référentiel digital de crânes de primates actuels, nous avons développé et mis à disposition une base de données unique de cartographies pour localiser les principales différences et similitudes entre le cerveau de nos ancêtres et le nôtre. Ces cartographies reposent sur le principe d’atlas traditionnellement utilisé en neuroscience et ont permis à la fois une meilleure connaissance de la variabilité dans la distribution spatiale des sillons du cerveau humain actuel et l’identification des caractéristiques cérébrales chez les fossiles. En effet, certains désaccords scientifiques majeurs dans la discipline sont la conséquence de notre méconnaissance de la variation inter-individuelle, qui entraîne une surinterprétation des différences entre les spécimens fossiles.
Cependant, EndoMap fait face à un défi majeur dans l’étude des restes fossiles, comment analyser des spécimens incomplets ou pour lesquels certaines empreintes cérébrales sont absentes ou illisibles ? Ce problème de données manquantes, bien connu en informatique et commun à de nombreuses disciplines scientifiques, est un frein à la progression de notre recherche sur l’évolution du cerveau.
Le bond technologique réalisé récemment dans les domaines de l’intelligence artificielle permet d’entrevoir une solution. En particulier, devant le nombre limité de spécimens fossiles et leur caractère unique, les méthodes d’augmentation artificielle des échantillons pourront pallier le problème d’effectif réduit en paléontologie. Par ailleurs, le recours à l’apprentissage profond à l’aide d’échantillons actuels plus complets constitue une piste prometteuse pour la mise au point de modèles capables d’estimer les parties manquantes des spécimens incomplets.
Nous avons alors invité à Johannesburg en 2023 des paléontologues, géoarchéologues, neuroscientifiques et informaticiens de l’Université du Witwatersrand et de l’Université de Cape Town (Afrique du Sud), de l’Université de Cambridge (Royaume-Uni), de l’Université de Toulouse, du Muséum national d’histoire naturelle de Paris et de l’Université de Poitiers à alimenter notre réflexion sur le futur de notre discipline au sein du colloque « BrAIn Evolution : Palaeosciences, Neuroscience and Artificial Intelligence ».
Cette discussion est à l’origine du numéro spécial de la revue de l’IFAS-Recherche, Lesedi, qui vient de paraître en ligne et qui résume les résultats de ces échanges interdisciplinaires. À la suite de cette rencontre, le projet a reçu le soutien financier de la Mission pour les initiatives transverses et interdisciplinaires (MITI) du CNRS dans le cadre l’appel d’offres « Jumeaux numériques : nouvelles frontières et futurs développements » pour intégrer l’IA à la paléoneurologie.