Sciences-Innovation et intelligence artificielle : vigilance
Avec le développement exponentiel des capacités de l’Intelligence Artificielle, humains et machines sont-ils amenés à s’opposer, voire à se faire la guerre, comme le prédisent depuis longtemps certains auteurs de SF ? S’il est certain que le futur ne ressemblera en rien au présent, personne ne peut aujourd’hui sérieusement prétendre prévoir l’issue des fulgurants progrès de l’IA. Raison de plus pour être vigilants. Au quotidien. Ce devoir de vigilance concerne chaque jour chacun d’entre nous. Par Alain Conrard, CEO de Prodware Group et le Président de la Commission Digitale et Innovation du Mouvement des ETI (METI) dans la Tribune
(Crédits : DR)
En général, une chronique est l’expression d’un point de vue qui, lorsqu’il est bien mené, conduit à une conclusion, forte si possible. Autant vous prévenir tout de suite : cette chronique ne débouchera sur aucune conclusion. Tout simplement parce que son sujet est aujourd’hui si complexe et si ouvert – et surtout si indéterminé – qu’il semble impossible d’y apposer sérieusement une conclusion. Même pour un spécialiste et praticien au quotidien de l’innovation comme moi.
Son sujet ? Le développement exponentiel des capacités des IA est-il nécessairement bénéfique pour les humains et/ou, s’il n’est pas canalisé, contient-il un « risque existentiel » (pour reprendre le concept de Nick Bostrom, directeur du Future of Humanity Institute) pour l’humanité.
Soit dit en passant, et sans aucune spoiler alert, il peut d’ailleurs parfaitement être bénéfique un temps pour les humains (individuellement ou culturellement) et constituer à terme un risque existentiel pour l’humanité. Et, pour complexifier le tout, l’optimisme le plus béat et le pessimisme le plus sombre sur ce sujet cohabitent parfois chez les mêmes personnes.
Ce qui est certain, c’est qu’en raison du potentiel de nouveauté et de transformation dont elle est porteuse, à travers les nouvelles frontières qu’elle établit et fait évoluer en permanence, l’innovation génère toujours par définition des possibilités de risque. Le nucléaire, par exemple, a pris le dessus sur son créateur à certaines occasions (catastrophes de Three Mile Island, Tchernobyl ou encore Fukushima).
Plus on donne de place à la technologie, plus on expose l’humanité ou le plus grand nombre à l’éventualité de dérives. Malgré ses vertus, le nucléaire contient plus de risques que le charbon, les possibles dérives de l’IA peuvent-elles être à leur tour encore plus dangereuses ?
On sait que l’Intelligence Artificielle va plus vite, plus loin et plus longtemps. On sait que le machine learning peut, comme son nom l’indique, développer de façon autonome une algorithmique de plus en plus élitiste, de plus en plus fine, de plus en plus juste. En partant de ce constat, que peut-on dire ? Bien que conscients de la situation actuelle et de l’état des forces en présence, est-on pour autant capables d’anticiper avec pertinence leur évolution ? Dans sa totalité, je n’en suis pas sûr. Est-on capables de mesurer tous les impacts ? Je n’en suis pas sûr non plus. Cette incertitude dans la prévisibilité de l’évolution est la partie la plus inquiétante de cette problématique. Pourtant, nombreux sont ceux qui prennent aujourd’hui la parole pour raconter avec assurance de quoi le futur sera fait.
En fait les humains ne sont pas très doués pour prévoir les progressions exponentielles (« L’intuition humaine est mauvaise pour prévoir les courbes exponentielles » constate Sam Altman, le PDG d’OpenAI). Donc, les points de vue sur l’avenir de l’IA, et par conséquent sur le bon usage de l’innovation, restent conjecturaux pour une large part. En fait, ils ne sont généralement que la projection naïve dans le futur de nos aprioris. Selon que l’on est confiant dans la capacité des humains à vouloir le bien (le leur ou celui des autres) ; selon que l’on est optimiste ou pessimiste ; selon que l’on a confiance ou pas dans le politique pour prendre en charge et régler les problèmes de l’humanité ; selon que l’on a une foi sans réserve dans la capacité de la science à faire le bien ; selon que nos récits projectifs sont utopiques ou dystopiques ; etc.
Ainsi, les transhumanistes ou les long-termistes diront que l’hybridation entre les humains et les machines ne peut qu’augmenter positivement l’humanité ; les technophiles inconditionnels, que la technologie ne saurait être mauvaise ; les sceptiques, que rien de bon ne peut sortir d’un progrès aussi rapide ; les industriels de l’IA, que leurs machines sont la clé du bonheur de l’humanité ; les politiques, qu’il suffit de légiférer pour régler le problème ; les apprentis sorciers ou ceux qui aiment le goût du risque, qu’émettre des réserves ne fait que ralentir inutilement le mouvement, et qu’il sera toujours temps de réfléchir plus tard.
Quoi qu’il en soit, ce que l’on en dit (ou ce que l’on en pense) dépend largement des intérêts de pouvoir qui sont engagés.
Si l’IA est nouvelle, l’inquiétude générée par les machines ne l’est pas. Même si elles étaient moins concrètes qu’aujourd’hui, on se posait les mêmes questions dès les débuts de la robotique. On faisait déjà part des mêmes craintes : est-ce qu’en se développant, le robot allait inéluctablement dépasser l’être humain ? Est-ce que, tel un Frankenstein électronique doté de colossaux réseaux de neurones et de capacités de calcul démesurées, l’humanoïde allait détrôner l’humain qui l’a créé ? La philosophie avait aussi posé des ponts théoriques entre le vivant et l’univers machinique, permettant mentalement le passage de l’un à l’autre, notamment avec le concept d’animal-machine formulé par Descartes, puis, au siècle suivant, avec L’Homme-Machine de La Mettrie. Pourtant, l’hypothèse réelle, politique, culturelle, restait à l’époque encore très lointaine. L’IA nous confronte à un risque réel. La nature (ou tout du moins l’intensité) de l’inquiétude a changé.
La zone d’incertitude s’est elle-même modifiée : tout va changer, c’est certain, mais modalités et ampleur du changement restent incertaines. Le futur ne ressemblera en rien au présent, mais ni les zones ni l’ampleur des impacts sont pour l’instant vraiment prévisibles. Le grand changement, la grande bascule, est-ce que c’est maintenant, ou jamais, ou dans 10 ans ? Qui peut le dire avec certitude aujourd’hui ?
De « 1984 » au « Meilleur des mondes » en passant par « Bienvenue à Gattaca », la littérature ou le cinéma nous ont depuis longtemps mis en garde : les techno-utopies sont dangereuses lorsqu’on y adhère sans mesure.
Il ne suffit donc pas de dire « IA qu’à ». Cette question contient une telle épaisseur de complexité et d’indétermination qu’elle défie pour l’instant toute conclusion péremptoire.
« Que faire ? », demandait Lénine pour savoir quelle suite à donner à la révolution, et à quelle condition elle pouvait réussir. La question se pose pour tout mouvement de ce type, et le digital ou l’IA sont autant de révolutions, plus aptes encore à transformer le monde en profondeur que les modalités politiques qui les ont précédées. Il n’y a pas aujourd’hui de réponse générale à cette question.
Pour certains, l’arme de protection absolue contre l’emprise des machines tient en un mot : légiférer. Mais qui peut prétendre qu’une IA devenue hyper-intelligente et parfaitement autonome restreindra docilement son pouvoir parce qu’on lui dira que la loi l’interdit ?
On n’empêchera par ailleurs jamais personne de créer l’invention de trop, celle qu’il n’aurait jamais fallu concevoir, celle qui fait basculer l’ensemble d’une société dans une autre dimension porteuse de dangers. On n’évitera pas que, dotés de moyens importants, certains mettent en place des projets « toxiques ». Aujourd’hui, en effet, les dérives possibles sont alimentées en grande partie par les perspectives de profit. D’énormes masses d’argent sont en effet aimantées par ces secteurs. Une partie de ces gigantesques financements rencontrera nécessairement des projets hasardeux.
La bonté de la plupart des êtres humains ne s’exprime souvent que dans la limite de l’expression de leur intérêt. Un créateur saura-t-il résister à ce qu’il peut inventer, même si cela contrevient au bien commun ou aux exigences du citoyen ? Rien n’est moins sûr. Le plaisir de la création prévaut souvent sur tout. Le remords ne vient éventuellement qu’après, comme pour Oppenheimer, le père de la bombe atomique après l’expérience de Hiroshima, ou pour Alfred Nobel, l’inventeur de la dynamite. Les regrets viennent toujours trop tard. Les inventeurs de l’IA auront-ils les mêmes remords ? Certains d’entre eux émettent déjà de fortes réserves (Yoshua Bengio, l’un des pères de l’IA) ou des inquiétudes majeures (Geoffrey Hinton, pionnier de l’IA). En attendant, rien ne semble pouvoir arrêter son développement. Et il y a sans doute une bonne dose d’hypocrisie ou d’opportunisme pour quelqu’un comme Sam Altman de créer et développer Chat GPT tout en appelant en même temps à la régulation.
Il ne faut donc pas être naïf, et ne pas se laisser endormir par des discours lénifiants ou exagérément rassurants. Il faut accepter le progrès avec enthousiasme, tout en faisant preuve d’une extrême vigilance quant à ses conséquences.
Les artefacts sont toujours le reflet d’une époque, et disent toujours quelque chose sur elle. L’IA dit en même temps notre incroyable degré de sophistication technologique, notre dépendance au numérique et notre capacité à dénier les risques liés à ce que nous inventons.
En fait, les machines, c’est nous. Elles sont à notre image. Mieux : elles sont un miroir. Il peut être neutre ou grossissant ou déformant. Il peut aussi, comme dans certains contes, donner une image de l’avenir. C’est pour cette raison que le développement de l’IA concerne tout le monde.
Personne aujourd’hui ne peut prétendre détenir « la » solution pour la maîtrise de sa progression. Mais l’absence temporaire de solution ne doit pas pour autant conduire à la résignation.
Bien que cela soit difficile, il faut essayer d’éveiller le plus grand nombre à la certitude du risque lié à ces technologies surpuissantes. Certains ont d’autres urgences ou d’autres priorités quand d’autres ne se sentent pas impliqués ou ne voient pas comment ils pourraient agir. Le simple fait de se sentir intimement touché par ces phénomènes (car objectivement nous le sommes absolument tous) est déjà un début de réflexion.
Hormis une prise en compte systématique du risque, voire dans le meilleur des cas un devoir d’alerte, on n’a sans doute pas encore trouvé la solution pour éliminer ou minorer de potentiels dangers liés aux dérives de l’innovation. Pour l’instant, la seule piste est d’attirer l’attention du plus grand nombre sur tous les effets (aussi bien positifs que négatifs) de ces phénomènes. Et de regarder avec vigilance comment bâtir et utiliser des systèmes porteurs de la plus grande valeur ajoutée.
Une prise de conscience individuelle autant que collective est donc essentielle. Chacun d’entre nous est concerné, et devrait se poser cette question chaque jour, à chaque utilisation d’une innovation : est-ce bien ? Est-ce que la machine que j’utilise renforce le bien commun ? Est-ce que l’algorithme ou le dispositif que je suis en train d’inventer présente des risques ? Est-ce que la politique que je mène ou que je propose permet de guider les réflexions et de conscientiser
S’il n’y a aujourd’hui pas de grande réponse sérieuse, rien n’interdit en attendant à chacun d’apporter sa petite réponse.
_____
(*) Par Alain Conrard, auteur de l’ouvrage « Osons ! Un autre regard sur l’innovation », un essai publié aux éditions Cent Mille Milliards, en septembre 2020, CEO de Prodware Group et le Président de la Commission Digitale et Innovation du Mouvement des ETI (METI) (LinkedIn).
0 Réponses à “Sciences-Innovation et intelligence artificielle : vigilance”