Science et humanité: la place de l’homme face à l’intelligence artificielle (Eric Salobir)
(Cet article est issu de T La Revue de La Tribune – N°7 Décembre 2021)
Eric Salobir est président de Human Technology Foundation
Depuis quelques années, les observateurs remarquent une défiance accrue de la société civile vis-à-vis du progrès ; une certaine crainte même envers la science et les nouvelles technologies. Comment expliquer que nous en sommes arrivés là ?
Éric Salobir Ce dont on a peur, c’est de la nouveauté quand elle est disruptive, c’est-à-dire quand elle n’est pas incrémentale et que l’on voit doucement s’améliorer les choses. Or nous sommes en train de vivre un point de bascule. Depuis 20 ans, avec l’arrivée du numérique, de l’Internet et maintenant de l’intelligence artificielle, nous faisons face à ce qui est de l’ordre d’une révolution. Selon le World Economic Forum, cette phase de notre histoire s’apparente à une quatrième révolution industrielle. Selon moi, il s’agit avant tout d’une révolution épistémologique, j’entends par là que ce qui a profondément changé c’est notre rapport à la connaissance et notre rapport au monde. Cette révolution nous fait perdre et gagner des choses tout à la fois. Or, comme bien souvent, on voit vite ce que l’on perd mais pas tout de suite ce que l’on gagne. Nous sommes à une pliure de l’histoire. Tout se passe de l’autre côté du versant qui n’est pas forcément vu par tous. C’est ce voile qui est facteur d’inquiétude pour beaucoup de gens. Cela dit, je me souviens d’une très belle conversation que j’ai eue avec Michel Serres quelques mois avant son décès ; il était beaucoup plus optimiste que moi qui le suis pourtant déjà ! Il m’a rappelé que Socrate était contre l’utilisation de l’écriture car ce dernier était convaincu que la pensée allait être accessible à tout le monde y compris à des gens à qui elle n’était pas destinée et à qui elle ne serait pas expliquée. Pour Socrate, la pensée naît de la rencontre, du dialogue ; à partir du moment où l’on ne peut pas poser de questions, on ne peut pas débattre et donc il n’y a pas de pensée. Aujourd’hui on sait comment l’écriture a contribué au progrès de l’humanité et il est impensable de la remettre en question. Cela a été également le cas avec l’invention des caractères mobiles d’imprimerie qui ont permis de généraliser l’utilisation de l’écrit longtemps réservé aux plus riches. La crainte d’alors était que les textes soient transformés… c’étaient les fake news de l’époque. Mais encore une fois, on s’en est très bien sortis. Le monde s’est transformé. Michel Serres me faisait d’ailleurs remarquer qu’avec la génération de l’écrit, l’homme a beaucoup perdu de ses capacités de mémoire. Les civilisations de l’oral sont des civilisations de la mémoire, qui connaissaient par cœur des récits entiers. Il y avait d’ailleurs une formule latine qui était assez péjorative : « Doctus cum libro », que l’on peut traduire par « est savant quand il a ses livres ». Maintenant c’est « Doctus cum Google ». Tout le monde est savant dès qu’il a accès à des bases de données. Mais ce n’est plus péjoratif.
Surgit peut-être une nouvelle crainte : celle de voir l’humanité régresser intellectuellement, voire même de perdre en intelligence. À force d’être assisté par les outils numériques, l’homme aurait-il tendance à ne plus faire d’effort ? À trop utiliser le GPS par exemple, ne perd-il pas le sens de la lecture d’une carte ? Pour autant cette vision ne suggère-t-elle pas que le côté obscur de ce que l’on perd sans considérer ce que le numérique peut offrir culturellement parlant par exemple ?
É.S. La réponse est double. C’est-à-dire que d’un côté effectivement on perd des choses, il a été prouvé que les personnes utilisant tout le temps le GPS perdent le sens de l’orientation. Donc se repèrent moins bien dans l’espace en trois dimensions. Cela change notre appréhension du monde, c’est vrai. Mais, en même temps, une certaine forme de polychronie est apparue dans notre vie sociale. Nous explorons aujourd’hui des formes d’intelligence collaboratives qui n’existaient pas il y a 50 ans. On est plus multitâches, on travaille plus facilement en réseau, on crée de l’intelligence ensemble.
En revanche, je ne suis pas du tout naïf sur le fait que certains mésusages ou usages abusifs en termes de quantité de certaines technologies, de certains médias, finissent par induire des déséquilibres. Quand le patron d’une grande plateforme de streaming dit « mon concurrent principal c’est le sommeil », c’est extrêmement inquiétant car c’est la santé des personnes qui est en danger. Cela dit, on n’a pas attendu le numérique pour cela. Le président d’une grande chaîne de télévision française affirmait il y a quelques années « vendre du temps de cerveau disponible ». Finalement, le numérique n’est venu qu’à la suite d’un fonctionnement qui existait déjà. Ce que j’observe en revanche, c’est l’accroissement de nouvelles formes de fractures numériques.
C’est-à-dire ?
É.S. Les premières fractures se sont placées entre ceux qui n’avaient pas d’ordinateur ou ne savaient pas s’en servir, ceux qui étaient dans les zones blanches, et les autres. Maintenant la fracture se situe entre ceux qui sont capables de soulever le voile et de comprendre ce qui se passe derrière. C’est là le nouvel enjeu : faire en sorte qu’il n’y ait pas qu’une minorité de gens qui connaissent le fonctionnement des outils digitaux à l’instar des réseaux sociaux. Avoir conscience que les photos de comptes d’influenceurs sont souvent retouchées et donc ne reflètent pas la réalité ; apprendre à recouper l’information, à vérifier les sources. Car pour une immense majorité, l’influence du numérique peut conduire à la déprime et à la manipulation. Est-ce vraiment cela le progrès ? Non, je ne pense pas.
Justement, comment définiriez-vous le progrès ?
É.S. Je suis persuadé que le progrès ne vaut que s’il est partagé par tous. Célèbre allocution d’Aristote reprise comme slogan d’une compagnie de chemin de fer en son temps ! Mais je pense que c’est extrêmement vrai. Cela s’est confirmé notamment avec la pandémie. Il n’y a pas si longtemps, certains mouvements dits transhumanistes encourageaient l’investissement technologique dans l’amélioration significative de la vie d’une petite quantité de gens.
Certains se targuaient même de prendre des pilules à 1 000 dollars en espérant que cela allait rallonger leur vie. Depuis la pandémie, il est clair qu’en termes de santé, ce qui compte de manière essentielle c’est qu’il y ait des lits d’urgence pour tout le monde à l’hôpital quand il y a une épidémie. Cette situation a recentré le débat. En termes d’investissement, on est passé de chercher la pilule qui rendrait les milliardaires immortels à chercher un vaccin qui sauverait toute la planète. C’est un recentrage positif.
Cela dit, la crainte envers les vaccins n’a pas tardé à ressurgir, et cela de manière violente.
É.S. C’est vrai. Cette crainte est l’aboutissement d’une tendance que nous avions vue éclore il y a déjà quelques années. Nous avons d’ailleurs organisé un colloque il y a deux ans dont le but était de recréer la confiance dans les technologies, alors même que les gens de la Silicon Valley apparaissaient encore en couverture des magazines. Nous sentions pourtant qu’une certaine défiance était en train de naître. La vraie question c’est contre quoi et contre qui se tourne cette défiance ? Plusieurs éléments entrent en jeu. D’abord, on confond parfois science et progrès et malheureusement la crise pandémique aura sans doute fait tomber le dernier bastion de la parole qui existait : celui de la parole scientifique. Cela faisait longtemps que le public mettait en doute la parole des politiques, la parole des médias, même la parole des sphères économiques, mais pas la parole scientifique. C’était une parole qui était restée pure. Et ce bastion est tombé lorsqu’on a demandé à des scientifiques de se positionner sur des sujets sur lesquels ils n’avaient pas encore l’information. Est-ce la faute des médias qui les ont poussés à le faire ? Est-ce la faute des scientifiques qui ont cédé à cela ? Et puis, est arrivé le moment où l’on a demandé à tout le monde de parler de tout. Or, en dehors de sa discipline, un expert manque terriblement de discipline justement. Cela a contribué à l’émergence du mouvement antivax, dans lequel beaucoup ne croient plus les scientifiques. La parole des scientifiques semble abîmée.
Il y a là un transfert d’inquiétude. Prenons l’exemple des technologies numériques. Beaucoup accusent les algorithmes des pires maux, comme s’ils étaient capables de penser et d’agir. Mais c’est ce que l’homme fait des algorithmes qui est à remettre en cause, et plus largement la manière dont il utilise toutes ces nouvelles technologies. La défiance ne serait-elle pas à replacer vis-à-vis de l’humain tout simplement ?
É.S. La défiance vis-à-vis des scientifiques c’est une défiance vis-à-vis de l’humain. Et la difficulté avec l’algorithmique notamment c’est justement de savoir ce que l’on fait avec les algorithmes. Je me souviens d’une plateforme de recrutement en ligne qui avait mis en place un algorithme pour sélectionner les CV ; les dirigeants ne voulaient pas que ce soit basé sur un critère de genre mais en même temps il fallait bien mettre des critères et parmi eux il y avait la rapidité de réponse ; or il se trouve que les hommes réagissent souvent beaucoup plus vite que les femmes quand ils reçoivent une annonce car ils y voient une opportunité immédiate et beaucoup d’entre eux se sentent tout à fait confiants pour répondre. Alors qu’une femme va s’interroger sur ses compétences, se demander si le poste est bien pour elle et donc elle ne va pas répondre tout de suite. De fait, ce critère-là a induit indirectement un biais de genre. Heureusement la plateforme s’en est aperçue et ils ont mis en place un algorithme qui vérifie que la sélection comporte un pourcentage de femmes qui correspond à celui du marché. Cet exemple prouve que l’on n’a pas toujours toutes les clés et qu’à partir du moment où l’algorithme est apprenant il y a un risque de biais.
En tout état de cause, ce qu’il faut retenir de cette histoire, c’est que ce sont les humains qui sont en jeu. Dans le cadre d’un recrutement, d’une entrée à l’université, dans le cadre d’un crédit pour acheter une maison, c’est notre vie qui est en jeu et c’est là qu’il faut avoir une prudence particulière. Face à cela, mon but n’est pas de rassurer les gens mais de les aider pour qu’ensemble on éclaire le chemin. Les aider à voir les vrais dangers afin de déboulonner les fausses peurs qui, par essence sont mauvaises conseillères. Ces peurs risquent de freiner certaines populations dans l’adoption des technologiques alors que d’autres ne vont pas se freiner ; ce qui, de fait, va accroître la fracture que j’évoquais. Et l’une des difficultés que l’on voit c’est que cette fracture numérique existe aussi sur le marché du travail. Prenons l’exemple des livreurs, une application leur indique le chemin à utiliser et ils n’ont pas le droit d’en dévier. Au fond, ils travaillent pour une IA. Certaines plateformes de livraison en ligne calculent aussi les temps de pauses, la rapidité des gestes et n’hésitent pas à désigner ceux qui ne sont pas très performants. Et parfois même les remercier.
On est face à l’émergence d’un prolétariat numérique. Il y a ceux qui sont enchaînés à la machine et ceux qui sont remplacés par la machine. Aujourd’hui, il existe des algorithmes qui sont capables d’établir la base de contrats ou de vérifier des comptes. Or avant de devenir expert, que l’on soit comptable ou avocat, il faut passer par la case junior. Si l’algorithme fait le travail à la place d’un débutant, comment allons-nous former des experts chevronnés ? Il faut donc reconnaître que nous avons quelques défis à relever. Notre société va devoir s’adapter et il faut s’assurer que la façon dont elle s’adapte ne met pas en danger l’humain.
Comment faire pour redonner confiance au progrès ? Quelles actions avez-vous mises en œuvre ?
É.S. Human Technology Foundation, que je préside, est née de la rencontre d’un certain nombre de gens qui venaient du secteur privé technologique qui se sont aperçus que les lieux de dialogue fécond étaient quand même assez rares. Et qu’il fallait pouvoir se parler loin de la fureur, des micros, se parler calmement, penser, élaborer des solutions. Je n’ai été qu’un catalyseur de ce réseau, autour des autorités de l’Église catholique, des grandes entreprises mais aussi des start-ups, des universitaires, d’un certain nombre de représentants des régulateurs et de la société civile. Au départ, notre but était de dialoguer. Nous considérions que chacun avait un bout du puzzle, une vision propre. Et si nous voulions une vision à 360° il fallait s’asseoir autour d’une table. Dépassant le cadre d’une éthique conséquentialiste, largement répandue outre-Atlantique, nous tentons une approche plurielle, notamment fondée sur une éthique kantienne : la question n’est pas de savoir si vous ne faites de mal à personne mais de savoir si le principe de votre action est bon. Est-ce que je souhaite que tout le monde fasse ainsi ? Ne pas être néfaste ne suffit plus. Il faut un impact positif. Mais, paradoxalement, on l’atteint mieux en se focalisant non sur les conséquences mais sur les principes. C’est ce questionnement qui bouscule les choses, et qui plaît dans la Silicon Valley. Ce sont l’intention et la raison d’être qui sont questionnées. D’où l’émergence des entreprises à mission. Tout le travail qui a été fait en France avec la Loi Pacte va dans ce sens. Puis, nous nous sommes rendu compte que se parler entre nous n’allait pas suffire. Et qu’il fallait faire des études un peu plus approfondies. Nous avons alors travaillé sur la gouvernance des technologies en situation de crise. En ce moment, nous travaillons sur l’investissement responsable dans la technologie : nous souhaitons donner des métriques pour les investisseurs, des indicateurs extra-financiers pour les aider à vérifier que leurs investissements dans la technologie ont bien un impact positif.
Je suis ainsi partisan de l’autorégulation, car comme le dit l’un de nos partenaires de la Silicon Valley « les bad guys trouveront toujours un moyen de contourner la règle ». Pourtant, je suis aussi persuadé qu’il faut baliser le terrain pour éviter les débordements. Nous voulons donc également accompagner les acteurs des politiques publiques. Ils ont un rôle-clé.
Si la régulation ne suffit pas, que faut-il faire ? Avez-vous mis au point des méthodes spécifiques pour aider à redonner confiance dans le progrès ?
É.S. Il est nécessaire de mettre en place au sein des entreprises une culture de l’éthique, des bonnes pratiques. C’est déterminant. Et pour cela, nous avons créé un certain nombre d’outils. Nous avons par exemple élaboré une méthode d’évaluation éthique des technologies qui permet de vérifier l’impact d’un projet développé par une entreprise. Elle est très utile quand on aborde des technologies sensibles comme celle de la reconnaissance faciale. Cette méthode permet aux entreprises qui veulent bien faire, et il y en a un certain nombre, d’avoir les moyens de vérifier qu’elles font bien. Car l’éthique, en réalité, c’est assez complexe. Si je vous demande : « La reconnaissance faciale c’est bien ou pas bien ? » La question n’a pas de sens : l’identification des terroristes à la volée dans un aéroport, par le scan de tous les visages, n’a rien à voir avec le système d’authentification qui déverrouille votre téléphone. Ce sont deux approches très différentes. Notre méthode aide l’entreprise à se positionner au carrefour entre la technologie, le marché (le public cible qui peut être plus ou moins vulnérable) et le produit ; et l’aider à voir si ce qu’elle fait correspond bien à ses valeurs. Nous avons testé cette méthode au sein du groupe La Poste, qui a élaboré une charte éthique de l’IA et souhaite vérifier que ses projets technologiques sont en accord avec les valeurs exprimées dans ce document. La préoccupation forte était ici de s’assurer de l’adéquation entre les actions et les affirmations. Je trouve cela très sain. C’est une très belle démarche de prendre le temps de réfléchir aux principes que l’on veut appliquer. Et de se doter d’outils pour vérifier que cela ne reste pas lettre morte accrochée à un mur comme une espèce de mantra auquel on se réfère de temps en temps.
En tant qu’homme d’Église, pourquoi avoir choisi de travailler avec les entreprises ?
É.S. En fait, ce ne serait pas respectueux de travailler sur les nouvelles technologies sans dialoguer avec leurs développeurs. J’ai énormément de respect pour les dirigeants d’entreprises qui sont systématiquement stigmatisés quand quelque chose ne va pas mais à qui on ne dira pas forcément merci s’ils développent des process qui fonctionnent bien. Or, c’est un rôle difficile en ce moment. Il n’y a pas si longtemps, il suffisait d’avoir quelques bonnes intentions et de les afficher. Maintenant beaucoup d’entreprises approfondissent leurs projets pour vérifier que tout ce qui est fait, corresponde bien à ce qui est dit ; et ça c’est extrêmement compliqué. J’ai beaucoup de respect pour tous ceux qui innovent et tous ceux qui entreprennent et je pense qu’il faut s’asseoir à leurs côtés pour les aider à prendre la bonne direction. Parfois il faut les éclairer, les pousser du coude et leur dire quand cela pose problème, parfois il faut juste les aider à éclairer le chemin et à trouver des solutions.
Quand le changement de prisme se formalise, ne peut-on pas considérer cela aussi comme une innovation ?
É.S. On fait preuve d’innovation chaque fois que l’on déplace l’angle de vue et là, effectivement, le fait de penser autrement y contribue. Ce qui est une forme d’innovation c’est de penser aussi des nouveaux cadres, je prêche en ce sens. Ce n’est pas seulement d’inventer de nouvelles techniques : il existe aussi une innovation sociale. Par exemple, mettre en place un nouveau cadre pour la valorisation de la donnée en Europe c’est une forme d’innovation sociétale et technologique. Et là où l’innovation devient un progrès c’est effectivement au moment où l’innovation a un impact positif sur le plus grand nombre. C’est un point extrêmement important pour nous. Au sein de la Human Technology Foundation, nous défendons la technologie au service de l’humain. Mais l’humain, cela veut dire « tous les humains » !
Votre confiance en l’humain semble d’ailleurs inébranlable. Pour autant, l’air du temps est particulièrement anxiogène. Avez-vous un regard positif sur l’avenir ? Comment voyez-vous le monde en 2050 ?
É.S. Nous sommes dans une situation de recomposition du monde aussi bien économique que sociétale, avec des nouvelles lignes de fractures, même au niveau militaire où l’on voit l’émergence de nouvelles guerres froides, donc effectivement cette situation est assez anxiogène. Par ailleurs, sur un certain nombre de sujets, nous arrivons à la fin d’un cycle. Je pense que notre démocratie connaît des difficultés. Il existe peut-être un peu le fantasme d’une démocratie directe, où l’on gouvernerait directement par la rue, où l’on se rassemblerait sur les réseaux. Le danger c’est que les fins de cycle passent souvent par des ruptures qui sont plus ou moins violentes. Ce qui m’inquiète c’est qu’elles sont souvent violentes pour les mêmes. Ceux qui sont exposés, qui sont vulnérables.
Les crises que nous traversons et que nous allons traverser – la crise pandémique en est une, la crise climatique sera beaucoup plus importante – vont surtout marquer les plus vulnérables : ceux qui ont le moins de prise sur l’évolution du monde risquent d’en pâtir le plus. La violence de certaines de ces ruptures est inquiétante, on l’a vu avec des contestations très fortes, comme celles des antivax. On voit, en France, un groupe quasiment à l’affût d’une bonne raison de descendre dans la rue. C’est inquiétant.
Ce n’est pas très optimiste…
É.S. Oui, à court terme. Mais, à long terme, je partage la vision de Michel Serres que j’évoquais. L’humain s’est toujours tiré par le haut de toutes les révolutions épistémologiques. Je vous citais les caractères d’imprimerie mais chaque fois qu’une invention a bouleversé le quotidien, la résilience et l’inventivité de l’humain ont toujours pris le dessus. J’ai une grande confiance dans l’humain pour sa capacité à trouver des nouveaux modèles et nouveaux équilibres à moyen et long terme.
Plutôt que de croire au progrès - d’ailleurs peut-on croire au progrès ? On a la foi dans une religion, mais peut-on l’avoir dans le progrès, dans la science ? - aujourd’hui l’enjeu n’est-il pas de retrouver la foi en l’être humain ?
É.S. Un certain nombre de scientifiques vous diront que la foi dans la science existe car lorsque vous êtes scientifique, vous êtes obligé de croire ce que vous disent vos confrères. Car tout le monde ne refait pas toutes les démonstrations. Et d’une discipline à l’autre, les scientifiques s’appuient aussi sur des choses qui ont été découvertes par d’autres dans des domaines qu’ils ne sont pas du tout capables de comprendre. En effet, la foi est liée à la confiance. Et à un moment, il faut avoir confiance. Or, aujourd’hui, la parole scientifique est mise à mal, donc la foi dans la science est mise à mal également. En revanche, l’humain ne se départit pas d’une forme de pensée magique, chamanique presque. Et je pense que cette pensée-là, on l’a quand même beaucoup investie dans des moyens technologiques, c’est un peu le principe du totem.
C’est-à-dire ?
É.S. Je pense aux enceintes connectées. Elles sont un peu à l’image des dieux Lares que l’on plaçait dans l’atrium pour protéger le foyer, dans la Rome antique. Aujourd’hui, elles sont dans la cuisine ou dans le salon, ce sont des petits objets qui sont censés eux aussi protéger le foyer sauf que les dieux Lares étaient des statuettes, et qu’il fallait vraiment y croire. Les auteurs de psaumes se moquaient ainsi des faux dieux : « Ils ont une bouche mais ne parlent pas, ils ont des oreilles mais n’entendent pas ». Mais si vous dites « Alexa, Siri ou Google, commande-moi une pizza », ils le font. Ces enceintes sont connectées au système d’alarme, aux téléphones des enfants et vous envoient un bip pour vous rassurer quand ils rentrent le soir, elles sont connectées au système de chauffage et le baissent si vous oubliez de le couper en partant. Finalement, oui, elles prennent soin du foyer. Et elles fonctionnent un peu sur le principe des dieux car elles sont aussi une porte ouverte sur la connaissance et sur l’extérieur. Quand vous leur posez une question et qu’elles vous répondent, ne peut-on pas les comparer à la voix de la Pythie ?
Tout cela est de l’ordre du totem. On les admire, les vénère, on ne sait pas bien comment elles fonctionnent et on attend d’elles une forme de protection. Le problème c’est que le totem par définition, c’est l’aliénation. Vous remettez une partie de vous-même, de votre liberté. Vous l’aurez compris, je n’en veux pas à la technologie, en revanche je m’inquiète pour l’humain. J’ai foi en Dieu et confiance dans l’humain. En tant que chrétien, je le dirais conçu à l’image de Dieu créateur ; que l’on soit inventif ce n’est pas un hasard. En même temps, j’ai bien conscience aussi que le vivant ne survit que par économie d’énergie. Le danger est donc que notre esprit cède petit à petit à cette forme de paresse qui consiste à laisser la machine choisir pour lui. L’humain assisté ne risque-t-il pas d’être un peu moins humain ? Je suis profondément persuadé que les technologies sont des productions de la société aux deux sens du génitif, c’est-à-dire que d’un côté nous les produisons, collectivement, ce sont des technologies qui ressemblent à nos sociétés, et d’un autre côté, à mesure qu’on les utilise elles nous façonnent, elles nous transforment. À un moment, est-ce que cette production fait de nous des gens plus humains, ça nous humanise ou ça nous déshumanise ? Nous sommes arrivés à une ligne de fracture, à nous de choisir la bonne direction. Il faut peut-être réinventer la façon dont on est humain à l’âge de l’intelligence artificielle.
…………………………………….
Éric Salobir est l’auteur de Dieu et la Silicon Valley aux Éditions Buchet-Chastel, 2020.
0 Réponses à “Science et humanité: la place de l’homme face à l’intelligence artificielle (Eric Salobir)”