Démystification des algorithmes pour la compréhension humaine
Aurélie Jean, docteure en sciences et entrepreneure : explique dans l’opinion les limites des algorithmes pour la compréhension humaine.
« Nous ne voulons pas endosser le rôle d’arbitre de la vérité. » Cet argument développé par Mark Zuckerberg pour se justifier de ne pas avoir à trancher ce qui peut être publié sur sa plateforme devient intenable alors que les réseaux sociaux s’installent toujours plus dans notre quotidien. Mais si ce n’est pas au patron de Facebook de tenir ce rôle, d’autres le peuvent-ils ? C’est ce que cherche à savoir l’Opinion dans cette série estivale.
Galilée l’affirmait : la nature est un livre écrit en langage mathématique. Tout phénomène, selon lui, pourrait être décrit par un système capable de capturer l’essence des mécanismes qui le constituent. Les philosophes recherchent le sens ultime des choses alors que les scientifiques recherchent des explications. Aux premiers, la quête du pourquoi, aux seconds l’exploration du comment. Par leur travail explicatif, les scientifiques traquent les erreurs qui font avancer cette recherche de vérité. Aujourd’hui, à nos sentiments, nos expériences et nos raisonnements parfois mathématiques, s’ajoutent le calcul et la logique algorithmiques. On s’efforcera ici de répondre à une question a priori banale, mais qui suppose une connaissance du fonctionnement des algorithmes, de leurs limites et de leurs potentiels, face à notre pensée bien humaine : les algorithmes détiennent-ils la vérité ?
La méthode algorithmique repose sur un dosage subtil d’empirisme et de rationalisme — pourtant traditionnellement distingués, voire opposés, dans le passé par nombre de philosophes. Les algorithmes explicites possèdent par définition une logique décrite par les humains. Dans cette logique on trouve par exemple des structures conditionnelles — si une condition est validée alors une opération algorithmique est exécutée —, des équations mathématiques souvent complexes, des conditions d’usage ou encore des hypothèses.
Parti pris. L’algorithme explicite fait alors appel principalement au raisonnement de ceux qui le conçoivent. On comprend, dès lors, qu’il modélise un phénomène à partir d’une observation et d’une compréhension du monde inévitablement subjective. Cela posé, la simulation qui en résulte permet de soulever des corrélations jusque-là purement conceptualisées, des couplages inconnus entre composantes du phénomène, ou des incohérences face à la réalité ou à ce qu’on pensait d’elle. Comme une meilleure compréhension des mécanismes de maladies, de phénomènes climatiques ou de manifestations sociologiques…
Contrairement aux algorithmes explicites, les algorithmes implicites possèdent une logique entièrement construite par apprentissage sur des données choisies et labellisées par les scientifiques. D’une certaine manière, cette approche s’inspire de l’empirisme par une utilisation brute des scénarios du phénomène à simuler symbolisés par les données d’apprentissage. Un jour, on pourra peut-être entraîner un algorithme entièrement sur des données non labellisées, mais il restera toujours le choix de ces données. Même sur des tailles gigantesques, celles-ci captureront toujours une réalité et non la réalité dans sa totalité. Rien ne permettra de démontrer le contraire.
Qu’ils soient explicites ou implicites, les algorithmes sont le fruit d’une construction humaine plus ou moins supervisée, avec ses biais et son prisme. Ils permettent de démontrer des concepts jusqu’ici induits ou tout simplement pensés, de trouver des solutions à des problèmes encore difficiles à mathématiser, ou de mettre en lumière des relations de causalité encore jamais soulignées. Cela dit, les algorithmes ne saisissent pas toute la réalité, ils se contentent de traduire une réalité induite par le raisonnement, sur un problème que notre logique a formulé, et dont nous analysons les résultats avec, là aussi, un parti pris inconscient.
Limites. Ce sujet rejoint une autre idée préconçue selon laquelle les algorithmes seraient capables un jour de tout modéliser — et, partant, de tout simuler. Cette position est invivable : on ne pourra jamais dire qu’on a tout observé ou tout capturé du monde qui nous entoure, car pour atteindre un tel paradigme il faudrait s’affranchir de l’idée même de monde. Les algorithmes qui permettent également d’apporter des éléments prédictifs sur un phénomène, deviennent pour les hommes l’outil suprême pour devenir maîtres de leur destin. L’algorithme deviendrait alors l’héritier des augures, des haruspices et autres devins. Mais là encore, il ne peut détenir la vérité future, par notre incapacité de confirmer l’intégralité de sa représentation du réel sans approximation, interprétation ou encore omission.
Penser les algorithmes comme détenteurs ultimes de la réalité, c’est s’interroger sur l’idée que celle-ci peut toujours être décrite analytiquement. Le cas de l’amour, par son caractère incapturable et indémontrable, affaiblit le principe même de véracité par une description analytique. Sans contredire Galilée, on admettra les limites des algorithmes à s’emparer de la vérité sur tout et à tout moment, car de la même manière que tout ne peut pas s’exprimer avec des mots, tout ne peut pas s’exprimer avec la logique actuellement formalisée, même complexe et fortement abstraite.
Le physicien nobélisé Richard Feynman disait que « le paradoxe n’est qu’un conflit entre la réalité et notre sentiment de ce que la réalité devrait être ». A la réalité résonne ici la vérité du monde que les philosophes tentent de trouver depuis plus de 2000 ans. Les algorithmes permettent de soulever de nombreux paradoxes par le niveau d’abstraction et la complexité de leur logique. Mais nous ne serons jamais à un paradoxe près… et nous aurons toujours besoin de philosophes !
Docteur en sciences et entrepreneure, Aurélie Jean est auteure du livre L’apprentissage fait la force, aux Editions de l’Observatoire.