Les algorithmes sont neutres ? ( Aurélie Jean)
D‘une certaine manière, la scientifique Aurélie Jean considère que les algorithmes sont n à l’image de ceux qui les construisent. Un peu la même problématique que l’énergie atomique qui peut être utilisée à des fins de paix ou de guerre. La question ne serait pas celle de l’existence des technologies mais de leurs conditions d’utilisation. Cette appréciation n’évacue pas cependant les questions de transparence démocratique et de régulation si nécessaire. Sans parler des problèmes d’éthique qui peuvent se poser pour certaines technologies. NDLR
En France, Aurélie Jean s’est imposée comme la meilleure des vulgarisatrices de la science algorithmique. De livres à succès en interventions remarquées, cette experte de la morphologie mathématique ne cesse de ferrailler contre les idées reçues sur les algorithmes, trop souvent assimilés aux seules dérives des réseaux sociaux comme Facebook. Dans son dernier ouvrage, la scientifique rappelle qu’ils ne sont responsables de rien, n’étant pas une personnalité juridique. Ne redoutez donc pas une société qui serait contrôlée par des intelligences artificielles. Mais intéressez-vous aux concepteurs des programmes. Pour poursuivre son entreprise de démystification, l’Opinion a soumis au commentaire de la scientifique des assertions sur les algorithmes.
Les algorithmes sont des coupables idéaux…
Le procès contre un algorithme est impossible, même si j’ai souvent l’impression de jouer leur avocate [rires…] ! Les algorithmesn’ont aucune personnalité juridique, qu’elle soit physique ou morale. Derrière chaque algorithme en fonctionnement, il y a des hommes et des femmes qui ont pensé, développé, testé, vendu et utilisé cet algorithme. Des décisions bien humaines ont été prises tout au long du processus, sur la formulation du problème à résoudre, l’algorithme lui-même, des hypothèses, les données sur lesquelles le calibrer ou l’entraîner, ou encore des scénarios d’utilisation.
Ces décisions peuvent potentiellement être biaisées ou faussées, et mener à des discriminations technologiques – quand une catégorie de la population est écartée du fonctionnement de l’algorithme – ou à des erreurs. Un exemple de discrimination technologique tristement connu sont les premiers algorithmes de reconnaissance faciale qui ne reconnaissaient pas les personnes de couleur. Le jeu de données sur lequel l’algorithme avait été entraîné, était constitué majoritairement – voire uniquement – d’individus à peaux claires. L’algorithme était alors dans l’impossibilité de reconnaître la présence d’un visage à peau noire.