L’éducation confrontée au biais de l’intelligence artificielle
Il est impératif que les établissements, dans l’enseignement scolaire comme dans le supérieur, encouragent une culture de responsabilité dans le développement de l’intelligence artificielle, prévient Anthony Hié, directeur de la transformation digitale du groupe d’enseignement supérieur Excelia, dans une tribune au « Monde ».
L’intelligence artificielle (IA) est certainement l’une des avancées technologiques les plus significatives de notre ère. Elle a révolutionné la manière dont nous interagissons avec la technologie, en influençant des domaines allant de la médecine à la finance, en passant par le divertissement et l’éducation.
Derrière l’omniprésence de l’IA, accentuée par l’arrivée des IA génératives [capables de générer des données], les biais de l’IA restent un défi majeur. Il est impératif que l’éducation, dans toutes ses dimensions, s’attaque à cette problématique de manière proactive et éclairée.
Les biais dans l’IA se forment au stade de l’entraînement des modèles. Si les données d’entraînement comportent des préjugés ou des discriminations, l’IA peut les reproduire sans discernement. Par exemple, les systèmes de reconnaissance faciale ont été accusés de présenter des taux d’erreur plus élevés pour les personnes de couleur, en partie à cause des ensembles de données biaisés utilisés pour les former. Cela souligne l’importance cruciale de s’attaquer à cette question.
Pour comprendre les biais de l’IA, il est essentiel de saisir comment ils émergent. Les modèles d’IA apprennent à partir de données réelles, qu’ils utilisent pour prendre des décisions ou faire des recommandations. Si ces données sont imprégnées de stéréotypes, d’injustices, ou de discriminations, l’IA peut reproduire ces mêmes problèmes. Par conséquent, il est essentiel de s’attaquer aux biais à la source, c’est-à-dire les données d’entraînement.
Le projet Gender Shades, lancé par le Massachusetts Institute of Technology, évalue la précision des logiciels de classification de genre alimentés par l’IA. Cette étude a révélé que les entreprises soumises à ces évaluations obtenaient des résultats de reconnaissance faciale nettement meilleurs pour les hommes que pour les femmes, avec une différence de 8,1 % à 20,6 % dans les taux d’erreur. Cette étude concernant l’examen du logiciel d’analyse faciale révèle également un taux d’erreur surprenant de 0,8 % pour les hommes à la peau claire et de 34,7 % pour les femmes à la peau foncée1.
Les conclusions du projet mettaient en évidence le potentiel d’abus de la technologie de l’analyse faciale, que ce soit aux mains de gouvernements autoritaires, d’individus malveillants ou d’entreprises opportunistes. En fin de compte, le projet soulignait la vulnérabilité des algorithmes à la corruption et à la partialité.
La suite est réservée à nos abonnés.
Déjà abonné ?
Se connecter