« lntelligence artificielle: pour une pédagogie sur des cas concrets»
L’intelligence artificielle nourrit toutes les peurs et tous les fantasmes. Certains craignent la mise à l’écart de l’humain voire sa domination, d’autres contraires voient l’occasion d’une « renaissance humaine » . Des visions et des sentiments souvent excessifs d’abord parce que l’intelligence artificielle a pénétré depuis déjà longtemps dans la production et la société ensuite parce que le concept d’intelligence artificielle est souvent très flou. L’acceptation de la progression des technologies dites intelligences artificielles nécessite donc beaucoup de pédagogie pour être admise. De nombreuses initiatives ont été lancées pour définir une intelligence artificielle éthique et respectueuse des droits humains, mais pour l’instant, la mise en œuvre concrète de ces principes marque le pas, regrette la spécialiste de l’IA Nozha Boujemaa dans une chronique au « Monde ».
« Comment faire en sorte que les usages de l’intelligence artificielle (IA), qui se développent à un rythme effréné, restent éthiques, respectueux des droits humains et des valeurs démocratiques ? Depuis 2019, les principes de l’IA de confiance ont fait leur chemin, après la publication du rapport du groupe d’experts de haut niveau en intelligence artificielle de la Commission européenne (High-Level Expert Group on Artificial Intelligence, AI HLEG) et l’élaboration des principes de l’OCDE sur l’intelligence artificielle, qui ont été adoptés en mai 2019 par les pays membres de l’OCDE.
En juin 2019, le G20 a adopté des principes qui s’inspirent de ceux de l’OCDE. Avec un temps différé, l’Unesco a inclus en 2020 dans sa Commission mondiale d’éthique des connaissances scientifiques et des technologies (Comest) des experts travaillant sur les principes d’une IA éthique.
Une autre initiative de coordination internationale, franco-canadienne à l’origine, a été lancée, en parallèle avec l’AI HLEG, le 15 juin 2020 par 15 pays et s’intitule Global Partnership on AI (GPAI). Les efforts sont structurés selon quatre axes : l’usage responsable de l’IA, la gouvernance des données, le futur du travail, l’innovation et la commercialisation. Il est toutefois encore trop tôt pour savoir quel serait le niveau opérationnel des conclusions de ces groupes de coordination.
Courant 2020, l’OCDE a de son côté constitué son réseau d’experts, ONE AI, pour travailler au développement et au déploiement responsables de l’IA. Il s’agit d’une démarche proactive dans cette quête d’une IA de confiance : comment passer des principes aux actions ?
Ainsi, le premier groupe d’experts, consacré à « la classification des systèmes d’IA », développe un cadre vulgarisé pour classer et aider les décideurs politiques à naviguer dans les systèmes d’IA et à comprendre les différentes considérations politiques associées.
Le deuxième groupe travaille sur la mise en œuvre pratique des principes d’IA fondés sur des valeurs centrées sur l’humain. Les efforts de ce groupe sont orientés vers l’identification des outils technologiques, processus et bonnes pratiques spécifiques qui permettront une application pratique de ces principes. Le troisième groupe est consacré à l’élaboration des politiques publiques qui accompagneront le déploiement technologique de l’IA : ONE AI, de l’OCDE, est un des premiers à orienter ses efforts sur les outils concrets. »
0 Réponses à “« lntelligence artificielle: pour une pédagogie sur des cas concrets»”