Intelligence artificielle: le contrôle par des algorithmes responsables ? ( Nozha Boujemaa )

Intelligence artificielle: le contrôle par des algorithmes responsables ?  (  Nozha Boujemaa )

 

Nozha Boujemaa, directrice science & innovation chez Median Technologies essaie de rassurer à propos des dérives possibles de l’IA et cela  grâce aux algorithmes responsables . Un concept encore un peu flou !

 

 Tribune dans le Monde (extraits)

 

«  Des chercheurs des universités Stanford et du Massachusetts ont publié, le 22 novembre, dans la revue Science une nouvelle approche en apprentissage automatique permettant de prévenir les comportements indésirables éventuels de l’intelligence artificielle. Ils ont montré leurs résultats dans deux cas applicatifs : la discrimination du genre et la gestion du diabète.

Le cadre proposé permet de mettre en place des algorithmes dits « seldoniens », en référence au personnage de Hari Seldon, créé par l’auteur de science-fiction Isaac Asimov. Ce dernier avait inventé les « robots positroniques », gouvernés par trois lois protégeant les êtres humains, connues depuis comme les « lois d’Asimov ».

En réalité, il s’agit d’une famille d’approches qui intègrent, dans leurs fonctions objectives à optimiser, des contraintes à respecter pour éviter de causer des dommages à l’humain. Ainsi, le respect de son intégrité physique est transféré au concepteur de l’algorithme d’apprentissage plutôt qu’à celui qui l’utilise ou le déploie. Il s’agit d’algorithmes « responsables par conception », dont la publication a été bien théâtralisée par l’équipe américaine avec la référence à Seldon et à Asimov.

Cela nous renvoie vers un imaginaire de science-fiction qui éveille à la fois curiosité et étonnement. L’idée essentielle est d’anticiper la responsabilité dans la conception plutôt que de contrôler a posteriori le comportement de l’algorithme par un mécanisme d’auditabilité. Ces approches s’opposent à l’école de pensée considérant que les biais viennent uniquement des données et que les algorithmes sont irréprochables.

Ce qui prime par-dessus tout, c’est la préservation de l’intégrité physique et mentale de l’humain. C’est bien la règle d’or pour tout développement technologique incluant l’intelligence artificielle. Si on regarde de près ses implications, on y trouve la sécurité physique (par exemple pour les véhicules autonomes), la protection des données personnelles, mais aussi la préservation du libre arbitre et l’évitement du nudging (l’« influence d’opinion »). Nous avons vu récemment que ce dernier, dans le cas du marketing politique, a des impacts préjudiciables sur nos démocraties, alors qu’il n’est pas illégal. C’est un bel exemple du fossé entre le droit et la responsabilité et l’éthique.

Il est crucial d’avoir une interprétabilité du comportement algorithmique et de disposer des moyens de contrôle (a priori ou a posteriori) de leurs capacités à respecter les règles éthiques, morales et juridiques. L’explicabilité est aussi essentielle : c’est la capacité de justifier le processus de décision d’un algorithme. Cette explicabilité, qui a été popularisée par le programme Explainable AI (XAI) de la Defense Advanced Research Projects Agency, est multiforme et pas toujours réalisable d’un point de vue technique. »

 

0 Réponses à “Intelligence artificielle: le contrôle par des algorithmes responsables ? ( Nozha Boujemaa )”


  • Aucun commentaire

Laisser un Commentaire




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol