Archive pour le Tag 'éthique'

Intelligence artificielle : trouver équilibre entre innovation et éthique

Intelligence artificielle : trouver équilibre entre innovation et éthique

Selon un rapport de Statista, les investissements mondiaux dans l’IA ont atteint environ 40 milliards de dollars en 2020 et devraient atteindre 110 milliards de dollars d’ici 2024. Mais alors que certaines personnalités publiques comme Elon Musk et Steve Wozniak, ainsi que des experts dépassés par les capacités de l’IA générative, ont appelé en mars dernier à une pause de six mois dans la recherche dans ce domaine, les investisseurs dans la technologie de l’IA sont confrontés à un dilemme. Par Maxim Manturov, responsable de la recherche en investissements chez Freedom Finance Europe

L’IA est un marché à croissance rapide avec un énorme potentiel de rentabilité et d’impact, attirant des milliards de dollars en capital-risque, en actions privées et en investissements d’entreprise. Les investissements des géants technologiques dans la recherche et le développement des technologies d’IA contribuent à la croissance du marché. Ces entreprises ne cessent d’innover et de développer de nouvelles applications d’IA, ce qui stimule la demande de ces technologies dans divers secteurs. Les efforts visant à améliorer son accès devraient encore stimuler la croissance du marché dans les années à venir. Le segment des logiciels représente la plus grande part du marché de l’IA en raison des améliorations apportées au stockage, au traitement parallèle et à la puissance de calcul. La demande de technologies logicielles pour le déploiement et le développement d’applications d’IA telles que l’algèbre linéaire, l’analyse vidéo, les capacités de communication matérielle, l’inférence et les matrices éparses alimente la croissance de ce segment. En outre, la nécessité pour les entreprises d’obtenir des données et des informations significatives grâce à l’analyse du contenu visuel devrait accroître la demande de solutions logicielles sur le marché mondial de l’IA.

La taille du marché mondial de l’intelligence artificielle (IA) a été estimée à 119,78 milliards de dollars en 2022 et devrait atteindre 1.591,03 milliards de dollars d’ici 2030 à un taux de croissance annuel composé de 38,1 % entre 2022 et 2030.

Mais les technologies de l’IA sont encore loin d’être parfaites et leurs limites, telles que la partialité des données, le manque de transparence et la nécessité d’un contrôle humain, peuvent constituer des risques pour l’adoption et la valeur.

Bien que les avantages potentiels de l’IA soient considérables, des inquiétudes ont été exprimées quant à ses implications éthiques, notamment en ce qui concerne les préjugés, la protection de la vie privée et les suppressions d’emplois. Des appels ont donc été lancés en faveur d’une réglementation et d’une surveillance plus stricte du développement et du déploiement des technologies d’IA. Certains experts ont appelé à une pause dans la recherche et le développement de l’IA afin de laisser le temps d’aborder ces questions et d’élaborer des réglementations appropriées. Mais d’autres estiment qu’une telle pause pourrait étouffer l’innovation et empêcher les avantages potentiels de l’IA de se concrétiser.

Il est important de noter que les appels à la suspension de la recherche sur l’IA générative se concentrent sur un sous-ensemble particulier de technologies d’IA et ne s’appliquent pas nécessairement à toutes les formes d’IA. Si l’IA générative a démontré des capacités impressionnantes dans certains domaines, elle présente également des risques potentiels en termes d’utilisation abusive ou de conséquences involontaires.

La décision de continuer à investir dans les technologies de l’IA doit donc reposer sur un examen minutieux des avantages et des risques potentiels associés à ces technologies. Il est important que les chercheurs, les entreprises et les gouvernements travaillent ensemble pour s’assurer que le développement et l’application de l’IA sont guidés par des principes éthiques et que des mesures de sécurité appropriées sont en place pour prévenir les conséquences involontaires ou l’utilisation abusive.

En conclusion, les technologies de l’IA offrent un monde d’opportunités, mais elles posent également des défis complexes qui nécessitent des solutions réfléchies et complètes. Ainsi, les investisseurs en IA doivent trouver un équilibre entre leur désir d’innover et de faire des bénéfices et leur responsabilité d’évaluer les implications éthiques, sociales et juridiques des technologies qu’ils soutiennent. Il peut s’agir de s’associer à des experts dans le domaine, de dialoguer avec les parties prenantes et d’accorder la priorité à la transparence, à la responsabilité et à la protection de la vie privée.
Maxim Manturov

Intelligence artificielle : trouver l’équilibre l’équilibre entre innovation et éthique

Intelligence artificielle : trouver l’équilibre l’équilibre entre innovation et éthique

Selon un rapport de Statista, les investissements mondiaux dans l’IA ont atteint environ 40 milliards de dollars en 2020 et devraient atteindre 110 milliards de dollars d’ici 2024. Mais alors que certaines personnalités publiques comme Elon Musk et Steve Wozniak, ainsi que des experts dépassés par les capacités de l’IA générative, ont appelé en mars dernier à une pause de six mois dans la recherche dans ce domaine, les investisseurs dans la technologie de l’IA sont confrontés à un dilemme. Par Maxim Manturov, responsable de la recherche en investissements chez Freedom Finance Europe

L’IA est un marché à croissance rapide avec un énorme potentiel de rentabilité et d’impact, attirant des milliards de dollars en capital-risque, en actions privées et en investissements d’entreprise. Les investissements des géants technologiques dans la recherche et le développement des technologies d’IA contribuent à la croissance du marché. Ces entreprises ne cessent d’innover et de développer de nouvelles applications d’IA, ce qui stimule la demande de ces technologies dans divers secteurs. Les efforts visant à améliorer son accès devraient encore stimuler la croissance du marché dans les années à venir. Le segment des logiciels représente la plus grande part du marché de l’IA en raison des améliorations apportées au stockage, au traitement parallèle et à la puissance de calcul. La demande de technologies logicielles pour le déploiement et le développement d’applications d’IA telles que l’algèbre linéaire, l’analyse vidéo, les capacités de communication matérielle, l’inférence et les matrices éparses alimente la croissance de ce segment. En outre, la nécessité pour les entreprises d’obtenir des données et des informations significatives grâce à l’analyse du contenu visuel devrait accroître la demande de solutions logicielles sur le marché mondial de l’IA.

La taille du marché mondial de l’intelligence artificielle (IA) a été estimée à 119,78 milliards de dollars en 2022 et devrait atteindre 1.591,03 milliards de dollars d’ici 2030 à un taux de croissance annuel composé de 38,1 % entre 2022 et 2030.

Mais les technologies de l’IA sont encore loin d’être parfaites et leurs limites, telles que la partialité des données, le manque de transparence et la nécessité d’un contrôle humain, peuvent constituer des risques pour l’adoption et la valeur.

Bien que les avantages potentiels de l’IA soient considérables, des inquiétudes ont été exprimées quant à ses implications éthiques, notamment en ce qui concerne les préjugés, la protection de la vie privée et les suppressions d’emplois. Des appels ont donc été lancés en faveur d’une réglementation et d’une surveillance plus stricte du développement et du déploiement des technologies d’IA. Certains experts ont appelé à une pause dans la recherche et le développement de l’IA afin de laisser le temps d’aborder ces questions et d’élaborer des réglementations appropriées. Mais d’autres estiment qu’une telle pause pourrait étouffer l’innovation et empêcher les avantages potentiels de l’IA de se concrétiser.

Il est important de noter que les appels à la suspension de la recherche sur l’IA générative se concentrent sur un sous-ensemble particulier de technologies d’IA et ne s’appliquent pas nécessairement à toutes les formes d’IA. Si l’IA générative a démontré des capacités impressionnantes dans certains domaines, elle présente également des risques potentiels en termes d’utilisation abusive ou de conséquences involontaires.

La décision de continuer à investir dans les technologies de l’IA doit donc reposer sur un examen minutieux des avantages et des risques potentiels associés à ces technologies. Il est important que les chercheurs, les entreprises et les gouvernements travaillent ensemble pour s’assurer que le développement et l’application de l’IA sont guidés par des principes éthiques et que des mesures de sécurité appropriées sont en place pour prévenir les conséquences involontaires ou l’utilisation abusive.

En conclusion, les technologies de l’IA offrent un monde d’opportunités, mais elles posent également des défis complexes qui nécessitent des solutions réfléchies et complètes. Ainsi, les investisseurs en IA doivent trouver un équilibre entre leur désir d’innover et de faire des bénéfices et leur responsabilité d’évaluer les implications éthiques, sociales et juridiques des technologies qu’ils soutiennent. Il peut s’agir de s’associer à des experts dans le domaine, de dialoguer avec les parties prenantes et d’accorder la priorité à la transparence, à la responsabilité et à la protection de la vie privée.
Maxim Manturov

Rédiger un commentaire
À lire aussi
Decathlon
www.decathlon.fr
|
Sponsorisé

IA : quel équilibre entre innovation et éthique

Intelligence artificielle : trouver équilibre entre innovation et éthique

Selon un rapport de Statista, les investissements mondiaux dans l’IA ont atteint environ 40 milliards de dollars en 2020 et devraient atteindre 110 milliards de dollars d’ici 2024. Mais alors que certaines personnalités publiques comme Elon Musk et Steve Wozniak, ainsi que des experts dépassés par les capacités de l’IA générative, ont appelé en mars dernier à une pause de six mois dans la recherche dans ce domaine, les investisseurs dans la technologie de l’IA sont confrontés à un dilemme. Par Maxim Manturov, responsable de la recherche en investissements chez Freedom Finance Europe

L’IA est un marché à croissance rapide avec un énorme potentiel de rentabilité et d’impact, attirant des milliards de dollars en capital-risque, en actions privées et en investissements d’entreprise. Les investissements des géants technologiques dans la recherche et le développement des technologies d’IA contribuent à la croissance du marché. Ces entreprises ne cessent d’innover et de développer de nouvelles applications d’IA, ce qui stimule la demande de ces technologies dans divers secteurs. Les efforts visant à améliorer son accès devraient encore stimuler la croissance du marché dans les années à venir. Le segment des logiciels représente la plus grande part du marché de l’IA en raison des améliorations apportées au stockage, au traitement parallèle et à la puissance de calcul. La demande de technologies logicielles pour le déploiement et le développement d’applications d’IA telles que l’algèbre linéaire, l’analyse vidéo, les capacités de communication matérielle, l’inférence et les matrices éparses alimente la croissance de ce segment. En outre, la nécessité pour les entreprises d’obtenir des données et des informations significatives grâce à l’analyse du contenu visuel devrait accroître la demande de solutions logicielles sur le marché mondial de l’IA.

La taille du marché mondial de l’intelligence artificielle (IA) a été estimée à 119,78 milliards de dollars en 2022 et devrait atteindre 1.591,03 milliards de dollars d’ici 2030 à un taux de croissance annuel composé de 38,1 % entre 2022 et 2030.

Mais les technologies de l’IA sont encore loin d’être parfaites et leurs limites, telles que la partialité des données, le manque de transparence et la nécessité d’un contrôle humain, peuvent constituer des risques pour l’adoption et la valeur.

Bien que les avantages potentiels de l’IA soient considérables, des inquiétudes ont été exprimées quant à ses implications éthiques, notamment en ce qui concerne les préjugés, la protection de la vie privée et les suppressions d’emplois. Des appels ont donc été lancés en faveur d’une réglementation et d’une surveillance plus stricte du développement et du déploiement des technologies d’IA. Certains experts ont appelé à une pause dans la recherche et le développement de l’IA afin de laisser le temps d’aborder ces questions et d’élaborer des réglementations appropriées. Mais d’autres estiment qu’une telle pause pourrait étouffer l’innovation et empêcher les avantages potentiels de l’IA de se concrétiser.

Il est important de noter que les appels à la suspension de la recherche sur l’IA générative se concentrent sur un sous-ensemble particulier de technologies d’IA et ne s’appliquent pas nécessairement à toutes les formes d’IA. Si l’IA générative a démontré des capacités impressionnantes dans certains domaines, elle présente également des risques potentiels en termes d’utilisation abusive ou de conséquences involontaires.

La décision de continuer à investir dans les technologies de l’IA doit donc reposer sur un examen minutieux des avantages et des risques potentiels associés à ces technologies. Il est important que les chercheurs, les entreprises et les gouvernements travaillent ensemble pour s’assurer que le développement et l’application de l’IA sont guidés par des principes éthiques et que des mesures de sécurité appropriées sont en place pour prévenir les conséquences involontaires ou l’utilisation abusive.

En conclusion, les technologies de l’IA offrent un monde d’opportunités, mais elles posent également des défis complexes qui nécessitent des solutions réfléchies et complètes. Ainsi, les investisseurs en IA doivent trouver un équilibre entre leur désir d’innover et de faire des bénéfices et leur responsabilité d’évaluer les implications éthiques, sociales et juridiques des technologies qu’ils soutiennent. Il peut s’agir de s’associer à des experts dans le domaine, de dialoguer avec les parties prenantes et d’accorder la priorité à la transparence, à la responsabilité et à la protection de la vie privée.
Maxim Manturov

Quelle éthique face à l’intelligence artificielle

Quelle éthique face à l’intelligence artificielle

Intreview d’Irene Solaiman ex experte d’ OpenAI, chercheuse sur l’impact social de l’IA dans la Tribune

LA TRIBUNE – ChatGPT a-t-il révolutionné la façon dont les chercheurs voient les modèles de langage ?

IRENE SOLAIMAN – ChatGPT relève du jamais vu par sa viralité. Mais je ne dirais pas que la technologie elle-même est sans précédent. Plus généralement, même si les modèles de langage deviennent plus puissants, c’est surtout la façon dont les utilisateurs interagissent avec qui a changé. Quand j’ai commencé à travailler sur les modèles de langage il y a quelques années, il fallait avoir un certain niveau de compétence informatique pour envoyer des requêtes, mais ce n’est plus le cas aujourd’hui. L’IA s’est démocratisée, il faut donc des interfaces qui améliorent l’accessibilité. Le problème, c’est que donner plus d’accessibilité mène à plus de potentiels usages malveillants et c’est pourquoi il nous faut intégrer des protections pour garantir que l’usage de la technologie reste éthique.

Dans votre article, vous écrivez : « puisqu’un système ne peut pas être entièrement sans danger et dépourvu de biais pour tous les groupes de personnes, et qu’il n’existe aucun standard clair pour déterminer si un système est suffisamment sûr pour une diffusion publique, des discussions supplémentaires doivent être menées avec toutes les parties prenantes ». Ce constat signifie-t-il que les modèles de langages sont condamnés à être défaillants ?

Je demande toujours pour qui nous construisons ces modèles, et à qui y donne-t-on accès. Un dicton dans le milieu est « garbage in, garbage out » [si on nourrit l'IA avec du déchet, il en sortira du déchet, ndlr]. Ce principe est à l’origine de la plupart des problèmes des modèles de langage, car les données sur lesquelles ils sont entraînés ont été récupérées sur Internet, le plus souvent sur des contenus écrits en alphabet latin. Si on ajoute à cela la question de la connectivité, on réalise que les biais des nations occidentales sont surreprésentés.

Or quand on publie un modèle, encore plus sous la forme d’un produit comme ChatGPT, on veut qu’il soit sans danger pour tout le monde. Mais ce qui est considéré comme sûr pour un groupe de personnes ne l’est pas pour un autre. C’est ici qu’entrent en compte les différences culturelles sur les questions de la beauté, de la sexualité ou encore de la violence, qui rendent l’équation très compliquée pour les chercheurs.

Comment les chercheurs font-ils pour prendre en compte et diminuer ces risques ?

C’est une des questions les plus compliquées actuellement, et la solution ne viendra pas forcément d’une méthode ou d’un outil en particulier. Il faut faire attention au solutionnisme technologique. La solution relève la fois du politique, d’un travail avec la société civile, et de beaucoup de retours d’utilisateurs. Or, les organisations qui mettent en avant des systèmes fermés n’ont pas toutes les perspectives nécessaires en interne pour répondre à ces enjeux. C’est pourquoi je défends une ouverture éthique des systèmes.

Lors des sorties successives de ChatGPT et celles de BingChat, plusieurs utilisateurs se sont empressés d’en tester les limites, et de pousser les outils à la faute. Résultat : les IA finissent par mentir, et BingChat a même pris un ton agressif avec certains utilisateurs. Les concepteurs des modèles doivent-ils prendre en compte ce genre de pratiques extrêmes avant de publier leur outil ?

En fonction de ce qui est demandé, ces comportements peuvent mener à une amélioration du système, et avoir les mêmes effets bénéfiques que le passage d’une red team [une équipe chargée de trouver les failles d'un système pour mieux les réparer, ndlr]. Quand un nouveau système est publié et qu’il attire beaucoup d’attention, il va recevoir un flot permanents de tests, encore plus que ne l’aurait fait n’importe quelle organisation dont ce serait la charge. Le problème sous-jacent, c’est qu’aucun des développeurs ne peut identifier à l’avance tous les cas d’usages possibles de ces systèmes, car ils ne sont pas construits pour une application particulière.

Pour une partie des experts, ce talon d’Achille des IA génératives comme ChatGPT, Stable Diffusion ou Midjourney, justifie un accès assez rapide au modèle, afin de mettre en place le mécanisme de feedback [retour des utilisateurs, ndlr] qui va leur permettre d’améliorer le modèle. C’est aujourd’hui la norme dans la tech : on participe par exemple à ce type de mécanisme lorsque l’on utilise le moteur de recherche de Google. C’est ensuite aux décideurs politiques de trancher si ces comportement sont bons ou mauvais.

Vous vous interrogez dans votre article sur la responsabilité en cas d’erreur ou de débordement. Qui doit prendre en charge cette responsabilité ?

J’essaie de distinguer les personnes impliquées en plusieurs catégories : les développeurs, les « déployeurs » c’est-à-dire ceux qui sont chargés de mettre en place les cas d’usage du modèle, et les utilisateurs. Un des enjeux au niveau politique est de définir qui porte le fardeau et de s’assurer que le modèle est sans danger. Mais tous les acteurs impliqués partagent la responsabilité à différents niveaux. Les développeurs vont être ceux qui ont la meilleure compréhension du modèle. En revanche, ils n’ont pas toujours les compétences, notamment celles liées aux sciences sociales, pour examiner les effets du modèle sur la société.

En conséquence, pour l’instant, la majeure partie de la pression des régulateurs est portée sur les déployeurs. Ils n’ont peut-être pas autant accès au modèle que les développeurs, mais ils peuvent avoir une bien meilleure compréhension de ses implications. En bout de chaîne, il y a l’utilisateur, qui ne devrait pas avoir à porter cette responsabilité, car il est difficile d’avoir le niveau de connaissance nécessaire pour bien comprendre les limites de ces modèles.

Vous avez mené le déploiement de GPT-2, que OpenAI définissait dans un premier temps comme « trop dangereux pour être publié dans son intégralité », avant de finalement revenir sur cette précaution. Pensez-vous que cet épisode a changé la façon d’envisager le déploiement des IA au niveau de l’industrie ?

Je pense que l’approche que nous avons pris pour GPT-2 s’avère rétrospectivement être un tournant dans la façon dont nous pensons les modèles de langage et leur publication. C’était un test, dont je suis encore aujourd’hui heureuse de l’issue. J’ai travaillé avec des juristes, avec les développeurs du modèle ou encore avec des chercheurs extérieurs et tous ont été absolument essentiels pour comprendre les complexités de la publication du modèle. Nous avons fait un déploiement graduel, qui a été possible parce que nous étions extrêmement impliqués dans la recherche et que vous surveillions attentivement ce que les gens faisaient avec GPT-2. Je pense que c’était un bon exemple de publication graduelle, mais qu’encore aujourd’hui d’autres méthodes peuvent être tout aussi pertinentes.

Satya Nadella, le CEO Microsoft, a clairement évoqué le début d’une course à l’IA. Ses concurrents, à commencer par Google et Meta, ont dit qu’ils pouvaient créer des équivalents de ChatGPT mais qu’ils voulaient prendre plus de précautions. Avez-vous peur que la course économique sacrifie l’éthique ?

C’est quelque chose que nous craignons depuis des années. Nous avons toujours mis en garde contre ce genre de concurrence précipitée, et contre la possibilité qu’il fasse émerger des standards basés sur la puissance et les capacités, aux dépens de l’éthique. Car aujourd’hui, il n’y a pas d’organisme de régulation qui détermine clairement quels sont les modèles les plus puissants, encore une fois parce qu’ils ne sont pas destinés à des tâches précises.

En parallèle, nous sommes plusieurs chercheurs à travailler sur la création de standards d’évaluation qui mettraient en avant l’impact sociétal des IA, notamment sur des sujets de divergence culturelle comme la beauté, la sexualité ou la violence, en plus de critères plus classiques comme les discriminations de genre et ethnique. Après tout, si un modèle ne fonctionne pas correctement pour tout le monde, on peut considérer qu’il ne fonctionne pas du tout. Le problème, c’est qu’en se livrant une concurrence sur la performance, il est possible que les entreprises investissent moins dans les mécanismes de sûreté et d’éthique. C’est une éventualité effrayante, qu’on ne peut pas se permettre.

Le problème, c’est que même en étant attentif à la qualité de la production du modèle d’IA et en ayant bien fait attention aux éventuels débordements, il n’est jamais facile d’empêcher les mauvais usages d’un modèle. Début 2021, des internautes ont utilisé GPT-3 pour créer un jeu vidéo avec des textes pédopornographiques. Beaucoup de personnes ont oublié cet épisode car il est très dérangeant. Mais il illustre un problème : une fois le modèle publié, Internet va l’utiliser pour faire ce qu’il fait de mieux… et ce qu’il fait de pire.

La Chine pour une éthique algorithmique

La Chine pour une éthique algorithmique

Officiellement il s’agit pour les autorités chinoises de protéger les utilisateurs. En fait il se pourrait que les autorités soient surtout inquiètes de l’immense source de données dans disposent les grandes entreprises de la tech pour modeler les mentalités et les comportements. L’enjeu est économique mais aussi politique et culturel.

Depuis plusieurs mois, la Chine s’attaque frontalement à ses champions nationaux de la Tech. Elle régule lourdement les activités d’entreprises dont le modèle repose sur la collecte et l’exploitation de données personnelles grâce à l’intelligence artificielle. Sur cette question, la Chine s’est récemment dotée d’un règlement pour la protection des données sur internet, l’équivalent du RGPD européen.

 

L’objectif chinois à moyen termesearait de réguler les algorithmes qui constituent une menace pour «la sécurité intérieure, l’ordre social et l’ordre économique», comme le présentait l’autorité chargée du cyberespace cet été. Le régulateur veut supprimer tout algorithme nuisible pour les individus comme ceux poussant le consommateur à dépenser davantage sur les sites d’e-commerce. Les plateformes devront expliquer aux consommateurs le fonctionnement de leurs outils de recommandations et permettre aux internautes de les refuser. Côté réseaux sociaux, les systèmes pouvant influencer l’opinion publique sont contraints d’obtenir une autorisation administrative.

 

Développement des algorithmes : Révolution économique ou éthique ?

 Développement des algorithmes : Révolution économique ou éthique ?

 

Un papier dans la Tribune pose la problématique de l’influence des algorithmes qui poseraient davantage de problèmes éthiques économiques (Extrait)

 

Une des craintes est que la robotisation rapide débouche sur un chômage massif. Or ce n’est pas ce qui est constaté. Certes, des métiers pénibles et répétitifs vont être supprimés, mais la robotisation permet aussi d’augmenter la productivité et de réduire les coûts, et crée aussi de nouveaux emplois que l’on ne soupçonnait pas. Le seul risque, important, est d’accroître les inégalités entre les travailleurs sous-qualifiés – les plus exposés – et ceux qui sont bien formés. Le Japon, Singapour et la Corée du Sud, qui comptent parmi les pays qui en pointe dans la robotisation, n’ont pas de taux de chômage élevés.

Pour autant, les investissements publics dans cette numérisation vont davantage compenser le ralentissement mis sur ce secteur durant la pandémie, comme l’indique la baisse de 5,5% des ventes en 2020 de l’entreprise américaine Rockwell Automation, qui compte parmi les premiers fournisseurs mondiaux de robots.

La pandémie aura aussi montré tout l’intérêt d’avoir des robots pour réaliser certaines tâches en offrant une protection sanitaire durant ce type de crise, les robots à la différence des êtres humains ne propageant pas le virus.

C’est d’ailleurs à partir d’un tel exemple que le philosophe franco-canadien Martin Gibert, chercheur au Centre de recherche en éthique (CRÉ) et à l’Institut de valorisation des données (IVADO) à Montréal soulève les problèmes posés par le développement des algorithmes est éthique avant d’être économique.

Dans son ouvrage, « Faire la morale aux robots » (éd. Flammarion) (1), il part de l’hypothèse d’un monde qui aurait possédé une super IA qui, durant la crise sanitaire, aurait eu accès à toutes les données de tous les comportements en simultané. Cette IA aurait évalué le niveau de risque de la situation et pu en anticiper l’évolution. Nos gouvernants auraient ainsi pu prendre des décisions en connaissance de cause, et probablement sauvé des milliers de vies. Mais cette intrusion dans nos vies privées ne pose-t-elle pas une atteinte à notre intégrité?

Dans son ouvrage, Martin Gibert clarifie les termes du débat, en distinguant deux aspects de la question. Aujourd’hui, le débat éthique sur l’intelligence artificielle (IA) reste souvent cantonné au fait de savoir s’il faut accepter ou non des systèmes commandés par l’IA qui sont bons pour nous. Or il faudrait plutôt se demander dans le cadre d’une éthique des algorithmes quelle est la bonne manière de programmer les machines ou les robots, alors même que les avancées en matière d’IA sont en train de remettre en cause bien des présupposés, et posent de nouveaux problèmes. Au terme d’une argumentation rigoureuse, Martin Gibert défend une éthique de la vertu, comme étant la plus à même de répondre à ces défis car « ce n’est pas demain la veille qu’on pourra se défausser sur des machines de notre responsabilité politique et morale. »

C’est dans une optique similaire que deux ingénieurs proposent de voir dans la révolution numérique l’occasion de « rendre l’intelligence artificielle robuste », sous-titre de l’ouvrage de Lê Nguyên Hoang et El Mahdi El Mhamdi, intitulé « Le fabuleux chantier » (2). Comme ils le soulignent, la « révolution algorithmique » a cette particularité après l’invention du langage et de l’imprimerie d’accentuer l’externalisation de l’information dont se servent les individus. Or, ce qui est encore aujourd’hui difficile à appréhender, ce sont les effets secondaires de ces possibilités inédites, notamment en matière de science, de santé et de protection de l’environnement. Comme on le voit par exemple avec l’utilisation des réseaux sociaux dans le débat public, ce n’est pas toujours la qualité du savoir qui est mise en avant mais davantage certains travers, comme la circulation d’idées fausses qui répétées ad nauseam conduisent à une vision biaisée du monde, à l’instar de la pensée complotiste.

Dans leur livre foisonnant d’exemples et d’initiatives, Lê Nguyên Hoang et El Mahdi El Mhamdi plaident eux aussi pour une prise en compte des enjeux éthiques, c’est-à-dire en posant des fins. Ils suggèrent nombre de pistes qui intègrent ces aspects en prenant en compte les limites et les vulnérabilités des algorithmes, dans le but de rendre le traitement de l’information « robustement bénéfique » pour le plus grand nombre, en s’inspirant notamment de la notion d’« altruisme efficace », conceptualisé par le philosophe australien Peter Singer. Un défi que l’un des auteurs, El Mahdi El Mhamdi, peut depuis la publication de l’ouvrage tester dans la réalité, puisqu’il a été recruté par Google pour plancher sur ce sujet en intégrant le projet de recherche Google Brain en Europe sur le deep learning.

 

____

(1) Martin Gibert, « Faire la morale aux robots », éditions Flammarion, collection Climats, 168 pages, 17 euros.

(2) Lê Nguyên Hoang et El Mahdi El Mhamdi « Le fabuleux chantier », éditions EDP Sciences, 296 pages, 39 euros.

Ethique de la recherche: éviter de glisser vers l’idéologie

Ethique de la recherche: éviter de glisser vers l’idéologie

Face au mélange entre science et politique, au refus du pluralisme, les chercheurs doivent pouvoir échanger de façon argumentée et réfutée, en s’employant à « éviter les fractures et les enclaves », explique le géographe Jacques Lévy dans une tribune au « Monde ».

 

 

Tribune.

 

Une des effets dommageables de la prise de position de Frédérique Vidal sur l’« islamo-gauchisme » à l’université a été de permettre à ses détracteurs d’inverser son propos et de porter la charge sur les lanceurs d’alerte. Pourtant, il existe bien des motifs d’inquiétude sur la relation entre la société et ses chercheurs, et pas seulement en sciences sociales. Pour y voir plus clair, distinguons trois plans : celui des théories, celui du mélange des genres et celui du pluralisme.

Les théories qui cherchent à expliquer le monde sont nombreuses et tant mieux ! L’une d’elles se fonde sur une vision communautaire du social : elle se représente la société comme une constellation de groupes aux appartenances non choisies et irréversibles. La fameuse « intersectionnalité » consiste en une essentialisation des identités, qu’on peut éventuellement croiser, mais sans les remettre en question.

 

Cette école de pensée tente de sauver le structuralisme marxiste, dans lequel la communauté de classe était centrale, en ajoutant de nouvelles « structures » à un édifice qui se lézarde, pris à contre-pied par l’irruption des singularités individuelles. On peut préférer, dans le sillage de Norbert Elias (1897-1990), le paradigme de la « société des individus », qui décrit un monde où les individus acteurs et une société postcommunautaire prospèrent de conserve. La différence entre ces deux conceptions est patente, mais on ne peut s’en plaindre. Cela, c’est le débat, sain parce que libre et transparent, qui caractérise la démarche scientifique.Le danger apparaît avec le mélange des genres entre science et politique. Roger Pielke (The Honest Broker, Cambridge University Press, 2007, non traduit) a montré, à propos des débats sur le climat, que lorsqu’un sujet est marqué à la fois par des controverses scientifiques et des oppositions politiques fortes, les deux dissensus peuvent s’épauler et créer des monstres : le militant choisit l’hypothèse qui l’arrange pour se parer de la légitimité scientifique, tandis que le chercheur se mue subrepticement en un politicien sans scrupule. Les chercheurs sont aussi des citoyens et ils ont bien le droit de l’être. Leurs expériences personnelles peuvent être des ressources pour la connaissance.

Si la conscience que les registres ne doivent pas se fondre les uns dans les autres fait défaut, les savants se muent tout bonnement en idéologues d’autant plus déplaisants qu’ils s’abritent derrière leur statut. On voit fleurir des novlangues dignes du 1984 de George Orwell, lorsque, au nom de la science, l’« antiracisme » couvre un nouveau type de racisme, ou lorsque la « démocratie écologique » vise une dictature des écologistes intégristes. L’enquête qu’ont menée les chercheurs britannique et américain Helen Pluckrose et James Lindsay (Cynical Theories, Pitchstone Publishing 2020, non traduit) montre que des revues universitaires prestigieuses acceptent aisément de publier des textes délirants dont on aimerait pouvoir rire mais qui sont animés par une idéologie de la haine intercommunautaire et n’hésitent pas à traiter de « négationniste » toute prise de position divergente

Technologies :« Pour une éthique des algorithmes »

Technologies :« Pour une éthique des algorithmes »

Le licenciement par Google de Timnit Gebru, chercheuse de renom en intelligence artificielle, jette une ombre sur les priorités de l’entreprise et suscite de légitimes protestations, souligne, dans une tribune au « Monde », Lê Nguyên Hoang, spécialiste de l’éthique des algorithmes à à l’Ecole polytechnique fédérale de Lausanne.

Tribune. 

Début décembre, Timnit Gebru, codirectrice de l’équipe d’éthique de l’intelligence artificielle (IA) de Google et chercheuse académique de renom, a été licenciée. Les informations au sujet de son licenciement sont encore très incomplètes. Néanmoins, cet événement semble faire suite à une contestation par la chercheuse de décisions éthiquement discutables de la direction de son entreprise. En particulier, celle-ci semble avoir exigé la rétractation d’un article de recherche, dont Timnit Gebru est coautrice, et qui questionne l’éthique des algorithmes de traitement de langage au cœur de nombreux produits de Google.

En réaction à cet événement, une lettre ouverte de soutien a été publiée. Cette lettre conteste la version des faits présentée par Google ainsi que les décisions de l’entreprise, et exige davantage de transparence et d’engagement éthique. Elle a aujourd’hui reçu 2 695 signatures d’employés de Google, et 4 302 signatures d’universitaires, d’employés de l’industrie des technologies et de membres de la société civile.

Pour comprendre l’importance de cette lettre, il est utile de prendre du recul et de mesurer l’impact mondial des algorithmes de Google. Ces algorithmes répondent quotidiennement à des milliards de requêtes d’utilisateurs, sur des thèmes parfois controversés et dangereux comme « le changement climatique est un canular », « les dangers de la vaccination » ou « événement musulman ». Ces algorithmes ont aussi une influence monumentale sur les vidéos qui seront davantage visionnées sur la plate-forme YouTube, puisque deux visionnages sur trois résultent de recommandations algorithmiques. De façon inquiétante, plusieurs études suggèrent que ces algorithmes promeuvent énormément de contenus complotistes, et ont contribué à ce que les vidéos qui nient le changement climatique fassent autant de vues que celles qui l’expliquent.

Biais préoccupants

Dans ce contexte, il semble important d’étudier davantage l’éthique de ces algorithmes. L’article rétracté par Google soulignait justement, entre autres, que des biais préoccupants avaient été assimilés par les algorithmes de traitement des langages. Ces biais avaient d’ailleurs déjà été soulignés, par exemple par Abubakar Abid, qui a montré qu’un algorithme appelé GPT-3 complétait systématiquement des débuts de phrases à propos des musulmans par des histoires de terrorisme. Si des algorithmes similaires sont déployés par Google, à moins d’une réflexion éthique préalable, il faut craindre que les réponses à des recherches comme « événement musulman » parlent eux aussi davantage de terrorisme que de ramadan.

 

 » Pour une éthique des algorithmes »

« Pour une éthique des algorithmes »

Le licenciement par Google de Timnit Gebru, chercheuse de renom en intelligence artificielle, jette une ombre sur les priorités de l’entreprise et suscite de légitimes protestations, souligne, dans une tribune au « Monde », Lê Nguyên Hoang, spécialiste de l’éthique des algorithmes à à l’Ecole polytechnique fédérale de Lausanne.

Tribune. 

Début décembre, Timnit Gebru, codirectrice de l’équipe d’éthique de l’intelligence artificielle (IA) de Google et chercheuse académique de renom, a été licenciée. Les informations au sujet de son licenciement sont encore très incomplètes. Néanmoins, cet événement semble faire suite à une contestation par la chercheuse de décisions éthiquement discutables de la direction de son entreprise. En particulier, celle-ci semble avoir exigé la rétractation d’un article de recherche, dont Timnit Gebru est coautrice, et qui questionne l’éthique des algorithmes de traitement de langage au cœur de nombreux produits de Google.

En réaction à cet événement, une lettre ouverte de soutien a été publiée. Cette lettre conteste la version des faits présentée par Google ainsi que les décisions de l’entreprise, et exige davantage de transparence et d’engagement éthique. Elle a aujourd’hui reçu 2 695 signatures d’employés de Google, et 4 302 signatures d’universitaires, d’employés de l’industrie des technologies et de membres de la société civile.

Pour comprendre l’importance de cette lettre, il est utile de prendre du recul et de mesurer l’impact mondial des algorithmes de Google. Ces algorithmes répondent quotidiennement à des milliards de requêtes d’utilisateurs, sur des thèmes parfois controversés et dangereux comme « le changement climatique est un canular », « les dangers de la vaccination » ou « événement musulman ». Ces algorithmes ont aussi une influence monumentale sur les vidéos qui seront davantage visionnées sur la plate-forme YouTube, puisque deux visionnages sur trois résultent de recommandations algorithmiques. De façon inquiétante, plusieurs études suggèrent que ces algorithmes promeuvent énormément de contenus complotistes, et ont contribué à ce que les vidéos qui nient le changement climatique fassent autant de vues que celles qui l’expliquent.

Biais préoccupants

Dans ce contexte, il semble important d’étudier davantage l’éthique de ces algorithmes. L’article rétracté par Google soulignait justement, entre autres, que des biais préoccupants avaient été assimilés par les algorithmes de traitement des langages. Ces biais avaient d’ailleurs déjà été soulignés, par exemple par Abubakar Abid, qui a montré qu’un algorithme appelé GPT-3 complétait systématiquement des débuts de phrases à propos des musulmans par des histoires de terrorisme. Si des algorithmes similaires sont déployés par Google, à moins d’une réflexion éthique préalable, il faut craindre que les réponses à des recherches comme « événement musulman » parlent eux aussi davantage de terrorisme que de ramadan.

 

« Régulation numérique, quelle éthique de responsabilité »

« Régulation numérique, quelle  éthique de responsabilité »

A une approche technique de la standardisation, les institutions européennes doivent intégrer une forte dimension juridique reposant sur un suivi des technologies dans leur évolution, estime Valérie Hernandez, spécialiste des questions d’économie du numérique, dans une tribune au « Monde ».

Tribune.

 

« Le 8 juin, l’entreprise IBM annonçait qu’elle ne vendrait, ni ne développerait plus de technologies de reconnaissance faciale. Dans la foulée, ce sont deux autres grands industriels du numérique, Amazon et Microsoft, qui lui ont emboîté le pas, annonçant désormais ne plus commercialiser ce type de technologies auprès des forces de police tant que cet usage ne serait pas encadré.

Au-delà du coup d’éclat dans un contexte politique particulièrement vif aux Etats-Unis et avec des forts échos dans le monde entier, ces annonces nous interrogent sur le rapport du secteur de la technologie à l’éthique. Si ces entreprises possédaient déjà des standards éthiques sur les technologies de reconnaissance faciale bien établis, auraient-elles en effet vendu ces technologies aux forces de l’ordre ?

Ce débat nous ramène aux deux formes d’éthique telles que définies par [le sociologue allemand] Max Weber (1864-1920) : une éthique de conviction et une éthique de responsabilité.

La première revient à agir en fonction d’une conviction supérieure qui rend certain de son action.

La seconde revient à agir en fonction des conséquences de ses actes et peut être nourrie également de conviction. L’actualité témoigne d’une incapacité à faire avancer une éthique de responsabilité dans le champ numérique.

Pourtant, les controverses n’ont souvent pas beaucoup d’utilité sociale. Elles tendent à imposer des croyances – positives ou négatives ou mal fondées – qui favorisent peu l’« empowerment » [le pouvoir d’agir] du citoyen. Elles ne permettent pas de remettre en cause des routines d’usage qu’il faudrait questionner : par exemple, des usages de loisirs – à l’instar du « face swapping » [procédé de photomontage] – qui participent de la banalisation de la reconnaissance faciale. Les acteurs sont enfermés dans des convictions et n’avancent pas dans leur responsabilité.

Dans la même veine, les discours sur la souveraineté numérique européenne qui lient l’éthique à une troisième voie européenne demeurent incantatoires. Alors que les droits et libertés fondamentaux, au plus haut niveau de la hiérarchie des normes et promus par le cadre juridique européen, notamment la Charte des droits fondamentaux, doivent être le ferment de cette approche éthique, en pratique, l’application de ce cadre juridique est marquée de profondes faiblesses.

L’Union européenne doit sortir de cette incantation et passer à une éthique de responsabilité. Pour rendre ce cadre efficient et ces principes opérants, notre continent doit se saisir politiquement des enjeux de la standardisation et ne pas la réduire à une discussion technique. Les Etats-Unis et la Chine l’ont bien compris et ont historiquement fait de la normalisation un terrain de bataille entre puissances dans le champ des technologies. »

“Distinguer l’éthique du traitement” et “l’éthique de la recherche”*

“Distinguer l’éthique du traitement” et “l’éthique de la recherche”

 »Christian Hervé et Henri-Corto Stoeklé  »

Chronique du Monde

 

« Deux camps se sont formés autour du Professeur Didier Raoult : le camp des « contre » versus le camp des « pour ». Les « contre » critiquèrent donc la faiblesse scientifique de ces études. Selon eux, en l’absence de groupe de témoin, même si la taille de l’échantillon de malades avait augmenté entre la première et la deuxième étude à l’époque (il passa de l’ordre de 20 malades à celui de 80, soit un facteur 4), celles-ci ne permettaient aucunement d’affirmer – ou d’infirmer – l’efficacité réelle du traitement. Pour cette raison, il ne devait pas être prescrit.

De leur côté, les « pour » soutinrent l’idée que, lors d’une telle urgence sanitaire, la déontologie médicale ordonnait aux cliniciens d’utiliser tous les moyens qui semblaient bon pour soigner le plus grand nombre de patients possibles. Ils justifièrent ainsi l’absence de groupe témoin : il n’était pas moralement acceptable de priver d’un traitement qui serait susceptible de marcher. Pour cette raison, même si les preuves scientifiques in vivo pouvaient manquer à ce stade, le traitement devait être prescrit à l’ensemble des malades.

Deux causes défendables. La situation était pour le moins délicate. En l’absence de certitude, les arguments des deux camps pouvaient objectivement s’entendre – et probablement encore aujourd’hui. Pour enfin sortir de cette dualité, la question de fond apparaît être la suivante : est-ce qu’en temps de crise sanitaire d’une extrême gravité, comme celle causée par la pandémie du Covid-19, et en l’absence de moyens réels efficients, l’intuition clinique peut être entendue ou non ? Et cela, avant l’établissement de standards thérapeutiques, scientifiquement démontrés et reconnus par les pairs.

La réponse à cette question est beaucoup moins évidente que certains peuvent le percevoir ou le contester, même massivement. L’idée d’une « éthique du traitement » versus une « éthique de la recherche » nous semble très réductrice vis-à-vis d’une situation où deux causes défendables s’affrontent.

L’agora, sur les plateaux de télévisions et les réseaux sociaux, n’est pas encore le lieu pour une telle discussion. D’ailleurs, tous les experts (ou non), « pour » ou « contre », qui ont pris à ce jour la parole ont-ils vraiment permis aux « profanes » visés de mieux saisir toute la complexité de l’affaire ?

Il faudrait bien plus qu’une ou plusieurs tribunes pour bien comprendre et expliquer ce qui relèverait plutôt d’un long travail académique d’éthique et d’intégrité scientifique, à mener une fois la crise derrière nous.

Christian Hervé est professeur émérite à l’Université de Paris, président de l’Académie internationale d’éthique, médecine et politique publique, responsable de la mission éthique de l’Hôpital Foch. Henri-Corto Stoeklé est docteur en éthique médicale, chargé de mission bioéthique à l’Hôpital Foch.

Quelle compatibilité entre Intelligence artificielle et éthique ?

Quelle compatibilité entre Intelligence artificielle et  éthique

 

Un Livre blanc européen sur l’intelligence artificielle, publié le 19 février, insiste d’abord sur l’importance du respect des droits fondamentaux des citoyens et met par exemple en garde contre des distorsions dans les algorithmes de recrutement conduisant à des discriminations.

D’après le site pwc.fr , les intelligences artificielles (IA) se font de plus en plus présentes – voitures autonomes, algorithmes de recommandation, drones, etc. – et la question de la moralité de leurs actions commence à se poser. Celles qui s’appuient sur les réseaux de neurones artificiels (deep learning) sont particulièrement critiquées : on leur reproche d’être opaques, de ne pas laisser voir le raisonnement qui permet aux algorithmes d’arriver au résultat final. Une science naissante s’applique d’ailleurs à développer des outils pour regarder à l’intérieur de ces boîtes noires que sont les réseaux neuronaux. À ce travail à rebours pour scruter le code des IA s’ajoute, en parallèle, la volonté affichée par de nombreux experts d’intégrer des préceptes éthiques très en amont, directement au cœur de l’IA.

En s’appuyant sur d’énormes quantités de données, les systèmes de deep learning sont capables d’effectuer un très grand nombre de tâches : reconnaître et analyser des images ou des voix, proposer une police d’assurance sur mesure, accepter ou refuser une offre de prêt, piloter un véhicule… Mais comment avoir confiance dans les décisions de l’IA si nous ne sommes pas en mesure de les comprendre ?

« L’intelligence doit être augmentée, c’est-à-dire au service de l’humain, plutôt qu’autonome. Nous devons construire un binôme humain-machine où l’IA devra offrir une compréhension intuitive pour l’humain. Elle devra être capable d’expliquer ses recommandations de façon simple et immédiate. » François Royer, directeur consulting Data Intelligence, PwC France

Le développement d’une telle IA a par exemple déjà été initié aux États-Unis par la DARPA (département de R&D militaire du ministère de la Défense) : les premiers résultats du projet XAI (Explainable AI) sont attendus en novembre 2018.

Si XAI vise à développer des techniques de machine learning qui permettent de construire des modèles d’IA plus compréhensibles, capables d’expliquer aux humains en bout de ligne leur raisonnement, c’est loin d’être le cas de toutes les IA. Le fonctionnement des réseaux de neurones artificiels est particulièrement opaque. Les géants du digital, boostés par des mécanismes de collecte de données très efficaces, disposent de quantités de données phénoménales ce qui les encourage à développer massivement les réseaux de neurones artificiels. Ces réseaux se nourrissent des corrélations qu’ils détectent entre des jeux de données préexistants, ce qui peut poser problème.

 

Bruxelles recommande donc  que les futurs systèmes d’intelligence artificielle à haut risque (concernant la santé par exemple) soient certifiés, testés et contrôlés, comme le sont les voitures, les cosmétiques et les jouets.

 

Theodorous Evgueniou, professeur de la prestigieuse école de management Insead, a rendu avec plusieurs autres chercheurs européens et américains un avis mettant en garde contre les risques d’une approche européenne trop centrée sur ses valeurs.

« Il semble que l’esprit du Livre blanc soit que l’Europe utilise ses valeurs comme une arme stratégique pour rattraper la Chine et les États-Unis », et se rendre attractive dans la course mondiale à l’intelligence artificielle, affirme-t-il. Mais « pourquoi penser que des pays non-européens préféreront des intelligences artificielles formées aux valeurs européennes ? Je ne suis pas sûr que ça marche », explique-t-il.

 

Par exemple, le Livre blanc affiche « l’explicabilité » comme valeur cardinale: il doit être possible de comprendre exactement pourquoi un système d’intelligence artificielle arrive à telle conclusion – comme le fait de refuser un prêt à quelqu’un.

Mais obliger des intelligences artificielles à expliquer leur choix « peut réduire leur performance de 20%, si ce n’est plus », affirme-t-il.

De son côté, Guillaume Avrin, responsable de l’intelligence artificielle au sein du Laboratoire national de métrologie et d’essais (LNE), ne remet pas en cause les impératifs éthiques dans le Livre blanc. Mais il regrette que la Commission s’avance peu sur les moyens de vérifier la conformité des intelligences artificielles auxdites valeurs.

« Comment fait-on pour s’assurer de la conformité des systèmes d’intelligence artificielle » à une réglementation, alors qu’ils sont souvent évolutifs et adaptatifs et ont des comportements  »non linéaires », voire « chaotiques », explique-t-il.

Intelligence artificielle et éthique: un livre blanc

Intelligence artificielle et  éthique: un livre blanc

Le Livre blanc européen sur l’intelligence artificielle, publié le 19 février, insiste d’abord sur l’importance du respect des droits fondamentaux des citoyens et met par exemple en garde contre des distorsions dans les algorithmes de recrutement conduisant à des discriminations.

D’après le site pwc.fr , les intelligences artificielles (IA) se font de plus en plus présentes – voitures autonomes, algorithmes de recommandation, drones, etc. – et la question de la moralité de leurs actions commence à se poser. Celles qui s’appuient sur les réseaux de neurones artificiels (deep learning) sont particulièrement critiquées : on leur reproche d’être opaques, de ne pas laisser voir le raisonnement qui permet aux algorithmes d’arriver au résultat final. Une science naissante s’applique d’ailleurs à développer des outils pour regarder à l’intérieur de ces boîtes noires que sont les réseaux neuronaux. À ce travail à rebours pour scruter le code des IA s’ajoute, en parallèle, la volonté affichée par de nombreux experts d’intégrer des préceptes éthiques très en amont, directement au cœur de l’IA.

En s’appuyant sur d’énormes quantités de données, les systèmes de deep learning sont capables d’effectuer un très grand nombre de tâches : reconnaître et analyser des images ou des voix, proposer une police d’assurance sur mesure, accepter ou refuser une offre de prêt, piloter un véhicule… Mais comment avoir confiance dans les décisions de l’IA si nous ne sommes pas en mesure de les comprendre ?

« L’intelligence doit être augmentée, c’est-à-dire au service de l’humain, plutôt qu’autonome. Nous devons construire un binôme humain-machine où l’IA devra offrir une compréhension intuitive pour l’humain. Elle devra être capable d’expliquer ses recommandations de façon simple et immédiate. » François Royer, directeur consulting Data Intelligence, PwC France

Le développement d’une telle IA a par exemple déjà été initié aux États-Unis par la DARPA (département de R&D militaire du ministère de la Défense) : les premiers résultats du projet XAI (Explainable AI) sont attendus en novembre 2018.

Si XAI vise à développer des techniques de machine learning qui permettent de construire des modèles d’IA plus compréhensibles, capables d’expliquer aux humains en bout de ligne leur raisonnement, c’est loin d’être le cas de toutes les IA. Le fonctionnement des réseaux de neurones artificiels est particulièrement opaque. Les géants du digital, boostés par des mécanismes de collecte de données très efficaces, disposent de quantités de données phénoménales ce qui les encourage à développer massivement les réseaux de neurones artificiels. Ces réseaux se nourrissent des corrélations qu’ils détectent entre des jeux de données préexistants, ce qui peut poser problème.

 

Bruxelles recommande donc  que les futurs systèmes d’intelligence artificielle à haut risque (concernant la santé par exemple) soient certifiés, testés et contrôlés, comme le sont les voitures, les cosmétiques et les jouets.

 

Theodorous Evgueniou, professeur de la prestigieuse école de management Insead, a rendu avec plusieurs autres chercheurs européens et américains un avis mettant en garde contre les risques d’une approche européenne trop centrée sur ses valeurs.

« Il semble que l’esprit du Livre blanc soit que l’Europe utilise ses valeurs comme une arme stratégique pour rattraper la Chine et les États-Unis », et se rendre attractive dans la course mondiale à l’intelligence artificielle, affirme-t-il. Mais « pourquoi penser que des pays non-européens préféreront des intelligences artificielles formées aux valeurs européennes ? Je ne suis pas sûr que ça marche », explique-t-il.

 

Par exemple, le Livre blanc affiche « l’explicabilité » comme valeur cardinale: il doit être possible de comprendre exactement pourquoi un système d’intelligence artificielle arrive à telle conclusion – comme le fait de refuser un prêt à quelqu’un.

Mais obliger des intelligences artificielles à expliquer leur choix « peut réduire leur performance de 20%, si ce n’est plus », affirme-t-il.

De son côté, Guillaume Avrin, responsable de l’intelligence artificielle au sein du Laboratoire national de métrologie et d’essais (LNE), ne remet pas en cause les impératifs éthiques dans le Livre blanc. Mais il regrette que la Commission s’avance peu sur les moyens de vérifier la conformité des intelligences artificielles auxdites valeurs.

« Comment fait-on pour s’assurer de la conformité des systèmes d’intelligence artificielle » à une réglementation, alors qu’ils sont souvent évolutifs et adaptatifs et ont des comportements  »non linéaires », voire « chaotiques », explique-t-il.

La consommation éthique en hausse

La consommation  éthique en hausse

  • La consommation éthique progresse qu’il  s agisse du rapport à l’environnement, du gaspillage, du suremballage, de la rémunération des producteurs pu du bien être animal. Selon Kantar TNS,

Plus de 90% des Français trouvent important d’acheter des aliments respectueux du bien-être animal et de l’environnement. C’est 4% de plus que lors du même sondage en 2016. La juste rémunération des producteurs est également au cœur de leurs préoccupations. 91% jugent important d’acheter des produits alimentaires plus respectueux du bien-être animal. Ils étaient 87% à répondre favorablement à cette même question en 2016. De même, 90% des sondés accordent de l’importance à l’impact environnemental des aliments qu’ils consomment, contre 86% en 2016.Ainsi, 81% choisissent en priorité des emballages biodégradables et 86% privilégient les produits avec moins d’emballage ou de suremballage.

Les Français se montrent également sensibles à la juste rémunération des agriculteurs et des éleveurs, et ce plus que dans les autres pays de l’étude. 73% pensent que les agriculteurs ne gagnent pas assez. 78% se déclarent même prêts à payer un peu plus pour mieux valoriser ce travail, expliquant le récent succès de marques équitables, comme le lait équitable « C’est qui le patron? ». En 2016, un Français sur quatre déclarait avoir déjà utilisé les circuits courts dans les 12 derniers mois. Les consommateurs de tous les pays sont également très sensibles à la question du gaspillage alimentaire. Près d’un tiers des Français interrogés, se considérant eux-mêmes comme premiers acteurs dans ce domaine pour 66% d’entre eux, devant les grandes surfaces (52%) ou la restauration collective (46%) ou commerciale (45%).

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA, pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune)

)

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historique comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

La programmation des véhicules autonomes en cas d’accident inévitable est un exemple de cas concret qui traduit inévitablement un choix moral. La recherche scientifique sur les préférences morales des individus peut aider à identifier les critères éthiques pour fonder ce choix moral. L’automatisation des décisions grâce à l’IA peut donner lieu à de réels progrès, tels que des décisions plus transparentes et moins partiales. Aussi, se posent des questions fondamentales sur les conséquences économiques, les enjeux éthiques, et l’encadrement juridique de cette évolution. »

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol