Archive pour le Tag 'artificielle'

L’intelligence artificielle : Pour une utilisation sobre

L’intelligence artificielle : Pour une utilisation sobre

Loin de tous les fantasmes qu’elle charrie, Guy Mamou-Mani, coprésident d’Open, entreprise de services du numérique, plaide pour une utilisation sobre et responsable de l’intelligence artificielle, et plus largement des outils digitaux. ( la Tribune)

 

De quoi parle-t-on lorsque l’on parle d’intelligence artificielle ?

Guy Mamou-Mani : En préambule, il est nécessaire de revenir sur la révolution numérique que nous sommes en train de vivre. Tous les secteurs, toutes les entreprises, tous les métiers, tous les individus sont concernés par cette dernière. Elle va transformer en profondeur, d’une part la vie de chaque citoyen, et de l’autre le business model des organisations. Il faut donc se préparer à cette révolution numérique dont l’un des outils majeurs est l’intelligence artificielle (IA) qui draine énormément de fantasmes. A ce sujet, on peut schématiquement parler de deux niveaux. Il y a, tout d’abord, ce que je nomme l’IA réaliste, basée sur la connaissance de la data et qui va démontrer toute son utilité. Appliquée, par exemple, à la médecine, l’IA va pouvoir faire preuve d’une lisibilité 1 000 fois supérieure à celle de l’humain grâce à l’acquisition d’expérience basée sur la lecture d’un très grand nombre de radios. Non pour remplacer le radiologue, mais bien pour augmenter ses compétences. Et cela est vrai pour tous les métiers.

Qu’en est-il du second niveau ?

Guy Mamou-Mani : Il s’agit de l’IA forte. Elle consiste à imaginer que l’ordinateur va pouvoir devenir autonome et prendre des décisions par lui-même. Le fameux ordinateur HAL du film de Stanley Kubrick, 2001 l’Odyssée de l’Espace, en est une illustration possible. Pour ma part, je pense que cela relève de la science-fiction. Nous n’en sommes pas à ce niveau, et je ne sais pas si l’on y parviendra. Il ne sert donc à rien d’agiter certaines peurs. Aujourd’hui, l’IA qui nous concerne est celle de premier niveau. C’est à partir de celle-ci qu’il convient de raisonner.

L’IA, même de premier niveau, pose toutefois un certain nombre de questions d’ordre éthique. Comment justifier d’une décision prise par une IA ?

Guy Mamou-Mani : C’est effectivement un point crucial. Ma réponse est claire : dans aucun cas, on ne devra laisser l’IA prendre de décisions. C’est à l’homme, aux chefs d’entreprises, aux managers, de prendre une décision en fonction des éléments donnés par l’IA. Au cœur du sujet, se trouve la problématique suivante : l’homme va-t-il rester maître de la décision par rapport à la technologie ou va-t-il la subir ? C’est pourquoi, l’éducation et la formation vont jouer un rôle essentiel pour que nous restions maîtres de ces technologies, via une utilisation sobre responsable de la donnée, et plus largement du numérique. Chez Open, ces réflexions font partie du quotidien du groupe.

On reproche également à l’IA de reproduire les biais humains…

Guy Mamou-Mani : Les algorithmes qui forment la base de l’IA sont élaborés par l’homme. La possibilité existe donc que les biais que nous connaissons soient reproduits par l’IA. Pour passer cet écueil, il existe plusieurs types de réponses. Par exemple, pour lutter contre la misogynie, il faut encourager les femmes à investir le secteur informatique pour devenir des actrices de l’IA. Aujourd’hui, elles ne représentent que 10 à 15 % des personnes qui travaillent dans ce domaine. Il faut faire en sorte que cette proportion augmente pour créer une rupture. Par ailleurs, de la même manière que pour la biologie, il est très important de créer des comités d’éthique qui vont poser un certain nombre de règles. A nous de nous engager pour construire le futur et non pas le subir.

Guy Mamou-Mani est l’auteur de l’ouvrage « L’apocalypse numérique n’aura pas lieu » (Editions de l’Observatoire).

Pas d’intelligence artificielle sans dimension humaine (David Lacombled)

Pas d’intelligence artificielle sans dimension humaine (David Lacombled)

 

Dans un papier de l‘Opinion, David Lacombled observe que le concept d’intelligence artificielle ne saurait convaincre l’opinion si l’on ne fait pas le lien avec la dimension humaine qui doit demeurer. La vérité sans doute puisque si l’intelligence artificielle permet d’énormes gains de productivité dans un secteur donné, elle permet parallèlement en amont et en aval la création de nombre d’activités connexes.

Un seul exemple qui contredit la thèse de l’intérêt du tout  technologique : la suppression du support papier. En réalité, les flux d’informations sont majoritairement gérés désormais par voie numérique mais il y a autant et même davantage de papier au bout de la chaîne qui supporte les frais d’édition. Par ailleurs évidemment l’intelligence artificielle n’a  intérêt que si elle sert le progrès humain.

L’intelligence artificielle (IA) ne fera pas tout affirme David Lacombled. Promettre ou craindre le grand remplacement, ici des humains par la machine , ne peut que renforcer défiance et méfiance face à la technologie, en accentuant les divisions entre les individus. Les promesses mirifiques ouvrent la voie au désenchantement. La technique et l’économie doivent rester une science en veillant à ne pas revêtir des attributs de la fiction.

L’IA, un vocable polymorphe souvent préféré à celui plus effrayant encore d’automatisation, est par nature machinale, là où l’intelligence humaine est instinctive et créative. C’est à cela que l’on reconnaît des êtres capables de lier des éléments qui n’avaient de prime abord rien à voir entre eux. Pour preuve, les humains savent parfaitement se jouer de la machine et ne se privent pas de la contourner. Les militants anti-vaccins savent, par exemple, parfaitement passer sous les radars de modération et de détection automatique des réseaux sociaux, en faisant sans cesse évoluer leur langage. Ainsi, «(ovid Va((ine» (sic) ne sera pas détecté tant qu’il n’aura pas été saisi dans une base de données, vaste dictionnaire du Web… par un humain.

La régulation de l’intelligence artificielle par l’Unesco

La régulation de l’intelligence artificielle (par l’Unesco)

 

L’Unesco a annoncé jeudi 25 novembre avoir adopté un premier texte mondial sur l’éthique de l’intelligence artificielle. 

 

Dans son rapport du printemps 2019, un  groupe d’experts de haut niveau de la Commission européenne notait que : « Dès qu’un système d’IA a une incidence importante sur la vie des personnes, il devrait être possible d’exiger une explication appropriée du processus de décision. »

Absence de sens commun. Performants pour des tâches simples et répétitives, les systèmes d’IA n’ont en revanche aucune compréhension du monde qui les entoure, ou du contexte dans lequel ils opèrent. Cela entraîne, par exemple, des erreurs de traduction cocasses (pour s’en assurer, il suffit de tester la phrase « mon avocat est immangeable » sur Google Traduction).

Mais cela peut aussi engendrer de graves dérives : après les attentats de Londres en juin 2017, l’algorithme de tarification dynamique d’Uber avait commencé par doubler le tarif des courses dans la zone concernée pour répondre à l’afflux de demandes.

Une solution à cette absence de sens commun peut être de mettre des humains « dans la boucle » des décisions, mais ce n’est pas toujours possible. Une autre approche consiste à définir des seuils de confiance, au-delà desquels une validation de la décision deviendrait obligatoire.

Certification impossible. Pour certaines applications, notamment dans les systèmes critiques (transport aérien, par exemple), les logiciels sont aujourd’hui certifiés, c’est-à-dire que leur fiabilité est mesurée et garantie. L’informatique classique, basée sur des programmes et des règles, le permet. En revanche, ce n’est pas encore possible avec les outils d’intelligence artificielle, dont les résultats varient en fonction des données qui servent à les entraîner. Aujourd’hui, aucun pilote automatique d’avion ne repose sur des outils d’intelligence artificielle et on imagine mal que les voitures autonomes soient autorisées à grande échelle sans aucune certification.

Dans leur rapport de 2019, les experts de l’Union européenne appelaient de leurs voeux la mise en place de ces certifications, qui « appliqueraient des normes définies pour différents domaines d’application et techniques d’IA, dûment alignées sur les normes industrielles et sociétales des différents contextes. »

« Les technologies de l’IA peuvent rendre de grands services à l’humanité » et « tous les pays peuvent en bénéficier », mais  »elles soulèvent également des préoccupations éthiques de fond », souligne dès son préambule la recommandation de 28 pages, ratifiée par les 193 Etats-membres de l’Unesco.

Fruit d’un travail ayant démarré en 2018, la recommandation de l’Unesco met en avant des valeurs – « respect, protection et promotion des droits de l’homme », « diversité et inclusion », promotion de  »sociétés pacifiques » et de l’environnement – que les Etats-membres s’engagent à respecter.

Elle liste également des actions que les signataires devront réaliser, notamment la mise en place d’un outil législatif pour encadrer et surveiller les IA,  »assurer une sécurité totale pour les données personnelles et sensibles » ou encore éduquer les masses à leur sujet.

«Pas d’intelligence artificielle sans humain». (David Lacombled)

«Pas d’intelligence artificielle sans humain». (David Lacombled)

 

Dans un papier de l‘Opinion, David Lacombled observe que le concept d’intelligence artificielle ne saurait convaincre l’opinion si l’on ne fait pas le lien avec la dimension humaine qui doit demeurer. La vérité sans doute puisque si l’intelligence artificielle permet d’énormes gains de productivité dans un secteur donné, elle permet parallèlement en amont et en aval la création de nombre d’activités connexes.

Un seul exemple qui contredit la thèse de l’intérêt du tout  technologique : la suppression du support papier. En réalité, les flux d’informations sont majoritairement gérés désormais par voie numérique mais il y a autant et même davantage de papier au bout de la chaîne qui supporte les frais d’édition. Par ailleurs évidemment l’intelligence artificielle n’a  intérêt que si elle sert le progrès humain.

L’intelligence artificielle (IA) ne fera pas tout affirme David Lacombled. Promettre ou craindre le grand remplacement, ici des humains par la machine , ne peut que renforcer défiance et méfiance face à la technologie, en accentuant les divisions entre les individus. Les promesses mirifiques ouvrent la voie au désenchantement. La technique et l’économie doivent rester une science en veillant à ne pas revêtir des attributs de la fiction.

L’IA, un vocable polymorphe souvent préféré à celui plus effrayant encore d’automatisation, est par nature machinale, là où l’intelligence humaine est instinctive et créative. C’est à cela que l’on reconnaît des êtres capables de lier des éléments qui n’avaient de prime abord rien à voir entre eux. Pour preuve, les humains savent parfaitement se jouer de la machine et ne se privent pas de la contourner. Les militants anti-vaccins savent, par exemple, parfaitement passer sous les radars de modération et de détection automatique des réseaux sociaux, en faisant sans cesse évoluer leur langage. Ainsi, «(ovid Va((ine» (sic) ne sera pas détecté tant qu’il n’aura pas été saisi dans une base de données, vaste dictionnaire du Web… par un humain.

 

«Pas d’IA sans humain». (David Lacombled)

«Pas d’intelligence artificielle sans humain». (David Lacombled)

 

Dans un papier de l‘Opinion, David Lacombled observe que le concept d’intelligence artificielle ne saurait convaincre l’opinion si l’on ne fait pas le lien avec la dimension humaine qui doit demeurer. La vérité sans doute puisque si l’intelligence artificielle permet d’énormes gains de productivité dans un secteur donné, elle permet parallèlement en amont et en aval la création de nombre d’activités connexes.

Un seul exemple qui contredit la thèse de l’intérêt du tout  technologique : la suppression du support papier. En réalité, les flux d’informations sont majoritairement gérés désormais par voie numérique mais il y a autant et même davantage de papier au bout de la chaîne qui supporte les frais d’édition. Par ailleurs évidemment l’intelligence artificielle n’a  intérêt que si elle sert le progrès humain.

L’intelligence artificielle (IA) ne fera pas tout affirme David Lacombled. Promettre ou craindre le grand remplacement, ici des humains par la machine , ne peut que renforcer défiance et méfiance face à la technologie, en accentuant les divisions entre les individus. Les promesses mirifiques ouvrent la voie au désenchantement. La technique et l’économie doivent rester une science en veillant à ne pas revêtir des attributs de la fiction.

L’IA, un vocable polymorphe souvent préféré à celui plus effrayant encore d’automatisation, est par nature machinale, là où l’intelligence humaine est instinctive et créative. C’est à cela que l’on reconnaît des êtres capables de lier des éléments qui n’avaient de prime abord rien à voir entre eux. Pour preuve, les humains savent parfaitement se jouer de la machine et ne se privent pas de la contourner. Les militants anti-vaccins savent, par exemple, parfaitement passer sous les radars de modération et de détection automatique des réseaux sociaux, en faisant sans cesse évoluer leur langage. Ainsi, «(ovid Va((ine» (sic) ne sera pas détecté tant qu’il n’aura pas été saisi dans une base de données, vaste dictionnaire du Web… par un humain.

 

intelligence artificielle : une aide à l’expertise, pas un remplacement

intelligence artificielle : une aide à l’expertise, pas un remplacement

En s’appuyant sur le rapport de la très sérieuse agence américaine de standardisation (NIST), le professeur en gestion du risque Charles Cuvelliez et son homologue Emmanuel Michiels alertent, dans une tribune au « Monde », sur les biais transmis par et à l’intelligence artificielle, qui peuvent la conduire sur les sentiers de la pseudoscience.(extrait)

Tribune.

 

Le public a peur de l’intelligence artificielle (IA), car elle pourrait reproduire des discriminations du monde réel plus efficacement : on se souvient d’Amazon qui a tenté de filtrer les candidatures à l’embauche à l’aide de l’IA, pour ne se retrouver qu’avec des hommes blancs aux entretiens. Si l’IA est développée avec des données qui souffrent de tels biais, ce n’est pas étonnant qu’elle les reproduise en mieux !

Pourtant, si l’on « nettoie » les données qui servent à l’IA, il restera du chemin à parcourir. C’est la thèse du National Institute of Standards and Technology (NIST), l’agence américaine de standardisation, dans son rapport « A Proposal for Identifying and Managing Bias in Artificial Intelligence », soumis à consultation, dans le cadre du plan de Joe Biden qui vise à encourager un usage responsable et innovant de l’IA.

Le premier risque de biais est d’imaginer l’application d’IA en fonction des données qui existent déjà. Même si elles sont exemptes de biais, elles vont influencer la question à résoudre par l’IA. Il vaut mieux penser le problème à résoudre indépendamment, et tant pis s’il n’y a pas encore de données pour l’apprentissage, il faudra les créer. On ne procède pas autrement en science : on génère en laboratoire les mesures nécessaires à l’expérience qu’on a imaginée avant et pas l’inverse (et si ce n’est pas possible, comme pour les études sur le climat, on recourt aux simulations numériques).

Entre les données qu’on est capable de rassembler et celles du monde réel, il peut y avoir un fossé : c’est l’exemple des questionnaires en ligne que l’on juge vite représentatifs alors qu’ils font évidemment l’impasse de tous ceux qui ne répondent pas.

On pense qu’une application d’IA une fois déployée a subi une phase de test qui la valide. Or avec le Covid-19, selon le NIST, des applications d’IA ont été diffusées dans l’urgence en se disant que leur utilisation en production servirait aussi de test. Ces exemples montrent les biais introduits non par les données mais par un cycle de développement d’IA peu rigoureux.

En second lieu, l’IA souffre du biais du « solutionnisme » : elle va apporter des solutions à tout. Dans ce cas, on pêche par optimisme, on imagine sans limite le potentiel de l’IA. Impossible alors de faire intervenir la gestion des risques qui voudrait mettre des limites raisonnables à son utilisation. Ce sont des trouble-fêtes.

Des règles européennes pour l’intelligence artificielle ?

Des règles européennes pour l’intelligence artificielle ?

Le projet de la Commission européenne ouvre la voie à une nouvelle manière de penser et de pratiquer le droit communautaire, se réjouit, dans une tribune au « Monde », l’avocat Jean-Baptiste Siproudhis.

 

Tribune.

 

 La Commission européenne (CE) a publié le 21 avril 2021 un projet de règlement établissant des règles harmonisées concernant l’intelligence artificielle (IA). Ce projet inaugure une forme inédite de réglementation combinant droit, normes, éthique et « compliance » [mise en conformité]. Cette innovation, dont l’aboutissement peut prendre plusieurs années au rythme de la procédure habituelle, ouvre cependant la voie à une nouvelle manière de penser et de pratiquer le droit européen, à laquelle les juristes doivent d’ores et déjà se préparer.

Pour la Commission, l’intelligence artificielle est une famille de technologies en évolution rapide qui nécessite la mise en place de nouvelles formes de contrôle incluant un espace pour l’expérimentation continue. Ce contrôle doit permettre de prévenir les risques d’atteintes par l’IA aux droits fondamentaux de l’Union européenne (UE), tout en encourageant une innovation responsable. Le principal enjeu de cette nouvelle réglementation consiste à définir des règles d’encadrement de comportements et de produits d’IA qui ne sont pas encore envisagés à ce jour, ce qui rompt avec la logique séculaire consistant à légiférer sur le « connu ».

 

A cet effet, la Commission propose un nouvel ordonnancement juridique composé d’une part de la Charte des droits fondamentaux de l’UE et, d’autre part, de règlements spécifiques comme celui de l’IA, l’ensemble étant destiné à prévenir les violations possibles de certains de ces droits (droit à la dignité humaine, au respect de la vie privée et à la protection des données à caractère personnel, à la non-discrimination et à l’égalité entre les femmes et les hommes). Ce système de prévention prévu par la Commission européenne repose sur le contrôle de la mise en place de dispositifs de compliance par les entreprises selon des niveaux de « risques IA » identifiés (inacceptable, élevé, moyen, faible). Le règlement IA est donc une réglementation de compliance.

La Commission incite également les entreprises à anticiper ces risques dans la conception et le fonctionnement de leurs produits d’IA, en définissant en interne les « bons comportements » préventifs à travers des codes de conduite. En ce sens, le projet de règlement IA est une réglementation qui encourage l’éthique des affaires. Il prévoit aussi un système de certification des dispositifs de compliance IA des entreprises par des « organismes d’évaluation », avec un marquage « CE ». Pour obtenir cette certification, les entreprises devront mettre en place un système de « gestion de la qualité » que l’on retrouve à travers les normes de l’International Standard Organization (ISO) [qui édicte les normes techniques imposées aux entreprises]. Le règlement IA est donc une réglementation de norme.

Intelligence artificielle et épidémiologie : Une perspective pour la santé publique

 

Deux équipes projets du centre Inria Bordeaux Sud-Ouest ont mis au point un modèle permettant de prédire les conséquences des décisions en matière de santé publique face à une situation pandémique. (Crédits : Inria Bordeaux Sud-Ouest)

LA TRIBUNE – Comment avez-vous mis au point cette plateforme EpidemiOptim ?

MELANIE PRAGUE, chargée de recherche Inria au sein de l’équipe Sistm (1) - La première étape c’est une bonne estimation sur les données de la dynamique de l’épidémie. On a besoin d’un modèle à compartiments SEIR étendu (susceptible-exposé-infectieux-remis) pour la Covid-19. Nous avons d’abord intégré les paramètres de diffusion du virus grâce aux données d’hospitalisations en France, à partir de la base Si-vic (système d’information pour le suivi des victimes d’attentats et de situations sanitaires exceptionnelles). A partir de là, on cherche à reconstruire le modèle qui a abouti à ces données en estimant notamment quel est l’effet du confinement et des différentes stratégies d’intervention non-pharmaceutiques. Cela nous donne un modèle de travail qui nous permet ensuite de simuler toutes les trajectoires que l’on souhaite : que ce serait-il passé s’il n’y avait eu aucun confinement, des confinements plus longs ou tous les deux jours, toutes les deux semaines, etc. L’idée de ce modèle développé par l’équipe Sistm est d’évaluer et de prédire l’efficacité potentielle de tous ces scénarios possibles. S’y ajoute une dimension d’apprentissage par renforcement pour améliorer ces prédictions et tenter d’identifier la stratégie optimale par rapport aux objectifs définis. C’est le travail de l’équipe Flowers.

CLÉMENT MOULIN-FRIER, chargé de recherche Inria au sein de l’équipe Flowers (2) - Cette problématique d’apprentissage par renforcement revient à considérer un agent qui peut agir et percevoir dans un environnement précis. Par exemple, on observe comment un robot réagit en fonction des règles du jeu de Go : à chaque instant ce robot peut émettre une action, mesurer son effet sur l’environnement et recevoir ou pas une récompense. Pour le jeu de Go, l’enjeu est finalement relativement simple : si la partie est gagnée, il y a une récompense, si elle est perdue, il n’y en a pas. Mais le but de l’apprentissage par renforcement est, à partir de l’interaction entre l’agent et l’environnement, de savoir comment cet agent peut apprendre une stratégie d’actions cumulées de façon à obtenir une récompense sur le long terme. C’est cette notion de long terme qui est fondamentale parce qu’à force d’entraînement elle peut amener l’agent à prendre des décisions qui ne génèreront pas de récompense à court terme mais de façon à obtenir une meilleure récompense à long terme.


Comment est-ce que cette logique d’apprentissage se transpose dans votre modèle épidémiologique ?

MP - Nous avons pris un modèle à compartiments qui modélise des effets moyens dans une population donnée en fonction des paramètres de transmission du virus et nous avons fixé deux règles du jeu : réduire autant que possible le nombre de morts, d’une part, et la perte de PIB, qui traduit l’impact économique. Ces deux couts sont représentés par des fonctions des paramètres et des compartiments du modèle épidémiologique. L’objectif fixé au robot est en quelque sorte d’arriver à minimiser simultanément ces deux paramètres sur le long terme.

CMF - Cela implique beaucoup de variables telles que le nombre de personnes infectées ou hospitalisées, le taux de propagation, etc. Le modèle observe ces variables et émet une action - est-ce qu’on confine ou pas la semaine prochaine – qui va changer l’environnement puis, une semaine plus tard, le modèle va émettre à nouveau une action en fonction de l’évolution de ces variables et ainsi de suite. Le but de l’apprentissage par renforcement est, au fur et à mesure, d’affiner cette stratégie de façon à minimiser les deux coûts sanitaires et économiques, y compris en prenant des décisions qui peuvent paraître étonnantes à court terme mais qui sont pertinentes à long terme. D’où la complexité du système.

MF - Parallèlement à cela, on affine au fil du temps les données entrantes des paramètres épidémiologiques pour limiter les incertitudes parce que, depuis un an, on a beaucoup appris sur la diffusion du Covid-19.

Comment fonctionne concrètement ce renforcement ?

CMF - L’algorithme par renforcement a accès à ces données épidémiologiques et commence par essayer des actions aléatoires chaque semaine et regarde le résultat et la récompense associée. L’idée est de réitérer cela plusieurs fois, des milliers de fois, et en fonction de tous ces résultats, l’algorithme sera capable d’améliorer ses stratégies de façon à obtenir une meilleure récompense. L’enjeu étant, in fine, d’identifier la solution optimale. Sachant que chaque simulation ne prend que quelques secondes.

 

Dans quelle mesure cette plateforme permet-elle d’améliorer la prise de décision dans la vraie vie ?

MP - La vocation principale de la plateforme est de fournir un outil d’aide à la décision en matière de santé publique. Il comporte trois aspects : le modèle épidémiologique, le modèle d’apprentissage et les règles et objectif à définir. Dans la réalité, c’est ce 3e aspect qui intéresse les décideurs : faut-il plutôt préserver les vies humaines ou les coûts économiques ? Avec des choix très différents en fonction des pays. De notre côté, nous avons conçu le modèle pour qu’il soit le plus modulable possible et que chacun puisse fixer ses propres objectifs pour effectuer des simulations épidémiologiques en fonction de ces objectifs-là. Mais, aujourd’hui, ce modèle n’a pas été utilisé en conditions réelles par des décideurs politiques. Nous n’en sommes pas encore là ! L’objectif est d’abord de faciliter les collaborations entre les chercheurs en épidémiologie (modèles), les décideurs politiques (fonctions de coût, état des actions) et les spécialistes de l’optimisation (algorithme d’apprentissage).

CMF - Après avoir fait ce travail de modélisation transdisciplinaire, on constate très clairement que le problème est par nature multi-objectifs. C’est-à-dire qu’il y a plusieurs coûts que l’on va chercher à optimiser et qu’ils sont, en général, contradictoires : si on minimise le coût sanitaire, on augmenter le coût économique et vice-versa. Et si on ajoute à ça, par exemple, des coûts sociaux ou psychologiques, ç’est encore plus complexe ! Donc, au final, si on ne poursuit qu’un seul de ces objectifs, la stratégie est relativement simple. Mais si on cherche à combiner plusieurs objectifs, c’est là que c’est à la fois difficile et passionnant à analyser. Et ce qui est aussi apparu clairement c’est que les solutions optimales identifiées par le modèle sont très différentes selon le ou les objectifs recherchés. Finalement, nous en tant que chercheurs, on n’a pas forcément grand-chose à dire sur où est-ce qu’il faudrait placer les différents curseurs. Mais on cherche à permettre aux décideurs politiques de pouvoir simuler en quelques secondes les conséquences prédites de tel ou tel choix. Avec les limites et les précautions inhérentes à un modèle mathématique qui comporte évidemment des incertitudes. Mais si ça permet de proposer une visualisation des conséquences, c’est déjà utile.

Sur ce point, comment avez-vous sélectionné les données qui nourrissent votre modèle ?

MP - Au niveau des variables de coûts, le nombre de décès est très vite arrivé comme la donnée la plus factuelle et évaluable sur une année. Ce qui est beaucoup moins évident pour, par exemple, le taux de saturation des services de réanimation qui dépend d’autres paramètres conjoncturels. Sur le plan économique, on a travaillé avec des économistes pour établir un critère fiable. On aurait évidemment pu faire des choix différents et aussi intégrer plus de fonctions de coûts mais cela n’aurait pas nécessairement entraîné des stratégies fondamentalement différentes.

CMF - D’autant que l’enjeu de ce modèle est aussi son accessibilité en permettant à des gens qui ne sont ni informaticiens, ni épidémiologistes de l’utiliser. Par ailleurs, le choix de ces données entrantes et des objectifs à atteindre relève aussi des décisions politiques.

Après la publication d’un article scientifique, quelle sera la suite des évènements pour cette plateforme?

MP - L’objectif va être d’appliquer la méthodologie développée avec EpidemiOptim à d’autres questions. Ça pourra concerner la stratégie de vaccination, par exemple, l’optimisation de l’allocation des doses vaccinales dans l’hypothèse d’une 3e dose dû à la la perte d’immunité. L’enjeu sera alors de mesurer et de prédire quelles classes d’âge revacciner, à quel rythme, en cherchant toujours à minimiser le nombre de morts et les coûts économiques tout en prenant en compte un nombre de doses contraint. L’idée est donc d’utiliser les mêmes outils pour répondre à des questions différentes !

(1) Flowers est une équipe-projet Inria, commune avec l’université de Bordeaux et Ensta ParisTech
(2) Sistm est une équipe-projet Inria, commune avec l’université de Bordeaux et l’Inserm

Société–La viande artificielle cultivée chimiquement !

 

 Société–La viande artificielle cultivée chimiquement  !

Nathalie Rolland, spécialiste de l’agriculture cellulaire, dénonce, dans une tribune au « Monde », l’adoption par l’Assemblée nationale, d’un amendement « anti-écologique »( ! ) glissé in extremis dans la loi Climat et résilience.Nathalie Rolland dénonce l’arrêt de cet innovation écologique fondamentale !

 

Tribune.

 

Le 18 mars 2021, une commission spéciale de l’Assemblée nationale se penchait sur les repas végétariens dans la restauration collective. Parmi les quelques amendements adoptés ce jour-là, un sujet assez inattendu a été mis sur la table : la viande cultivée à partir de cellules. Vendredi 16 avril, l’assemblée nationale a adopté en séance publique ce nouvel article 59 bis de la loi climat, interdisant la viande cultivée, un produit qui n’est même pas encore commercialisé, et dont la mise sur le marché dépend du droit européen, dans les cantines. Les discussions sur cette loi ont paradoxalement offert à quelques députés l’opportunité de s’en prendre avec succès à l’une des innovations écologiques les plus prometteuses.

Ce procédé novateur, qui consiste à reproduire en cuve la multiplication cellulaire se déroulant d’habitude dans le corps des animaux, nécessiterait moins de ressources naturelles que la production de viande conventionnelle. Ainsi, outre un bilan carbone qui pourrait être très avantageux dans un pays comme le nôtre où la production d’électricité est peu carbonée, le point fort de la viande cultivée réside surtout dans la très faible quantité de terres nécessaires (près de 20 fois moins que la viande conventionnelle).

 

Son développement permettrait donc de rendre à la nature de nombreux territoires, avec un bénéfice très positif sur la biodiversité, et de stocker des quantités non négligeables de carbone à travers la reforestation. Mais alors que les start-up françaises ne prévoient sa mise sur le marché que dans quelques années, la viande cultivée se voit déjà privée de cantine.

A la suite du vote de cet amendement, les administrateurs des différents établissements publics de restauration pourraient avoir l’interdiction de proposer à leurs usagers des plats à base de viande cultivée. Comment cet amendement liberticide et anti-écologique s’est-il immiscé dans la loi « climat » ?

Le texte invoque tout d’abord la défense des intérêts économiques de « nos éleveurs locaux, qui font déjà face à une concurrence importante et qui méritent d’être soutenus ». Nos éleveurs n’ont pas attendu le développement de la viande cultivée pour faire face à une concurrence internationale, et la viande de culture propose une voie complémentaire à l’élevage pour compléter l’offre en produits animaux dont la consommation mondiale est en train de fortement augmenter.

 

En outre, la législation n’a pas vocation à fausser la concurrence en empêchant les produits innovants de concurrencer les secteurs bien implantés, fussent-ils aussi influents que celui de l’élevage industriel. Les jeunes et encore fragiles entreprises françaises travaillant sur la viande de culture attendent plutôt un soutien à l’innovation dont elles auraient bien besoin pour affronter les précurseurs hollandais, américains et israéliens.

Intelligence artificielle: La question de la responsabilité

Intelligence artificielle: La question de la responsabilité

Un article particulièrement intéressant de Patrice Cailleba dans l’Opinion

Au-delà de son acronyme même, l’IA constitue clairement une dyade au sens d’Edgar Morin, à savoir une dialogique où les termes sont « complémentaires, concurrents et antagonistes ». Il n’y a pas de solution à cette dialogique qui puisse dépasser et supprimer ce qui n’est pas toujours une contradiction. Il s’agit plutôt d’une unité complexe entre deux logiques concurrentes et antagonistes.

Concrètement, l’unité complexe de l’IA se retrouve et se prolonge au travers de dialectiques qui peuvent être comprises sous forme de trois interrogations. Dans son essai sur l’Essence du politique en 1965, Julien Freund les avait identifiés sans savoir qu’elles s’appliqueraient un jour à l’IA. Il s’agit respectivement de la dialectique du commandement et de l’obéissance (qui commande ou obéit : la machine ou l’individu ?) ; de la dialectique du privé et du public (quelles données doivent conserver un caractère privé ?) ; et de la dialectique de l’ami et de l’ennemi (qui, dans l’IA, est le vrai responsable : le concepteur, l’utilisateur, le fournisseur d’IA ou la machine elle-même ?). Répondre à ces questions revient à examiner certaines réalités propres à l’IA.

Les acteurs concernés par les trois dialectiques recoupent une myriade d’individus. Le problème de cette multiplicité d’acteurs n’empêche pas de considérer les responsabilités de chacun lorsqu’ils ont contribué à un évènement indésirable : c’est l’essence même des systèmes juridiques. Néanmoins, il convient d’en discuter régulièrement et de clarifier à la fois les attentes de la société civile à leurs égards et les marges de manœuvre de ces mêmes acteurs.

Ensuite, le fonctionnement même de l’IA, c’est-à-dire la manière dont les résultats sont obtenus, peut être opaque, a fortiori lorsque les technologies employées sont évolutives (voir le machine learning et le deep learning). Il est alors rendu difficile de rendre responsable quiconque d’un résultat lorsque nul ne peut expliquer comment ce dernier a été obtenu (biais humain ou autonomie de l’IA ?). Il ne peut exister dès lors un « vide de responsabilité » qui ferait des développeurs – ou de leurs programmes en tant que tels – les seuls responsables. A quand le procès d’un algorithme comme on faisait au Moyen-Âge le procès de certains animaux ?

Dimension spatio-temporelle. Enfin, la dimension spatio-temporelle de l’impact de l’IA ébranle l’idée même d’une responsabilité unique et individuelle. En effet, nulle autre technologie ne peut à ce point s’étendre aussi rapidement sur l’ensemble de la planète. De plus, l’interaction des systèmes algorithmiques rend possible deux écueils.

D’un côté, chaque individu ne peut, ni ne veut, assumer qu’une petite part de responsabilité en tant que partie prenante dans l’IA, à savoir comme créateur, développeur et/ou utilisateur. De l’autre côté, l’inclination naturelle à chercher des boucs émissaires questionne l’arrêt possible d’une IA. En même temps, se pose la question du rapport coût/bénéfice de chaque innovation dans les sociétés occidentales qui ont de plus en plus de mal à accepter l’idée même de risque (voir les polémiques sur les vaccins).

Il faut penser la relation homme-machine que permet l’IA au travers de la responsabilité donnée, voire imposée, à l’individu

Si répondre aux questions posées par l’IA est délicat, la raison en est que les dialectiques qui les sous-tendent sont complémentaires. Aucune réponse proposée à ces questions ne peut faire l’économie des deux autres. Toutefois, elles ne sont pas d’égale importance dans la mesure où l’une subordonne les deux autres. La question de la responsabilité est effectivement première tant la responsabilité de l’individu ne peut, ni ne doit s’effacer au « profit » de la machine ou au détriment des individus.

Il faut donc penser la relation homme-machine que permet l’IA au travers de la responsabilité donnée, voire imposée, à l’individu. Ceci est d’autant plus nécessaire et pertinent que les études menées depuis vingt ans montrent que l’intégration homme-machine réduit non seulement les biais humains mais aussi les biais homme-machine. Ainsi l’intégration entre automatisation et augmentation permise par l’IA doit-elle absolument conserver, à défaut de renforcer, la dimension de la responsabilité humaine. Encore faut-il examiner de près ce que cette responsabilité a de particulier au sein de l’IA.

Les utilisateurs (personnes privées et/ou institutions publiques) de l’IA s’accordent sur l’idée que les personnes qui développent et déploient des systèmes d’IA doivent assumer les conséquences indésirables de leurs actes, tout autant qu’elles tirent profit de leurs services. Inversement, les concepteurs et les déployeurs de l’IA pensent de même en ce qui concerne les utilisateurs qui cèdent leurs données pour en bénéficier ultérieurement : ils sont le produit qu’ils utilisent et en sont donc directement responsables.

Parce que ces considérations sont aussi légitimes les unes que les autres, elles doivent être examinées ensemble. Ainsi la notion de responsabilité au sein de l’IA doit-elle remplir, tout à la fois, les conditions suivantes. La première condition est que la personne qui prête ses données doit confirmer qu’elle se défait temporairement de sa responsabilité qu’elle pourra reprendre le cas échéant. La deuxième condition renvoie à la propre responsabilité de l’organisation qui crée les algorithmes en cas d’effet indésirable. Dans ce cas, elle s’engage à corriger le programme. La troisième condition a trait à l’organisation qui déploie l’IA et exploite les données qu’elle en tire : cette dernière doit assumer sa responsabilité dans leur bonne utilisation vis-à-vis des autres parties prenantes, mais aussi vis-à-vis de concurrents potentiels qui auront tôt fait de la délégitimer afin de la remplacer.

 

Intelligence artificielle: qui sera responsable ?

Intelligence artificielle: qui sera responsable ? 

Un article particulièrement intéressant de Patrice Cailleba dans l’opinion

 

Au-delà de son acronyme même, l’IA constitue clairement une dyade au sens d’Edgar Morin, à savoir une dialogique où les termes sont « complémentaires, concurrents et antagonistes ». Il n’y a pas de solution à cette dialogique qui puisse dépasser et supprimer ce qui n’est pas toujours une contradiction. Il s’agit plutôt d’une unité complexe entre deux logiques concurrentes et antagonistes.

Concrètement, l’unité complexe de l’IA se retrouve et se prolonge au travers de dialectiques qui peuvent être comprises sous forme de trois interrogations. Dans son essai sur l’Essence du politique en 1965, Julien Freund les avait identifiés sans savoir qu’elles s’appliqueraient un jour à l’IA. Il s’agit respectivement de la dialectique du commandement et de l’obéissance (qui commande ou obéit : la machine ou l’individu ?) ; de la dialectique du privé et du public (quelles données doivent conserver un caractère privé ?) ; et de la dialectique de l’ami et de l’ennemi (qui, dans l’IA, est le vrai responsable : le concepteur, l’utilisateur, le fournisseur d’IA ou la machine elle-même ?). Répondre à ces questions revient à examiner certaines réalités propres à l’IA.

Les acteurs concernés par les trois dialectiques recoupent une myriade d’individus. Le problème de cette multiplicité d’acteurs n’empêche pas de considérer les responsabilités de chacun lorsqu’ils ont contribué à un évènement indésirable : c’est l’essence même des systèmes juridiques. Néanmoins, il convient d’en discuter régulièrement et de clarifier à la fois les attentes de la société civile à leurs égards et les marges de manœuvre de ces mêmes acteurs.

Ensuite, le fonctionnement même de l’IA, c’est-à-dire la manière dont les résultats sont obtenus, peut être opaque, a fortiori lorsque les technologies employées sont évolutives (voir le machine learning et le deep learning). Il est alors rendu difficile de rendre responsable quiconque d’un résultat lorsque nul ne peut expliquer comment ce dernier a été obtenu (biais humain ou autonomie de l’IA ?). Il ne peut exister dès lors un « vide de responsabilité » qui ferait des développeurs – ou de leurs programmes en tant que tels – les seuls responsables. A quand le procès d’un algorithme comme on faisait au Moyen-Âge le procès de certains animaux ?

Dimension spatio-temporelle. Enfin, la dimension spatio-temporelle de l’impact de l’IA ébranle l’idée même d’une responsabilité unique et individuelle. En effet, nulle autre technologie ne peut à ce point s’étendre aussi rapidement sur l’ensemble de la planète. De plus, l’interaction des systèmes algorithmiques rend possible deux écueils.

D’un côté, chaque individu ne peut, ni ne veut, assumer qu’une petite part de responsabilité en tant que partie prenante dans l’IA, à savoir comme créateur, développeur et/ou utilisateur. De l’autre côté, l’inclination naturelle à chercher des boucs émissaires questionne l’arrêt possible d’une IA. En même temps, se pose la question du rapport coût/bénéfice de chaque innovation dans les sociétés occidentales qui ont de plus en plus de mal à accepter l’idée même de risque (voir les polémiques sur les vaccins).

Il faut penser la relation homme-machine que permet l’IA au travers de la responsabilité donnée, voire imposée, à l’individu

Si répondre aux questions posées par l’IA est délicat, la raison en est que les dialectiques qui les sous-tendent sont complémentaires. Aucune réponse proposée à ces questions ne peut faire l’économie des deux autres. Toutefois, elles ne sont pas d’égale importance dans la mesure où l’une subordonne les deux autres. La question de la responsabilité est effectivement première tant la responsabilité de l’individu ne peut, ni ne doit s’effacer au « profit » de la machine ou au détriment des individus.

Il faut donc penser la relation homme-machine que permet l’IA au travers de la responsabilité donnée, voire imposée, à l’individu. Ceci est d’autant plus nécessaire et pertinent que les études menées depuis vingt ans montrent que l’intégration homme-machine réduit non seulement les biais humains mais aussi les biais homme-machine. Ainsi l’intégration entre automatisation et augmentation permise par l’IA doit-elle absolument conserver, à défaut de renforcer, la dimension de la responsabilité humaine. Encore faut-il examiner de près ce que cette responsabilité a de particulier au sein de l’IA.

Les utilisateurs (personnes privées et/ou institutions publiques) de l’IA s’accordent sur l’idée que les personnes qui développent et déploient des systèmes d’IA doivent assumer les conséquences indésirables de leurs actes, tout autant qu’elles tirent profit de leurs services. Inversement, les concepteurs et les déployeurs de l’IA pensent de même en ce qui concerne les utilisateurs qui cèdent leurs données pour en bénéficier ultérieurement : ils sont le produit qu’ils utilisent et en sont donc directement responsables.

Parce que ces considérations sont aussi légitimes les unes que les autres, elles doivent être examinées ensemble. Ainsi la notion de responsabilité au sein de l’IA doit-elle remplir, tout à la fois, les conditions suivantes. La première condition est que la personne qui prête ses données doit confirmer qu’elle se défait temporairement de sa responsabilité qu’elle pourra reprendre le cas échéant. La deuxième condition renvoie à la propre responsabilité de l’organisation qui crée les algorithmes en cas d’effet indésirable. Dans ce cas, elle s’engage à corriger le programme. La troisième condition a trait à l’organisation qui déploie l’IA et exploite les données qu’elle en tire : cette dernière doit assumer sa responsabilité dans leur bonne utilisation vis-à-vis des autres parties prenantes, mais aussi vis-à-vis de concurrents potentiels qui auront tôt fait de la délégitimer afin de la remplacer.

 

La viande artificielle cultivée !

 La viande artificielle cultivée !

Nathalie Rolland, spécialiste de l’agriculture cellulaire, dénonce, dans une tribune au « Monde », l’adoption par l’Assemblée nationale, d’un amendement « anti-écologique »( ! ) glissé in extremis dans la loi Climat et résilience.Nathalie Rolland dénonce l’arrêt de cet innovation écologique fondamentale !

 

Tribune.

 

Le 18 mars 2021, une commission spéciale de l’Assemblée nationale se penchait sur les repas végétariens dans la restauration collective. Parmi les quelques amendements adoptés ce jour-là, un sujet assez inattendu a été mis sur la table : la viande cultivée à partir de cellules. Vendredi 16 avril, l’assemblée nationale a adopté en séance publique ce nouvel article 59 bis de la loi climat, interdisant la viande cultivée, un produit qui n’est même pas encore commercialisé, et dont la mise sur le marché dépend du droit européen, dans les cantines. Les discussions sur cette loi ont paradoxalement offert à quelques députés l’opportunité de s’en prendre avec succès à l’une des innovations écologiques les plus prometteuses.

Ce procédé novateur, qui consiste à reproduire en cuve la multiplication cellulaire se déroulant d’habitude dans le corps des animaux, nécessiterait moins de ressources naturelles que la production de viande conventionnelle. Ainsi, outre un bilan carbone qui pourrait être très avantageux dans un pays comme le nôtre où la production d’électricité est peu carbonée, le point fort de la viande cultivée réside surtout dans la très faible quantité de terres nécessaires (près de 20 fois moins que la viande conventionnelle).

 

Son développement permettrait donc de rendre à la nature de nombreux territoires, avec un bénéfice très positif sur la biodiversité, et de stocker des quantités non négligeables de carbone à travers la reforestation. Mais alors que les start-up françaises ne prévoient sa mise sur le marché que dans quelques années, la viande cultivée se voit déjà privée de cantine.

A la suite du vote de cet amendement, les administrateurs des différents établissements publics de restauration pourraient avoir l’interdiction de proposer à leurs usagers des plats à base de viande cultivée. Comment cet amendement liberticide et anti-écologique s’est-il immiscé dans la loi « climat » ?

Le texte invoque tout d’abord la défense des intérêts économiques de « nos éleveurs locaux, qui font déjà face à une concurrence importante et qui méritent d’être soutenus ». Nos éleveurs n’ont pas attendu le développement de la viande cultivée pour faire face à une concurrence internationale, et la viande de culture propose une voie complémentaire à l’élevage pour compléter l’offre en produits animaux dont la consommation mondiale est en train de fortement augmenter.

 

En outre, la législation n’a pas vocation à fausser la concurrence en empêchant les produits innovants de concurrencer les secteurs bien implantés, fussent-ils aussi influents que celui de l’élevage industriel. Les jeunes et encore fragiles entreprises françaises travaillant sur la viande de culture attendent plutôt un soutien à l’innovation dont elles auraient bien besoin pour affronter les précurseurs hollandais, américains et israéliens.

Intelligence artificielle et croissance

  • Intelligence artificielle et croissance
      • Emmanuel Combe , professeur à Skema business school et vice-président de l’Autorité de la concurrence s’interroge sur le lien entre révolution technologique et croissance ( dans l’Opinion)
    • La productivité du travail connaît un net rebond depuis la crise Covid, après plus de quinze ans d’atonie dans les pays développés. Ainsi, aux Etats-Unis, pour le premier trimestre 2021, elle a bondi à 5,4 %, contre une moyenne de 1,5 % avant la crise sanitaire. On peut y voir un simple effet de rattrapage, avec la remise en route de l’économie américaine à un rythme accéléré.
    • Mais on peut aussi penser que ce regain de la productivité exprime des changements structurels, lancés à l’occasion de la crise Covid et qui perdureront après elle. Tout d’abord, le travail à distance va durablement s’implanter dans les entreprises et améliorer les performances des salariés, en limitant les pertes de temps. Ensuite, les achats en ligne sont devenus une habitude pour les consommateurs et les entreprises ont vu tout l’intérêt de ce nouveau canal de distribution, en complément de leurs points de vente physiques. Enfin, la robotisation des chaînes de production s’est accélérée, tandis que l’intelligence artificielle commence à se diffuser dans certains secteurs.
    • A cet égard, plusieurs économistes – à l’image d’Erik Brynjolfsson du MIT — considèrent que l’intelligence artificielle va être à l’origine d’une période de forte croissance économique, parce qu’il s’agit d’une « innovation à usage général » (« general purpose technologies »), au même titre que la machine à vapeur, l’électricité ou l’informatique dans le passé. Selon Bresnahan et Trajtenberg, une innovation à usage général présente trois caractéristiques principales : elle est transversale ; elle s’améliore au cours du temps ; elle est source d’innovations complémentaires. Reprenons tour à tour chacune de ces caractéristiques.
    • L’intelligence artificielle va susciter de nombreuses innovations complémentaires. On pense bien entendu à des innovations physiques, à l’image des infrastructures routières qui accueilleront demain la voiture autonome
    • Transversalité. Pour ce qui est de la transversalité, il est clair que l’intelligence artificielle peut s’appliquer potentiellement à tous les secteurs, que ce soit pour prédire les comportements d’achat, diagnostiquer de nouvelles maladies ou rendre autonome la conduite de véhicules. Ensuite, l’intelligence artificielle s’améliore continument au cours du temps, grâce au deep learning : le rapport IA Index 2021 de l’Université de Stanford montre par exemple qu’en matière de reconnaissance d’image, l’IA dépasse depuis 2017 les performances des êtres humains. Dernière caractéristique : l’intelligence artificielle va susciter de nombreuses innovations complémentaires. On pense bien entendu à des innovations physiques, à l’image des infrastructures routières qui accueilleront demain la voiture autonome.
    • Mais on peut aussi penser à toutes les innovations organisationnelles et de « business model » qui vont avoir lieu dans les entreprises grâce à l’IA : il va falloir en effet redéfinir les tâches et les postes, former la main-d’œuvre ou bien encore repenser la manière d’entrer en contact avec le client ou de commercialiser un produit. Et c’est sans doute là que réside le principal obstacle à surmonter : ces innovations complémentaires risquent de se heurter à des comportements d’attentisme ou de résistances sociales au changement. Plus les délais de mise en place de ces innovations complémentaires seront longs, moins l’intelligence artificielle sera en mesure de délivrer toute sa puissance en termes de croissance économique et de gains de productivité. Le risque est alors, pour reprendre une célèbre formule de Robert Solow, que l’IA soit partout… sauf dans les statistiques du PIB.
    • Emmanuel Combe est professeur à Skema business school et vice-président de l’Autorité de la concurrence.

Nouvelles technologies-Pour une approche philosophique aussi de l’intelligence artificielle

Nouvelles technologies- Pour une approche philosophique aussi de  l’intelligence artificielle

Le philosophe Martin Gibert considère nécessaire d’insuffler une morale aux robots, chatbots et autres machines. Et suggère d’entraîner leurs algorithmes d’apprentissage à partir des avis et des comportements d’humains vertueux.

 

Martin Gibert est philosophe et chercheur à l’université de Montréal, affilié au Centre de recherche en éthique et à l’Institut de valorisation des données. En 2015, il appliquait les théories morales classiques au véganisme dans Voir son steak comme un animal mort (Lux Editeur). Il vient de faire de même, sur le terrain plus artificiel des robots, machines et autres algorithmes, dans Faire la morale aux robots (Flammarion, 168 p., 17 €).

Pourquoi un philosophe s’occupe-t-il des dispositifs d’intelligence artificielle (IA) tels que les voitures autonomes, les chatbots ou les systèmes de recommandation en ligne ?

Le moment est vraiment passionnant pour un philosophe car nous pouvons nous poser sur ces dispositifs des questions à la fois inédites et très fondamentales. Et, en plus, c’est très concret, avec des applications immédiates et urgentes. Prenons le cas célèbre du dilemme du tramway, posé par Philippa Foot en 1967 : actionne-t-on un aiguillage pour éviter que le véhicule percute cinq travailleurs si, sur l’autre voie, se trouve une seule personne ?

Jusqu’aux avancées récentes de l’IA, il faut bien dire que les philosophes réfléchissaient aux réponses, mais leurs réponses ne prêtaient pas à conséquence. Désormais, leur avis compte. Nous devons dire quelque chose aux programmeurs dont les algorithmes feront le choix fatal ! L’IA nous oblige à prendre des décisions sur ce qui est bien ou mal, et ce n’est plus une simple expérience de pensée.

Pour y voir clair sur ce qu’il s’agit de faire, il faut ordonner un peu différents domaines en éthique appliquée. Par ordre de généralité, on a d’abord l’éthique de la technique, dans laquelle on va mettre aussi bien les tournevis que les centrales nucléaires. A un deuxième niveau, l’éthique de l’IA pose des questions comme l’impact de ces systèmes sur la société ou l’environnement, ou encore sur d’éventuels droits des robots.

L’éthique des algorithmes qui m’intéresse dans le livre se situe à un troisième niveau, plus spécifique. Comment programmer une machine, un algorithme, un agent moral artificiel pour qu’il se comporte « bien » ? Cela oblige à rentrer dans les détails et, bien sûr, cela n’empêche pas de s’interroger sur l’échelon supérieur : collectivement, a-t-on vraiment besoin de tel ou tel robot ?

 

C’est d’autant plus intéressant et nécessaire que les algorithmes ont des effets sur la vie des gens. Dans le cas d’une voiture autonome confrontée au dilemme du tramway, c’est évident, mais ce seront des décisions très rares à prendre. En revanche, un algorithme de recommandations de YouTube ou Facebook peut avoir des conséquences massives sur la circulation des informations. Plus on développe de nouveaux pouvoirs, plus on a de responsabilité morale. Même derrière un chatbot, il y a des enjeux moraux sérieux.

Pour une approche philosophique aussi de l’intelligence artificielle

Pour une approche philosophique aussi de  l’intelligence artificielle

Le philosophe Martin Gibert considère nécessaire d’insuffler une morale aux robots, chatbots et autres machines. Et suggère d’entraîner leurs algorithmes d’apprentissage à partir des avis et des comportements d’humains vertueux.

 

Martin Gibert est philosophe et chercheur à l’université de Montréal, affilié au Centre de recherche en éthique et à l’Institut de valorisation des données. En 2015, il appliquait les théories morales classiques au véganisme dans Voir son steak comme un animal mort (Lux Editeur). Il vient de faire de même, sur le terrain plus artificiel des robots, machines et autres algorithmes, dans Faire la morale aux robots (Flammarion, 168 p., 17 €).

Pourquoi un philosophe s’occupe-t-il des dispositifs d’intelligence artificielle (IA) tels que les voitures autonomes, les chatbots ou les systèmes de recommandation en ligne ?

Le moment est vraiment passionnant pour un philosophe car nous pouvons nous poser sur ces dispositifs des questions à la fois inédites et très fondamentales. Et, en plus, c’est très concret, avec des applications immédiates et urgentes. Prenons le cas célèbre du dilemme du tramway, posé par Philippa Foot en 1967 : actionne-t-on un aiguillage pour éviter que le véhicule percute cinq travailleurs si, sur l’autre voie, se trouve une seule personne ?

Jusqu’aux avancées récentes de l’IA, il faut bien dire que les philosophes réfléchissaient aux réponses, mais leurs réponses ne prêtaient pas à conséquence. Désormais, leur avis compte. Nous devons dire quelque chose aux programmeurs dont les algorithmes feront le choix fatal ! L’IA nous oblige à prendre des décisions sur ce qui est bien ou mal, et ce n’est plus une simple expérience de pensée.

Pour y voir clair sur ce qu’il s’agit de faire, il faut ordonner un peu différents domaines en éthique appliquée. Par ordre de généralité, on a d’abord l’éthique de la technique, dans laquelle on va mettre aussi bien les tournevis que les centrales nucléaires. A un deuxième niveau, l’éthique de l’IA pose des questions comme l’impact de ces systèmes sur la société ou l’environnement, ou encore sur d’éventuels droits des robots.

L’éthique des algorithmes qui m’intéresse dans le livre se situe à un troisième niveau, plus spécifique. Comment programmer une machine, un algorithme, un agent moral artificiel pour qu’il se comporte « bien » ? Cela oblige à rentrer dans les détails et, bien sûr, cela n’empêche pas de s’interroger sur l’échelon supérieur : collectivement, a-t-on vraiment besoin de tel ou tel robot ?

 

C’est d’autant plus intéressant et nécessaire que les algorithmes ont des effets sur la vie des gens. Dans le cas d’une voiture autonome confrontée au dilemme du tramway, c’est évident, mais ce seront des décisions très rares à prendre. En revanche, un algorithme de recommandations de YouTube ou Facebook peut avoir des conséquences massives sur la circulation des informations. Plus on développe de nouveaux pouvoirs, plus on a de responsabilité morale. Même derrière un chatbot, il y a des enjeux moraux sérieux.

L’intelligence artificielle pour lutter contre le blanchiment et le terrorisme

L’intelligence artificielle pour lutter contre le blanchiment et le terrorisme 

 

Astrid Bertrand, Winston Maxwell et Xavier Vamparys, chercheurs à Télécom Paris, expliquent, dans une tribune au « Monde » que l’intelligence artificielle peut rendre efficace les dispositifs antiblanchiment qui actuellement coûtent plus qu’ils ne rapportent en Europe.

 

Tribune.Le régulateur des établissements financiers, l’Autorité de contrôle prudentiel et de résolution (ACPR), a récemment sanctionné Carrefour Banque, Cardif, filiale d’assurances du groupe BNP Paribas, et ING Bank pour manquement dans leur dispositif de lutte contre le blanchiment et le financement du terrorisme (LCB-FT).

Pourtant, ces établissements ont massivement investi pour renforcer leur dispositif antiblanchiment, 32 millions d’euros pour Cardif depuis 2016, 26 millions d’euros entre 2019 et 2020 pour ING Bank. Pour quels résultats ? Comme l’indique l’ancien directeur d’Europol, Rob Wainwright, « on a créé une tonne de réglementation, les banques dépensent 20 milliards d’euros par an (…) et [pourtant] on ne saisit que 1 % du produit de la criminalité chaque année en Europe ».


Si l’objectif du dispositif est d’assécher les réseaux internationaux de financement du crime, le bilan de la lutte contre le blanchiment est, au mieux, mitigé. La plupart des alertes générées par les outils informatiques des institutions financières sont des « faux positifs » devant être triés par des opérateurs humains. Ce tri effectué, les suspicions restantes sont transmises aux autorités publiques sous la forme de « déclarations de soupçon », dont peu font l’objet d’une enquête.

Présence d’obstacles réglementaires

A l’origine, la LCB-FT était faite pour traquer la criminalité grave : crime organisé, trafic d’êtres humains, cartels de drogue… Mais son champ d’application a progressivement été étendu, avec pour résultat une multiplication des signalements de soupçon couvrant des délits plus mineurs (travail au noir, fraudes fiscales…).

Idéalement, les dispositifs de détection des banques devraient se focaliser sur les réseaux de criminalité les plus importants, ce qui nécessiterait un bon alignement entre les objectifs des outils de LCB-FT adoptés par les établissements et les principales menaces identifiées par l’Etat. En se dotant d’outils d’intelligence artificielle (IA) ciblant les transactions suspectes évocatrices des principales menaces listées, l’efficacité des dispositifs LCB-FT serait encore renforcée.


En l’état, le partage des informations entre les autorités de lutte contre la criminalité financière (Tracfin en France) et les établissements financiers se heurte à des obstacles réglementaires – protection des données personnelles, secret de l’enquête voire, dans certains cas, secret-défense.

Intelligence artificielle :Une réglementation européenne technocratique

Intelligence artificielle :Une réglementation européenne technocratique

 

Les citoyens sont quasiment absents de la proposition de règlement élaborée par la Commission européenne qui, en outre, laisse le champ libre au secteur privé, s’inquiètent dans le Monde Marc Clément, magistrat administratif, et Daniel Le Métayer, chercheur spécialiste des algorithmes.

Tribune

 

La Commission européenne a publié, le 21 avril, une proposition de règlement qui se présente comme la clé de voûte de la future réglementation européenne pour l’intelligence artificielle (IA). On doit saluer le travail accompli par la Commission avec la mise en place d’un comité d’experts et des consultations des parties prenantes.

Ce texte doit désormais être discuté au Parlement européen et on peut espérer qu’un large débat s’engagera autour de ces propositions.

En effet, il est capital que les Européens se saisissent de l’occasion pour faire en sorte que l’IA soit utilisée au service de la société tout entière, et non pas comme un simple moyen d’influencer le consommateur ou d’asservir le citoyen.

Le texte de la Commission repose sur une démarche d’analyse des risques qui la conduit à distinguer trois groupes de systèmes d’IA : des systèmes ou des usages prohibés car jugés incompatibles avec les valeurs de l’Union européenne (UE), comme la manipulation de personnes vulnérables ou l’identification biométrique en temps réel dans l’espace public aux fins de police (sauf exceptions strictement encadrées) ; des systèmes qui présentent des risques importants et qui sont soumis à un certain nombre d’obligations (analyse et gestion des risques, transparence, garanties en matière de correction, d’absence de biais, de sécurité, etc.) ; et enfin des systèmes qui ne présentent pas de risques significatifs et qui ne sont soumis qu’à des obligations de transparence dans des cas particuliers (interactions avec des humains, etc.).

Une autre particularité du projet de règlement est qu’il est articulé autour de deux catégories principales d’acteurs : les fournisseurs de systèmes d’IA et ceux qui les déploient. Ainsi, la plupart des obligations associées aux systèmes à haut risque pèsent sur les fournisseurs qui doivent s’en acquitter avant la mise sur le marché de leurs produits. On ne peut que se féliciter de l’obligation de mesures d’évaluation et de réduction des risques ex ante.

 

Cette architecture du projet de règlement reposant sur les niveaux de risques et des catégories d’acteurs nous paraît pertinente, mais les choix particuliers qui ont été effectués sur ces deux plans méritent discussion.

Intelligence artificielle: Des dangers potentiels

Intelligence artificielle: Des dangers potentiels

Le cabinet d’études McKinsey constate le manque manifeste de diligence de certaines entreprises concernant les risques liés à l’IA, notamment sur les questions de conformité et de protection de la vie privée.

Tribune

Pour que les entreprises puissent réduire les dangers potentiels résultants de leurs projets dans l’intelligence artificielle, elles doivent d’abord admettre l’existence de risques liés à l’adoption de cette technologie. Les récentes conclusions de la société de conseil McKinsey montrent que de nombreuses entreprises sont en retard sur ces deux points.

La pandémie a accéléré l’adoption de l’intelligence artificielle : les entreprises trouvent dans cette technologie des opportunités pour repenser leurs processus opérationnels et leurs business models. Mais la mise en œuvre de l’IA s’accompagne de risques potentiels. Par exemple, un modèle conçu pour accélérer la procédure d’attribution de prêts hypothécaires pourrait se révéler partial, en discriminant une certaine catégorie de la population, et les entreprises qui n’identifient pas correctement les données puis n’excluent pas celles revêtant un caractère personnel au sein des grands volumes de données utilisés dans les projets d’IA pourraient écoper d’amendes en vertu du Règlement général sur la protection des données (RGPD) européen.

Une récente enquête de McKinsey révèle que moins de la moitié des personnes interrogées dont les entreprises utilisent l’IA identifient ces risques — notamment ceux liés à la conformité réglementaire et au respect de la vie privée — comme « pertinents » concernant leurs projets d’IA. Seul le risque relevant de questions de cybersécurité est considéré comme pertinent par plus de la moitié des personnes interrogées.

La société de conseil en gestion déclare trouver ces résultats, publiés à la mi-novembre, préoccupants.

« Il est difficile de comprendre pourquoi les risques systématiques ne sont pas identifiés par une proportion beaucoup plus élevée de répondants », écrit Roger Burkhardt, partner chez McKinsey, dans une note publiée avec les résultats.

Près de 2 400 cadres et dirigeants, évoluant dans des secteurs variés et des entreprises de tailles différentes ont répondu à cette enquête internationale, menée au mois de en juin. Environ 1 150 ont déclaré que leur société avait déjà adopté l’IA dans au moins une de ses missions. La société de conseil a demandé à ces entreprises quels risques elles considéraient comme pertinents et quel type de risques elles essayaient concrètement de traiter ou de réduire.

Sur les répondants, 38 % affirment s’efforcer de limiter les risques en matière de conformité réglementaire et 30 % assurent qu’ils travaillent pour diminuer ceux liés au respect de la vie privée, ce qui représente, pour ces deux sujets, des pourcentages légèrement supérieurs à ceux enregistrés dans une enquête similaire réalisée par McKinsey en 2019.

Michael Chui, partner chez McKinsey Global Institute, la branche de la société spécialisée dans la recherche économique et le monde de l’entreprise, explique que la société de conseil ne donnait pas de définition des termes « pertinent » ou « risque » aux personnes interrogées. Il fait également remarquer que tous les risques ne concernent pas toutes les entreprises. Par exemple, les questions de sécurité physique des personnes vont probablement être moins importantes pour une société de services financiers que pour une entreprise de robotique.

Néanmoins, la plupart des entreprises sont concernées par un grand nombre des dix risques générés par l’IA qu’aborde l’enquête, précise-t-il. Il souligne que, si une entreprise ne considère pas un risque comme pertinent, elle ne va probablement pas chercher à en limiter la portée.

Bruce Ross, responsable groupe des services technologie et opérations de la Royal Bank of Canada, est surpris de constater que les sociétés ne sont pas plus nombreuses à se préoccuper des risques liés à l’IA tournant autour du respect de la vie privée et de la réputation de l’entreprise.

La banque, basée à Toronto, utilise notamment l’IA dans le cadre de la détection des fraudes, de l’analyse des risques, et des opérations sur les marchés de capitaux. Parlant des établissements financiers, il explique que, si des systèmes d’intelligence artificielle prennent des décisions, la conformité réglementaire et la cybersécurité deviennent alors des domaines générant des risques importants qui doivent être traités. « Les banques négocient sur la base de la confiance », rappelle-t-il.

L’un des principaux obstacles à l’évaluation et à la limitation des risques est tout simplement la prise de conscience de leur existence, précise M. Chui, de chez McKinsey. Les personnes qui mettent en œuvre des systèmes d’IA sont focalisées sur des objectifs commerciaux, comme l’augmentation des ventes ou la réduction du taux de résiliations, précise-t-il. Elles sont donc susceptibles de ne pas pleinement admettre les risques résultant de cette technologie.

Zico Kolter, directeur scientifique des recherches sur l’IA au Bosch Center for Artificial Intelligence de Bosch et professeur associé à l’Ecole de science informatique de l’Université Carnegie-Mellon, le confirme. « Comme les entreprises se précipitent pour adopter cette nouvelle technologie afin de conserver leur longueur d’avance, il existe toujours un risque d’ignorer certains de ses inconvénients », assure-t-il.

Le travail de Bosch en matière d’IA couvre ses gammes de produits de détection intelligente, comme les capteurs et les caméras permettant aux systèmes de conduite autonomes de reconnaître les panneaux de signalisation. Pour limiter l’ensemble des risques en matière de sécurité, la société fait des recherches sur différents procédés, dont une technique appelée « adversarial training ». Elle consiste à apprendre à un système d’IA analysant les objets à les reconnaître en utilisant les scénarios les plus défavorables. Cela permet au système d’obtenir de bons résultats, même s’il est soumis à une éventuelle attaque.

M. Chui indique que les entreprises peuvent prendre des mesures pour accroître la sensibilisation et réduire les risques, par exemple en recrutant des personnes disposant de compétences variées dans leurs différents services afin de les évaluer et de les diminuer.

Olly Downs, vice-président du marketing, de la technologie, des données et de l’apprentissage automatique chez le détaillant en ligne Zulily, affirme que son équipe rencontre notamment des cadres de la technologie, du marketing, de la chaîne d’approvisionnement et du service juridique pour mener son évaluation mensuelle des activités concernant les projets d’IA. Elle organise également des réunions régulières où toute l’entreprise discute des projets impliquant l’IA.

M. Chui, de McKinsey, s’attend à ce que les entreprises accordent plus d’attention, à la fois, aux risques liés à l’IA et à leur limitation à un moment où elles intègrent l’usage de cette technologie. « Prévoit-on que ces risques vont augmenter avec le temps ? Oui, clairement », conclut-il.

L’intelligence artificielle, une chance pour l’Europe ?

 L’intelligence artificielle, une chance pour l’Europe ?

Tribune de Pierre-Etienne Bardin et Guillaume Leboucher* dans l’Opinion 

 

La crise sanitaire a montré l’obligation pour les entreprises de se transformer et pour les citoyens d’être formés et accompagnés dans un monde de plus en plus technologique. Nulle organisation, publique comme privée, ne semble devoir échapper à son destin numérique. Alors, autant le prendre en main.

La maîtrise des données et leur exploitation, notamment par des techniques d’intelligence artificielle (IA), s’avèrent comme le plus sûr moyen de rester dans la course économique, politique et géostratégique. L’IA est un outil de transformation majeur, nécessaire et indispensable, pour rebondir et saisir les opportunités économiques qui se présentent.

Grâce aux gains de productivité et à la relance de la consommation, l’IA contribuera de plus en plus à la croissance. Les entreprises ayant une culture de la donnée voient jusqu’à 5 % d’augmentation de leur valeur selon le Data Literacy index.

Technologie complexe, de plus en plus prédictive, l’IA simplifie la tâche des salariés. Elle s’immisce dans tous les pans de l’activité. Elle est tour à tour auxiliaire de santé, pour prévenir l’évolution d’un virus, ou de justice, pour fournir une analyse de jurisprudences exhaustive par exemple. Présente au quotidien, elle rend des voitures de plus en plus autonomes, des transactions financières plus fluides et rapides, des gestions logistiques et de livraisons plus affinées, des procédures de contrôles renforcées, des compteurs électriques intelligents, etc. Sans parler de nos smartphones qui répondent à l’œil et à la voix.

Tout en veillant à ne pas brider l’innovation, l’affirmation d’une base juridique doit constituer une occasion de renforcer le cadre de confiance dans la technologie

Déclassement. Dans le match de superpuissances numériques que les Etats-Unis et l’Asie ont installé, l’Europe et ses entreprises risquent le déclassement si l’IA ne devient pas un élément central de leurs stratégies. La commission européenne vient d’annoncer sa volonté de réglementer le marché de l’IA. Tout en veillant à ne pas brider l’innovation, l’affirmation d’une base juridique doit constituer une occasion de renforcer le cadre de confiance dans la technologie.

C’est aussi pour l’Europe une occasion d’affirmer un peu plus encore ses valeurs de respect de la dignité humaine et de droit de la propriété intellectuelle en particulier. Un modèle alternatif de développement du numérique, ouvert et pérenne, respectueux des humains et leurs données, est possible. Le projet GAIA-X en constitue une parfaite illustration.

Face à la domination des géants du numérique (Google, Amazon, Microsoft) qui concentrent deux tiers d’un marché de l’hébergement des données qui a triplé ces trois dernières années, la création d’un champion européen en tous points égaux serait vouée à l’échec. Au contraire, GAIA-X offre un cadre de référence et une labellisation pour permettre le développement d’une infrastructure de données déconcentrée et référente.

Fer de lance. Etre souverain, ce n’est pas se replier sur soi-même mais reprendre le dessus sur le cours des choses. L’Europe, avec la France comme fer de lance, peut et doit mobiliser ses talents autour de grands projets à visage humain et à géométrie variable mêlant les compétences et l’ambition, les savoirs et les savoir-faire.

Pour servir une telle ambition, les grands groupes doivent pouvoir s’inspirer de l’agilité des jeunes poussent, lesquels y trouveront à leur tour les moyens d’innover tout en les aiguillonnant.

C’est le sens du rapprochement du Groupe La Poste avec Openvalue, expert reconnu de l’IA, pour accompagner les organisations dans l’amélioration de leur performance industrielle. La France a besoin d’acteurs majeurs de la transformation de l’économie alliant le crédit et la confiance d’opérateurs de services aux publics. Notre continent est aussi une terre d’innovation et d’entrepreneurs.

*Pierre-Etienne Bardin, chief data officer du Groupe La Poste, et Guillaume Leboucher, fondateur et directeur général d’OpenValue.

Santé: l’intelligence artificielle pour voir l’invisible ?

Santé: l’intelligence artificielle pour voir l’invisible ?

 

« Une équipe de scientifiques a élaboré un nouveau type d’algorithme capable d’identifier un cancer au stade initial de son développement », imagine Aurélie Jean, docteure en Sciences et Entrepreneure, CAIO et co-fondatrice de DpeeX, CEO et fondatrice de In Silico Veritas ( dans l’Opinion)

  Une innovation à l’intersection entre la médecine et la modélisation numérique ouvre des perspectives thérapeutiques uniques en oncologie, raconte Aurélie Jean qui, avec 50 autres personnalités, a imaginé à quoi ressemblerait l’actualité du n° 3000 de l’Opinion, en avril 2025.

Depuis plusieurs décennies, l’intelligence artificielle (IA) est utilisée pour confirmer la présence de tumeurs sur des scanners cérébraux, des radiographies pulmonaires ou des mammographies. Depuis quelques années, l’IA est utilisée dans la médecine dite prédictive dont l’objectif est d’anticiper et d’évaluer les risques de survenue d’une maladie ou la probabilité de succès d’un traitement. Durant la pandémie de Covid-19, lointain souvenir aujourd’hui, le grand public a eu l’occasion de découvrir les capacités de l’IA à contribuer à l’élaboration d’un vaccin en identifiant par simulation numérique la protéine capable de l’activer. Ce même public découvre à présent sa capacité à voir l’invisible…

Une équipe de scientifiques et de médecins a élaboré un nouveau type d’algorithme capable d’identifier un cancer au stade initial de son développement, bien avant qu’on ne puisse visualiser la tumeur à l’œil nu sur une image radiologique. En pratique, cet algorithme détecte et localise le cancer au début de sa phase de croissance, en capturant les signaux faibles de sa signature tumorale, plus de deux ans avant le stade du diagnostic radiologique.

Détection. Pour la première fois en cancérologie, voir et traiter l’invisible devient possible. La détection précoce d’un cancer augmente significativement les chances de survie et permet l’utilisation de traitements ciblés moins agressifs, cette innovation à l’intersection entre la médecine et la modélisation numérique ouvre des perspectives thérapeutiques uniques en oncologie.

La technologie est aujourd’hui utilisée dans le diagnostic et le traitement de nombreux cancers tels que le cancer du sein et du poumon, parmi les plus fréquents. Les acteurs de cette invention comptent bien en élargir les applications pour un jour « éradiquer les traitements lourds et coûteux tant financièrement qu’émotionnellement, pour offrir à chaque être humain de ce monde les mêmes chances de survie face au cancer ».

12345



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol