Archive pour le Tag 'artificielle'

intelligence artificielle : une aide à l’expertise, pas un remplacement

intelligence artificielle : une aide à l’expertise, pas un remplacement

En s’appuyant sur le rapport de la très sérieuse agence américaine de standardisation (NIST), le professeur en gestion du risque Charles Cuvelliez et son homologue Emmanuel Michiels alertent, dans une tribune au « Monde », sur les biais transmis par et à l’intelligence artificielle, qui peuvent la conduire sur les sentiers de la pseudoscience.(extrait)

Tribune.

 

Le public a peur de l’intelligence artificielle (IA), car elle pourrait reproduire des discriminations du monde réel plus efficacement : on se souvient d’Amazon qui a tenté de filtrer les candidatures à l’embauche à l’aide de l’IA, pour ne se retrouver qu’avec des hommes blancs aux entretiens. Si l’IA est développée avec des données qui souffrent de tels biais, ce n’est pas étonnant qu’elle les reproduise en mieux !

Pourtant, si l’on « nettoie » les données qui servent à l’IA, il restera du chemin à parcourir. C’est la thèse du National Institute of Standards and Technology (NIST), l’agence américaine de standardisation, dans son rapport « A Proposal for Identifying and Managing Bias in Artificial Intelligence », soumis à consultation, dans le cadre du plan de Joe Biden qui vise à encourager un usage responsable et innovant de l’IA.

Le premier risque de biais est d’imaginer l’application d’IA en fonction des données qui existent déjà. Même si elles sont exemptes de biais, elles vont influencer la question à résoudre par l’IA. Il vaut mieux penser le problème à résoudre indépendamment, et tant pis s’il n’y a pas encore de données pour l’apprentissage, il faudra les créer. On ne procède pas autrement en science : on génère en laboratoire les mesures nécessaires à l’expérience qu’on a imaginée avant et pas l’inverse (et si ce n’est pas possible, comme pour les études sur le climat, on recourt aux simulations numériques).

Entre les données qu’on est capable de rassembler et celles du monde réel, il peut y avoir un fossé : c’est l’exemple des questionnaires en ligne que l’on juge vite représentatifs alors qu’ils font évidemment l’impasse de tous ceux qui ne répondent pas.

On pense qu’une application d’IA une fois déployée a subi une phase de test qui la valide. Or avec le Covid-19, selon le NIST, des applications d’IA ont été diffusées dans l’urgence en se disant que leur utilisation en production servirait aussi de test. Ces exemples montrent les biais introduits non par les données mais par un cycle de développement d’IA peu rigoureux.

En second lieu, l’IA souffre du biais du « solutionnisme » : elle va apporter des solutions à tout. Dans ce cas, on pêche par optimisme, on imagine sans limite le potentiel de l’IA. Impossible alors de faire intervenir la gestion des risques qui voudrait mettre des limites raisonnables à son utilisation. Ce sont des trouble-fêtes.

Des règles européennes pour l’intelligence artificielle ?

Des règles européennes pour l’intelligence artificielle ?

Le projet de la Commission européenne ouvre la voie à une nouvelle manière de penser et de pratiquer le droit communautaire, se réjouit, dans une tribune au « Monde », l’avocat Jean-Baptiste Siproudhis.

 

Tribune.

 

 La Commission européenne (CE) a publié le 21 avril 2021 un projet de règlement établissant des règles harmonisées concernant l’intelligence artificielle (IA). Ce projet inaugure une forme inédite de réglementation combinant droit, normes, éthique et « compliance » [mise en conformité]. Cette innovation, dont l’aboutissement peut prendre plusieurs années au rythme de la procédure habituelle, ouvre cependant la voie à une nouvelle manière de penser et de pratiquer le droit européen, à laquelle les juristes doivent d’ores et déjà se préparer.

Pour la Commission, l’intelligence artificielle est une famille de technologies en évolution rapide qui nécessite la mise en place de nouvelles formes de contrôle incluant un espace pour l’expérimentation continue. Ce contrôle doit permettre de prévenir les risques d’atteintes par l’IA aux droits fondamentaux de l’Union européenne (UE), tout en encourageant une innovation responsable. Le principal enjeu de cette nouvelle réglementation consiste à définir des règles d’encadrement de comportements et de produits d’IA qui ne sont pas encore envisagés à ce jour, ce qui rompt avec la logique séculaire consistant à légiférer sur le « connu ».

 

A cet effet, la Commission propose un nouvel ordonnancement juridique composé d’une part de la Charte des droits fondamentaux de l’UE et, d’autre part, de règlements spécifiques comme celui de l’IA, l’ensemble étant destiné à prévenir les violations possibles de certains de ces droits (droit à la dignité humaine, au respect de la vie privée et à la protection des données à caractère personnel, à la non-discrimination et à l’égalité entre les femmes et les hommes). Ce système de prévention prévu par la Commission européenne repose sur le contrôle de la mise en place de dispositifs de compliance par les entreprises selon des niveaux de « risques IA » identifiés (inacceptable, élevé, moyen, faible). Le règlement IA est donc une réglementation de compliance.

La Commission incite également les entreprises à anticiper ces risques dans la conception et le fonctionnement de leurs produits d’IA, en définissant en interne les « bons comportements » préventifs à travers des codes de conduite. En ce sens, le projet de règlement IA est une réglementation qui encourage l’éthique des affaires. Il prévoit aussi un système de certification des dispositifs de compliance IA des entreprises par des « organismes d’évaluation », avec un marquage « CE ». Pour obtenir cette certification, les entreprises devront mettre en place un système de « gestion de la qualité » que l’on retrouve à travers les normes de l’International Standard Organization (ISO) [qui édicte les normes techniques imposées aux entreprises]. Le règlement IA est donc une réglementation de norme.

Intelligence artificielle et épidémiologie : Une perspective pour la santé publique

 

Deux équipes projets du centre Inria Bordeaux Sud-Ouest ont mis au point un modèle permettant de prédire les conséquences des décisions en matière de santé publique face à une situation pandémique. (Crédits : Inria Bordeaux Sud-Ouest)

LA TRIBUNE – Comment avez-vous mis au point cette plateforme EpidemiOptim ?

MELANIE PRAGUE, chargée de recherche Inria au sein de l’équipe Sistm (1) - La première étape c’est une bonne estimation sur les données de la dynamique de l’épidémie. On a besoin d’un modèle à compartiments SEIR étendu (susceptible-exposé-infectieux-remis) pour la Covid-19. Nous avons d’abord intégré les paramètres de diffusion du virus grâce aux données d’hospitalisations en France, à partir de la base Si-vic (système d’information pour le suivi des victimes d’attentats et de situations sanitaires exceptionnelles). A partir de là, on cherche à reconstruire le modèle qui a abouti à ces données en estimant notamment quel est l’effet du confinement et des différentes stratégies d’intervention non-pharmaceutiques. Cela nous donne un modèle de travail qui nous permet ensuite de simuler toutes les trajectoires que l’on souhaite : que ce serait-il passé s’il n’y avait eu aucun confinement, des confinements plus longs ou tous les deux jours, toutes les deux semaines, etc. L’idée de ce modèle développé par l’équipe Sistm est d’évaluer et de prédire l’efficacité potentielle de tous ces scénarios possibles. S’y ajoute une dimension d’apprentissage par renforcement pour améliorer ces prédictions et tenter d’identifier la stratégie optimale par rapport aux objectifs définis. C’est le travail de l’équipe Flowers.

CLÉMENT MOULIN-FRIER, chargé de recherche Inria au sein de l’équipe Flowers (2) - Cette problématique d’apprentissage par renforcement revient à considérer un agent qui peut agir et percevoir dans un environnement précis. Par exemple, on observe comment un robot réagit en fonction des règles du jeu de Go : à chaque instant ce robot peut émettre une action, mesurer son effet sur l’environnement et recevoir ou pas une récompense. Pour le jeu de Go, l’enjeu est finalement relativement simple : si la partie est gagnée, il y a une récompense, si elle est perdue, il n’y en a pas. Mais le but de l’apprentissage par renforcement est, à partir de l’interaction entre l’agent et l’environnement, de savoir comment cet agent peut apprendre une stratégie d’actions cumulées de façon à obtenir une récompense sur le long terme. C’est cette notion de long terme qui est fondamentale parce qu’à force d’entraînement elle peut amener l’agent à prendre des décisions qui ne génèreront pas de récompense à court terme mais de façon à obtenir une meilleure récompense à long terme.


Comment est-ce que cette logique d’apprentissage se transpose dans votre modèle épidémiologique ?

MP - Nous avons pris un modèle à compartiments qui modélise des effets moyens dans une population donnée en fonction des paramètres de transmission du virus et nous avons fixé deux règles du jeu : réduire autant que possible le nombre de morts, d’une part, et la perte de PIB, qui traduit l’impact économique. Ces deux couts sont représentés par des fonctions des paramètres et des compartiments du modèle épidémiologique. L’objectif fixé au robot est en quelque sorte d’arriver à minimiser simultanément ces deux paramètres sur le long terme.

CMF - Cela implique beaucoup de variables telles que le nombre de personnes infectées ou hospitalisées, le taux de propagation, etc. Le modèle observe ces variables et émet une action - est-ce qu’on confine ou pas la semaine prochaine – qui va changer l’environnement puis, une semaine plus tard, le modèle va émettre à nouveau une action en fonction de l’évolution de ces variables et ainsi de suite. Le but de l’apprentissage par renforcement est, au fur et à mesure, d’affiner cette stratégie de façon à minimiser les deux coûts sanitaires et économiques, y compris en prenant des décisions qui peuvent paraître étonnantes à court terme mais qui sont pertinentes à long terme. D’où la complexité du système.

MF - Parallèlement à cela, on affine au fil du temps les données entrantes des paramètres épidémiologiques pour limiter les incertitudes parce que, depuis un an, on a beaucoup appris sur la diffusion du Covid-19.

Comment fonctionne concrètement ce renforcement ?

CMF - L’algorithme par renforcement a accès à ces données épidémiologiques et commence par essayer des actions aléatoires chaque semaine et regarde le résultat et la récompense associée. L’idée est de réitérer cela plusieurs fois, des milliers de fois, et en fonction de tous ces résultats, l’algorithme sera capable d’améliorer ses stratégies de façon à obtenir une meilleure récompense. L’enjeu étant, in fine, d’identifier la solution optimale. Sachant que chaque simulation ne prend que quelques secondes.

 

Dans quelle mesure cette plateforme permet-elle d’améliorer la prise de décision dans la vraie vie ?

MP - La vocation principale de la plateforme est de fournir un outil d’aide à la décision en matière de santé publique. Il comporte trois aspects : le modèle épidémiologique, le modèle d’apprentissage et les règles et objectif à définir. Dans la réalité, c’est ce 3e aspect qui intéresse les décideurs : faut-il plutôt préserver les vies humaines ou les coûts économiques ? Avec des choix très différents en fonction des pays. De notre côté, nous avons conçu le modèle pour qu’il soit le plus modulable possible et que chacun puisse fixer ses propres objectifs pour effectuer des simulations épidémiologiques en fonction de ces objectifs-là. Mais, aujourd’hui, ce modèle n’a pas été utilisé en conditions réelles par des décideurs politiques. Nous n’en sommes pas encore là ! L’objectif est d’abord de faciliter les collaborations entre les chercheurs en épidémiologie (modèles), les décideurs politiques (fonctions de coût, état des actions) et les spécialistes de l’optimisation (algorithme d’apprentissage).

CMF - Après avoir fait ce travail de modélisation transdisciplinaire, on constate très clairement que le problème est par nature multi-objectifs. C’est-à-dire qu’il y a plusieurs coûts que l’on va chercher à optimiser et qu’ils sont, en général, contradictoires : si on minimise le coût sanitaire, on augmenter le coût économique et vice-versa. Et si on ajoute à ça, par exemple, des coûts sociaux ou psychologiques, ç’est encore plus complexe ! Donc, au final, si on ne poursuit qu’un seul de ces objectifs, la stratégie est relativement simple. Mais si on cherche à combiner plusieurs objectifs, c’est là que c’est à la fois difficile et passionnant à analyser. Et ce qui est aussi apparu clairement c’est que les solutions optimales identifiées par le modèle sont très différentes selon le ou les objectifs recherchés. Finalement, nous en tant que chercheurs, on n’a pas forcément grand-chose à dire sur où est-ce qu’il faudrait placer les différents curseurs. Mais on cherche à permettre aux décideurs politiques de pouvoir simuler en quelques secondes les conséquences prédites de tel ou tel choix. Avec les limites et les précautions inhérentes à un modèle mathématique qui comporte évidemment des incertitudes. Mais si ça permet de proposer une visualisation des conséquences, c’est déjà utile.

Sur ce point, comment avez-vous sélectionné les données qui nourrissent votre modèle ?

MP - Au niveau des variables de coûts, le nombre de décès est très vite arrivé comme la donnée la plus factuelle et évaluable sur une année. Ce qui est beaucoup moins évident pour, par exemple, le taux de saturation des services de réanimation qui dépend d’autres paramètres conjoncturels. Sur le plan économique, on a travaillé avec des économistes pour établir un critère fiable. On aurait évidemment pu faire des choix différents et aussi intégrer plus de fonctions de coûts mais cela n’aurait pas nécessairement entraîné des stratégies fondamentalement différentes.

CMF - D’autant que l’enjeu de ce modèle est aussi son accessibilité en permettant à des gens qui ne sont ni informaticiens, ni épidémiologistes de l’utiliser. Par ailleurs, le choix de ces données entrantes et des objectifs à atteindre relève aussi des décisions politiques.

Après la publication d’un article scientifique, quelle sera la suite des évènements pour cette plateforme?

MP - L’objectif va être d’appliquer la méthodologie développée avec EpidemiOptim à d’autres questions. Ça pourra concerner la stratégie de vaccination, par exemple, l’optimisation de l’allocation des doses vaccinales dans l’hypothèse d’une 3e dose dû à la la perte d’immunité. L’enjeu sera alors de mesurer et de prédire quelles classes d’âge revacciner, à quel rythme, en cherchant toujours à minimiser le nombre de morts et les coûts économiques tout en prenant en compte un nombre de doses contraint. L’idée est donc d’utiliser les mêmes outils pour répondre à des questions différentes !

(1) Flowers est une équipe-projet Inria, commune avec l’université de Bordeaux et Ensta ParisTech
(2) Sistm est une équipe-projet Inria, commune avec l’université de Bordeaux et l’Inserm

Société–La viande artificielle cultivée chimiquement !

 

 Société–La viande artificielle cultivée chimiquement  !

Nathalie Rolland, spécialiste de l’agriculture cellulaire, dénonce, dans une tribune au « Monde », l’adoption par l’Assemblée nationale, d’un amendement « anti-écologique »( ! ) glissé in extremis dans la loi Climat et résilience.Nathalie Rolland dénonce l’arrêt de cet innovation écologique fondamentale !

 

Tribune.

 

Le 18 mars 2021, une commission spéciale de l’Assemblée nationale se penchait sur les repas végétariens dans la restauration collective. Parmi les quelques amendements adoptés ce jour-là, un sujet assez inattendu a été mis sur la table : la viande cultivée à partir de cellules. Vendredi 16 avril, l’assemblée nationale a adopté en séance publique ce nouvel article 59 bis de la loi climat, interdisant la viande cultivée, un produit qui n’est même pas encore commercialisé, et dont la mise sur le marché dépend du droit européen, dans les cantines. Les discussions sur cette loi ont paradoxalement offert à quelques députés l’opportunité de s’en prendre avec succès à l’une des innovations écologiques les plus prometteuses.

Ce procédé novateur, qui consiste à reproduire en cuve la multiplication cellulaire se déroulant d’habitude dans le corps des animaux, nécessiterait moins de ressources naturelles que la production de viande conventionnelle. Ainsi, outre un bilan carbone qui pourrait être très avantageux dans un pays comme le nôtre où la production d’électricité est peu carbonée, le point fort de la viande cultivée réside surtout dans la très faible quantité de terres nécessaires (près de 20 fois moins que la viande conventionnelle).

 

Son développement permettrait donc de rendre à la nature de nombreux territoires, avec un bénéfice très positif sur la biodiversité, et de stocker des quantités non négligeables de carbone à travers la reforestation. Mais alors que les start-up françaises ne prévoient sa mise sur le marché que dans quelques années, la viande cultivée se voit déjà privée de cantine.

A la suite du vote de cet amendement, les administrateurs des différents établissements publics de restauration pourraient avoir l’interdiction de proposer à leurs usagers des plats à base de viande cultivée. Comment cet amendement liberticide et anti-écologique s’est-il immiscé dans la loi « climat » ?

Le texte invoque tout d’abord la défense des intérêts économiques de « nos éleveurs locaux, qui font déjà face à une concurrence importante et qui méritent d’être soutenus ». Nos éleveurs n’ont pas attendu le développement de la viande cultivée pour faire face à une concurrence internationale, et la viande de culture propose une voie complémentaire à l’élevage pour compléter l’offre en produits animaux dont la consommation mondiale est en train de fortement augmenter.

 

En outre, la législation n’a pas vocation à fausser la concurrence en empêchant les produits innovants de concurrencer les secteurs bien implantés, fussent-ils aussi influents que celui de l’élevage industriel. Les jeunes et encore fragiles entreprises françaises travaillant sur la viande de culture attendent plutôt un soutien à l’innovation dont elles auraient bien besoin pour affronter les précurseurs hollandais, américains et israéliens.

Intelligence artificielle: La question de la responsabilité

Intelligence artificielle: La question de la responsabilité

Un article particulièrement intéressant de Patrice Cailleba dans l’Opinion

Au-delà de son acronyme même, l’IA constitue clairement une dyade au sens d’Edgar Morin, à savoir une dialogique où les termes sont « complémentaires, concurrents et antagonistes ». Il n’y a pas de solution à cette dialogique qui puisse dépasser et supprimer ce qui n’est pas toujours une contradiction. Il s’agit plutôt d’une unité complexe entre deux logiques concurrentes et antagonistes.

Concrètement, l’unité complexe de l’IA se retrouve et se prolonge au travers de dialectiques qui peuvent être comprises sous forme de trois interrogations. Dans son essai sur l’Essence du politique en 1965, Julien Freund les avait identifiés sans savoir qu’elles s’appliqueraient un jour à l’IA. Il s’agit respectivement de la dialectique du commandement et de l’obéissance (qui commande ou obéit : la machine ou l’individu ?) ; de la dialectique du privé et du public (quelles données doivent conserver un caractère privé ?) ; et de la dialectique de l’ami et de l’ennemi (qui, dans l’IA, est le vrai responsable : le concepteur, l’utilisateur, le fournisseur d’IA ou la machine elle-même ?). Répondre à ces questions revient à examiner certaines réalités propres à l’IA.

Les acteurs concernés par les trois dialectiques recoupent une myriade d’individus. Le problème de cette multiplicité d’acteurs n’empêche pas de considérer les responsabilités de chacun lorsqu’ils ont contribué à un évènement indésirable : c’est l’essence même des systèmes juridiques. Néanmoins, il convient d’en discuter régulièrement et de clarifier à la fois les attentes de la société civile à leurs égards et les marges de manœuvre de ces mêmes acteurs.

Ensuite, le fonctionnement même de l’IA, c’est-à-dire la manière dont les résultats sont obtenus, peut être opaque, a fortiori lorsque les technologies employées sont évolutives (voir le machine learning et le deep learning). Il est alors rendu difficile de rendre responsable quiconque d’un résultat lorsque nul ne peut expliquer comment ce dernier a été obtenu (biais humain ou autonomie de l’IA ?). Il ne peut exister dès lors un « vide de responsabilité » qui ferait des développeurs – ou de leurs programmes en tant que tels – les seuls responsables. A quand le procès d’un algorithme comme on faisait au Moyen-Âge le procès de certains animaux ?

Dimension spatio-temporelle. Enfin, la dimension spatio-temporelle de l’impact de l’IA ébranle l’idée même d’une responsabilité unique et individuelle. En effet, nulle autre technologie ne peut à ce point s’étendre aussi rapidement sur l’ensemble de la planète. De plus, l’interaction des systèmes algorithmiques rend possible deux écueils.

D’un côté, chaque individu ne peut, ni ne veut, assumer qu’une petite part de responsabilité en tant que partie prenante dans l’IA, à savoir comme créateur, développeur et/ou utilisateur. De l’autre côté, l’inclination naturelle à chercher des boucs émissaires questionne l’arrêt possible d’une IA. En même temps, se pose la question du rapport coût/bénéfice de chaque innovation dans les sociétés occidentales qui ont de plus en plus de mal à accepter l’idée même de risque (voir les polémiques sur les vaccins).

Il faut penser la relation homme-machine que permet l’IA au travers de la responsabilité donnée, voire imposée, à l’individu

Si répondre aux questions posées par l’IA est délicat, la raison en est que les dialectiques qui les sous-tendent sont complémentaires. Aucune réponse proposée à ces questions ne peut faire l’économie des deux autres. Toutefois, elles ne sont pas d’égale importance dans la mesure où l’une subordonne les deux autres. La question de la responsabilité est effectivement première tant la responsabilité de l’individu ne peut, ni ne doit s’effacer au « profit » de la machine ou au détriment des individus.

Il faut donc penser la relation homme-machine que permet l’IA au travers de la responsabilité donnée, voire imposée, à l’individu. Ceci est d’autant plus nécessaire et pertinent que les études menées depuis vingt ans montrent que l’intégration homme-machine réduit non seulement les biais humains mais aussi les biais homme-machine. Ainsi l’intégration entre automatisation et augmentation permise par l’IA doit-elle absolument conserver, à défaut de renforcer, la dimension de la responsabilité humaine. Encore faut-il examiner de près ce que cette responsabilité a de particulier au sein de l’IA.

Les utilisateurs (personnes privées et/ou institutions publiques) de l’IA s’accordent sur l’idée que les personnes qui développent et déploient des systèmes d’IA doivent assumer les conséquences indésirables de leurs actes, tout autant qu’elles tirent profit de leurs services. Inversement, les concepteurs et les déployeurs de l’IA pensent de même en ce qui concerne les utilisateurs qui cèdent leurs données pour en bénéficier ultérieurement : ils sont le produit qu’ils utilisent et en sont donc directement responsables.

Parce que ces considérations sont aussi légitimes les unes que les autres, elles doivent être examinées ensemble. Ainsi la notion de responsabilité au sein de l’IA doit-elle remplir, tout à la fois, les conditions suivantes. La première condition est que la personne qui prête ses données doit confirmer qu’elle se défait temporairement de sa responsabilité qu’elle pourra reprendre le cas échéant. La deuxième condition renvoie à la propre responsabilité de l’organisation qui crée les algorithmes en cas d’effet indésirable. Dans ce cas, elle s’engage à corriger le programme. La troisième condition a trait à l’organisation qui déploie l’IA et exploite les données qu’elle en tire : cette dernière doit assumer sa responsabilité dans leur bonne utilisation vis-à-vis des autres parties prenantes, mais aussi vis-à-vis de concurrents potentiels qui auront tôt fait de la délégitimer afin de la remplacer.

 

Intelligence artificielle: qui sera responsable ?

Intelligence artificielle: qui sera responsable ? 

Un article particulièrement intéressant de Patrice Cailleba dans l’opinion

 

Au-delà de son acronyme même, l’IA constitue clairement une dyade au sens d’Edgar Morin, à savoir une dialogique où les termes sont « complémentaires, concurrents et antagonistes ». Il n’y a pas de solution à cette dialogique qui puisse dépasser et supprimer ce qui n’est pas toujours une contradiction. Il s’agit plutôt d’une unité complexe entre deux logiques concurrentes et antagonistes.

Concrètement, l’unité complexe de l’IA se retrouve et se prolonge au travers de dialectiques qui peuvent être comprises sous forme de trois interrogations. Dans son essai sur l’Essence du politique en 1965, Julien Freund les avait identifiés sans savoir qu’elles s’appliqueraient un jour à l’IA. Il s’agit respectivement de la dialectique du commandement et de l’obéissance (qui commande ou obéit : la machine ou l’individu ?) ; de la dialectique du privé et du public (quelles données doivent conserver un caractère privé ?) ; et de la dialectique de l’ami et de l’ennemi (qui, dans l’IA, est le vrai responsable : le concepteur, l’utilisateur, le fournisseur d’IA ou la machine elle-même ?). Répondre à ces questions revient à examiner certaines réalités propres à l’IA.

Les acteurs concernés par les trois dialectiques recoupent une myriade d’individus. Le problème de cette multiplicité d’acteurs n’empêche pas de considérer les responsabilités de chacun lorsqu’ils ont contribué à un évènement indésirable : c’est l’essence même des systèmes juridiques. Néanmoins, il convient d’en discuter régulièrement et de clarifier à la fois les attentes de la société civile à leurs égards et les marges de manœuvre de ces mêmes acteurs.

Ensuite, le fonctionnement même de l’IA, c’est-à-dire la manière dont les résultats sont obtenus, peut être opaque, a fortiori lorsque les technologies employées sont évolutives (voir le machine learning et le deep learning). Il est alors rendu difficile de rendre responsable quiconque d’un résultat lorsque nul ne peut expliquer comment ce dernier a été obtenu (biais humain ou autonomie de l’IA ?). Il ne peut exister dès lors un « vide de responsabilité » qui ferait des développeurs – ou de leurs programmes en tant que tels – les seuls responsables. A quand le procès d’un algorithme comme on faisait au Moyen-Âge le procès de certains animaux ?

Dimension spatio-temporelle. Enfin, la dimension spatio-temporelle de l’impact de l’IA ébranle l’idée même d’une responsabilité unique et individuelle. En effet, nulle autre technologie ne peut à ce point s’étendre aussi rapidement sur l’ensemble de la planète. De plus, l’interaction des systèmes algorithmiques rend possible deux écueils.

D’un côté, chaque individu ne peut, ni ne veut, assumer qu’une petite part de responsabilité en tant que partie prenante dans l’IA, à savoir comme créateur, développeur et/ou utilisateur. De l’autre côté, l’inclination naturelle à chercher des boucs émissaires questionne l’arrêt possible d’une IA. En même temps, se pose la question du rapport coût/bénéfice de chaque innovation dans les sociétés occidentales qui ont de plus en plus de mal à accepter l’idée même de risque (voir les polémiques sur les vaccins).

Il faut penser la relation homme-machine que permet l’IA au travers de la responsabilité donnée, voire imposée, à l’individu

Si répondre aux questions posées par l’IA est délicat, la raison en est que les dialectiques qui les sous-tendent sont complémentaires. Aucune réponse proposée à ces questions ne peut faire l’économie des deux autres. Toutefois, elles ne sont pas d’égale importance dans la mesure où l’une subordonne les deux autres. La question de la responsabilité est effectivement première tant la responsabilité de l’individu ne peut, ni ne doit s’effacer au « profit » de la machine ou au détriment des individus.

Il faut donc penser la relation homme-machine que permet l’IA au travers de la responsabilité donnée, voire imposée, à l’individu. Ceci est d’autant plus nécessaire et pertinent que les études menées depuis vingt ans montrent que l’intégration homme-machine réduit non seulement les biais humains mais aussi les biais homme-machine. Ainsi l’intégration entre automatisation et augmentation permise par l’IA doit-elle absolument conserver, à défaut de renforcer, la dimension de la responsabilité humaine. Encore faut-il examiner de près ce que cette responsabilité a de particulier au sein de l’IA.

Les utilisateurs (personnes privées et/ou institutions publiques) de l’IA s’accordent sur l’idée que les personnes qui développent et déploient des systèmes d’IA doivent assumer les conséquences indésirables de leurs actes, tout autant qu’elles tirent profit de leurs services. Inversement, les concepteurs et les déployeurs de l’IA pensent de même en ce qui concerne les utilisateurs qui cèdent leurs données pour en bénéficier ultérieurement : ils sont le produit qu’ils utilisent et en sont donc directement responsables.

Parce que ces considérations sont aussi légitimes les unes que les autres, elles doivent être examinées ensemble. Ainsi la notion de responsabilité au sein de l’IA doit-elle remplir, tout à la fois, les conditions suivantes. La première condition est que la personne qui prête ses données doit confirmer qu’elle se défait temporairement de sa responsabilité qu’elle pourra reprendre le cas échéant. La deuxième condition renvoie à la propre responsabilité de l’organisation qui crée les algorithmes en cas d’effet indésirable. Dans ce cas, elle s’engage à corriger le programme. La troisième condition a trait à l’organisation qui déploie l’IA et exploite les données qu’elle en tire : cette dernière doit assumer sa responsabilité dans leur bonne utilisation vis-à-vis des autres parties prenantes, mais aussi vis-à-vis de concurrents potentiels qui auront tôt fait de la délégitimer afin de la remplacer.

 

La viande artificielle cultivée !

 La viande artificielle cultivée !

Nathalie Rolland, spécialiste de l’agriculture cellulaire, dénonce, dans une tribune au « Monde », l’adoption par l’Assemblée nationale, d’un amendement « anti-écologique »( ! ) glissé in extremis dans la loi Climat et résilience.Nathalie Rolland dénonce l’arrêt de cet innovation écologique fondamentale !

 

Tribune.

 

Le 18 mars 2021, une commission spéciale de l’Assemblée nationale se penchait sur les repas végétariens dans la restauration collective. Parmi les quelques amendements adoptés ce jour-là, un sujet assez inattendu a été mis sur la table : la viande cultivée à partir de cellules. Vendredi 16 avril, l’assemblée nationale a adopté en séance publique ce nouvel article 59 bis de la loi climat, interdisant la viande cultivée, un produit qui n’est même pas encore commercialisé, et dont la mise sur le marché dépend du droit européen, dans les cantines. Les discussions sur cette loi ont paradoxalement offert à quelques députés l’opportunité de s’en prendre avec succès à l’une des innovations écologiques les plus prometteuses.

Ce procédé novateur, qui consiste à reproduire en cuve la multiplication cellulaire se déroulant d’habitude dans le corps des animaux, nécessiterait moins de ressources naturelles que la production de viande conventionnelle. Ainsi, outre un bilan carbone qui pourrait être très avantageux dans un pays comme le nôtre où la production d’électricité est peu carbonée, le point fort de la viande cultivée réside surtout dans la très faible quantité de terres nécessaires (près de 20 fois moins que la viande conventionnelle).

 

Son développement permettrait donc de rendre à la nature de nombreux territoires, avec un bénéfice très positif sur la biodiversité, et de stocker des quantités non négligeables de carbone à travers la reforestation. Mais alors que les start-up françaises ne prévoient sa mise sur le marché que dans quelques années, la viande cultivée se voit déjà privée de cantine.

A la suite du vote de cet amendement, les administrateurs des différents établissements publics de restauration pourraient avoir l’interdiction de proposer à leurs usagers des plats à base de viande cultivée. Comment cet amendement liberticide et anti-écologique s’est-il immiscé dans la loi « climat » ?

Le texte invoque tout d’abord la défense des intérêts économiques de « nos éleveurs locaux, qui font déjà face à une concurrence importante et qui méritent d’être soutenus ». Nos éleveurs n’ont pas attendu le développement de la viande cultivée pour faire face à une concurrence internationale, et la viande de culture propose une voie complémentaire à l’élevage pour compléter l’offre en produits animaux dont la consommation mondiale est en train de fortement augmenter.

 

En outre, la législation n’a pas vocation à fausser la concurrence en empêchant les produits innovants de concurrencer les secteurs bien implantés, fussent-ils aussi influents que celui de l’élevage industriel. Les jeunes et encore fragiles entreprises françaises travaillant sur la viande de culture attendent plutôt un soutien à l’innovation dont elles auraient bien besoin pour affronter les précurseurs hollandais, américains et israéliens.

Intelligence artificielle et croissance

  • Intelligence artificielle et croissance
      • Emmanuel Combe , professeur à Skema business school et vice-président de l’Autorité de la concurrence s’interroge sur le lien entre révolution technologique et croissance ( dans l’Opinion)
    • La productivité du travail connaît un net rebond depuis la crise Covid, après plus de quinze ans d’atonie dans les pays développés. Ainsi, aux Etats-Unis, pour le premier trimestre 2021, elle a bondi à 5,4 %, contre une moyenne de 1,5 % avant la crise sanitaire. On peut y voir un simple effet de rattrapage, avec la remise en route de l’économie américaine à un rythme accéléré.
    • Mais on peut aussi penser que ce regain de la productivité exprime des changements structurels, lancés à l’occasion de la crise Covid et qui perdureront après elle. Tout d’abord, le travail à distance va durablement s’implanter dans les entreprises et améliorer les performances des salariés, en limitant les pertes de temps. Ensuite, les achats en ligne sont devenus une habitude pour les consommateurs et les entreprises ont vu tout l’intérêt de ce nouveau canal de distribution, en complément de leurs points de vente physiques. Enfin, la robotisation des chaînes de production s’est accélérée, tandis que l’intelligence artificielle commence à se diffuser dans certains secteurs.
    • A cet égard, plusieurs économistes – à l’image d’Erik Brynjolfsson du MIT — considèrent que l’intelligence artificielle va être à l’origine d’une période de forte croissance économique, parce qu’il s’agit d’une « innovation à usage général » (« general purpose technologies »), au même titre que la machine à vapeur, l’électricité ou l’informatique dans le passé. Selon Bresnahan et Trajtenberg, une innovation à usage général présente trois caractéristiques principales : elle est transversale ; elle s’améliore au cours du temps ; elle est source d’innovations complémentaires. Reprenons tour à tour chacune de ces caractéristiques.
    • L’intelligence artificielle va susciter de nombreuses innovations complémentaires. On pense bien entendu à des innovations physiques, à l’image des infrastructures routières qui accueilleront demain la voiture autonome
    • Transversalité. Pour ce qui est de la transversalité, il est clair que l’intelligence artificielle peut s’appliquer potentiellement à tous les secteurs, que ce soit pour prédire les comportements d’achat, diagnostiquer de nouvelles maladies ou rendre autonome la conduite de véhicules. Ensuite, l’intelligence artificielle s’améliore continument au cours du temps, grâce au deep learning : le rapport IA Index 2021 de l’Université de Stanford montre par exemple qu’en matière de reconnaissance d’image, l’IA dépasse depuis 2017 les performances des êtres humains. Dernière caractéristique : l’intelligence artificielle va susciter de nombreuses innovations complémentaires. On pense bien entendu à des innovations physiques, à l’image des infrastructures routières qui accueilleront demain la voiture autonome.
    • Mais on peut aussi penser à toutes les innovations organisationnelles et de « business model » qui vont avoir lieu dans les entreprises grâce à l’IA : il va falloir en effet redéfinir les tâches et les postes, former la main-d’œuvre ou bien encore repenser la manière d’entrer en contact avec le client ou de commercialiser un produit. Et c’est sans doute là que réside le principal obstacle à surmonter : ces innovations complémentaires risquent de se heurter à des comportements d’attentisme ou de résistances sociales au changement. Plus les délais de mise en place de ces innovations complémentaires seront longs, moins l’intelligence artificielle sera en mesure de délivrer toute sa puissance en termes de croissance économique et de gains de productivité. Le risque est alors, pour reprendre une célèbre formule de Robert Solow, que l’IA soit partout… sauf dans les statistiques du PIB.
    • Emmanuel Combe est professeur à Skema business school et vice-président de l’Autorité de la concurrence.

Nouvelles technologies-Pour une approche philosophique aussi de l’intelligence artificielle

Nouvelles technologies- Pour une approche philosophique aussi de  l’intelligence artificielle

Le philosophe Martin Gibert considère nécessaire d’insuffler une morale aux robots, chatbots et autres machines. Et suggère d’entraîner leurs algorithmes d’apprentissage à partir des avis et des comportements d’humains vertueux.

 

Martin Gibert est philosophe et chercheur à l’université de Montréal, affilié au Centre de recherche en éthique et à l’Institut de valorisation des données. En 2015, il appliquait les théories morales classiques au véganisme dans Voir son steak comme un animal mort (Lux Editeur). Il vient de faire de même, sur le terrain plus artificiel des robots, machines et autres algorithmes, dans Faire la morale aux robots (Flammarion, 168 p., 17 €).

Pourquoi un philosophe s’occupe-t-il des dispositifs d’intelligence artificielle (IA) tels que les voitures autonomes, les chatbots ou les systèmes de recommandation en ligne ?

Le moment est vraiment passionnant pour un philosophe car nous pouvons nous poser sur ces dispositifs des questions à la fois inédites et très fondamentales. Et, en plus, c’est très concret, avec des applications immédiates et urgentes. Prenons le cas célèbre du dilemme du tramway, posé par Philippa Foot en 1967 : actionne-t-on un aiguillage pour éviter que le véhicule percute cinq travailleurs si, sur l’autre voie, se trouve une seule personne ?

Jusqu’aux avancées récentes de l’IA, il faut bien dire que les philosophes réfléchissaient aux réponses, mais leurs réponses ne prêtaient pas à conséquence. Désormais, leur avis compte. Nous devons dire quelque chose aux programmeurs dont les algorithmes feront le choix fatal ! L’IA nous oblige à prendre des décisions sur ce qui est bien ou mal, et ce n’est plus une simple expérience de pensée.

Pour y voir clair sur ce qu’il s’agit de faire, il faut ordonner un peu différents domaines en éthique appliquée. Par ordre de généralité, on a d’abord l’éthique de la technique, dans laquelle on va mettre aussi bien les tournevis que les centrales nucléaires. A un deuxième niveau, l’éthique de l’IA pose des questions comme l’impact de ces systèmes sur la société ou l’environnement, ou encore sur d’éventuels droits des robots.

L’éthique des algorithmes qui m’intéresse dans le livre se situe à un troisième niveau, plus spécifique. Comment programmer une machine, un algorithme, un agent moral artificiel pour qu’il se comporte « bien » ? Cela oblige à rentrer dans les détails et, bien sûr, cela n’empêche pas de s’interroger sur l’échelon supérieur : collectivement, a-t-on vraiment besoin de tel ou tel robot ?

 

C’est d’autant plus intéressant et nécessaire que les algorithmes ont des effets sur la vie des gens. Dans le cas d’une voiture autonome confrontée au dilemme du tramway, c’est évident, mais ce seront des décisions très rares à prendre. En revanche, un algorithme de recommandations de YouTube ou Facebook peut avoir des conséquences massives sur la circulation des informations. Plus on développe de nouveaux pouvoirs, plus on a de responsabilité morale. Même derrière un chatbot, il y a des enjeux moraux sérieux.

Pour une approche philosophique aussi de l’intelligence artificielle

Pour une approche philosophique aussi de  l’intelligence artificielle

Le philosophe Martin Gibert considère nécessaire d’insuffler une morale aux robots, chatbots et autres machines. Et suggère d’entraîner leurs algorithmes d’apprentissage à partir des avis et des comportements d’humains vertueux.

 

Martin Gibert est philosophe et chercheur à l’université de Montréal, affilié au Centre de recherche en éthique et à l’Institut de valorisation des données. En 2015, il appliquait les théories morales classiques au véganisme dans Voir son steak comme un animal mort (Lux Editeur). Il vient de faire de même, sur le terrain plus artificiel des robots, machines et autres algorithmes, dans Faire la morale aux robots (Flammarion, 168 p., 17 €).

Pourquoi un philosophe s’occupe-t-il des dispositifs d’intelligence artificielle (IA) tels que les voitures autonomes, les chatbots ou les systèmes de recommandation en ligne ?

Le moment est vraiment passionnant pour un philosophe car nous pouvons nous poser sur ces dispositifs des questions à la fois inédites et très fondamentales. Et, en plus, c’est très concret, avec des applications immédiates et urgentes. Prenons le cas célèbre du dilemme du tramway, posé par Philippa Foot en 1967 : actionne-t-on un aiguillage pour éviter que le véhicule percute cinq travailleurs si, sur l’autre voie, se trouve une seule personne ?

Jusqu’aux avancées récentes de l’IA, il faut bien dire que les philosophes réfléchissaient aux réponses, mais leurs réponses ne prêtaient pas à conséquence. Désormais, leur avis compte. Nous devons dire quelque chose aux programmeurs dont les algorithmes feront le choix fatal ! L’IA nous oblige à prendre des décisions sur ce qui est bien ou mal, et ce n’est plus une simple expérience de pensée.

Pour y voir clair sur ce qu’il s’agit de faire, il faut ordonner un peu différents domaines en éthique appliquée. Par ordre de généralité, on a d’abord l’éthique de la technique, dans laquelle on va mettre aussi bien les tournevis que les centrales nucléaires. A un deuxième niveau, l’éthique de l’IA pose des questions comme l’impact de ces systèmes sur la société ou l’environnement, ou encore sur d’éventuels droits des robots.

L’éthique des algorithmes qui m’intéresse dans le livre se situe à un troisième niveau, plus spécifique. Comment programmer une machine, un algorithme, un agent moral artificiel pour qu’il se comporte « bien » ? Cela oblige à rentrer dans les détails et, bien sûr, cela n’empêche pas de s’interroger sur l’échelon supérieur : collectivement, a-t-on vraiment besoin de tel ou tel robot ?

 

C’est d’autant plus intéressant et nécessaire que les algorithmes ont des effets sur la vie des gens. Dans le cas d’une voiture autonome confrontée au dilemme du tramway, c’est évident, mais ce seront des décisions très rares à prendre. En revanche, un algorithme de recommandations de YouTube ou Facebook peut avoir des conséquences massives sur la circulation des informations. Plus on développe de nouveaux pouvoirs, plus on a de responsabilité morale. Même derrière un chatbot, il y a des enjeux moraux sérieux.

L’intelligence artificielle pour lutter contre le blanchiment et le terrorisme

L’intelligence artificielle pour lutter contre le blanchiment et le terrorisme 

 

Astrid Bertrand, Winston Maxwell et Xavier Vamparys, chercheurs à Télécom Paris, expliquent, dans une tribune au « Monde » que l’intelligence artificielle peut rendre efficace les dispositifs antiblanchiment qui actuellement coûtent plus qu’ils ne rapportent en Europe.

 

Tribune.Le régulateur des établissements financiers, l’Autorité de contrôle prudentiel et de résolution (ACPR), a récemment sanctionné Carrefour Banque, Cardif, filiale d’assurances du groupe BNP Paribas, et ING Bank pour manquement dans leur dispositif de lutte contre le blanchiment et le financement du terrorisme (LCB-FT).

Pourtant, ces établissements ont massivement investi pour renforcer leur dispositif antiblanchiment, 32 millions d’euros pour Cardif depuis 2016, 26 millions d’euros entre 2019 et 2020 pour ING Bank. Pour quels résultats ? Comme l’indique l’ancien directeur d’Europol, Rob Wainwright, « on a créé une tonne de réglementation, les banques dépensent 20 milliards d’euros par an (…) et [pourtant] on ne saisit que 1 % du produit de la criminalité chaque année en Europe ».


Si l’objectif du dispositif est d’assécher les réseaux internationaux de financement du crime, le bilan de la lutte contre le blanchiment est, au mieux, mitigé. La plupart des alertes générées par les outils informatiques des institutions financières sont des « faux positifs » devant être triés par des opérateurs humains. Ce tri effectué, les suspicions restantes sont transmises aux autorités publiques sous la forme de « déclarations de soupçon », dont peu font l’objet d’une enquête.

Présence d’obstacles réglementaires

A l’origine, la LCB-FT était faite pour traquer la criminalité grave : crime organisé, trafic d’êtres humains, cartels de drogue… Mais son champ d’application a progressivement été étendu, avec pour résultat une multiplication des signalements de soupçon couvrant des délits plus mineurs (travail au noir, fraudes fiscales…).

Idéalement, les dispositifs de détection des banques devraient se focaliser sur les réseaux de criminalité les plus importants, ce qui nécessiterait un bon alignement entre les objectifs des outils de LCB-FT adoptés par les établissements et les principales menaces identifiées par l’Etat. En se dotant d’outils d’intelligence artificielle (IA) ciblant les transactions suspectes évocatrices des principales menaces listées, l’efficacité des dispositifs LCB-FT serait encore renforcée.


En l’état, le partage des informations entre les autorités de lutte contre la criminalité financière (Tracfin en France) et les établissements financiers se heurte à des obstacles réglementaires – protection des données personnelles, secret de l’enquête voire, dans certains cas, secret-défense.

Intelligence artificielle :Une réglementation européenne technocratique

Intelligence artificielle :Une réglementation européenne technocratique

 

Les citoyens sont quasiment absents de la proposition de règlement élaborée par la Commission européenne qui, en outre, laisse le champ libre au secteur privé, s’inquiètent dans le Monde Marc Clément, magistrat administratif, et Daniel Le Métayer, chercheur spécialiste des algorithmes.

Tribune

 

La Commission européenne a publié, le 21 avril, une proposition de règlement qui se présente comme la clé de voûte de la future réglementation européenne pour l’intelligence artificielle (IA). On doit saluer le travail accompli par la Commission avec la mise en place d’un comité d’experts et des consultations des parties prenantes.

Ce texte doit désormais être discuté au Parlement européen et on peut espérer qu’un large débat s’engagera autour de ces propositions.

En effet, il est capital que les Européens se saisissent de l’occasion pour faire en sorte que l’IA soit utilisée au service de la société tout entière, et non pas comme un simple moyen d’influencer le consommateur ou d’asservir le citoyen.

Le texte de la Commission repose sur une démarche d’analyse des risques qui la conduit à distinguer trois groupes de systèmes d’IA : des systèmes ou des usages prohibés car jugés incompatibles avec les valeurs de l’Union européenne (UE), comme la manipulation de personnes vulnérables ou l’identification biométrique en temps réel dans l’espace public aux fins de police (sauf exceptions strictement encadrées) ; des systèmes qui présentent des risques importants et qui sont soumis à un certain nombre d’obligations (analyse et gestion des risques, transparence, garanties en matière de correction, d’absence de biais, de sécurité, etc.) ; et enfin des systèmes qui ne présentent pas de risques significatifs et qui ne sont soumis qu’à des obligations de transparence dans des cas particuliers (interactions avec des humains, etc.).

Une autre particularité du projet de règlement est qu’il est articulé autour de deux catégories principales d’acteurs : les fournisseurs de systèmes d’IA et ceux qui les déploient. Ainsi, la plupart des obligations associées aux systèmes à haut risque pèsent sur les fournisseurs qui doivent s’en acquitter avant la mise sur le marché de leurs produits. On ne peut que se féliciter de l’obligation de mesures d’évaluation et de réduction des risques ex ante.

 

Cette architecture du projet de règlement reposant sur les niveaux de risques et des catégories d’acteurs nous paraît pertinente, mais les choix particuliers qui ont été effectués sur ces deux plans méritent discussion.

Intelligence artificielle: Des dangers potentiels

Intelligence artificielle: Des dangers potentiels

Le cabinet d’études McKinsey constate le manque manifeste de diligence de certaines entreprises concernant les risques liés à l’IA, notamment sur les questions de conformité et de protection de la vie privée.

Tribune

Pour que les entreprises puissent réduire les dangers potentiels résultants de leurs projets dans l’intelligence artificielle, elles doivent d’abord admettre l’existence de risques liés à l’adoption de cette technologie. Les récentes conclusions de la société de conseil McKinsey montrent que de nombreuses entreprises sont en retard sur ces deux points.

La pandémie a accéléré l’adoption de l’intelligence artificielle : les entreprises trouvent dans cette technologie des opportunités pour repenser leurs processus opérationnels et leurs business models. Mais la mise en œuvre de l’IA s’accompagne de risques potentiels. Par exemple, un modèle conçu pour accélérer la procédure d’attribution de prêts hypothécaires pourrait se révéler partial, en discriminant une certaine catégorie de la population, et les entreprises qui n’identifient pas correctement les données puis n’excluent pas celles revêtant un caractère personnel au sein des grands volumes de données utilisés dans les projets d’IA pourraient écoper d’amendes en vertu du Règlement général sur la protection des données (RGPD) européen.

Une récente enquête de McKinsey révèle que moins de la moitié des personnes interrogées dont les entreprises utilisent l’IA identifient ces risques — notamment ceux liés à la conformité réglementaire et au respect de la vie privée — comme « pertinents » concernant leurs projets d’IA. Seul le risque relevant de questions de cybersécurité est considéré comme pertinent par plus de la moitié des personnes interrogées.

La société de conseil en gestion déclare trouver ces résultats, publiés à la mi-novembre, préoccupants.

« Il est difficile de comprendre pourquoi les risques systématiques ne sont pas identifiés par une proportion beaucoup plus élevée de répondants », écrit Roger Burkhardt, partner chez McKinsey, dans une note publiée avec les résultats.

Près de 2 400 cadres et dirigeants, évoluant dans des secteurs variés et des entreprises de tailles différentes ont répondu à cette enquête internationale, menée au mois de en juin. Environ 1 150 ont déclaré que leur société avait déjà adopté l’IA dans au moins une de ses missions. La société de conseil a demandé à ces entreprises quels risques elles considéraient comme pertinents et quel type de risques elles essayaient concrètement de traiter ou de réduire.

Sur les répondants, 38 % affirment s’efforcer de limiter les risques en matière de conformité réglementaire et 30 % assurent qu’ils travaillent pour diminuer ceux liés au respect de la vie privée, ce qui représente, pour ces deux sujets, des pourcentages légèrement supérieurs à ceux enregistrés dans une enquête similaire réalisée par McKinsey en 2019.

Michael Chui, partner chez McKinsey Global Institute, la branche de la société spécialisée dans la recherche économique et le monde de l’entreprise, explique que la société de conseil ne donnait pas de définition des termes « pertinent » ou « risque » aux personnes interrogées. Il fait également remarquer que tous les risques ne concernent pas toutes les entreprises. Par exemple, les questions de sécurité physique des personnes vont probablement être moins importantes pour une société de services financiers que pour une entreprise de robotique.

Néanmoins, la plupart des entreprises sont concernées par un grand nombre des dix risques générés par l’IA qu’aborde l’enquête, précise-t-il. Il souligne que, si une entreprise ne considère pas un risque comme pertinent, elle ne va probablement pas chercher à en limiter la portée.

Bruce Ross, responsable groupe des services technologie et opérations de la Royal Bank of Canada, est surpris de constater que les sociétés ne sont pas plus nombreuses à se préoccuper des risques liés à l’IA tournant autour du respect de la vie privée et de la réputation de l’entreprise.

La banque, basée à Toronto, utilise notamment l’IA dans le cadre de la détection des fraudes, de l’analyse des risques, et des opérations sur les marchés de capitaux. Parlant des établissements financiers, il explique que, si des systèmes d’intelligence artificielle prennent des décisions, la conformité réglementaire et la cybersécurité deviennent alors des domaines générant des risques importants qui doivent être traités. « Les banques négocient sur la base de la confiance », rappelle-t-il.

L’un des principaux obstacles à l’évaluation et à la limitation des risques est tout simplement la prise de conscience de leur existence, précise M. Chui, de chez McKinsey. Les personnes qui mettent en œuvre des systèmes d’IA sont focalisées sur des objectifs commerciaux, comme l’augmentation des ventes ou la réduction du taux de résiliations, précise-t-il. Elles sont donc susceptibles de ne pas pleinement admettre les risques résultant de cette technologie.

Zico Kolter, directeur scientifique des recherches sur l’IA au Bosch Center for Artificial Intelligence de Bosch et professeur associé à l’Ecole de science informatique de l’Université Carnegie-Mellon, le confirme. « Comme les entreprises se précipitent pour adopter cette nouvelle technologie afin de conserver leur longueur d’avance, il existe toujours un risque d’ignorer certains de ses inconvénients », assure-t-il.

Le travail de Bosch en matière d’IA couvre ses gammes de produits de détection intelligente, comme les capteurs et les caméras permettant aux systèmes de conduite autonomes de reconnaître les panneaux de signalisation. Pour limiter l’ensemble des risques en matière de sécurité, la société fait des recherches sur différents procédés, dont une technique appelée « adversarial training ». Elle consiste à apprendre à un système d’IA analysant les objets à les reconnaître en utilisant les scénarios les plus défavorables. Cela permet au système d’obtenir de bons résultats, même s’il est soumis à une éventuelle attaque.

M. Chui indique que les entreprises peuvent prendre des mesures pour accroître la sensibilisation et réduire les risques, par exemple en recrutant des personnes disposant de compétences variées dans leurs différents services afin de les évaluer et de les diminuer.

Olly Downs, vice-président du marketing, de la technologie, des données et de l’apprentissage automatique chez le détaillant en ligne Zulily, affirme que son équipe rencontre notamment des cadres de la technologie, du marketing, de la chaîne d’approvisionnement et du service juridique pour mener son évaluation mensuelle des activités concernant les projets d’IA. Elle organise également des réunions régulières où toute l’entreprise discute des projets impliquant l’IA.

M. Chui, de McKinsey, s’attend à ce que les entreprises accordent plus d’attention, à la fois, aux risques liés à l’IA et à leur limitation à un moment où elles intègrent l’usage de cette technologie. « Prévoit-on que ces risques vont augmenter avec le temps ? Oui, clairement », conclut-il.

L’intelligence artificielle, une chance pour l’Europe ?

 L’intelligence artificielle, une chance pour l’Europe ?

Tribune de Pierre-Etienne Bardin et Guillaume Leboucher* dans l’Opinion 

 

La crise sanitaire a montré l’obligation pour les entreprises de se transformer et pour les citoyens d’être formés et accompagnés dans un monde de plus en plus technologique. Nulle organisation, publique comme privée, ne semble devoir échapper à son destin numérique. Alors, autant le prendre en main.

La maîtrise des données et leur exploitation, notamment par des techniques d’intelligence artificielle (IA), s’avèrent comme le plus sûr moyen de rester dans la course économique, politique et géostratégique. L’IA est un outil de transformation majeur, nécessaire et indispensable, pour rebondir et saisir les opportunités économiques qui se présentent.

Grâce aux gains de productivité et à la relance de la consommation, l’IA contribuera de plus en plus à la croissance. Les entreprises ayant une culture de la donnée voient jusqu’à 5 % d’augmentation de leur valeur selon le Data Literacy index.

Technologie complexe, de plus en plus prédictive, l’IA simplifie la tâche des salariés. Elle s’immisce dans tous les pans de l’activité. Elle est tour à tour auxiliaire de santé, pour prévenir l’évolution d’un virus, ou de justice, pour fournir une analyse de jurisprudences exhaustive par exemple. Présente au quotidien, elle rend des voitures de plus en plus autonomes, des transactions financières plus fluides et rapides, des gestions logistiques et de livraisons plus affinées, des procédures de contrôles renforcées, des compteurs électriques intelligents, etc. Sans parler de nos smartphones qui répondent à l’œil et à la voix.

Tout en veillant à ne pas brider l’innovation, l’affirmation d’une base juridique doit constituer une occasion de renforcer le cadre de confiance dans la technologie

Déclassement. Dans le match de superpuissances numériques que les Etats-Unis et l’Asie ont installé, l’Europe et ses entreprises risquent le déclassement si l’IA ne devient pas un élément central de leurs stratégies. La commission européenne vient d’annoncer sa volonté de réglementer le marché de l’IA. Tout en veillant à ne pas brider l’innovation, l’affirmation d’une base juridique doit constituer une occasion de renforcer le cadre de confiance dans la technologie.

C’est aussi pour l’Europe une occasion d’affirmer un peu plus encore ses valeurs de respect de la dignité humaine et de droit de la propriété intellectuelle en particulier. Un modèle alternatif de développement du numérique, ouvert et pérenne, respectueux des humains et leurs données, est possible. Le projet GAIA-X en constitue une parfaite illustration.

Face à la domination des géants du numérique (Google, Amazon, Microsoft) qui concentrent deux tiers d’un marché de l’hébergement des données qui a triplé ces trois dernières années, la création d’un champion européen en tous points égaux serait vouée à l’échec. Au contraire, GAIA-X offre un cadre de référence et une labellisation pour permettre le développement d’une infrastructure de données déconcentrée et référente.

Fer de lance. Etre souverain, ce n’est pas se replier sur soi-même mais reprendre le dessus sur le cours des choses. L’Europe, avec la France comme fer de lance, peut et doit mobiliser ses talents autour de grands projets à visage humain et à géométrie variable mêlant les compétences et l’ambition, les savoirs et les savoir-faire.

Pour servir une telle ambition, les grands groupes doivent pouvoir s’inspirer de l’agilité des jeunes poussent, lesquels y trouveront à leur tour les moyens d’innover tout en les aiguillonnant.

C’est le sens du rapprochement du Groupe La Poste avec Openvalue, expert reconnu de l’IA, pour accompagner les organisations dans l’amélioration de leur performance industrielle. La France a besoin d’acteurs majeurs de la transformation de l’économie alliant le crédit et la confiance d’opérateurs de services aux publics. Notre continent est aussi une terre d’innovation et d’entrepreneurs.

*Pierre-Etienne Bardin, chief data officer du Groupe La Poste, et Guillaume Leboucher, fondateur et directeur général d’OpenValue.

Santé: l’intelligence artificielle pour voir l’invisible ?

Santé: l’intelligence artificielle pour voir l’invisible ?

 

« Une équipe de scientifiques a élaboré un nouveau type d’algorithme capable d’identifier un cancer au stade initial de son développement », imagine Aurélie Jean, docteure en Sciences et Entrepreneure, CAIO et co-fondatrice de DpeeX, CEO et fondatrice de In Silico Veritas ( dans l’Opinion)

  Une innovation à l’intersection entre la médecine et la modélisation numérique ouvre des perspectives thérapeutiques uniques en oncologie, raconte Aurélie Jean qui, avec 50 autres personnalités, a imaginé à quoi ressemblerait l’actualité du n° 3000 de l’Opinion, en avril 2025.

Depuis plusieurs décennies, l’intelligence artificielle (IA) est utilisée pour confirmer la présence de tumeurs sur des scanners cérébraux, des radiographies pulmonaires ou des mammographies. Depuis quelques années, l’IA est utilisée dans la médecine dite prédictive dont l’objectif est d’anticiper et d’évaluer les risques de survenue d’une maladie ou la probabilité de succès d’un traitement. Durant la pandémie de Covid-19, lointain souvenir aujourd’hui, le grand public a eu l’occasion de découvrir les capacités de l’IA à contribuer à l’élaboration d’un vaccin en identifiant par simulation numérique la protéine capable de l’activer. Ce même public découvre à présent sa capacité à voir l’invisible…

Une équipe de scientifiques et de médecins a élaboré un nouveau type d’algorithme capable d’identifier un cancer au stade initial de son développement, bien avant qu’on ne puisse visualiser la tumeur à l’œil nu sur une image radiologique. En pratique, cet algorithme détecte et localise le cancer au début de sa phase de croissance, en capturant les signaux faibles de sa signature tumorale, plus de deux ans avant le stade du diagnostic radiologique.

Détection. Pour la première fois en cancérologie, voir et traiter l’invisible devient possible. La détection précoce d’un cancer augmente significativement les chances de survie et permet l’utilisation de traitements ciblés moins agressifs, cette innovation à l’intersection entre la médecine et la modélisation numérique ouvre des perspectives thérapeutiques uniques en oncologie.

La technologie est aujourd’hui utilisée dans le diagnostic et le traitement de nombreux cancers tels que le cancer du sein et du poumon, parmi les plus fréquents. Les acteurs de cette invention comptent bien en élargir les applications pour un jour « éradiquer les traitements lourds et coûteux tant financièrement qu’émotionnellement, pour offrir à chaque être humain de ce monde les mêmes chances de survie face au cancer ».

L’intelligence artificielle pour des prévisions Météo plus pointues

L’intelligence artificielle pour des prévisions Météo plus pointues

 

Un article du Wall Street Journal

 

Les Etats-Unis ont connu 22 catastrophes météorologiques et climatiques en 2020 – un nombre record. L’intelligence artificielle semble capable de déterminer avec une plus grande précision l’évolution des intempéries telles que les chutes de grêle ou les tornades.

 

 

Amy McGovern fait partie des rares personnes à avoir déménagé en Oklahoma pour des raisons météorologiques.

Non pas qu’elle apprécie particulièrement les tornades qui s’abattent sur cet Etat à intervalles réguliers, ni les chutes de grêle qui s’apparentent souvent à un déluge de balles de golf. « J’en suis à mon troisième toit en quinze ans », raconte-t-elle en riant.

Mais c’est bien en raison de ces violentes intempéries qu’elle s’est installée ici : informaticienne initialement formée à la robotique, elle a été recrutée par l’école de météorologie de l’Université de l’Oklahoma. A l’automne dernier, disposant d’un financement de 20 millions de dollars de la National Science Foundation, elle a ouvert l’un des premiers instituts nationaux dédiés à l’application de l’intelligence artificielle à la météo et au climat. A l’heure où les nouvelles technologies d’apprentissage automatique deviennent omniprésentes et produisent des résultats étonnants dans la reconnaissance faciale ou la rédaction de textes, le centre de Mme McGovern prend part à une nouvelle initiative visant à déterminer si ces techniques peuvent aussi prévoir l’évolution de la météo.

Selon les modélisateurs, la récente vague de froid qui a détruit des infrastructures et perturbé les chaînes d’approvisionnement au Texas aura coûté à elle seule 90 milliards de dollars

L’institut de Mme McGovern bénéficie de la participation de six autres universités et divers acteurs du secteur privé. Développant des méthodes d’intelligence artificielle pour améliorer les prévisions en matière d’événements climatiques extrêmes et d’océanographie côtière, l’institut veille à ce que les instruments qu’il met au point soient fiables du point de vue des prévisionnistes qui en seront les utilisateurs. « Nous travaillons sur le cycle dans son ensemble, explique Mme McGovern. Il s’agit de sauver des vies et des biens. »

L’intelligence artificielle, qui permet déjà d’accroître l’efficacité des méthodes de prévisions existantes et contribue à en augmenter la rapidité et l’exactitude, semble capable de déterminer avec une plus grande précision l’évolution des intempéries telles que les chutes de grêle ou les tornades. Elle ne remplacera pas les prévisions météorologiques classiques mais renforcera et développera les méthodes actuelles.

Une meilleure efficacité

Des prévisions plus précises et une meilleure préparation aux intempéries apportent des bénéfices considérables. Selon la National Oceanic and Atmospheric Administration, les Etats-Unis ont connu 22 catastrophes météorologiques et climatiques en 2020 – un nombre record – et les dommages causés par chacune d’entre elles ont atteint plus d’un milliard de dollars. Selon les modélisateurs, la récente vague de froid qui a détruit des infrastructures et perturbé les chaînes d’approvisionnement au Texas aura coûté à elle seule 90 milliards de dollars. Et si les prévisions se sont améliorées au fil du temps, elles sont encore loin d’être exhaustives. Selon Mme McGovern, les services gouvernementaux parviennent assez bien à donner l’alerte avant l’arrivée des tornades (anticipant 80 % d’entre elles), mais leurs prévisions comptent de nombreux faux positifs (80 % se révélant erronées).

L’ère moderne des prévisions météorologiques s’est ouverte dans les années 1950 et depuis lors, les spécialistes ont avant tout fait appel à des « prévisions numériques », c’est-à-dire des modèles mathématiques qui simulent l’état du monde et de l’atmosphère en fonction des paramètres physiques de l’eau, du vent, des sols et de la lumière du soleil, lesquels interagissent de multiples manières. Cherchant à intégrer toujours davantage de paramètres, les modèles actuels traitent une centaine de millions de données chaque jour, un niveau de complexité comparable aux simulations du cerveau humain ou de la naissance de l’univers.

Durant des décennies, ces modèles ont permis des progrès réguliers en termes d’exactitude des prévisions. Ces dernières années cependant, la multiplication des satellites d’observation terrestre et l’apparition de nouveaux capteurs, comme les outils de mesure de la pression atmosphérique présents dans des milliards de téléphones portables, ont dépassé la capacité des scientifiques à les intégrer dans leurs modèles météorologiques. Et le traitement d’une seule fraction de ces données a nécessité une augmentation exponentielle de la puissance de calcul utilisée pour réaliser des prévisions précises.

Les dernières technologies d’intelligence artificielle fonctionnent de manière totalement différente des techniques antérieures, en « entraînant » des réseaux neuronaux à l’aide de ce déluge de données plutôt qu’au moyen des lois de la physique. Au lieu de recourir à des calculs exhaustifs pour prévoir l’évolution météorologique sur la base des conditions actuelles, ces réseaux passent en revue les données relatives aux conditions passées et développent leur propre compréhension de l’évolution du temps. Des techniques rudimentaires d’intelligence artificielle sont appliquées aux domaines météorologique et climatique depuis des années – la première conférence sur l’intelligence artificielle parrainée par la National Oceanic and Atmospheric Administration remonte à 1986 – mais les récentes avancées de l’apprentissage profond, de même qu’un meilleur accès aux ordinateurs capables de l’exécuter, se sont traduits par une augmentation rapide de la recherche.

Les prévisions météorologiques actuelles consomment déjà une telle puissance de calcul qu’elles nécessitent l’utilisation des ordinateurs les plus rapides au monde, et les scientifiques s’emploient en permanence à en repousser les limites

L’intelligence artificielle n’est pas utilisée, du moins à ce stade, pour produire seule des prévisions. De fait, les méthodes classiques sont assez performantes : deux semaines avant la vague de froid qui s’est abattue mi-février sur le Texas, le bureau des services météorologiques nationaux de Fort Worth avait prédit des températures inhabituellement basses, et une semaine avant les intempéries, de nombreux modèles en avaient évalué l’intensité à quelques degrés près. Ted Ryan, un météorologue de Fort Worth, explique que les équipes locales recourent parfois à des prévisions produites par un algorithme sophistiqué d’apprentissage automatique afin de déterminer si les résultats sont très différents des prévisions humaines, mais l’utilisation de cet outil ne fait pas partie de leur travail de prévision et de communication quotidien. Il classe l’algorithme « quelque part entre une curiosité et une nouveauté ».

Une autre difficulté posée par l’intelligence artificielle est qu’elle est particulièrement efficace pour prédire des scénarios figurant couramment dans les données qui servent à son développement ; or, les conditions météorologiques importent justement lorsqu’elles sortent de l’ordinaire – comme la vague de froid au Texas, où les températures n’avaient pas été aussi basses depuis 1899.

Ce n’est pas parce que ces nouvelles techniques n’ont pas encore remplacé les méthodes classiques de prévision qu’elles ne vont pas rapidement affecter ces dernières. Les prévisions météorologiques actuelles consomment déjà une telle puissance de calcul qu’elles nécessitent l’utilisation des ordinateurs les plus rapides au monde, et les scientifiques s’emploient en permanence à en repousser les limites. Les techniques d’apprentissage automatique peuvent réduire l’utilisation d’énergie en imitant en partie les modèles météorologiques mondiaux à l’aide de calculs plus simples et moins consommateurs d’électricité – et avec des résultats assez proches en termes de précision.

Sid Boukabara, responsable scientifique au centre d’applications et de recherches satellitaires de la National Oceanic and Atmospheric Administration, estime que les bénéfices seront importants : « Dans le cas de certains composants, l’efficacité pourrait être de 10 à 1 000 fois supérieure. » Il est toutefois trop tôt pour savoir à quel point l’exactitude des prévisions numériques en sera améliorée.

De son côté, le Centre européen pour les prévisions météorologiques à moyen terme effectue actuellement une simulation du globe terrestre sous la forme d’une grille composée de carrés de 9 kilomètres de côté, empilés sur 137 « étages » dans l’atmosphère. Le directeur adjoint du Centre, Peter Bauer, explique que chaque degré de précision supplémentaire entraîne une augmentation exponentielle de l’utilisation d’électricité : le nouveau superordinateur du Centre à Bologne, en Italie, consommera autant d’électricité que 6 000 foyers. Ses collègues et lui s’approchent rapidement des limites de ce qu’ils peuvent dépenser, ou justifier, indique M. Bauer.

Cette année, en faisant appel aux méthodes de l’intelligence artificielle pour améliorer son efficacité, le Centre commencera à élaborer un nouveau modèle mondial, avec une résolution de 1 kilomètre, qui permettra de mieux cerner les tempêtes et tourbillons océaniques, précise M. Bauer. « Des machines plus grosses et plus rapides nous apportent une puissance de calcul toujours plus importante, mais il faut que nous changions radicalement les codes que nous utilisons pour garantir l’efficacité d’usage. »

Des prévisions plus localisées

Les chercheurs jugent l’intelligence artificielle prometteuse dans des applications plus circonscrites, par exemple l’utilisation de l’apprentissage automatique pour produire des prévisions très localisées, plus utiles pour le public destinataire. Les meilleurs modèles météorologiques mondiaux eux-mêmes ont une résolution spatiale de plusieurs kilomètres : s’ils peuvent prévoir avec exactitude le temps qu’il va faire dans un département, ils sont moins à même de le faire pour un quartier. Selon les chercheurs, l’apprentissage profond pourrait permettre de réduire l’échelle géographique et de produire des prévisions plus détaillées, à la manière de ce qui s’est passé dans le domaine de la photographie. L’apprentissage profond complète les prévisions météorologiques issues des méthodes classiques à l’aide d’informations comme la topographie, de façon à déterminer la manière dont des tendances générales se traduiront dans certains lieux en particulier.

L’apprentissage automatique pourrait aussi s’avérer crucial pour l’établissement de prévisions immédiates précises, qui impliquent des calculs rapides hors de portée des méthodes classiques. Au printemps dernier, deux scientifiques de Google Research ont montré que des réseaux neuronaux profonds qui n’avaient fait l’objet d’aucun encodage explicite des lois physiques pouvaient prévoir les précipitations dans les huit heures à venir de manière plus performante que d’autres modèles de pointe. L’un d’eux, Nal Kalchbrenner, explique qu’ils cherchaient à accroître la qualité et la durée des prévisions. « Cela ouvre la voie à une utilisation à grande échelle de l’intelligence artificielle dans le domaine des sciences météorologiques et climatiques. »

Gouvernements et grandes entreprises sont conscients du potentiel de l’intelligence artificielle. En octobre dernier, la National Oceanic and Atmospheric Administration et Google ont annoncé un partenariat visant à étudier comment l’apprentissage automatique pouvait aider l’agence à utiliser de façon plus efficace les données satellitaires et environnementales

Obtenir des prévisions précises ne serait-ce qu’une ou deux heures plus tôt pourrait avoir des conséquences considérables pour les entreprises, qui ne sont pas exposées aux mêmes risques que les particuliers. « Si vous entendez qu’il va y avoir de la grêle, vous pouvez rapidement rentrer votre voiture au garage, explique Mme McGovern. Mais pour un constructeur ou concessionnaire automobile avec 1 000 voitures à l’extérieur, cela prend beaucoup plus de temps. » L’an dernier, elle a co-écrit une étude montrant que l’apprentissage automatique améliorait les prévisions à court terme relatives aux averses de grêle, compensant le nombre limité de données mondiales par l’analyse de milliers de rapports de tempêtes de grêle localisées. Mme McGovern travaille actuellement avec la National Oceanic and Atmospheric Administration à l’élaboration d’une solution opérationnelle fondée sur cette technique.

Gouvernements et grandes entreprises sont conscients du potentiel de l’intelligence artificielle. En octobre dernier, la National Oceanic and Atmospheric Administration et Google ont annoncé un partenariat visant à étudier comment l’apprentissage automatique pouvait aider l’agence à utiliser de façon plus efficace les données satellitaires et environnementales. En janvier, le National Center for Atmospheric Research a investi 35 millions de dollars dans un nouveau superordinateur mieux équipé pour supporter les dernières technologies d’intelligence artificielle. Et la National Oceanic and Atmospheric Administration tout comme le Centre européen ont récemment annoncé des stratégies d’intégration de l’intelligence artificielle dans leurs travaux.

Certains chercheurs de premier plan, prudents quant à l’engouement actuel pour tout ce qui touche à l’intelligence artificielle, soulignent qu’il ne faut pas tout attendre de ces technologies. L’un d’eux, Stephan Rasp, n’y est pas opposé : il a co-écrit l’une des premières études montrant que l’intelligence artificielle pouvait imiter de manière efficace une partie du travail de prévision, et le nom de la start-up qui l’emploie en tant qu’expert en mégadonnées – Climate.ai – fait directement référence à cette technologie. Le chercheur note toutefois qu’une grande part des recherches en sont encore au stade de la démonstration de faisabilité ; si l’application de l’intelligence artificielle à des séries de données simplifiées a été concluante, il existe encore peu d’exemples d’amélioration effective des prévisions météorologiques et climatiques.

Dans ce domaine, il estime qu’il pourrait falloir dix ans pour déterminer où l’intelligence artificielle peut être utile ou non. « Lorsque l’on dispose d’un marteau, on tend à considérer tous les problèmes comme des clous. J’ai l’impression que c’est ce qu’il se passe en ce moment. »

(Traduit à partir de la version originale en anglais par Anne Montanaro)

Des dangers potentiels de l’intelligence artificielle

 Des dangers potentiels de l’intelligence artificielle

Le cabinet d’études McKinsey constate le manque manifeste de diligence de certaines entreprises concernant les risques liés à l’IA, notamment sur les questions de conformité et de protection de la vie privée

 

Tribune

Pour que les entreprises puissent réduire les dangers potentiels résultants de leurs projets dans l’intelligence artificielle, elles doivent d’abord admettre l’existence de risques liés à l’adoption de cette technologie. Les récentes conclusions de la société de conseil McKinsey montrent que de nombreuses entreprises sont en retard sur ces deux points.

La pandémie a accéléré l’adoption de l’intelligence artificielle : les entreprises trouvent dans cette technologie des opportunités pour repenser leurs processus opérationnels et leurs business models. Mais la mise en œuvre de l’IA s’accompagne de risques potentiels. Par exemple, un modèle conçu pour accélérer la procédure d’attribution de prêts hypothécaires pourrait se révéler partial, en discriminant une certaine catégorie de la population, et les entreprises qui n’identifient pas correctement les données puis n’excluent pas celles revêtant un caractère personnel au sein des grands volumes de données utilisés dans les projets d’IA pourraient écoper d’amendes en vertu du Règlement général sur la protection des données (RGPD) européen.

Une récente enquête de McKinsey révèle que moins de la moitié des personnes interrogées dont les entreprises utilisent l’IA identifient ces risques — notamment ceux liés à la conformité réglementaire et au respect de la vie privée — comme « pertinents » concernant leurs projets d’IA. Seul le risque relevant de questions de cybersécurité est considéré comme pertinent par plus de la moitié des personnes interrogées.

La société de conseil en gestion déclare trouver ces résultats, publiés à la mi-novembre, préoccupants.

« Il est difficile de comprendre pourquoi les risques systématiques ne sont pas identifiés par une proportion beaucoup plus élevée de répondants », écrit Roger Burkhardt, partner chez McKinsey, dans une note publiée avec les résultats.

Près de 2 400 cadres et dirigeants, évoluant dans des secteurs variés et des entreprises de tailles différentes ont répondu à cette enquête internationale, menée au mois de en juin. Environ 1 150 ont déclaré que leur société avait déjà adopté l’IA dans au moins une de ses missions. La société de conseil a demandé à ces entreprises quels risques elles considéraient comme pertinents et quel type de risques elles essayaient concrètement de traiter ou de réduire.

Sur les répondants, 38 % affirment s’efforcer de limiter les risques en matière de conformité réglementaire et 30 % assurent qu’ils travaillent pour diminuer ceux liés au respect de la vie privée, ce qui représente, pour ces deux sujets, des pourcentages légèrement supérieurs à ceux enregistrés dans une enquête similaire réalisée par McKinsey en 2019.

Michael Chui, partner chez McKinsey Global Institute, la branche de la société spécialisée dans la recherche économique et le monde de l’entreprise, explique que la société de conseil ne donnait pas de définition des termes « pertinent » ou « risque » aux personnes interrogées. Il fait également remarquer que tous les risques ne concernent pas toutes les entreprises. Par exemple, les questions de sécurité physique des personnes vont probablement être moins importantes pour une société de services financiers que pour une entreprise de robotique.

Néanmoins, la plupart des entreprises sont concernées par un grand nombre des dix risques générés par l’IA qu’aborde l’enquête, précise-t-il. Il souligne que, si une entreprise ne considère pas un risque comme pertinent, elle ne va probablement pas chercher à en limiter la portée.

Bruce Ross, responsable groupe des services technologie et opérations de la Royal Bank of Canada, est surpris de constater que les sociétés ne sont pas plus nombreuses à se préoccuper des risques liés à l’IA tournant autour du respect de la vie privée et de la réputation de l’entreprise.

La banque, basée à Toronto, utilise notamment l’IA dans le cadre de la détection des fraudes, de l’analyse des risques, et des opérations sur les marchés de capitaux. Parlant des établissements financiers, il explique que, si des systèmes d’intelligence artificielle prennent des décisions, la conformité réglementaire et la cybersécurité deviennent alors des domaines générant des risques importants qui doivent être traités. « Les banques négocient sur la base de la confiance », rappelle-t-il.

L’un des principaux obstacles à l’évaluation et à la limitation des risques est tout simplement la prise de conscience de leur existence, précise M. Chui, de chez McKinsey. Les personnes qui mettent en œuvre des systèmes d’IA sont focalisées sur des objectifs commerciaux, comme l’augmentation des ventes ou la réduction du taux de résiliations, précise-t-il. Elles sont donc susceptibles de ne pas pleinement admettre les risques résultant de cette technologie.

Zico Kolter, directeur scientifique des recherches sur l’IA au Bosch Center for Artificial Intelligence de Bosch et professeur associé à l’Ecole de science informatique de l’Université Carnegie-Mellon, le confirme. « Comme les entreprises se précipitent pour adopter cette nouvelle technologie afin de conserver leur longueur d’avance, il existe toujours un risque d’ignorer certains de ses inconvénients », assure-t-il.

Le travail de Bosch en matière d’IA couvre ses gammes de produits de détection intelligente, comme les capteurs et les caméras permettant aux systèmes de conduite autonomes de reconnaître les panneaux de signalisation. Pour limiter l’ensemble des risques en matière de sécurité, la société fait des recherches sur différents procédés, dont une technique appelée « adversarial training ». Elle consiste à apprendre à un système d’IA analysant les objets à les reconnaître en utilisant les scénarios les plus défavorables. Cela permet au système d’obtenir de bons résultats, même s’il est soumis à une éventuelle attaque.

M. Chui indique que les entreprises peuvent prendre des mesures pour accroître la sensibilisation et réduire les risques, par exemple en recrutant des personnes disposant de compétences variées dans leurs différents services afin de les évaluer et de les diminuer.

Olly Downs, vice-président du marketing, de la technologie, des données et de l’apprentissage automatique chez le détaillant en ligne Zulily, affirme que son équipe rencontre notamment des cadres de la technologie, du marketing, de la chaîne d’approvisionnement et du service juridique pour mener son évaluation mensuelle des activités concernant les projets d’IA. Elle organise également des réunions régulières où toute l’entreprise discute des projets impliquant l’IA.

M. Chui, de McKinsey, s’attend à ce que les entreprises accordent plus d’attention, à la fois, aux risques liés à l’IA et à leur limitation à un moment où elles intègrent l’usage de cette technologie. « Prévoit-on que ces risques vont augmenter avec le temps ? Oui, clairement », conclut-il.

 

Intelligence artificielle : Bruxelles veut réguler

  • Intelligence artificielle : Bruxelles veut réguler
  • Bruxelles doit dévoiler mercredi 21 avril dans l’après-midi un projet de réglementation pour faire la course en tête dans cette révolution industrielle, tout en rassurant les Européens.
  • «Qu’il soit question d’agriculture de précision, de diagnostics médicaux plus fiables ou de conduite autonome sécurisée, l’intelligence artificielle nous ouvrira de nouveaux mondes. Mais ces mondes ont aussi besoin de règles», avait déclaré en septembre la présidente de la Commission européenne, Ursula von der Leyen, dans son discours sur l’état de l’Union. L’exécutif européen, qui a fait du numérique une priorité, entend honorer la promesse de la présidente de placer «l’humain au centre» de son projet législatif.
    • Bruxelles est convaincue que l’intelligence artificielle, et ses techniques d’automatisation à base de logiciels et de données, ne pourront se développer qu’en apaisant les craintes des Européens. L’UE a raté la révolution de l’Internet grand public et ne possède aucun champion équivalent aux cinq géants américains Google, Apple, Facebook, Amazon et Microsoft, les fameux Gafam, ou à leurs équivalents chinois Baidu, Alibaba, Tencent et Xiaomi. Mais rien n’est perdu concernant la révolution provoquée par l’irruption massive de l’informatique dans les industries où l’Europe excelle comme les transports, l’agriculture ou le médical.
    • Les systèmes de notation citoyenne prohibés
    • Le projet de règlement, que l’AFP a pu consulter, prévoit d’interdire un nombre restreint d’utilisations qui menacent les droits fondamentaux. Seront prohibés les systèmes de «surveillance généralisée» de la population, ceux «utilisés pour manipuler le comportement, les opinions ou les décisions» des citoyens. Des autorisations dérogatoires sont cependant prévues pour la lutte antiterroriste et la sécurité publique. Les applications militaires ne sont pas concernées.

L’intelligence artificielle: un outil de lutte contre les situations oligopolistiques

L’intelligence artificielle: un outil de lutte contre les situations oligopolistiques

Le juriste Thibault Schrepel présente, dans une tribune au « Monde », les avantages des nouveaux outils informatiques pour traquer abus de position dominante, collusions algorithmiques ou agissements illégaux des géants du numérique.

Tribune. Chaque nouvelle semaine révèle son lot de nouvelles affaires en droit de la concurrence. Ces derniers mois, Amazon, Apple, Facebook, Google – qui vient d’être condamné, mercredi 10 février, à 1 million d’euros d’amende par le tribunal de commerce de Paris pour abus de position dominante dans la publicité –, et bien d’autres encore ont fait l’objet de nouvelles procédures et allégations.

Bien souvent, ces entreprises sont accusées d’avoir manipulé leurs produits et services de sorte à diminuer la pression concurrentielle. Dans le même temps, les autorités de concurrence expriment des difficultés croissantes à détecter et analyser ces pratiques. Il faut dire que les stratégies des entreprises du numérique se complexifient au fur et à mesure des avancées technologiques.

Face à ce constat, la Commission européenne veut faire le pari d’introduire des mesures ex ante dont l’objectif est de prévenir la mise en œuvre de pratiques anticoncurrentielles. Le Digital Markets Act (DMA) présenté le 15 décembre 2020 par les commissaires européens Margrethe Vestager et Thierry Breton relève de cette logique. Il s’adresse aux grandes entreprises du numérique et vise à interdire de nombreux comportements listés aux articles 5 et 6.

Par exemple, la Commission veut empêcher « l’auto-préférencement » (par lequel une entreprise met en avant l’un de ses produits sur sa propre plate-forme). Elle entend également interdire l’utilisation des données personnelles provenant d’un service développé par ces entreprises pour en modifier un autre, que ce soit ou non pour l’améliorer.

Dans le préambule du DMA, la Commission dit avoir suffisamment d’expérience pour établir une liste de pratiques qui n’interdise que celles qui sont néfastes. Toutefois, les pratiques d’auto-préférencement n’ont fait l’objet que d’une seule décision au niveau européen. C’était en 2017 dans l’affaire Google Shopping. Les pratiques d’association des données font quant à elles l’objet d’une enquête en cours contre Amazon. Il s’agit de la première du genre.

Aucune de ces affaires n’a logiquement fait l’objet d’un arrêt par la Cour de justice de l’Union européenne. Enfin, relevons qu’il existe des situations dans lesquelles ces pratiques, bien que généralement anticoncurrentielles, peuvent bénéficier au consommateur.

Ces géants de la tech pourraient, par exemple, utiliser leurs plates-formes et leurs agrégateurs afin de promouvoir de nouveaux produits dans les secteurs de l’automobile, des télécoms ou de la banque. Le DMA pourrait compliquer ces entrées sur le marché. En établissant une liste définitive, la Commission risque de graver dans le marbre l’interdiction de certaines stratégies qui contribuent parfois à l’innovation.

Technologies-Intelligence artificielle : limites et mythes

Technologies-Intelligence artificielle : limites et mythes

 

 

Luc Julia fut un des créateurs de Siri, l’assistant virtuel de l’iPhone. Il dirige depuis 2012 le centre de recherche de Samsung, en Californie, mais il passe une partie de son temps à Paris. Considéré comme une des stars mondiales de l’intelligence artificielle, il a pourtant clamé, dans un livre paru en janvier 2019, que celle-ci… n’existe pas ! (Interview dans l’opinion)

Vous êtes le créateur de Siri, un des outils les plus aboutis d’intelligence artificielle appliqué à la reconnaissance vocale. Et pourtant, vous soutenez cette thèse surprenante : l’intelligence artificielle n’existe pas !

Non, cela n’existe pas ; et d’ailleurs, j’appelle cela de l’innovation avancée ou de l’intelligence augmentée, ce qui signifie que l’on peut garder le même sigle sans utiliser l’expression intelligence artificielle. Ce à quoi on a assisté depuis les années 1970, après un premier « hiver de l’intelligence artificielle » qui a découlé de l’échec des premières tentatives de reconnaissance du sens des textes écrits avec une machine et de l’assèchement des financements qui a suivi. Ce que nous observons aujourd’hui, ce sont surtout des systèmes experts, qui suivent de la logique, des règles. Ce sont des super arbres décisionnels qui reposent sur des capacités de stockage de plus en plus importantes. En 1997, lorsque l’ordinateur Deep Blue d’IBM bat le champion d’échec Gary Kasparov, il n’y parvient que parce qu’il est doté d’une mémoire énorme qui stocke les 10 49 coups possibles aux échecs. C’est beaucoup, mais c’est un nombre fini.

L’intelligence artificielle a pourtant démontré des capacités d’apprentissage…

Elle n’a démontré que sa capacité à apprendre très lentement. J’aime citer cet exemple. La naissance d’Internet, en 1994, a offert au monde la plus importante base de données jamais compilée et la notion de « big data ». On a pu prouver la capacité d’un système informatique à apprendre. La première expérience menée, entre 1997 et 2000, a été d’apprendre à un ordinateur à reconnaître un chat, en observant des centaines de milliers de photos étiquetées « chat » postées par des humains ; c’était la première base qualifiée et bien labellisée que l’on possédait, parce que les propriétaires de chats aiment poster des photos de leurs animaux. Et c’est ainsi qu’entre 2000 et 2005, des machines ont pu reconnaître des chats… à 98 %. Un enfant humain a, lui, besoin de voir un chat deux fois en moyenne pour intégrer le concept. Cela relativise totalement la notion de machine learning.

La machine a besoin, pour gager, de s’appuyer sur l’équivalent de la puissance de calcul de 2000 ordinateurs domestiques. Un petit data center qui dépense 440 kWh ! Une énergie folle pour jouer au go quand, dans le même temps, l’esprit humain dépense 20 Wh, l’équivalent d’une ampoule de faible puissance

L’intelligence artificielle a appris à faire des choses vraiment plus difficiles, comme jouer au très complexe jeu de go, dont on peine à évaluer le nombre de combinaisons possibles. N’est-ce pas remarquable ?

Le jeu de go est un jeu originaire de Chine dont le but est de contrôler le plan de jeu en y construisant des « territoires » avec des pierres noires et blanches, tout en faisant des prisonniers. Ce jeu pourrait comporter entre 10 172 et 10 592 configurations. On ne sait pas exactement. On sait désormais avoir une machine avec une puissance de calcul suffisante pour prendre en compte cette incroyable masse de combinaisons. Le programme Alphago développé par Google DeepMind a battu un humain en 2016. Elle n’est pas plus créative que l’homme. Elle est simplement plus surprenante. Et elle a besoin, pour gagner, de s’appuyer sur l’équivalent de la puissance de calcul de 2000 ordinateurs domestiques. Un petit data center qui dépense 440 kWh ! Une énergie folle pour jouer au go quand, dans le même temps, l’esprit humain dépense 20 Wh, l’équivalent d’une ampoule de faible puissance. Et l’esprit humain ne fait pas que jouer au go, il sait faire des quantités d’autres choses. Il faut se calmer, avec l’intelligence artificielle. Pour l’instant, cela se résume à une débauche de data et d’énergie pour faire des choses très limitées.

Pourquoi l’intelligence artificielle – ou l’innovation avancée comme vous l’appelez – fait-elle si peur ?

Parce que l’on raconte n’importe quoi sur ce sujet. Pour certains, l’IA – et j’utilise ces lettres à dessein – c’est Hollywood, c’est de la science-fiction, c’est « Terminator », le robot qui remplace l’homme et prend seul des décisions mauvaises, qui est incontrôlable. Or, nous sommes actuellement en contrôle total de l’IA. Ou alors, on fait rêver. C’est un autre genre de film, c’est « Her », le film de Spike Jonze, l’IA séduisante, qui devient notre moitié. Or, cela n’existera jamais avec les mathématiques et les statistiques qui servent actuellement de base à l’IA. Il faudrait utiliser d’autres sciences pour simuler un cerveau. Peut-être de l’informatique quantique… Mais cela reste une totale hypothèse, puisque nous ne savons pas comment fonctionne un cerveau, ou ce qu’est l’intelligence. On veut donc imiter un modèle que l’on ne connaît pas. L’intelligence émotionnelle, par exemple, personne ne sait ce que c’est.

Il y a pourtant des inquiétudes légitimes avec l’IA. En 2016, par exemple, le chatbot de Microsoft Tay, qui était supposé aider les clients à choisir leur matériel, est devenu raciste et sexiste en à peine 16 heures d’usage…

Tay était une expérience marketing qui a dû très vite être débranchée. Cet échec a souligné deux choses. D’abord, le fait que les algorithmes doivent comprendre le public et s’y adapter pour répondre à ses questions. Cela n’a pas été le cas avec Tay, qui a raconté autre chose que ce qu’il devait. Ensuite, pour pouvoir prendre en compte des conversations et répondre, un chatbot doit s’appuyer sur des conversations préexistantes annotées. Il y a des quantités considérables dans une base appelée Switchboard, qui recense des conversations enregistrées de call center. Il est probable que la base utilisée par Tay n’était pas de bonne qualité et à conduit Tay à dériver. C’est toujours l’homme qui décide ! Il n’y a pas d’erreurs de la machine les erreurs sont toujours celles de l’homme.

La technologie informatique est sans doute une des inventions les plus puissantes de l’humanité. Plus puissante, sans doute, que la maîtrise de l’atome. Mais elle n’est finalement pas si différente des autres inventions

Quelle attitude les autorités politiques doivent-elles adopter face à l’intelligence artificielle ?

Il faut évidemment une régulation, mais qui ait avant tout une valeur éducative. Pour l’instant les tentatives sont arrivées en retard. Le Règlement européen sur la protection des données personnelles, le RGPD, est très louable, mais il arrive quinze ans après les premiers problèmes. La régulation, c’est avant tout la régulation de chacun. La technologie informatique est sans doute une des inventions les plus puissantes de l’humanité. Plus puissante, sans doute, que la maîtrise de l’atome. Mais elle n’est finalement pas si différente des autres inventions. On a mis du temps à réguler l’usage du couteau ou de la poudre. Tous les outils peuvent être utilisés à bon ou à mauvais escient. Lorsque l’Humain invente quelque chose, c’est généralement pour le bien. Mais il est possible que cela dérape ici où là.

Est-il cependant à craindre que l’intelligence artificielle et ses applications finissent par grignoter nos libertés individuelles ?

L’IA aura les effets que les individus et les groupes décideront qu’elle aura. C’est une question éthique, philosophique autant que politique. Elle peut servir à éviter les accidents de voiture, à diagnostiquer les cancers. Le temps libéré par la technologie peut être utilisé pour nous éduquer, pour créer des liens. Les abus de la technologie peuvent aussi aboutir à des scénarios comme celui d’« Idiocracy », film sorti en 2005. Mike Judge y dépeint une société qui a tout lâché et la technologie aboutit à réduire une partie de l’humanité en esclavage. Notre rapport à la technologie doit être une négociation permanente : qu’est-ce qu’elle m’apporte ou pas ? Il faut choisir ses batailles.

Vous êtes une figure incontournable de la Tech aux Etats-Unis. Et vous n’êtes pas le seul français à briller dans la Silicon Valley. Comment se fait-il, selon vous, que la France et l’Europe comptent aussi peu de licornes ?

Je suis un franco-franchouillard de base ! Je crois en la France de Pascal, de Descartes, en l’héritage des Lumières. Notre pays produit des ingénieurs doués en maths et en technologie… Mais cela ne se traduit pas en termes économiques par la création d’entreprises. Cela n’a rien à voir avec les compétences, mais avec le marché. Il a beau exister un marché commun en Europe, du point de vue technologique, ce marché n’existe pas. Trop de langues cohabitent, trop de régulations, trop de barrières administratives différentes ; l’Europe a, de ce point de vue là, tout fait pour se pénaliser elle-même. Résultat : pour une société technologique française, le marché se limite à 60 millions d’habitants quand il est de 330 millions de personnes aux Etats-Unis avec un langage unique et d’un milliard de personnes en Chine. La démographie et la géographie font finalement tout. Il va être très compliqué d’inverser la tendance, même si, depuis deux ou trois ans, la French tech a redonné une fibre entrepreneuriale à la France. Les pépites que nous exportons sont en fait nos cerveaux, puisque tous les chefs de l’intelligence artificielle dans la Silicon Valley sont des Français.

12345



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol