Archive pour le Tag 'l’intelligence'

Page 3 sur 4

Nouvelles technologies-Pour une approche philosophique aussi de l’intelligence artificielle

Nouvelles technologies- Pour une approche philosophique aussi de  l’intelligence artificielle

Le philosophe Martin Gibert considère nécessaire d’insuffler une morale aux robots, chatbots et autres machines. Et suggère d’entraîner leurs algorithmes d’apprentissage à partir des avis et des comportements d’humains vertueux.

 

Martin Gibert est philosophe et chercheur à l’université de Montréal, affilié au Centre de recherche en éthique et à l’Institut de valorisation des données. En 2015, il appliquait les théories morales classiques au véganisme dans Voir son steak comme un animal mort (Lux Editeur). Il vient de faire de même, sur le terrain plus artificiel des robots, machines et autres algorithmes, dans Faire la morale aux robots (Flammarion, 168 p., 17 €).

Pourquoi un philosophe s’occupe-t-il des dispositifs d’intelligence artificielle (IA) tels que les voitures autonomes, les chatbots ou les systèmes de recommandation en ligne ?

Le moment est vraiment passionnant pour un philosophe car nous pouvons nous poser sur ces dispositifs des questions à la fois inédites et très fondamentales. Et, en plus, c’est très concret, avec des applications immédiates et urgentes. Prenons le cas célèbre du dilemme du tramway, posé par Philippa Foot en 1967 : actionne-t-on un aiguillage pour éviter que le véhicule percute cinq travailleurs si, sur l’autre voie, se trouve une seule personne ?

Jusqu’aux avancées récentes de l’IA, il faut bien dire que les philosophes réfléchissaient aux réponses, mais leurs réponses ne prêtaient pas à conséquence. Désormais, leur avis compte. Nous devons dire quelque chose aux programmeurs dont les algorithmes feront le choix fatal ! L’IA nous oblige à prendre des décisions sur ce qui est bien ou mal, et ce n’est plus une simple expérience de pensée.

Pour y voir clair sur ce qu’il s’agit de faire, il faut ordonner un peu différents domaines en éthique appliquée. Par ordre de généralité, on a d’abord l’éthique de la technique, dans laquelle on va mettre aussi bien les tournevis que les centrales nucléaires. A un deuxième niveau, l’éthique de l’IA pose des questions comme l’impact de ces systèmes sur la société ou l’environnement, ou encore sur d’éventuels droits des robots.

L’éthique des algorithmes qui m’intéresse dans le livre se situe à un troisième niveau, plus spécifique. Comment programmer une machine, un algorithme, un agent moral artificiel pour qu’il se comporte « bien » ? Cela oblige à rentrer dans les détails et, bien sûr, cela n’empêche pas de s’interroger sur l’échelon supérieur : collectivement, a-t-on vraiment besoin de tel ou tel robot ?

 

C’est d’autant plus intéressant et nécessaire que les algorithmes ont des effets sur la vie des gens. Dans le cas d’une voiture autonome confrontée au dilemme du tramway, c’est évident, mais ce seront des décisions très rares à prendre. En revanche, un algorithme de recommandations de YouTube ou Facebook peut avoir des conséquences massives sur la circulation des informations. Plus on développe de nouveaux pouvoirs, plus on a de responsabilité morale. Même derrière un chatbot, il y a des enjeux moraux sérieux.

Pour une approche philosophique aussi de l’intelligence artificielle

Pour une approche philosophique aussi de  l’intelligence artificielle

Le philosophe Martin Gibert considère nécessaire d’insuffler une morale aux robots, chatbots et autres machines. Et suggère d’entraîner leurs algorithmes d’apprentissage à partir des avis et des comportements d’humains vertueux.

 

Martin Gibert est philosophe et chercheur à l’université de Montréal, affilié au Centre de recherche en éthique et à l’Institut de valorisation des données. En 2015, il appliquait les théories morales classiques au véganisme dans Voir son steak comme un animal mort (Lux Editeur). Il vient de faire de même, sur le terrain plus artificiel des robots, machines et autres algorithmes, dans Faire la morale aux robots (Flammarion, 168 p., 17 €).

Pourquoi un philosophe s’occupe-t-il des dispositifs d’intelligence artificielle (IA) tels que les voitures autonomes, les chatbots ou les systèmes de recommandation en ligne ?

Le moment est vraiment passionnant pour un philosophe car nous pouvons nous poser sur ces dispositifs des questions à la fois inédites et très fondamentales. Et, en plus, c’est très concret, avec des applications immédiates et urgentes. Prenons le cas célèbre du dilemme du tramway, posé par Philippa Foot en 1967 : actionne-t-on un aiguillage pour éviter que le véhicule percute cinq travailleurs si, sur l’autre voie, se trouve une seule personne ?

Jusqu’aux avancées récentes de l’IA, il faut bien dire que les philosophes réfléchissaient aux réponses, mais leurs réponses ne prêtaient pas à conséquence. Désormais, leur avis compte. Nous devons dire quelque chose aux programmeurs dont les algorithmes feront le choix fatal ! L’IA nous oblige à prendre des décisions sur ce qui est bien ou mal, et ce n’est plus une simple expérience de pensée.

Pour y voir clair sur ce qu’il s’agit de faire, il faut ordonner un peu différents domaines en éthique appliquée. Par ordre de généralité, on a d’abord l’éthique de la technique, dans laquelle on va mettre aussi bien les tournevis que les centrales nucléaires. A un deuxième niveau, l’éthique de l’IA pose des questions comme l’impact de ces systèmes sur la société ou l’environnement, ou encore sur d’éventuels droits des robots.

L’éthique des algorithmes qui m’intéresse dans le livre se situe à un troisième niveau, plus spécifique. Comment programmer une machine, un algorithme, un agent moral artificiel pour qu’il se comporte « bien » ? Cela oblige à rentrer dans les détails et, bien sûr, cela n’empêche pas de s’interroger sur l’échelon supérieur : collectivement, a-t-on vraiment besoin de tel ou tel robot ?

 

C’est d’autant plus intéressant et nécessaire que les algorithmes ont des effets sur la vie des gens. Dans le cas d’une voiture autonome confrontée au dilemme du tramway, c’est évident, mais ce seront des décisions très rares à prendre. En revanche, un algorithme de recommandations de YouTube ou Facebook peut avoir des conséquences massives sur la circulation des informations. Plus on développe de nouveaux pouvoirs, plus on a de responsabilité morale. Même derrière un chatbot, il y a des enjeux moraux sérieux.

L’intelligence artificielle pour lutter contre le blanchiment et le terrorisme

L’intelligence artificielle pour lutter contre le blanchiment et le terrorisme 

 

Astrid Bertrand, Winston Maxwell et Xavier Vamparys, chercheurs à Télécom Paris, expliquent, dans une tribune au « Monde » que l’intelligence artificielle peut rendre efficace les dispositifs antiblanchiment qui actuellement coûtent plus qu’ils ne rapportent en Europe.

 

Tribune.Le régulateur des établissements financiers, l’Autorité de contrôle prudentiel et de résolution (ACPR), a récemment sanctionné Carrefour Banque, Cardif, filiale d’assurances du groupe BNP Paribas, et ING Bank pour manquement dans leur dispositif de lutte contre le blanchiment et le financement du terrorisme (LCB-FT).

Pourtant, ces établissements ont massivement investi pour renforcer leur dispositif antiblanchiment, 32 millions d’euros pour Cardif depuis 2016, 26 millions d’euros entre 2019 et 2020 pour ING Bank. Pour quels résultats ? Comme l’indique l’ancien directeur d’Europol, Rob Wainwright, « on a créé une tonne de réglementation, les banques dépensent 20 milliards d’euros par an (…) et [pourtant] on ne saisit que 1 % du produit de la criminalité chaque année en Europe ».


Si l’objectif du dispositif est d’assécher les réseaux internationaux de financement du crime, le bilan de la lutte contre le blanchiment est, au mieux, mitigé. La plupart des alertes générées par les outils informatiques des institutions financières sont des « faux positifs » devant être triés par des opérateurs humains. Ce tri effectué, les suspicions restantes sont transmises aux autorités publiques sous la forme de « déclarations de soupçon », dont peu font l’objet d’une enquête.

Présence d’obstacles réglementaires

A l’origine, la LCB-FT était faite pour traquer la criminalité grave : crime organisé, trafic d’êtres humains, cartels de drogue… Mais son champ d’application a progressivement été étendu, avec pour résultat une multiplication des signalements de soupçon couvrant des délits plus mineurs (travail au noir, fraudes fiscales…).

Idéalement, les dispositifs de détection des banques devraient se focaliser sur les réseaux de criminalité les plus importants, ce qui nécessiterait un bon alignement entre les objectifs des outils de LCB-FT adoptés par les établissements et les principales menaces identifiées par l’Etat. En se dotant d’outils d’intelligence artificielle (IA) ciblant les transactions suspectes évocatrices des principales menaces listées, l’efficacité des dispositifs LCB-FT serait encore renforcée.


En l’état, le partage des informations entre les autorités de lutte contre la criminalité financière (Tracfin en France) et les établissements financiers se heurte à des obstacles réglementaires – protection des données personnelles, secret de l’enquête voire, dans certains cas, secret-défense.

L’intelligence artificielle, une chance pour l’Europe ?

 L’intelligence artificielle, une chance pour l’Europe ?

Tribune de Pierre-Etienne Bardin et Guillaume Leboucher* dans l’Opinion 

 

La crise sanitaire a montré l’obligation pour les entreprises de se transformer et pour les citoyens d’être formés et accompagnés dans un monde de plus en plus technologique. Nulle organisation, publique comme privée, ne semble devoir échapper à son destin numérique. Alors, autant le prendre en main.

La maîtrise des données et leur exploitation, notamment par des techniques d’intelligence artificielle (IA), s’avèrent comme le plus sûr moyen de rester dans la course économique, politique et géostratégique. L’IA est un outil de transformation majeur, nécessaire et indispensable, pour rebondir et saisir les opportunités économiques qui se présentent.

Grâce aux gains de productivité et à la relance de la consommation, l’IA contribuera de plus en plus à la croissance. Les entreprises ayant une culture de la donnée voient jusqu’à 5 % d’augmentation de leur valeur selon le Data Literacy index.

Technologie complexe, de plus en plus prédictive, l’IA simplifie la tâche des salariés. Elle s’immisce dans tous les pans de l’activité. Elle est tour à tour auxiliaire de santé, pour prévenir l’évolution d’un virus, ou de justice, pour fournir une analyse de jurisprudences exhaustive par exemple. Présente au quotidien, elle rend des voitures de plus en plus autonomes, des transactions financières plus fluides et rapides, des gestions logistiques et de livraisons plus affinées, des procédures de contrôles renforcées, des compteurs électriques intelligents, etc. Sans parler de nos smartphones qui répondent à l’œil et à la voix.

Tout en veillant à ne pas brider l’innovation, l’affirmation d’une base juridique doit constituer une occasion de renforcer le cadre de confiance dans la technologie

Déclassement. Dans le match de superpuissances numériques que les Etats-Unis et l’Asie ont installé, l’Europe et ses entreprises risquent le déclassement si l’IA ne devient pas un élément central de leurs stratégies. La commission européenne vient d’annoncer sa volonté de réglementer le marché de l’IA. Tout en veillant à ne pas brider l’innovation, l’affirmation d’une base juridique doit constituer une occasion de renforcer le cadre de confiance dans la technologie.

C’est aussi pour l’Europe une occasion d’affirmer un peu plus encore ses valeurs de respect de la dignité humaine et de droit de la propriété intellectuelle en particulier. Un modèle alternatif de développement du numérique, ouvert et pérenne, respectueux des humains et leurs données, est possible. Le projet GAIA-X en constitue une parfaite illustration.

Face à la domination des géants du numérique (Google, Amazon, Microsoft) qui concentrent deux tiers d’un marché de l’hébergement des données qui a triplé ces trois dernières années, la création d’un champion européen en tous points égaux serait vouée à l’échec. Au contraire, GAIA-X offre un cadre de référence et une labellisation pour permettre le développement d’une infrastructure de données déconcentrée et référente.

Fer de lance. Etre souverain, ce n’est pas se replier sur soi-même mais reprendre le dessus sur le cours des choses. L’Europe, avec la France comme fer de lance, peut et doit mobiliser ses talents autour de grands projets à visage humain et à géométrie variable mêlant les compétences et l’ambition, les savoirs et les savoir-faire.

Pour servir une telle ambition, les grands groupes doivent pouvoir s’inspirer de l’agilité des jeunes poussent, lesquels y trouveront à leur tour les moyens d’innover tout en les aiguillonnant.

C’est le sens du rapprochement du Groupe La Poste avec Openvalue, expert reconnu de l’IA, pour accompagner les organisations dans l’amélioration de leur performance industrielle. La France a besoin d’acteurs majeurs de la transformation de l’économie alliant le crédit et la confiance d’opérateurs de services aux publics. Notre continent est aussi une terre d’innovation et d’entrepreneurs.

*Pierre-Etienne Bardin, chief data officer du Groupe La Poste, et Guillaume Leboucher, fondateur et directeur général d’OpenValue.

Santé: l’intelligence artificielle pour voir l’invisible ?

Santé: l’intelligence artificielle pour voir l’invisible ?

 

« Une équipe de scientifiques a élaboré un nouveau type d’algorithme capable d’identifier un cancer au stade initial de son développement », imagine Aurélie Jean, docteure en Sciences et Entrepreneure, CAIO et co-fondatrice de DpeeX, CEO et fondatrice de In Silico Veritas ( dans l’Opinion)

  Une innovation à l’intersection entre la médecine et la modélisation numérique ouvre des perspectives thérapeutiques uniques en oncologie, raconte Aurélie Jean qui, avec 50 autres personnalités, a imaginé à quoi ressemblerait l’actualité du n° 3000 de l’Opinion, en avril 2025.

Depuis plusieurs décennies, l’intelligence artificielle (IA) est utilisée pour confirmer la présence de tumeurs sur des scanners cérébraux, des radiographies pulmonaires ou des mammographies. Depuis quelques années, l’IA est utilisée dans la médecine dite prédictive dont l’objectif est d’anticiper et d’évaluer les risques de survenue d’une maladie ou la probabilité de succès d’un traitement. Durant la pandémie de Covid-19, lointain souvenir aujourd’hui, le grand public a eu l’occasion de découvrir les capacités de l’IA à contribuer à l’élaboration d’un vaccin en identifiant par simulation numérique la protéine capable de l’activer. Ce même public découvre à présent sa capacité à voir l’invisible…

Une équipe de scientifiques et de médecins a élaboré un nouveau type d’algorithme capable d’identifier un cancer au stade initial de son développement, bien avant qu’on ne puisse visualiser la tumeur à l’œil nu sur une image radiologique. En pratique, cet algorithme détecte et localise le cancer au début de sa phase de croissance, en capturant les signaux faibles de sa signature tumorale, plus de deux ans avant le stade du diagnostic radiologique.

Détection. Pour la première fois en cancérologie, voir et traiter l’invisible devient possible. La détection précoce d’un cancer augmente significativement les chances de survie et permet l’utilisation de traitements ciblés moins agressifs, cette innovation à l’intersection entre la médecine et la modélisation numérique ouvre des perspectives thérapeutiques uniques en oncologie.

La technologie est aujourd’hui utilisée dans le diagnostic et le traitement de nombreux cancers tels que le cancer du sein et du poumon, parmi les plus fréquents. Les acteurs de cette invention comptent bien en élargir les applications pour un jour « éradiquer les traitements lourds et coûteux tant financièrement qu’émotionnellement, pour offrir à chaque être humain de ce monde les mêmes chances de survie face au cancer ».

L’intelligence artificielle pour des prévisions Météo plus pointues

L’intelligence artificielle pour des prévisions Météo plus pointues

 

Un article du Wall Street Journal

 

Les Etats-Unis ont connu 22 catastrophes météorologiques et climatiques en 2020 – un nombre record. L’intelligence artificielle semble capable de déterminer avec une plus grande précision l’évolution des intempéries telles que les chutes de grêle ou les tornades.

 

 

Amy McGovern fait partie des rares personnes à avoir déménagé en Oklahoma pour des raisons météorologiques.

Non pas qu’elle apprécie particulièrement les tornades qui s’abattent sur cet Etat à intervalles réguliers, ni les chutes de grêle qui s’apparentent souvent à un déluge de balles de golf. « J’en suis à mon troisième toit en quinze ans », raconte-t-elle en riant.

Mais c’est bien en raison de ces violentes intempéries qu’elle s’est installée ici : informaticienne initialement formée à la robotique, elle a été recrutée par l’école de météorologie de l’Université de l’Oklahoma. A l’automne dernier, disposant d’un financement de 20 millions de dollars de la National Science Foundation, elle a ouvert l’un des premiers instituts nationaux dédiés à l’application de l’intelligence artificielle à la météo et au climat. A l’heure où les nouvelles technologies d’apprentissage automatique deviennent omniprésentes et produisent des résultats étonnants dans la reconnaissance faciale ou la rédaction de textes, le centre de Mme McGovern prend part à une nouvelle initiative visant à déterminer si ces techniques peuvent aussi prévoir l’évolution de la météo.

Selon les modélisateurs, la récente vague de froid qui a détruit des infrastructures et perturbé les chaînes d’approvisionnement au Texas aura coûté à elle seule 90 milliards de dollars

L’institut de Mme McGovern bénéficie de la participation de six autres universités et divers acteurs du secteur privé. Développant des méthodes d’intelligence artificielle pour améliorer les prévisions en matière d’événements climatiques extrêmes et d’océanographie côtière, l’institut veille à ce que les instruments qu’il met au point soient fiables du point de vue des prévisionnistes qui en seront les utilisateurs. « Nous travaillons sur le cycle dans son ensemble, explique Mme McGovern. Il s’agit de sauver des vies et des biens. »

L’intelligence artificielle, qui permet déjà d’accroître l’efficacité des méthodes de prévisions existantes et contribue à en augmenter la rapidité et l’exactitude, semble capable de déterminer avec une plus grande précision l’évolution des intempéries telles que les chutes de grêle ou les tornades. Elle ne remplacera pas les prévisions météorologiques classiques mais renforcera et développera les méthodes actuelles.

Une meilleure efficacité

Des prévisions plus précises et une meilleure préparation aux intempéries apportent des bénéfices considérables. Selon la National Oceanic and Atmospheric Administration, les Etats-Unis ont connu 22 catastrophes météorologiques et climatiques en 2020 – un nombre record – et les dommages causés par chacune d’entre elles ont atteint plus d’un milliard de dollars. Selon les modélisateurs, la récente vague de froid qui a détruit des infrastructures et perturbé les chaînes d’approvisionnement au Texas aura coûté à elle seule 90 milliards de dollars. Et si les prévisions se sont améliorées au fil du temps, elles sont encore loin d’être exhaustives. Selon Mme McGovern, les services gouvernementaux parviennent assez bien à donner l’alerte avant l’arrivée des tornades (anticipant 80 % d’entre elles), mais leurs prévisions comptent de nombreux faux positifs (80 % se révélant erronées).

L’ère moderne des prévisions météorologiques s’est ouverte dans les années 1950 et depuis lors, les spécialistes ont avant tout fait appel à des « prévisions numériques », c’est-à-dire des modèles mathématiques qui simulent l’état du monde et de l’atmosphère en fonction des paramètres physiques de l’eau, du vent, des sols et de la lumière du soleil, lesquels interagissent de multiples manières. Cherchant à intégrer toujours davantage de paramètres, les modèles actuels traitent une centaine de millions de données chaque jour, un niveau de complexité comparable aux simulations du cerveau humain ou de la naissance de l’univers.

Durant des décennies, ces modèles ont permis des progrès réguliers en termes d’exactitude des prévisions. Ces dernières années cependant, la multiplication des satellites d’observation terrestre et l’apparition de nouveaux capteurs, comme les outils de mesure de la pression atmosphérique présents dans des milliards de téléphones portables, ont dépassé la capacité des scientifiques à les intégrer dans leurs modèles météorologiques. Et le traitement d’une seule fraction de ces données a nécessité une augmentation exponentielle de la puissance de calcul utilisée pour réaliser des prévisions précises.

Les dernières technologies d’intelligence artificielle fonctionnent de manière totalement différente des techniques antérieures, en « entraînant » des réseaux neuronaux à l’aide de ce déluge de données plutôt qu’au moyen des lois de la physique. Au lieu de recourir à des calculs exhaustifs pour prévoir l’évolution météorologique sur la base des conditions actuelles, ces réseaux passent en revue les données relatives aux conditions passées et développent leur propre compréhension de l’évolution du temps. Des techniques rudimentaires d’intelligence artificielle sont appliquées aux domaines météorologique et climatique depuis des années – la première conférence sur l’intelligence artificielle parrainée par la National Oceanic and Atmospheric Administration remonte à 1986 – mais les récentes avancées de l’apprentissage profond, de même qu’un meilleur accès aux ordinateurs capables de l’exécuter, se sont traduits par une augmentation rapide de la recherche.

Les prévisions météorologiques actuelles consomment déjà une telle puissance de calcul qu’elles nécessitent l’utilisation des ordinateurs les plus rapides au monde, et les scientifiques s’emploient en permanence à en repousser les limites

L’intelligence artificielle n’est pas utilisée, du moins à ce stade, pour produire seule des prévisions. De fait, les méthodes classiques sont assez performantes : deux semaines avant la vague de froid qui s’est abattue mi-février sur le Texas, le bureau des services météorologiques nationaux de Fort Worth avait prédit des températures inhabituellement basses, et une semaine avant les intempéries, de nombreux modèles en avaient évalué l’intensité à quelques degrés près. Ted Ryan, un météorologue de Fort Worth, explique que les équipes locales recourent parfois à des prévisions produites par un algorithme sophistiqué d’apprentissage automatique afin de déterminer si les résultats sont très différents des prévisions humaines, mais l’utilisation de cet outil ne fait pas partie de leur travail de prévision et de communication quotidien. Il classe l’algorithme « quelque part entre une curiosité et une nouveauté ».

Une autre difficulté posée par l’intelligence artificielle est qu’elle est particulièrement efficace pour prédire des scénarios figurant couramment dans les données qui servent à son développement ; or, les conditions météorologiques importent justement lorsqu’elles sortent de l’ordinaire – comme la vague de froid au Texas, où les températures n’avaient pas été aussi basses depuis 1899.

Ce n’est pas parce que ces nouvelles techniques n’ont pas encore remplacé les méthodes classiques de prévision qu’elles ne vont pas rapidement affecter ces dernières. Les prévisions météorologiques actuelles consomment déjà une telle puissance de calcul qu’elles nécessitent l’utilisation des ordinateurs les plus rapides au monde, et les scientifiques s’emploient en permanence à en repousser les limites. Les techniques d’apprentissage automatique peuvent réduire l’utilisation d’énergie en imitant en partie les modèles météorologiques mondiaux à l’aide de calculs plus simples et moins consommateurs d’électricité – et avec des résultats assez proches en termes de précision.

Sid Boukabara, responsable scientifique au centre d’applications et de recherches satellitaires de la National Oceanic and Atmospheric Administration, estime que les bénéfices seront importants : « Dans le cas de certains composants, l’efficacité pourrait être de 10 à 1 000 fois supérieure. » Il est toutefois trop tôt pour savoir à quel point l’exactitude des prévisions numériques en sera améliorée.

De son côté, le Centre européen pour les prévisions météorologiques à moyen terme effectue actuellement une simulation du globe terrestre sous la forme d’une grille composée de carrés de 9 kilomètres de côté, empilés sur 137 « étages » dans l’atmosphère. Le directeur adjoint du Centre, Peter Bauer, explique que chaque degré de précision supplémentaire entraîne une augmentation exponentielle de l’utilisation d’électricité : le nouveau superordinateur du Centre à Bologne, en Italie, consommera autant d’électricité que 6 000 foyers. Ses collègues et lui s’approchent rapidement des limites de ce qu’ils peuvent dépenser, ou justifier, indique M. Bauer.

Cette année, en faisant appel aux méthodes de l’intelligence artificielle pour améliorer son efficacité, le Centre commencera à élaborer un nouveau modèle mondial, avec une résolution de 1 kilomètre, qui permettra de mieux cerner les tempêtes et tourbillons océaniques, précise M. Bauer. « Des machines plus grosses et plus rapides nous apportent une puissance de calcul toujours plus importante, mais il faut que nous changions radicalement les codes que nous utilisons pour garantir l’efficacité d’usage. »

Des prévisions plus localisées

Les chercheurs jugent l’intelligence artificielle prometteuse dans des applications plus circonscrites, par exemple l’utilisation de l’apprentissage automatique pour produire des prévisions très localisées, plus utiles pour le public destinataire. Les meilleurs modèles météorologiques mondiaux eux-mêmes ont une résolution spatiale de plusieurs kilomètres : s’ils peuvent prévoir avec exactitude le temps qu’il va faire dans un département, ils sont moins à même de le faire pour un quartier. Selon les chercheurs, l’apprentissage profond pourrait permettre de réduire l’échelle géographique et de produire des prévisions plus détaillées, à la manière de ce qui s’est passé dans le domaine de la photographie. L’apprentissage profond complète les prévisions météorologiques issues des méthodes classiques à l’aide d’informations comme la topographie, de façon à déterminer la manière dont des tendances générales se traduiront dans certains lieux en particulier.

L’apprentissage automatique pourrait aussi s’avérer crucial pour l’établissement de prévisions immédiates précises, qui impliquent des calculs rapides hors de portée des méthodes classiques. Au printemps dernier, deux scientifiques de Google Research ont montré que des réseaux neuronaux profonds qui n’avaient fait l’objet d’aucun encodage explicite des lois physiques pouvaient prévoir les précipitations dans les huit heures à venir de manière plus performante que d’autres modèles de pointe. L’un d’eux, Nal Kalchbrenner, explique qu’ils cherchaient à accroître la qualité et la durée des prévisions. « Cela ouvre la voie à une utilisation à grande échelle de l’intelligence artificielle dans le domaine des sciences météorologiques et climatiques. »

Gouvernements et grandes entreprises sont conscients du potentiel de l’intelligence artificielle. En octobre dernier, la National Oceanic and Atmospheric Administration et Google ont annoncé un partenariat visant à étudier comment l’apprentissage automatique pouvait aider l’agence à utiliser de façon plus efficace les données satellitaires et environnementales

Obtenir des prévisions précises ne serait-ce qu’une ou deux heures plus tôt pourrait avoir des conséquences considérables pour les entreprises, qui ne sont pas exposées aux mêmes risques que les particuliers. « Si vous entendez qu’il va y avoir de la grêle, vous pouvez rapidement rentrer votre voiture au garage, explique Mme McGovern. Mais pour un constructeur ou concessionnaire automobile avec 1 000 voitures à l’extérieur, cela prend beaucoup plus de temps. » L’an dernier, elle a co-écrit une étude montrant que l’apprentissage automatique améliorait les prévisions à court terme relatives aux averses de grêle, compensant le nombre limité de données mondiales par l’analyse de milliers de rapports de tempêtes de grêle localisées. Mme McGovern travaille actuellement avec la National Oceanic and Atmospheric Administration à l’élaboration d’une solution opérationnelle fondée sur cette technique.

Gouvernements et grandes entreprises sont conscients du potentiel de l’intelligence artificielle. En octobre dernier, la National Oceanic and Atmospheric Administration et Google ont annoncé un partenariat visant à étudier comment l’apprentissage automatique pouvait aider l’agence à utiliser de façon plus efficace les données satellitaires et environnementales. En janvier, le National Center for Atmospheric Research a investi 35 millions de dollars dans un nouveau superordinateur mieux équipé pour supporter les dernières technologies d’intelligence artificielle. Et la National Oceanic and Atmospheric Administration tout comme le Centre européen ont récemment annoncé des stratégies d’intégration de l’intelligence artificielle dans leurs travaux.

Certains chercheurs de premier plan, prudents quant à l’engouement actuel pour tout ce qui touche à l’intelligence artificielle, soulignent qu’il ne faut pas tout attendre de ces technologies. L’un d’eux, Stephan Rasp, n’y est pas opposé : il a co-écrit l’une des premières études montrant que l’intelligence artificielle pouvait imiter de manière efficace une partie du travail de prévision, et le nom de la start-up qui l’emploie en tant qu’expert en mégadonnées – Climate.ai – fait directement référence à cette technologie. Le chercheur note toutefois qu’une grande part des recherches en sont encore au stade de la démonstration de faisabilité ; si l’application de l’intelligence artificielle à des séries de données simplifiées a été concluante, il existe encore peu d’exemples d’amélioration effective des prévisions météorologiques et climatiques.

Dans ce domaine, il estime qu’il pourrait falloir dix ans pour déterminer où l’intelligence artificielle peut être utile ou non. « Lorsque l’on dispose d’un marteau, on tend à considérer tous les problèmes comme des clous. J’ai l’impression que c’est ce qu’il se passe en ce moment. »

(Traduit à partir de la version originale en anglais par Anne Montanaro)

Des dangers potentiels de l’intelligence artificielle

 Des dangers potentiels de l’intelligence artificielle

Le cabinet d’études McKinsey constate le manque manifeste de diligence de certaines entreprises concernant les risques liés à l’IA, notamment sur les questions de conformité et de protection de la vie privée

 

Tribune

Pour que les entreprises puissent réduire les dangers potentiels résultants de leurs projets dans l’intelligence artificielle, elles doivent d’abord admettre l’existence de risques liés à l’adoption de cette technologie. Les récentes conclusions de la société de conseil McKinsey montrent que de nombreuses entreprises sont en retard sur ces deux points.

La pandémie a accéléré l’adoption de l’intelligence artificielle : les entreprises trouvent dans cette technologie des opportunités pour repenser leurs processus opérationnels et leurs business models. Mais la mise en œuvre de l’IA s’accompagne de risques potentiels. Par exemple, un modèle conçu pour accélérer la procédure d’attribution de prêts hypothécaires pourrait se révéler partial, en discriminant une certaine catégorie de la population, et les entreprises qui n’identifient pas correctement les données puis n’excluent pas celles revêtant un caractère personnel au sein des grands volumes de données utilisés dans les projets d’IA pourraient écoper d’amendes en vertu du Règlement général sur la protection des données (RGPD) européen.

Une récente enquête de McKinsey révèle que moins de la moitié des personnes interrogées dont les entreprises utilisent l’IA identifient ces risques — notamment ceux liés à la conformité réglementaire et au respect de la vie privée — comme « pertinents » concernant leurs projets d’IA. Seul le risque relevant de questions de cybersécurité est considéré comme pertinent par plus de la moitié des personnes interrogées.

La société de conseil en gestion déclare trouver ces résultats, publiés à la mi-novembre, préoccupants.

« Il est difficile de comprendre pourquoi les risques systématiques ne sont pas identifiés par une proportion beaucoup plus élevée de répondants », écrit Roger Burkhardt, partner chez McKinsey, dans une note publiée avec les résultats.

Près de 2 400 cadres et dirigeants, évoluant dans des secteurs variés et des entreprises de tailles différentes ont répondu à cette enquête internationale, menée au mois de en juin. Environ 1 150 ont déclaré que leur société avait déjà adopté l’IA dans au moins une de ses missions. La société de conseil a demandé à ces entreprises quels risques elles considéraient comme pertinents et quel type de risques elles essayaient concrètement de traiter ou de réduire.

Sur les répondants, 38 % affirment s’efforcer de limiter les risques en matière de conformité réglementaire et 30 % assurent qu’ils travaillent pour diminuer ceux liés au respect de la vie privée, ce qui représente, pour ces deux sujets, des pourcentages légèrement supérieurs à ceux enregistrés dans une enquête similaire réalisée par McKinsey en 2019.

Michael Chui, partner chez McKinsey Global Institute, la branche de la société spécialisée dans la recherche économique et le monde de l’entreprise, explique que la société de conseil ne donnait pas de définition des termes « pertinent » ou « risque » aux personnes interrogées. Il fait également remarquer que tous les risques ne concernent pas toutes les entreprises. Par exemple, les questions de sécurité physique des personnes vont probablement être moins importantes pour une société de services financiers que pour une entreprise de robotique.

Néanmoins, la plupart des entreprises sont concernées par un grand nombre des dix risques générés par l’IA qu’aborde l’enquête, précise-t-il. Il souligne que, si une entreprise ne considère pas un risque comme pertinent, elle ne va probablement pas chercher à en limiter la portée.

Bruce Ross, responsable groupe des services technologie et opérations de la Royal Bank of Canada, est surpris de constater que les sociétés ne sont pas plus nombreuses à se préoccuper des risques liés à l’IA tournant autour du respect de la vie privée et de la réputation de l’entreprise.

La banque, basée à Toronto, utilise notamment l’IA dans le cadre de la détection des fraudes, de l’analyse des risques, et des opérations sur les marchés de capitaux. Parlant des établissements financiers, il explique que, si des systèmes d’intelligence artificielle prennent des décisions, la conformité réglementaire et la cybersécurité deviennent alors des domaines générant des risques importants qui doivent être traités. « Les banques négocient sur la base de la confiance », rappelle-t-il.

L’un des principaux obstacles à l’évaluation et à la limitation des risques est tout simplement la prise de conscience de leur existence, précise M. Chui, de chez McKinsey. Les personnes qui mettent en œuvre des systèmes d’IA sont focalisées sur des objectifs commerciaux, comme l’augmentation des ventes ou la réduction du taux de résiliations, précise-t-il. Elles sont donc susceptibles de ne pas pleinement admettre les risques résultant de cette technologie.

Zico Kolter, directeur scientifique des recherches sur l’IA au Bosch Center for Artificial Intelligence de Bosch et professeur associé à l’Ecole de science informatique de l’Université Carnegie-Mellon, le confirme. « Comme les entreprises se précipitent pour adopter cette nouvelle technologie afin de conserver leur longueur d’avance, il existe toujours un risque d’ignorer certains de ses inconvénients », assure-t-il.

Le travail de Bosch en matière d’IA couvre ses gammes de produits de détection intelligente, comme les capteurs et les caméras permettant aux systèmes de conduite autonomes de reconnaître les panneaux de signalisation. Pour limiter l’ensemble des risques en matière de sécurité, la société fait des recherches sur différents procédés, dont une technique appelée « adversarial training ». Elle consiste à apprendre à un système d’IA analysant les objets à les reconnaître en utilisant les scénarios les plus défavorables. Cela permet au système d’obtenir de bons résultats, même s’il est soumis à une éventuelle attaque.

M. Chui indique que les entreprises peuvent prendre des mesures pour accroître la sensibilisation et réduire les risques, par exemple en recrutant des personnes disposant de compétences variées dans leurs différents services afin de les évaluer et de les diminuer.

Olly Downs, vice-président du marketing, de la technologie, des données et de l’apprentissage automatique chez le détaillant en ligne Zulily, affirme que son équipe rencontre notamment des cadres de la technologie, du marketing, de la chaîne d’approvisionnement et du service juridique pour mener son évaluation mensuelle des activités concernant les projets d’IA. Elle organise également des réunions régulières où toute l’entreprise discute des projets impliquant l’IA.

M. Chui, de McKinsey, s’attend à ce que les entreprises accordent plus d’attention, à la fois, aux risques liés à l’IA et à leur limitation à un moment où elles intègrent l’usage de cette technologie. « Prévoit-on que ces risques vont augmenter avec le temps ? Oui, clairement », conclut-il.

 

L’intelligence artificielle: un outil de lutte contre les situations oligopolistiques

L’intelligence artificielle: un outil de lutte contre les situations oligopolistiques

Le juriste Thibault Schrepel présente, dans une tribune au « Monde », les avantages des nouveaux outils informatiques pour traquer abus de position dominante, collusions algorithmiques ou agissements illégaux des géants du numérique.

Tribune. Chaque nouvelle semaine révèle son lot de nouvelles affaires en droit de la concurrence. Ces derniers mois, Amazon, Apple, Facebook, Google – qui vient d’être condamné, mercredi 10 février, à 1 million d’euros d’amende par le tribunal de commerce de Paris pour abus de position dominante dans la publicité –, et bien d’autres encore ont fait l’objet de nouvelles procédures et allégations.

Bien souvent, ces entreprises sont accusées d’avoir manipulé leurs produits et services de sorte à diminuer la pression concurrentielle. Dans le même temps, les autorités de concurrence expriment des difficultés croissantes à détecter et analyser ces pratiques. Il faut dire que les stratégies des entreprises du numérique se complexifient au fur et à mesure des avancées technologiques.

Face à ce constat, la Commission européenne veut faire le pari d’introduire des mesures ex ante dont l’objectif est de prévenir la mise en œuvre de pratiques anticoncurrentielles. Le Digital Markets Act (DMA) présenté le 15 décembre 2020 par les commissaires européens Margrethe Vestager et Thierry Breton relève de cette logique. Il s’adresse aux grandes entreprises du numérique et vise à interdire de nombreux comportements listés aux articles 5 et 6.

Par exemple, la Commission veut empêcher « l’auto-préférencement » (par lequel une entreprise met en avant l’un de ses produits sur sa propre plate-forme). Elle entend également interdire l’utilisation des données personnelles provenant d’un service développé par ces entreprises pour en modifier un autre, que ce soit ou non pour l’améliorer.

Dans le préambule du DMA, la Commission dit avoir suffisamment d’expérience pour établir une liste de pratiques qui n’interdise que celles qui sont néfastes. Toutefois, les pratiques d’auto-préférencement n’ont fait l’objet que d’une seule décision au niveau européen. C’était en 2017 dans l’affaire Google Shopping. Les pratiques d’association des données font quant à elles l’objet d’une enquête en cours contre Amazon. Il s’agit de la première du genre.

Aucune de ces affaires n’a logiquement fait l’objet d’un arrêt par la Cour de justice de l’Union européenne. Enfin, relevons qu’il existe des situations dans lesquelles ces pratiques, bien que généralement anticoncurrentielles, peuvent bénéficier au consommateur.

Ces géants de la tech pourraient, par exemple, utiliser leurs plates-formes et leurs agrégateurs afin de promouvoir de nouveaux produits dans les secteurs de l’automobile, des télécoms ou de la banque. Le DMA pourrait compliquer ces entrées sur le marché. En établissant une liste définitive, la Commission risque de graver dans le marbre l’interdiction de certaines stratégies qui contribuent parfois à l’innovation.

Les dangers potentiels de l’intelligence artificielle

Les  dangers potentiels de l’intelligence artificielle

McKinsey constate le manque manifeste de diligence de certaines entreprises concernant les risques liés à l’IA, notamment sur les questions de conformité et de protection de la vie privée(article de John McCormick dans le Wall Street Journal repris dans l’Opinion)

 

Le siège de l’entreprise allemande Bosch, à Stuttgart.

 

Pour que les entreprises puissent réduire les dangers potentiels résultants de leurs projets dans l’intelligence artificielle, elles doivent d’abord admettre l’existence de risques liés à l’adoption de cette technologie. Les récentes conclusions de la société de conseil McKinsey montrent que de nombreuses entreprises sont en retard sur ces deux points.

La pandémie a accéléré l’adoption de l’intelligence artificielle : les entreprises trouvent dans cette technologie des opportunités pour repenser leurs processus opérationnels et leurs business models. Mais la mise en œuvre de l’IA s’accompagne de risques potentiels. Par exemple, un modèle conçu pour accélérer la procédure d’attribution de prêts hypothécaires pourrait se révéler partial, en discriminant une certaine catégorie de la population, et les entreprises qui n’identifient pas correctement les données puis n’excluent pas celles revêtant un caractère personnel au sein des grands volumes de données utilisés dans les projets d’IA pourraient écoper d’amendes en vertu du Règlement général sur la protection des données (RGPD) européen.

Une récente enquête de McKinsey révèle que moins de la moitié des personnes interrogées dont les entreprises utilisent l’IA identifient ces risques — notamment ceux liés à la conformité réglementaire et au respect de la vie privée — comme « pertinents » concernant leurs projets d’IA. Seul le risque relevant de questions de cybersécurité est considéré comme pertinent par plus de la moitié des personnes interrogées.

La société de conseil en gestion déclare trouver ces résultats, publiés à la mi-novembre, préoccupants.

« Il est difficile de comprendre pourquoi les risques systématiques ne sont pas identifiés par une proportion beaucoup plus élevée de répondants », écrit Roger Burkhardt, partner chez McKinsey, dans une note publiée avec les résultats.

Près de 2 400 cadres et dirigeants, évoluant dans des secteurs variés et des entreprises de tailles différentes ont répondu à cette enquête internationale, menée au mois de en juin. Environ 1 150 ont déclaré que leur société avait déjà adopté l’IA dans au moins une de ses missions. La société de conseil a demandé à ces entreprises quels risques elles considéraient comme pertinents et quel type de risques elles essayaient concrètement de traiter ou de réduire.

Sur les répondants, 38 % affirment s’efforcer de limiter les risques en matière de conformité réglementaire et 30 % assurent qu’ils travaillent pour diminuer ceux liés au respect de la vie privée, ce qui représente, pour ces deux sujets, des pourcentages légèrement supérieurs à ceux enregistrés dans une enquête similaire réalisée par McKinsey en 2019.

Michael Chui, partner chez McKinsey Global Institute, la filiale de la société spécialisée dans la recherche économique et le monde de l’entreprise, explique que la société de conseil ne donnait pas de définition des termes « pertinent » ou « risque » aux personnes interrogées. Il fait également remarquer que tous les risques ne concernent pas toutes les entreprises. Par exemple, les questions de sécurité physique des personnes vont probablement être moins importantes pour une société de services financiers que pour une entreprise de robotique.

Néanmoins, la plupart des entreprises sont concernées par un grand nombre des dix risques générés par l’IA qu’aborde l’enquête, précise-t-il. Il souligne que, si une entreprise ne considère pas un risque comme pertinent, elle ne va probablement pas chercher à en limiter la portée.

Bruce Ross, responsable groupe des services technologie et opérations de la Royal Bank of Canada, est surpris de constater que les sociétés ne sont pas plus nombreuses à se préoccuper des risques liés à l’IA tournant autour du respect de la vie privée et de la réputation de l’entreprise.

La banque, basée à Toronto, utilise notamment l’IA dans le cadre de la détection des fraudes, de l’analyse des risques, et des opérations sur les marchés de capitaux. Parlant des établissements financiers, il explique que, si des systèmes d’intelligence artificielle prennent des décisions, la conformité réglementaire et la cybersécurité deviennent alors des domaines générant des risques importants qui doivent être traités. « Les banques négocient sur la base de la confiance », rappelle-t-il.

L’un des principaux obstacles à l’évaluation et à la limitation des risques est tout simplement la prise de conscience de leur existence, précise M. Chui, de chez McKinsey. Les personnes qui mettent en œuvre des systèmes d’IA sont focalisées sur des objectifs commerciaux, comme l’augmentation des ventes ou la réduction du niveau des résiliations, précise-t-il. Elles sont donc susceptibles de ne pas pleinement admettre les risques résultant de cette technologie.

Zico Kolter, directeur scientifique des recherches sur l’IA au Bosch Center for Artificial Intelligence de Bosch et professeur associé à l’Ecole de science informatique de l’Université Carnegie-Mellon, le confirme. « Comme les entreprises se précipitent pour adopter cette nouvelle technologie afin de conserver leur longueur d’avance, il existe toujours le risque d’ignorer certains de ses inconvénients », assure-t-il.

Le travail de Bosch en matière d’IA couvre ses gammes de produits de détection intelligente, comme les capteurs et les caméras permettant aux systèmes de conduite autonomes de reconnaître les panneaux de signalisation. Pour limiter l’ensemble des risques en matière de sécurité, la société fait des recherches sur différents procédés, dont une technique appelée « adversarial training ». Elle consiste à apprendre à un système d’IA analysant les objets à les reconnaître en utilisant les scénarios les plus défavorables. Cela permet au système d’obtenir de bons résultats même s’il est soumis à une éventuelle attaque.

M. Chui indique que les entreprises peuvent prendre des mesures pour accroître la sensibilisation et réduire les risques, par exemple en recrutant des personnes disposant de compétences variées dans leurs différents services afin de les évaluer et de les diminuer.

Olly Downs, vice-président du marketing, de la technologie, des données et de l’apprentissage automatique chez le détaillant en ligne Zulily, affirme que son équipe rencontre notamment des cadres de la technologie, du marketing, de la chaîne d’approvisionnement et du service juridique pour mener son évaluation mensuelle des activités concernant les projets d’IA. Elle organise également des réunions régulières où toute l’entreprise discute des projets impliquant l’IA.

M. Chui, de McKinsey, s’attend à ce que les entreprises accordent plus d’attention, à la fois, aux risques liés à l’IA et à leur limitation à un moment où elles intègrent l’usage de cette technologie. « Prévoit-on que ces risques vont augmenter avec le temps ? Oui, clairement », conclut-il.

Traduit à partir de la version originale en anglais

Comment mettre l’intelligence artificielle à grande échelle (Mohit Joshi)

 Comment mettre l’intelligence artificielle à grande échelle (Mohit Joshi)

 

Mohit Joshi, Président d’Infosys explique comment mettre en œuvre l’IA à grande échelle:  les entreprises doivent prendre soin de leurs talents internes, mettre l’éthique au premier plan et développer une stratégie à l’échelle de l’entreprise pour la technologie sur toute la chaîne de valeur( chronique de la Tribune)

 

Nous sommes fermement ancrés dans la cinquième révolution industrielle, une révolution basée sur l’intelligence artificielle (IA). Tout a commencé par l’ordinateur central, puis les ordinateurs personnels dans les années 1980, suivis par Internet, et enfin l’agilité et la puissance du cloud computing dans les années 2010. Cette cinquième vague informatique sera la plus retentissante à ce jour, avec des capacités qui promettent toujours plus d’initiatives et d’exploration humaines.

Toutefois, un problème se pose. Bien que l’IA soit adaptée aux entreprises, nombre d’entre elles ne parviennent pas à en tirer pleinement profit. L’innovation est tellement rapide que les entreprises n’arrivent pas à suivre le rythme. En 2015, les chercheurs ont publié 10.000 articles scientifiques sur l’IA. En 2019, ce chiffre est passé à 25 000 rien qu’aux États-Unis. Pour de nombreux dirigeants, cette situation est inquiétante, surtout lorsqu’on sait qu’une bonne utilisation de l’IA devrait améliorer les bénéfices de l’entreprise de 38 % et permettrait d’offrir 14 000 milliards de dollars de valeur ajouté aux entreprises d’ici 2035.

Il serait donc judicieux que les entreprises à la traîne tirent les enseignements des organisations plus avancées en matière d’IA. Dans notre étude, nous avons découvert que les leaders en matière d’IA plaçaient la technologie au cœur de leur activité et de leurs modèles d’exploitation. Ils l’utilisent pour découvrir, démocratiser et réduire les risques inhérents à l’utilisation de l’IA. Pour ces entreprises, l’IA fait partie intégrante de leur ADN et leur permet de proposer de meilleurs produits, d’améliorer l’expérience client et d’obtenir davantage de valeur ajoutée auprès de leur écosystème de partenaires.

À l’inverse, les entreprises ayant pris du retard utilisent principalement l’IA pour améliorer l’efficacité plutôt que pour changer la façon dont l’entreprise gagne de l’argent. Pour prendre une longueur d’avance, ces entreprises doivent requalifier les employés, s’assurer que l’adoption de l’IA n’est pas fragmentée, développer des cadres éthiques et de gouvernance solide, et informer les dirigeants des risques et opportunités liés à l’adoption de l’IA. Cela permettrait d’augmenter les marges opérationnelles d’au moins 3 %. Pour une entreprise de services financiers dont les revenus s’élèvent à 10 milliards de dollars, cela équivaut à 300 millions de dollars supplémentaires de revenus, ce qui n’est pas négligeable.

La plupart des talents en science des données se tournant vers les grandes entreprises technologiques, les entreprises de services financiers leaders en matière d’IA se démarquent par leur capacité à requalifier la main d’œuvre. Elles utilisent des plateformes numériques et des outils d’auto-modélisation pour garantir un apprentissage permanent. C’est crucial. Il est maintenant temps pour les entreprises de former leurs talents internes, c’est-à-dire ces employés qui connaissent parfaitement l’entreprise et qui peuvent repérer les cas d’utilisation pertinents pour l’IA plus rapidement que les nouveaux embauchés.

Il est également essentiel de réunir les équipes sous un seul et même cadre d’IA au sein de toute l’entreprise. En effet, des opérations d’IA réussies peuvent accroître les marges opérationnelles d’au moins 6 % (ce qui représente 600 millions de dollars supplémentaires pour une entreprise dont les revenus s’élèvent à 10 milliards de dollars). Ces entreprises visionnaires s’assurent généralement que les équipes commerciales, financières et technologiques travaillent ensemble sur les projets d’IA tout au long du cycle de vie de l’IA, le plus souvent via un centre d’excellence. Les employés sont formés plus rapidement, les bons processus de gestion des changements sont regroupés afin que les solutions d’IA évoluent rapidement du stade de pilote au stade du déploiement et que l’IA au sein de l’entreprise soit en mesure de répondre aux attentes.

 

Pour obtenir des résultats et développer l’intelligence à grande échelle, il est nécessaire de développer une vision globale de l’IA d’entreprise qui repose sur des plateformes d’IA professionnelles. En outre, en tirant profit du produit visionnaire, du domaine et de conseils d’experts, les entreprises sont assurées d’obtenir des bénéfices exponentiels au fil du temps.

Des cadres d’IA éthiques et de gouvernance solide doivent être établis dès le départ. Cela permet de garantir des déploiements d’IA justes, équitables et impartiaux. Nous avons constaté que ces entreprises qui ont défini ces cadres surpassent d’au moins 25 % les entreprises retardataires sur un certain nombre d’indicateurs de performance clés de l’entreprise. Toutefois, il n’est pas toujours évident d’éliminer toute déformation inconsciente de ces données. C’est ici que le mandat organisationnel pour des solutions d’IA efficaces et explicables intervient.

Les employés qui utilisent l’IA en back office ou avec les clients doivent rapidement être informés des pratiques éthiques. Les algorithmes d’apprentissage automatique doivent être en mesure d’expliquer les décisions qu’ils prennent, de façon à ce qu’elles soient comprises par les autorités d’IA, notamment les régulateurs. Sans ce pilier d’IA, des éthiques d’IA imparfaites peuvent ruiner la réputation d’une entreprise financière en un instant, auprès des partenaires et des consommateurs.

Enfin, les leaders de l’IA doivent connaître l’impact des technologies sur un certain nombre d’aspects, notamment le modèle commercial, les employés, les partenaires, les clients et la société dans son ensemble. De nombreux dirigeants rencontrent des difficultés dans ces domaines et n’ont qu’une vague idée de la façon dont l’IA peut améliorer les marges et leur permettre de devancer la concurrence. Si 2020 est l’année de l’IA, alors cela doit également être l’année au cours de laquelle les dirigeants des entreprises financières commencent leur apprentissage de l’IA.

L’IA étant présente dans tous les aspects de notre vie, le temps est venu pour les entreprises d’accélérer le mouvement vers des statuts d’IA visionnaires. De l’IA normatif utilisé dans les stratégies de fonds de roulement et la réduction du risque opérationnel au traitement du langage naturel utilisé pour extraire les attributs sensibles des contrats, les applications innovantes de l’IA améliorent les entreprises de services financiers et leur permettent d’être plus rapides et plus agiles.

Pour mettre en œuvre l’IA à grande échelle, les entreprises de services financiers doivent prendre soin de leurs talents internes, mettre l’éthique au premier plan et développer une stratégie à l’échelle de l’entreprise pour la technologie sur toute la chaîne de valeur. Ce faisant, nos clients seront les annonciateurs de la cinquième révolution industrielle.

 

Quelle régulation de l’intelligence artificielle

Quelle régulation de l’intelligence artificielle

L’informaticien et philosophe Jean-Gabriel Ganascia estime que les Etats doivent se saisir de ces questions et prendre leurs responsabilités, afin de ne pas s’en remettre uniquement aux acteurs privés.(Interview dans le monde)

Elon Musk a présenté, le 28 août, les recherches de sa société Neuralink visant, avec le recours de l’intelligence artificielle, à soigner des pathologies et augmenter les capacités cérébrales. Comment analysez-vous ces annonces ?

Les déclarations d’Elon Musk sont problématiques. Sa société travaille sur les implants cérébraux et sur les interfaces cerveaux-ordinateurs. Nous savons que quand une personne a une activité cérébrale, ses neurones émettent des signaux électriques. Les recherches dans le domaine des interfaces visent à analyser ces signaux grâce à des techniques d’apprentissage machine, afin de les transformer par exemple en commande d’un objet, d’une prothèse, etc. On parle ici d’un signal qui part de l’homme vers une machine.

Elon Musk, lui, laisse entendre qu’il pourrait aussi avoir un signal retour, de la machine vers l’homme donc. Nous pourrions, à terme, tous être connectés au réseau par nos cerveaux et bénéficier d’informations mises en commun. En étant tous liés par un « lacet neuronal » nous deviendrions d’une certaine manière transparents les uns aux autres. Il y a, derrière cette idée, la théorie selon laquelle l’intelligence artificielle va nous dépasser et qu’il faut, pour rivaliser, augmenter notre mémoire.

D’où vient cette notion de mémoire augmentée ?

En partie des auteurs de science-fiction, comme l’Ecossais Iain Banks (1954-2013), qui, dans la seconde moitié du XXe siècle, utilise le terme de « lacet neuronal » repris par Elon Musk dans sa présentation. Mais on trouve des liens encore plus anciens. Le physicien Vannevar Bush (1890-1974), conseiller scientifique du président Roosevelt, a écrit en 1945 – avant le premier ordinateur électronique – un texte visionnaire, As We May Think (« comme nous pourrions penser »), où il imagine le Memex (Memory Extender), un extenseur de mémoire pour gérer le savoir technologique en constante augmentation.

Il imagine, dessin à l’appui, un verre dépoli, l’équivalent d’un écran, sur lequel pourrait être projeté de l’information. Dans la conclusion du texte, il évoque les ondes électriques cérébrales et s’interroge : « Peut-être qu’un jour, on saura quelle est leur nature et on pourra passer, sans intermédiaire, directement de l’électricité extérieure, remplie d’information, à l’électricité intérieure. » On peut voir une certaine continuité entre sa vision et celle d’Elon Musk.

 

L’enjeu de la régulation de l’intelligence artificielle

L’enjeu de la régulation de l’intelligence artificielle

 

Florian Ingen-Housz, partner au sein d’Altermind, et Victor Storchan, ingénieur en IA dans l’industrie financière, explique l’enjeu de la régulation de l’intelligence artificielle (IA) dans la Tribune

 

 

En février dernier, la Commission européenne a publié son livre blanc sur la régulation des applications de l’Intelligence Artificielle (IA). Plutôt que de légiférer unilatéralement sur ce sujet, la Commission a choisi, de manière novatrice, une approche consultative et participative en incitant l’ensemble des parties prenantes à cet écosystème à participer à la discussion. Cette approche doit être encouragée, approfondie et accélérée pour ajuster l’état du droit à un état de l’art technologique qui ne cesse de faire surgir des débats juridiques et normatifs inédits. Cette approche est aussi le seul moyen de faire émerger, dans la décennie qui vient, une véritable vision européenne de la Tech, tout à la fois pro-business et respectueuse des libertés individuelles.

Un défi majeur pour les régulateurs

L’IA constitue en effet un défi majeur pour les régulateurs. La vitesse prodigieuse des avancées technologiques doit inviter ces derniers à co-construire la norme avec un écosystème plus large qu’ils n’en ont l’habitude, plutôt que d’imposer celle-ci « par le haut ». Tout comme l’ont montré les débats sur la bioéthique depuis les années 1970, la régulation technologique est avant tout un choix de société et par conséquent un effort continu. La question se pose néanmoins avec une acuité particulière pour le déploiement de l’IA, compte tenu de l’ambiguïté de ses définitions, de sa nature stochastique et de l’opacité des multiples modèles sur lesquels elle est bâtie. Cette opacité est aggravée par l’hypercroissance de l’écosystème (50% de plus de papiers soumis à NeurIPS – une des conférences majeures de la discipline - en 2019 par rapport à l’année précédente), qui rend immédiatement obsolètes des savoirs difficilement acquis par des régulateurs parfois mal-équipés sur le plan technique. Si la régulation est évidemment primordiale pour permettre l’adoption, créer du consensus et de la confiance envers cette technologie, son élaboration devra donc être suffisamment (i) spécifique dans son champ d’application pour être « implémentable », (ii) inclusive et ouverte dans sa démarche et (iii) sélective dans ses priorités et son séquencement.

Il faudra donc, dans un premier temps, d’abord s’assurer de la juste définition de l’objet ciblé. Ce besoin de spécificité dans un domaine aux frontières floues soulève un premier défi : celui de la sémantique. Le concept d’IA est imprécis, même pour les experts. Contrairement aux précédentes vagues de disruption technologique, que ce soit la machine à vapeur, l’électricité, la chimie ou même les premiers programmes informatiques, les contours de l’IA sont moins tangibles. Ainsi, en 2013, l’Etat du Nevada a dû ainsi revoir sa définition de l’IA pour les véhicules autonomes car celle-ci englobait aussi certains modèles de voitures sophistiquées avec des fonctionnalités de contrôle avancées. La définition de ce qu’est un robot pour l’Union européenne n’est pas non plus satisfaisante. Contrairement à ce que semble indiquer cette dernière, les robots n’acquièrent en effet pas de capacité d’autonomie uniquement grâce aux données et aux capteurs dont ils disposeraient. Comme le montrent les travaux de Bryan Casey et Mark A. Lemley (Stanford Law School) lorsque cela est possible, une manière de contourner le problème sémantique est de s’assurer que la régulation cerne en priorité les comportements des individus et non pas les techniques, les types d’algorithmes ou les robots.

Faire coopérer des acteurs très divers

L’efficacité de la régulation pour l’IA se mesurera aussi à sa capacité à faire coopérer des acteurs très divers. Les usages de cette technologie doivent être appréhendés non pas in-vitro mais au sein d’écosystèmes technico-sociaux complexes où elle est déployée. Ainsi cette coopération doit à la fois s’effectuer horizontalement et verticalement. Horizontalement d’abord, par la co-construction entre juristes, techniciens, et chercheurs, mais également sociologues et citoyens qui via les décideurs publics seront les utilisateurs de ces systèmes d’IA. Ces derniers doivent être dotés d’outils pour améliorer leur capacité à contester la décision d’un modèle afin de créer de la confiance. Le dialogue doit aussi être plurilatéral, non seulement par une coordination entre pays et puissances régionales, mais aussi en incluant les ONG, la société et l’industrie.

 

Cette coopération est aussi verticale. Pour être opérant, le processus délibératif d’une gouvernance globale doit pouvoir être traduit en termes techniques par les ingénieurs et les chercheurs qui conçoivent les modèles. Cependant, pour être parfaitement efficace et agile, cette approche différenciée devra pouvoir s’incarner par une gouvernance dans les entreprises capable de guider les équipes techniques. Ces dernières sont confrontées à plusieurs dilemmes du fait des contraintes techniques, mathématiques ou algorithmiques et ont besoin d’indications précises qui tranchent des compromis entre certaines notions d’éthiques comme l’équité ou le respect de la vie privée. Il est donc nécessaire de faire un choix qui relève presque de philosophie politique. Ces choix sont sociétaux et culturels.

Enfin, lorsqu’une directive réglementaire présente une ambiguïté intrinsèque (dans le but par exemple d’anticiper des développements de technologie future ou pour pouvoir être appliquée à un spectre large d’acteurs), il est précieux que l’écosystème puisse collectivement expliciter les points d’incertitude qui sont sujets à l’interprétation. Cet effort de clarification permettrait d’aligner les efforts de gestion du risque dans les modèles d’IA sur des standards communs. Ces concertations des parties prenantes ont vocation à constituer une « soft law » pour préciser ou compléter au plus près du terrain des principes plus généraux fixant l’esprit et l’intention.

Se concentrer sur un nombre réduit de secteurs

 

Enfin, la régulation pour être efficace doit en priorité se concentrer sur un nombre réduit de secteurs et d’applications sur lesquels une attention immédiate est requise. A titre d’exemple, l’UE propose de calibrer le niveau de régulation selon le niveau de risque que représente une application de l’IA ou un secteur industriel applicatif. La commission propose ainsi une liste de plusieurs secteurs à haut risque comme les transports, la santé ou l’énergie dans lesquels certains déploiements technologiques sensibles devront respecter un ensemble de règles plus exigeant. Cette approche semble raisonnable. Le risque consubstantiel à l’innovation et un principe de précaution aveugle à la diversité des cas d’usages aboutirait à une société du statu quo vidée de sa force entrepreneuriale et créatrice. Les applications dans le secteur public (justice et éducation notamment), la santé font certainement partis des chantiers prioritaires. Les exemples récents de systèmes mal déployés sont légions : les entreprises technologiques comme IBM ou Microsoft ont stoppé leurs services de reconnaissance faciale après que des failles éthiques à répétition aient été identifiées. L’algorithme néerlandais de prédiction de fraude pour les demandeurs de sécurité sociale a été suspendu par une juridiction du pays pour violation des droits de l’homme et de la régulation RGPD sur les données.

Ainsi, les rapports entre les régulateurs et les innovateurs en IA ne peuvent être résumés à un conflit entre le glaive et le bouclier. La multidisciplinarité de cette technologie, ses évolutions rapides et disruptives doivent être accompagnées pour qu’elle serve le plus grand nombre dans la transparence et responsabilité des acteurs.

 

« L’intelligence artificielle contre le coronavirus »

« L’intelligence artificielle contre le coronavirus ».

 

L’intelligence artificielle peut-être très utile à la lutte contre le virus chinois d’après Victor Storchan et Erwan Le Noan *.( Chronique dans l’opinio

 

« 

Dans le roman de Giono, Le hussard sur le toit, Angelo découvre une Provence ravagée par le choléra. Face à l’épidémie, les habitants se confinent dans la peur, alors que les autorités tentent d’organiser, tant bien que mal, un barrage à la propagation de la maladie.

Face à l’urgence d’une crise, les mécanismes d’ajustement d’une société résiliente relèvent à la fois de l’anticipation et de l’improvisation. Anticipation, en se dotant d’un éventail de procédures de réponses coordonnées et d’expertises, qui dessinent les contours de stratégies à déployer quand survient l’imprévu. Improvisation, dans son sens positif où tels des musiciens, les différents acteurs jouent une partition dictée par les aléas de l’événement.

La crise du coronavirus confirme cette dichotomie traditionnelle entre innovation et application de la règle au cœur de la tempête : les plans d’urgence les mieux élaborés sont complétés, dans l’action, par l’initiative humaine. De façon intéressante, les nouvelles technologies comme l’intelligence artificielle (IA) participent pleinement de cette dynamique – révélant que, face aux défis les plus grands, la recherche académique et appliquée permet d’augmenter aussi bien les décisions au plus haut niveau que la pratique la plus concrète.

La publication récente des conclusions des travaux de chercheurs en médecine à l’Université de Wuhan l’illustre parfaitement : en constituant en à peine un mois un jeu de données d’images tomographiques de pneumonies, causées par le Covid-19 d’une part et provenant de pneumonies connues et plus classiques d’autre part, l’équipe a pu construire, grâce à l’IA, un outil d’aide à la décision qui permet aux praticiens d’établir un diagnostic médical avec un gain de temps estimé à 65 %.

Modèles «convolutionnels». L’imagerie médicale et plus généralement la vision assistée par ordinateur comptent parmi les applications les plus robustes de l’intelligence artificielle. Les outils utilisés aujourd’hui fonctionnent en mimant la structure du cortex visuel humain (soit 5 milliards de neurones qui se répartissent en couches successives). Ils ne sont pas nouveaux : le Français Yann LeCun fut, dès les années 1990, un pionnier de cette technique qui s’est diffusée plus largement depuis 2012, grâce à l’utilisation de circuits intégrés modernes. Ces modèles, dits « convolutionnels », sont constitués en couches neuronales qui transmettent successivement l’information en tenant compte de dépendances spatiales dans l’image. Cette méthode permet de détecter des motifs utiles pour la tâche à effectuer.

Cette technique est au cœur du système d’IA conçu à Wuhan pour identifier les pneumonies virales de Covid-19 à partir de plus de 46 000 images tomographiques – collectées en un temps record, reconstituées en mesurant l’absorption des rayons X par les tissus biologiques de 106 patients. Ces couches d’informations ont été assemblées dans une architecture spécialisée dans la segmentation d’images et capable de détecter les traces d’infection pulmonaire, parfois très légères au stade précoce de l’infection (des dixièmes de millimètres).

Les phases d’évaluation ont permis de conclure que l’algorithme fournit une précision comparable à celle des radiologues, sans pour autant s’y substituer : il est utilisé comme outil d’aide à la décision, qui permet de réduire à 40 secondes le temps nécessaire au diagnostic (contre 116 par les meilleurs médecins).

. Cet outil, qui augmente le savoir humain, a donc permis un gain de temps substantiel dans la pratique médicale. C’est essentiel, car la détection précoce de l’infection permet un isolement rapide du patient, alors que l’attente prolongée augmente les risques de surinfection. C’est aussi une espérance de meilleure lutte contre l’épidémie : dans la province chinoise de Hubei, mi-février, plus de 77 000 cas étaient sous observation médicale, dont la plupart nécessitaient un examen radiologique approfondi… alors que moins de 4 500 radiologues exercent dans cette région. La technologie rayonnera au demeurant au-delà : le partage d’une plateforme en libre accès dans le cloud permet aux autres hôpitaux et professionnels de santé de l’utiliser – et aussi de l’auditer.

En médecine, et particulièrement en imagerie médicale, l’utilisation d’algorithmes a une longue histoire. Dans son livre récent – et à succès –, Aurélie Jean explique comment elle les a mobilisés pour de la recherche en biomécanique, dans le but d’évaluer les risques de traumatismes cérébraux lors de chocs. Ces exemples comme les travaux des médecins de Wuhan montrent que, particulièrement dans des moments de crise intense, la recherche académique est un outil puissant de progrès et un éclairage précieux pour augmenter efficacement les décisions humaines, des praticiens aux dirigeants.

* Victor Storchan est spécialiste de machine learning, ancien élève de Stanford. Erwan Le Noan est associé du cabinet Altermind.

La régulation de l’intelligence artificielle ?

La régulation de l’intelligence artificielle ?

 

 

Nozha Boujemaa,Directrice science & innovation chez Median Technologies estime indispensable  la régulation de l’IA. (Tribune dans le Monde)

 

« . La Commission européenne a annoncé fin février sa volonté de réguler l’intelligence artificielle (IA). Celle-ci suscite fantasmes, craintes et fascination. Les industriels européens redoutent le coût financier d’une telle régulation et brandissent le frein à l’innovation. Les consommateurs redoutent les discriminations. Serait-ce l’avenir ou le péril de l’humanité ? On entend l’un et l’autre : l’intelligence artificielle va sauver des vies, l’intelligence artificielle va décider de nos vies.

Existe-il une définition unique de l’intelligence artificielle ? La réponse est non, il y a autant de définitions que d’écoles de pensée et de communautés scientifiques. Par exemple entre l’IA statistique et l’IA symbolique, l’IA faible et l’IA forte, certaines sont explicables et d’autres pas encore. Aucun exercice de définition de l’IA n’a débouché sur un réel consensus, et parfois même l’exercice a été abandonné.

D’ailleurs, c’est une erreur que de personnaliser l’IA. Les algorithmes de l’IA et leurs dérives potentielles de toutes sortes (éthiques ou juridiques) ne sont qu’une codification des opinions de leurs concepteurs et de ceux qui les déploient. La tentation est très forte de réguler tout ce qui semble échapper à notre compréhension et à notre contrôle. Cette approche suppose que le simple fait d’établir de nouvelles règles juridiques sera un rempart protecteur face aux dérives potentielles.

La nécessité d’encadrer juridiquement l’usage des algorithmes de l’IA ne fait pas de doute, tant leurs champs d’application sont étendus et tant les brèches pour certaines dérives au service de leurs concepteurs sont possibles. La régulation des algorithmes de manière générale, et celle de l’IA en particulier, est un terrain de jeu tout à fait nouveau pour les juristes. Il faudrait une transformation numérique du métier juridique pour espérer une réelle efficacité. Il faudrait que les avocats se forment aux algorithmes sans pour autant en devenir spécialistes et que les cabinets d’avocats se dotent de spécialistes de l’IA pour cerner les questions à résoudre.

Autrement, la régulation ne donnera lieu qu’à des mesures descendantes traduisant les principes de ce qui doit être fait mais qui resteront non applicables. Comment un juriste pourrait-il s’assurer qu’un algorithme d’IA respecterait la nouvelle juridiction qui sera mise en place ? Ce qui doit guider la régulation de ce nouveau genre, c’est l’analyse du risque des décisions algorithmiques pour l’humain. Le secteur de la santé est bien en avance dans ce domaine pour l’homologation des services logiciels comme dispositifs médicaux, pour garantir la maîtrise des biais et de la répétabilité. »

 

 

Enjeu de l’intelligence artificielle ?

Un député de la majorité propose un débat sur le sens et les conditions de développement de l’intelligence artificielle. Il n’est pas inutile de revenir sur ce concept à partir de l’introduction au remarquable rapport qu’a effectué la CCI de l’Essonne. Une introduction faite par Éric Villani.

« Qu’est-ce que l’intelligence artificielle ? On peut comparer le fonctionnement d’un algorithme de machine learning au développement cognitif de l’enfant : celui-ci apprend en observant le monde, en analysant la manière dont les individus interagissent, en reproduisant les règles sans pour autant qu’on les lui expose explicitement.

Schématiquement, la même chose se produit en matière d’apprentissage automatique : les algorithmes sont désormais entraînés à apprendre seuls sans programmation explicite. Il y a autant de définitions d’intelligence artificielle que de technologies. L’IA fait l’objet d’une compétition vive. Pourquoi ? L’apprentissage par données n’est pas la seule méthode menant à l’intelligence artificielle. Mais c’est aujourd’hui la méthode la plus utilisée, celle qui se développe le plus vite et celle qui fait l’objet de la compétition la plus vive.

L’Europe est la taille minimum pour être dans le concert international. Mais le budget du programme Euro HPC* (6 Mds) est insuffisant  : les Chinois investissent dix fois plus et nous serons toujours en retard de puissance. Des bases de données, à l’échelle européenne, vont voir le jour avec le concours des entreprises.

Il y a aujourd’hui des secteurs en haute tension comme la recherche et d‘autres sont à venir. La France, avec notamment Paris-Saclay et son exceptionnel écosystème, compte parmi les meilleurs mathématiciens au monde. C’est un atout de taille ! Quelle stratégie pour aider les PME essonniennes à prendre le cap des nouvelles technologies ? Elles doivent faire selon leurs moyens : avoir un référent en nouvelles technologies, constituer des petites équipes de veille technologique et de réflexions. L’essentiel pour elles est de créer des coopérations, trouver les bons interlocuteurs. Elles doivent être proactives, se mettre en connexion. * Euro HPC ; programme de l’UE pour le déploiement en Europe d’une infrastructure de calibre mondial dédiée au calcul haute performance (HPC).

1234



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol