Archive pour le Tag 'Ia'

IA : ni intelligente ni artificielle

IA : ni intelligente ni artificielle 

OPINION. Depuis quelques mois voire quelques années, il n’y a que peu de discours dans le battage médiatique où l’intelligence artificielle n’est pas honnie ou encensée. Entre contempteurs et laudateurs, le débat autour de l’intelligence artificielle (IA) a peu à peu fait place à un combat d’initiés, dont une large part de la population se sent exclue. Par Mohammed Sijelmassi, CTO chez Sopra Steria ( La Tribune)

 

Pour les laudateurs, plus un seul produit, plus une seule plaquette publicitaire, plus un seul service n’est évoqué sans qu’il ne soit mention de « machine learning » ou d’algorithmes. Ces mêmes discours sont généralement agrémentés de quelques mots magiques ou « buzzwords » comme « apprentissage profond », « renforcement », « frugalité », sans oublier bien sûr les notions d’éthique et de confiance, particulièrement à la mode ces derniers temps.

L’intelligence artificielle (IA) en vient même à être « personnifiée » même si celle-ci n’est, bien qu’extrêmement complexe, qu’une technologie : l’IA devenant l’alpha et l’oméga de notre existence, la réponse rêvée à l’ensemble de nos problèmes. L’avancée majeure que constitue le développement de l’IA, laisse en effet entrevoir des possibilités presque infinies. Les gains de productivité se font eux déjà sentir pour les entreprises ayant pris le virage de cette technologie. Le cabinet McKinsey estime que d’ici 2030, l’IA pourrait apporter 1,2% de croissance annuelle supplémentaire au niveau mondial.

L’emploi d’outils et de techniques d’Intelligence Artificielle ouvre de nouvelles perspectives dans de nombreux domaines tels que l’éducation, l’industrie, les transports, l’agriculture et bien d’autres.

Les contempteurs quant à eux naviguent entre « la dictature supposée des algorithmes », le grand remplacement de l’homme par la machine et autres théories dystopiques. Plus terre à terre et loin des thèses et univers dystopiques, l’utilisation des algorithmes à des fins de surveillance, de réorganisation du travail ou encore l’impact énergétique de certaines technologies, posent en réalité des questions bien plus légitimes. Les craintes que suscite l’IA sont par ailleurs au centre du rapport Villani de 2018, « Donner un sens à l’Intelligence Artificielle ». Cédric O, évoquait régulièrement la question de la fracture numérique, traduisant une réelle préoccupation jusque dans les plus hautes sphères de l’Etat.

Bien qu’offrant de formidables opportunités, l’IA accélère la montée en puissance du numérique dans nos sociétés tout en complexifiant sa maitrise. Dans un tel écosystème forgé par les algorithmes, seuls les utilisateurs dotés d’un certain niveau de connaissance et de maîtrise peuvent garder leur entier libre arbitre, comprendre leur environnement et ne pas se laisser enfermer dans une bulle.

Convenons néanmoins qu’entre laudateurs et contempteurs il existe un chemin qui tout en reconnaissant les apports de la technologie n’occulte ni les biais ou les menaces que certains usages peuvent produire. Ne jetons pas tous les apports de l’IA dans l’imagerie médicale et la détection précoce de cancers sous prétexte que la reconnaissance faciale généralisée peut être un danger pour nos libertés, pas plus que nous ne devrions mettre en cause une part de nos libertés pour faciliter la lutte anti-blanchiment.

« Science sans conscience n’est que ruine de l’âme » disait-on déjà il y a quelque cinq cents ans.

Même si nombre d’organisations, de scientifiques ou de membres de la société civile, se mobilisent pour faire de l’éthique de l’IA un point central, devons-nous, pour autant, laisser cette charge à la seule discrétion des initiés ou n’avons-nous pas à démocratiser le savoir, à faire en sorte que la compréhension de la technologie, de ses capacités et de ses limites devienne le fait de tous et que l’IA ne soit ni divine ni l’incarnation du démon.

L’IA est, à juste titre, un levier de puissance incontournable… à condition que cette technologie soit accessible à toute les sphères de la société et ne soit pas l’apanage d’une partie seulement de la population. Ainsi, prévenir le développement des fractures numériques et un enjeu décisif. L’intelligence artificielle est donc un phénomène qu’il convient d’aborder sous ses différents aspects : se focaliser uniquement sur les opportunités qu’elle amène, c’est occulter les déboires qu’elle peut occasionner. La capacité des États à se doter d’une stratégie permettant de développer leur niveau technologique tout en assurant une éducation numérique satisfaisante à leur population sera déterminante afin de bénéficier de l’IA sans en subir les revers.

A un moment, où la science est parfois décriée, où les théories complotistes fleurissent à dessein ou par méconnaissance, faisons en sorte que dans toutes nos écoles du primaire au lycée, des universités aux grandes écoles scientifiques, nos jeunes générations soient instruites tout autant des bienfaits que des risques. Faisons en sorte d’expliquer, d’éduquer et démystifier pour tout un chacun ce que cette technologie peut apporter et faire comprendre à tous que, comme le dit si bien Kate Crawford :

« l’IA n’est ni intelligente ni artificielle ».

IA: Fantasme ou réalité ?

IA: Fantasme ou réalité ? 

 

 Les programmes automatisés et cognitifs sont  omniprésents constate un papier de l’Opinion. Ils améliorent la qualité de services des organisations et facilitent la vie des individus. Peu de pans de nos vies y échappent, qu’il s’agisse de surfer sur des réseaux sociaux dont les algorithmes flattent nos goûts et centres d’intérêts, de se divertir ou de faire du shopping sur des plateformes, comme Netflix ou Amazon, dont les recommandations devancent nos souhaits et nos désirs, de saisir son smartphone qui répond au doigt, à l’œil et à la voix, ou de se déplacer, cartes de navigation à l’appui, VTC à l’approche et voitures de plus en plus autonomes. C’est ainsi, à ce sujet, que le Code de la route a évolué, en cette rentrée, permettant désormais le pilotage automatique.

L’IA s’apparente encore trop souvent à une usine à fantasmes. Il faut là aussi battre en brèche les idées reçues. The Wall Street Journal le soulignait au cœur de l’été : « Si l’intelligence artificielle la plus impressionnante, la plus sophistiquée, celle qui semble la plus “intelligente” est celle qui fait généralement les gros titres, il se trouve que ce sont de bons vieux algorithmes à l’efficacité éprouvée, appliqués à des problèmes extrêmement précis, qui s’avèrent les plus utiles de nos jours ». L’heure n’est plus à la construction de cathédrales numériques mais à la création de programmes maîtrisés, aux effets mesurables.

La majorité des grandes entreprises industrielles ou de services ont su s’engager dans des plans de transformation. Beaucoup trop de petites entreprises se font encore attendre. Le maniement des données dope pourtant la croissance en fluidifiant les processus de décision et d’exécution, et en permettant de mieux répondre à la demande de ses clients, voire de l’anticiper. Si les données constituent le carburant de l’économie, l’IA en devient son moteur. On découvre avec satisfaction que la puissance publique n’est pas en reste.

Le Conseil d’Etat a publié, il y a quelques jours, une étude commandée par Matignon. Celle-ci appelle les pouvoirs publics à « S’engager dans l’intelligence artificielle pour un meilleur service public ». Tout à la volonté de « construire la confiance et servir la performance », le Conseil d’Etat appelle à « un usage équilibré » de l’IA déjà employé dans de nombreux secteurs tels que les armées ou la santé.

Par crainte du rejet, on ne peut que regretter que l’IA apparaisse avant tout comme « une arme pour l’administration (et pas seulement le fisc) ». Incidemment, Bercy a récemment décidé d’élargir son projet du « foncier innovant » à l’ensemble du territoire, promettant de traquer, en plus des piscines, les vérandas, pergolas et terrains de tennis dissimulés, après une année d’expérimentation d’une «baignade surveillée ».

C’est bien un discours incitatif, positif, encourageant et rassurant qu’il faut déployer, d’applications au service des citoyens pour améliorer la qualité de leur vie et des services publics à laquelle ils aspirent. Dans son dernier essai, Homo numericus: La «civilisation» qui vient (Albin Michel), Daniel Cohen pointe à plusieurs reprises l’anomie politique et sociale qui gagne notre société, dont les valeurs communes s’estompent au profit des technologies, sous le coup de leurs algorithmes. Selon lui, « les technologies n’ont pas pris le contrôle de nos vies. Elles prolongent et amplifient les tendances de la société, donnant corps à nos pulsions latentes, mais ne les inventent pas ».

L’économiste regrette « une culture de l’entre-soi qui s’apparente à une forme de néotribalisme ». L’enfermement dans des bulles cognitives sur les réseaux sociaux en est certainement l’exemple le plus éclatant. Trois mots-clés saisis sur TikTok et vous voilà catalogués. On serait tentés de dire « enfermés », mais un geste suffit à stopper l’application, bien qu’elle se montre particulièrement addictive.

C’est un défi majeur pour des dirigeants, politiques comme économiques, de proposer un dessein commun. Sauf à faire le choix d’un grand bond en arrière, le progrès technologique est inexorable. Le meilleur moyen pour l’aborder sereinement reste de s’y former, au risque, sans cela, de décrochages individuels et collectifs. Si le ministre de l’Education nationale et de la Jeunesse n’a pas encore montré de cap en matière numérique, il y a urgence à accentuer son enseignement et la prise en main de ses outils.

Une IA pour remplacer le psychiatre ?

Une IA pour remplacer le psychiatre ?

Les robots-thérapeutes sont aujourd’hui légion… Mais avec quel bénéfice pour les patients ? Sont-ils si objectifs ? Entrez dans la psyché de ces psychiatres numériques et de leurs confrères humains. Par Vincent Martin, Université de Bordeaux et Christophe Gauld, Université Paris 1 Panthéon-Sorbonne

 

 

« Bonjour Monsieur. Je vous en prie, installez-vous. Alors… comment allez-vous depuis la dernière fois ? »

Et si, dans quelques années, cette phrase anodine n’était plus prononcée par un psychiatre en chair et en os mais par une IA, une Intelligence artificielle ? Avec la résurgence récente de la psychiatrie dans le débat publicnotamment en raison de la crise sanitaire, l’idée de proposer des systèmes de suivi de la santé mentale intégrant des IAs a ressurgi.

Elle est, soyons honnête, loin d’être nouvelle puisqu’on trouve la première trace d’un chatbot (programme de dialogue) dédié à la psychiatrie, nommé ELIZA, dès 1966. Ces dernières décennies, les avancées en Intelligence artificielle ont permis la montée en puissance des chatbots, « robots thérapeutes » ou autres systèmes de détection de l’état de santé à travers la voix.

Il existe aujourd’hui plus d’une vingtaine de robots-thérapeutes validés par des études scientifiques en psychiatrie. Plusieurs de ces travaux avancent que les patients pourraient développer de véritables relations thérapeutiques avec ces technologies, voire que certains d’entre eux se sentiraient même plus à l’aise avec un chatbot qu’avec un psychiatre humain.

Les ambitions sont donc grandes… D’autant que, contrairement à leurs homologues humains, ces « professionnels » numériques promettraient des décisions objectives, réplicables et dénuées de tout jugement – et d’être disponibles à toute heure.

Il faut cependant noter que, même si le nom de « robot-thérapeute » évoque l’image d’un robot physique, la plupart sont basés sur du texte, éventuellement des vidéos animées. En plus de cette absence de présence physique, importante pour la majorité des patients, beaucoup ne parviennent pas à reconnaître toutes les difficultés vécues par les personnes avec qui ils conversent. Comment, alors, fournir des réponses appropriées, comme l’orientation vers un service d’assistance dédié ?

Le psychiatre, dans son entretien avec son patient, est, lui, capable de percevoir des signaux importants trahissant l’existence d’idées suicidaires ou de violences domestiques à côté desquels peuvent passer les chatbots actuels.

Pourquoi le psychiatre surpasse-t-il encore sa version électronique ? Lorsque ce spécialiste annonce « Vous avez un trouble déficit de l’attention », ou « Votre fille présente une anorexie mentale », le processus qui l’a conduit à poser ces diagnostics dépend de son « modèle interne » : un ensemble de processus mentaux, explicites ou implicites, qui lui permettent de poser son diagnostic.

De même que l’ingénierie s’inspire de la nature pour concevoir des systèmes performants, il peut être pertinent d’analyser ce qu’il se passe dans la tête d’un psychiatre (la façon dont il conçoit et utilise son modèle interne) lorsqu’il pose son diagnostic pour ensuite mieux entraîner l’IA chargée de l’imiter… Mais dans quelle mesure un « modèle interne » humain et celui d’un programme sont-ils similaires ?

C’est ce que nous nous sommes demandé dans notre article récemment paru dans la revue Frontiers in Psychiatry.

En nous appuyant sur de précédentes études sur le raisonnement diagnostic en psychiatrie, nous avons établi une comparaison entre le modèle interne du psychiatre et celui des IAs. La formulation d’un diagnostic passe par trois grandes étapes :

● La collecte d’informations et leur organisation. Lors de son entretien avec un patient, le psychiatre assemble de nombreuses informations (à partir de son dossier médical, de ses comportements, de ce qui est dit, etc.), qu’il sélectionne dans un second temps selon leur pertinence. Ces informations peuvent ensuite être associées à des profils préexistants, aux caractéristiques similaires.

Les systèmes d’IA font de même : se basant sur les données avec lesquelles ils ont été entraînés, ils extraient de leur échange avec le patient des caractéristiques (en anglais features) qu’ils sélectionnent et organisent suivant leur importance (feature selection). Ils peuvent ensuite les regrouper en profils et, ainsi, poser un diagnostic.

● La construction du modèle. Lors de leur cursus de médecine, puis tout au long de leur carrière (pratique clinique, lecture de rapports de cas, etc.), les psychiatres formulent des diagnostics dont ils connaissent l’issue. Cette formation continue renforce, dans leur modèle, les associations entre les décisions qu’ils prennent et leurs conséquences.

Ici encore, les modèles d’IA sont entraînés de la même manière : que ce soit lors de leur entraînement initial ou leur apprentissage, ils renforcent en permanence, dans leur modèle interne, les relations entre les descripteurs extraits de leurs bases de données et l’issue diagnostique. Ces bases de données peuvent être très importantes, voire contenir plus de cas qu’un clinicien n’en verra au cours de sa carrière.

● Utilisation du modèle. Au terme des deux précédentes étapes, le modèle interne du psychiatre est prêt à être utilisé pour prendre en charge de nouveaux patients. Divers facteurs extérieurs peuvent influencer la façon dont il va le faire, comme son salaire ou sa charge de travail – qui trouvent leurs équivalents dans le coût du matériel et le temps nécessaire à l’entraînement ou l’utilisation d’une IA.

Comme indiqué précédemment, il est souvent tentant de penser que le psychiatre est influencé dans sa pratique professionnelle par tout un ensemble de facteurs subjectifs, fluctuants et incertains : la qualité de sa formation, son état émotionnel, le café du matin, etc. Et qu’une IA, étant une « machine », serait débarrassée de tous ces aléas humains… C’est une erreur ! Car l’IA comporte, elle aussi, une part de subjectivité importante ; elle est simplement moins immédiatement perceptible.

En effet, toute IA a été conçue par un ingénieur humain. Ainsi, si l’on veut comparer les processus de réflexion du psychiatre (et donc la conception et l’utilisation de son modèle interne) et ceux de l’IA, il faut considérer l’influence du codeur qui l’a créée. Celui-ci possède son propre modèle interne, dans ce cas non pas pour associer données cliniques et diagnostic mais type d’IA et problème à automatiser. Et là aussi, de nombreux choix techniques mais reposant sur de l’humain entrent en compte (quel système, quel algorithme de classification, etc.)

Le modèle interne de ce codeur est nécessairement influencé par les mêmes facteurs que celui du psychiatre : son expérience, la qualité de sa formation, son salaire, le temps de travail pour écrire son code, son café du matin, etc. Tous vont se répercuter sur les paramètres de conception de l’IA et donc, indirectement, sur les prises de décision de l’IA, c’est-à-dire sur les diagnostics qu’elle fera.

L’autre subjectivité qui influe sur le modèle interne des IAs est celle associée aux bases de données sur lesquelles celle-ci est entraînée. Ces bases de données sont en effet conçues, collectées et annotées par une ou plusieurs autres personnes ayant leurs propres subjectivités – subjectivité qui va jouer dans le choix des types de données collectées, du matériel impliqué, de la mesure choisie pour annoter la base de données, etc.

Alors que les IAs sont présentées comme objectives, elles reproduisent en fait les biais présents dans les bases de données sur lesquelles elles sont entraînées.

La subjectivité intervient non seulement chez le psychiatre humain, mais aussi chez les IAs thérapeutiques à travers les choix faits par les ingénieurs, codeurs… qui les ont conçues. Vincent Martin, Author provided

Il ressort de ces comparaisons que l’IA n’est pas exempte de facteurs subjectifs et, de ce fait notamment, n’est pas encore prête à remplacer un « vrai » psychiatre. Ce dernier dispose, lui, d’autres qualités relationnelles et empathiques pour adapter l’utilisation de son modèle à la réalité qu’il rencontre… ce que l’IA peine encore à faire.

Le psychiatre est ainsi capable de souplesse de la collecte d’informations lors de son entretien clinique, ce qui lui permet d’accéder à des informations de temporalité très différentes : il peut par exemple interroger le patient sur un symptôme survenu des semaines auparavant ou faire évoluer son échange en temps réel en fonction des réponses obtenues. Les IAs restent pour l’heure limitées à un schéma préétabli et donc rigide.

Une autre limite forte des IAs est leur manque de corporéité, un facteur très important en psychiatrie. En effet, toute situation clinique est basée sur une rencontre entre deux personnes – et cette rencontre passe par la parole et la communication non verbale : gestes, position des corps dans l’espace, lecture des émotions sur le visage ou reconnaissance de signaux sociaux non explicites… En d’autres termes, la présence physique d’un psychiatre constitue une part importante de la relation patient-soignant, qui elle-même constitue une part importante du soin.

Tout progrès des IAs dans ce domaine est dépendant des avancées en robotique, là où le modèle interne du psychiatre est déjà incarné dans celui-ci.

Est-ce à dire qu’il faut oublier l’idée d’un psy virtuel ? La comparaison entre le raisonnement du psychiatre et celui de l’IA est malgré tout intéressante dans une perspective de pédagogie croisée. En effet, bien comprendre la façon dont les psychiatres raisonnent permettra de mieux prendre en compte les facteurs intervenant dans la construction et l’utilisation des IAs dans la pratique clinique. Cette comparaison éclaire également le fait que le codeur amène lui aussi son lot de subjectivité dans les algorithmes d’IA… qui ne sont ainsi pas à même de tenir les promesses qu’on leur prête.

Ce n’est qu’à travers ce genre d’analyses qu’une véritable pratique interdisciplinaire, permettant d’hybrider l’IA et la médecine, pourra se développer à l’avenir pour le bénéfice du plus grand nombre.

_______

Par Vincent Martin, Docteur en informatique, Université de Bordeaux et Christophe Gauld, Pédopsychiatre et médecin du sommeil, Université Paris 1 Panthéon-Sorbonne.

La version originale de cet article a été publiée sur The Conversation.

Pour une IA transparente, sûre et responsable

Pour une IA  transparente, sûre et responsable

 Par Julien Chiaroni, Confiance.AI (Grand Défi IA) et Arno Pons, Digital New Deal (Think-tank), Co-auteurs de la note « IA de confiance » (1).( la Tribune)

 

L’Intelligence Artificielle (IA) est au cœur des préoccupations et des fantasmes. Sa simple définition constitue un défi en soi. Il est donc crucial que nous puissions y contribuer, afin de pouvoir offrir au monde une vision européenne, c’est-à-dire humaniste, de ce sujet complexe qui devient de plus en plus structurant dans les champs économiques, sociaux, écologiques et démocratiques.

L’Europe, France en tête avec « AI for humanity », doit donc être capable de penser et opérer une « IA des Lumières » qui soit transparente, sûre et responsable, refusant que des biais technologiques deviennent des biais idéologiques avec tous les impacts que l’on connaît. Pour que l’IA soit garante de ces valeurs, au service des citoyens, nous devons faire preuve envers elle d’une exigence éthique et politique sans faille, et donc faire de l’IA de confiance européenne une valeur étalon mondiale.

Nous ne pouvons tolérer que des IA opaques orientent nos choix, sans que nous en soyons conscients, et sans que nous puissions faire de recours. Le grand public et les acteurs économiques doivent pouvoir avoir « confiance » dans ces IA qui ont un impact tangible sur leurs vies (accès aux crédits, recommandations d’emplois, santé, etc.).

Face à l’algorithmisation de nos vies et ses potentielles dérives, nous devons en effet reprendre en main nos destins numériques en faisant de l’IA un sujet politique. Cette impérieuse nécessité doit nous engager à traduire nos valeurs en standards mondiaux grâce au paquet réglementaire européen (DSA, DMA, DGA, DA, AI Act). Ils permettent d’imposer un cadre de confiance pour commercialiser son produit ou service au sein de l’UE conférant de facto à nos standards une portée extraterritoriale, à l’instar du RGPD qui a été adapté dans la plupart des pays. Nous sommes intimement convaincus qu’en faisant de l’IA de confiance une valeur étalon, l’Europe pourra devenir une troisième voie numérique crédible, attractive, et compétitive, à condition bien-sûr que cette fois-ci tous se saisissent des opportunités que font naître ces nouvelles régulations.

L’IA de confiance constitue selon nous un véritable éclaireur de notre souveraineté numérique et de notre compétitivité industrielle.

Souveraineté d’abord. Nous définissons dans ce rapport la souveraineté en fonction de notre autonomie, c’est-à-dire notre capacité à choisir le niveau et la nature de nos dépendances : « L’autonomie stratégique est une capacité à générer et défendre un écosystème de confiance qui organise nos interdépendances« . La souveraineté numérique est un idéal, l’autonomie stratégique un objectif politique, et le niveau de dépendance une mesure.

À l’instar de la souveraineté énergétique qui conduit un État à orienter ses choix pour ne pas dépendre d’un seul fournisseur, ni d’une seule énergie, la souveraineté numérique cherche elle aussi à contrôler ses dépendances. À défaut de garantir une chaîne de valeur pleinement souveraine (auto-suffisante), l’enjeu majeur est de sanctuariser une « chaîne ou un réseau de confiance » pour atteindre un degré d’autonomie stratégique jugé satisfaisant.

Cet écosystème de confiance s’appuie sur le tryptique « cloud, data et IA », d’où notre recommandation de déployer une gouvernance partagée entre data et IA, couplée à une approche conjointe par les usages via les Data spaces (Gaia-X).

Compétitivité ensuite. L’IA de confiance est une opportunité de (re)conquête pour nos filières qui ont tant souffert de la désindustrialisation. Mais pour que notre excellence en recherche d’IA se traduise en capacité́ de leadership industriel, la réglementation seule ne suffit pas. Nous devons impérativement créer une coopération industrielle au niveau européen à la hauteur de nos ambitions. Nous proposons pour cela de créer une « Infratech », c’est à dire un écosystème d’acteurs européens spécialisés dans le logiciel, souvent start-ups et PME, qui se fédèrent en vue de proposer une offre de bout en bout autour d’une infrastructure logicielle. Elle doit porter intrinsèquement les valeurs et la réglementation européenne, des normes harmonisées ou des standards partagés. Elles s’appuient sur des communs numériques qu’il s’agira de valoriser collectivement sur le marché irriguant ainsi l’ensemble des secteurs stratégiques pour l’Europe (emploi, éducation, santé, finance, tourisme, mobilité, administration, etc.) Enfin, elle permettra mécaniquement d’abaisser les barrières à l’entrée du marché de l’IA de confiance :

« L’infratech, socle de la confiance, et levier de scalabilité pour la Frenchtech ».

L’autre pari défendu dans ce rapport, consiste à capitaliser sur la culture européenne des systèmes critiques, où les exigences en terme de confiance sont les plus fortes, pour en faire un avantage compétitif et une garantie pour les citoyens. Les développements de l’IA sont aujourd’hui fortement « tirés et influencés » par les acteurs du B2C comme les GAFAM. Or leur culture est basée sur les usages et l’expérimentation continue. L’Europe peut adopter à contrario une approche fondée sur l’apport de preuves, de performances et pas uniquement processus, fondée sur une analyse des risques et des exigences fortes qui caractérisent les systèmes critiques ou à « haut risque », ainsi que définit dans le cadre de la réglementation européenne. C’est ce que les citoyens et utilisateurs attendent. Ainsi, nous rapprocherons de facto IA et IA de confiance, nous permettant d’adresser un marché global de l’IA (231 milliards d’euros) et de faire de l’IA de confiance une véritable « force » de l’Europe.

La confiance est une arme défensive contre les monopoles que l’on subit et offensive pour les coopérations que l’on choisit. L’Union Européenne doit se donner tous les moyens de ses ambitions, à la fois réglementaire et industriel. Nous sommes convaincus que c’est en s’appuyant sur ces leviers que l’UE pourra bâtir son autonomie stratégique et édicter ses propres conditions extraterritoriales au marché mondial, offrant ainsi une opportunité d’export à nos entreprises. Pour cela, l’Europe ne doit pas reproduire les erreurs du passé. La « jurisprudence internet », avec toutes les conséquences que l’on connaît, nous oblige à plus d’anticipation et à une collaboration renforcée pour que le développement de la confiance dans l’IA soit au cœur des standards de demain.

 

RESUME DES PROPOSITIONS

# REGULATION

Se saisir de l’opportunité de l’IA de confiance pour bâtir notre souveraineté industrielle, en :

Capitalisant sur l’idée qu’IA et IA de confiance deviendront quasi-synonymes

  • Réguler pour que les sujets deviennent tous critiques (Societal/Business critical)
  • Viser le lead du marché Trustworthy AI de 50 Mds pour conquérir le global à 230 Mds

Imposant la confiance dans l’IA comme valeur étalon mondiale

  • S’appuyer sur notre régulation pour exporter nos critères juridiques
  • Capitaliser sur notre avantage compétitif via notre culture des systèmes critiques

Établissant la normalisation en priorité stratégique

  • Devenir des standard-setter

# COOPERATION

Se donner les moyens pour que l’IA de confiance devienne vectrice de notre compétitivité industrielle, en :

Finançant une InfraTech

  • Mutualiser les coûts pour contenir et surtout conquérir le marché des BigTech
  • Créer une couche intermédiaire d’acteurs souverains packagé de bout en bout

Accompagner la création de communs numériquesDistribution 

__________________________________________________

(1) Julien Chiaroni, Confiance.AI (Grand Défi IA) et Arno Pons, Digital New Deal (Think-tank), Co-auteurs de la note « IA de confiance ».

IA: Trouver l’équilibre entre innovation et régulation

IA: Trouver l’équilibre entre innovation et régulation

David Lacombled ,président de la Villa numéris, estime dans l’Opinion que « L’Europe peut encore inventer un modèle alternatif des données basé sur ses valeurs de respect des individus et de leurs droits ​»

 

 

La seule limite de l’intelligence artificielle (IA) sera celle de l’imagination humaine. Faut-il à ce point avoir peur de soi-même pour craindre autant l’IA ? Alors que le mot «robot» fête ses 100 ans, il suffit de regarder les débats sans fins qu’il suscite pour deviner que l’IA, en s’installant dans nos vies et dans notre économie, nourrira durablement les préventions. Si le robot répond aujourd’hui encore à une vision tayloriste défiant la main-d’œuvre, l’IA apparaît trop souvent comme pouvant rivaliser avec le cerveau en le simulant. Cela montre la nécessité de mieux partager et comprendre la technologie, ce qui n’implique pas pour autant de l’encadrer et de la réglementer ex ante.

Les données et leur utilisation sont aujourd’hui avant tout regardées d’un point de vue technologique ou financier, tant leur performance impressionne. Elles le sont moins par les répercussions qu’elles peuvent entraîner d’un point de vue social et humain tant la situation est inédite. A en donner le vertige. Un aperçu sur la valorisation boursière des « Big Tech » qui reposent avant tout sur l’efficience de leur algorithme, telles qu’Apple ou Amazon, rappelle à quel point les données sont génératrices de valeurs.

Eclairer l’avenir. Dans leur récent essai, Le Pouvoir de la Destruction Créatrice (Odile Jacob), Philippe Aghion, Céline Antonin et Simon Bunel rappellent que ce processus est bien une réalité, quelque chose de palpable pointant « un conflit permanent entre l’ancien et le nouveau ​». S’ils soulignent que « ​l’effet de destruction d’emplois se manifeste à court terme, tandis que l’effet de création d’emplois et l’effet de capitalisation sont davantage des effets de long terme ​». Or, « ​c’est bien à court terme que la destruction créatrice est ressentie par les individus dans les différentes enquêtes d’opinion ​».

Dans son essai L’intelligence artificielle n’existe pas, Luc Julia confesse ​: « ​ma grande crainte est que les gens croient tout ce qu’on leur raconte sur l’IA, tout simplement parce qu’ils n’ont pas assez d’informations sur le sujet ​». L’ingénieur, concepteur de l’assistant vocal Siri, préconise que « ​nous devons combattre les délires véhiculés par certains en argumentant avec les simples faits ​».

. De fait, la promesse de l’apocalypse en matière d’emplois pour les individus et de carnage financier pour les entreprises ne constitue pas vraiment un chemin engageant. Rappelons au contraire comment les données se sont transformées en petits cailloux blancs de nos existences permettant certes de les décrire, voire de les prédire, mais avant tout de les simplifier pour accéder aux savoirs et se divertir (cf. Netflix), pour vivre plus confortablement (recherche Web, navigation…), en meilleure santé et plus longtemps (aujourd’hui la modélisation de propagation des virus, demain les jumeaux numériques de nos propres corps), pour travailler plus efficacement pour ne pas dire plus intelligemment. Pour peu de dompter la machine. Ce sont là les valeurs et les promesses que portent avant tout les données et leur calcul par ce qui reste un programme informatique, l’intelligence artificielle.

Il n’en reste pas moins que l’intelligence artificielle, par sa puissance, pose des défis inédits. La docteure en informatique Marie-Aude Aufaure souligne à quel point « ​il faut particulièrement veiller aux biais, à l’explicabilité et l’acceptabilité des algorithmes appliqués sur des ensembles de données ​» pour contribuer à « ​démystifier les capacités de l’intelligence artificielle en rappelant que l’apprentissage au sens de l’IA est éloigné de l’apprentissage humain qui lui est centré sur une combinaison complexe de raisonnement, de mémoire, de connaissances de sens commun, etc. ​». En effet, un biais humain peut se retrouver démultiplié par la force du calcul. Par exemple, si votre entreprise recrute majoritairement des hommes et les paie mieux, le risque est grand que le fossé se creuse et s’amplifie si une IA prend le relais du processus de recrutement.

Dès 2017, la chercheuse Laurence Devillers décrivait Des Robots et des Hommes, mythes, fantasmes et réalité (Plon). Elle s’intéresse « ​à la perception des robots et met en avant qu’il faut créer des machines morales pour encadrer la vie avec ces machines et une réflexion est menée pour savoir s’il est possible à un robot d’avoir une conscience de soi. Elle explique en quoi cela est important, avec l’exemple des robots tueurs, et dans quelle mesure cela est possible d’un point de vue éthique et technique ​».

C’est à l’élaboration d’un nouveau paradigme entre les humains et les objets techniques qu’il faut s’atteler. Le réglementer et le régir aujourd’hui reviendrait à encadrer un phénomène en mouvement au risque de freiner l’innovation

C’est d’ailleurs, la régulation des armes létales autonomes qui constituait un des points majeurs du rapport de Gilles Lebreton, député européen du Rassemblement National, adopté il y a quelques jours par le Parlement européen montrant à quel point les élus seront tentés d’encadrer l’essor de la technologie. Pourtant, si un drone pouvait tuer sans ordre humain, c’est bien que l’humain l’aurait accepté. C’est bien une des limites à fixer.

Mot-valise à double fond. En cela, Laurence Devillers a raison de rappeler une évidence ​: « ​il ne faut pas penser les robots comme de nouveaux humains ​». Et c’est bien à l’élaboration de ce nouveau paradigme entre les humains et les objets techniques qu’il faut s’atteler. Le réglementer et le régir aujourd’hui reviendrait à encadrer un phénomène en mouvement au risque de freiner l’innovation par un excès de régulation.

Dès lors, le mot « éthique ​» apparaît comme un mot-valise, à double-fond, bien pratique pour y mettre tout ce qui relève de nos craintes et de nos peurs. Un mot à géométrie variable dont personne n’a la même définition et pour cause personne n’a le même code de valeurs. Certainement serait-il plus pertinent de revenir à des terminologies éprouvées, reconnues et partagées en entreprise de responsabilité sociale et environnementale, de gouvernance, de codes et de chartes. Cela n’empêche pas le dialogue. Au contraire.

La bataille des données n’est pas perdue car elle ne fait que commencer. Notre continent est particulièrement attaché au respect des droits de l’homme et à l’indépendance des individus. Avec la mise en place du Règlement général sur la protection des données (RGPD) puis l’annonce de celui sur le Digital Services Act, l’Europe montre sa volonté de construire un cadre de référence pour apporter protection aux consommateurs et stabilité aux entreprises. Il s’agit à présent d’inventer un modèle alternatif, respectueux des êtres et de leurs droits, ouvert, permettant de recueillir des données et de ne les utiliser que pour ce pour quoi elles ont été confiées. La primauté de l’humain n’est pas antagoniste avec les avancées technologiques. Pour peu que les individus s’en emparent.

David Lacombled est président de la Villa numéris.

IA : science ou art ?

 

Un  article intéressant de Raphael Bertholet, Vice-Président R&D de Symphony RetailAI France dans le journal la Tribune évoque les possibilités d’intégration de la sensibilité humaine dans l’intelligence artificielle au point que cette dernière pourrait être considérée comme un art. Un article qui toutefois n’évoque pas les phénomènes d’aliénation et de domination de ces nouvelles technologies sur la pensée humaine et pas seulement dans le domaine marchand.

 

 

Tribune

 

« Alors que l’on croyait, il y a encore peu, que l’une des limites de l’IA était la créativité – notamment artistique -, nous savons à présent qu’il n’en est rien et que l’homme peut être challengé aussi dans ce domaine. En témoigne la première exposition qui se tient en ce moment en Angleterre, rassemblant les œuvres d’AI-Da, humanoïde doté d’une intelligence artificielle. Il n’aura fallu que quelques jours pour que tous ses dessins, tableaux et sculptures se vendent, pour plus d’un million d’euros. Preuve, s’il était besoin, que l’IA est un placement d’avenir !

Au-delà de son caractère médiatique, cet évènement montre un point capital : l’IA lève le voile sur des domaines que l’on croyait hors du champ de la rationalité et des sciences, des domaines où seuls l’instinct et le talent humains pouvaient agir et apporter des réponses. L’IA montre que ce n’est pas si vrai et que les algorithmes peuvent, contre certaines certitudes, trouver des réponses à des questions qui étaient censées échapper à la science.

La prévision de la demande est, pour partie, l’un de ces domaines.

Jusqu’à récemment, l’approche en matière de prévision de la demande dans le retail a consisté à s’appuyer sur des outils statistiques et analytiques pour une grande partie des catégories de produits – et sur l’expérience et l’instinct des prévisionnistes pour ce qui sortait du cadre des modèles bien établis.

Bien que très performants, les outils statistiques classiques touchent, en effet, à leurs limites dès que l’on n’est plus dans une situation habituelle. Comment anticiper, par exemple, la demande d’un produit qui va faire l’objet d’une importante promotion le mois prochain alors que le vécu de ce même produit est vide de ce genre d’expérience ? Comment savoir à quel point le lancement d’un nouveau produit – pour lequel il n’y a pas de données existantes – va susciter la demande ?

Pour toutes ces situations inhabituelles pour lesquelles les statistiques ne peuvent plus venir en aide au travail des prévisionnistes, ces derniers se fient généralement à leur expérience. C’est l’intuition qui prend le relai. C’est le point au-delà duquel la prévision de la demande cesse d’être une science et devient un art.

Or c’est précisément ce point où l’IA est aujourd’hui en train de renverser la situation. En analysant des corrélations et des probabilités de corrélations avec d’autres articles, d’autres lieux de vente, d’autres données contextuelles, l’IA va se comporter comme l’instinct ou l’intuition du prévisionniste et permettre à la prévision de la demande de continuer à être une science, là où l’on pensait qu’elle restait un art.

Dans le retail comme ailleurs, la valeur d’une prévision se mesure à sa fiabilité et sa précision. Si la prévision de la demande pour les produits connus atteint des niveaux de précision élevés, celle des produits ou situations inhabituels fait chuter le taux de précision global, qui se heurte à une limite que l’on croyait difficile, pour ne pas dire impossible, à briser.

Parce qu’elle sait non seulement traiter des volumes de données immenses et hétérogènes, mais aussi faire les corrélations qui permettent d’expliquer l’inhabituel, l’IA gomme aujourd’hui cette limite. Elle donne aux prévisionnistes les moyens de passer une étape supérieure majeure dans leur travail, en leur fournissant les pistes et les corrélations qui leur permettent d’expliquer l’inhabituel et en industrialisant le bénéfice de l’intuition pour anticiper, avec une précision inédite, les situations pour lesquelles il n’existe pas ou peu de données directement reliées à l’évènement.

Avec l’IA, le talent des prévisionnistes peut ainsi être mis au profit de cette nouvelle marge de progression du taux de précision des prévisions. Leur intuition servira à proposer et tester de nouvelles données contextuelles aux évènements, de nouveaux attributs descriptifs pour enrichir l’IA et améliorer ses performances. Sans être encore une science exacte, la prévision de la demande s’en rapproche de plus en plus avec l’IA, et pourrait bien tendre à le devenir. »

Oui à un « Airbus de l’IA »

Oui à un « Airbus de l’IA »

La proposition allemande de créer un AIRBUS de l’IA constitue une avancée certaine dans un paysage européen bien morne. Enfin la coopération prend des formes concrètes et constitue par ailleurs en soi une réponse au repli général tant sur le plan politique qu’économique. N’oublions pas qu’Airbus commencé par uen coopération sous forme de consortium pour se transformer en société avant de faire plus que jeu égal avec Boeing. Cet grâce à Airbus que la balance commerciale de la France ne s’écroule pas totalement.  Air Bus qui emploie 60 000 salariés et fait travailler ‘  3 fois plus de sous traitants dans le monde entier est devenu un géant industriel au plan mondial. Dans une interview publiée mercredi par le Figaro, le ministre allemand de l’Economie, Peter Altmaier, propose de créer “en étroite collaboration avec les acteurs existants, notamment les producteurs automobiles, un nouvel acteur sur le plan de l’intelligence artificielle, comme on l’a fait avec Airbus.” “Cet acteur unique et fort pourrait se lancer dans le développement de solutions concrètes et compétitives en matière d’intelligence artificielle”, a-t-il ajouté. A l’issue d’une rencontre avec Peter Altmaier, le ministre français de l’Economie et des Finances, Bruno Le Maire, a souligné de son côté que le futur fonds pour l’innovation doté de dix milliards d’euros devait être un préalable à un fonds européen et que cela se ferait sans doute d’abord avec l’Allemagne.

Le généticien Axel Kahn s’inquiète des conditions d’acceptation de l’IA

Le généticien Axel Kahn s’inquiète des conditions d’acceptation de l’IA

 

 » L’intelligence artificielle c’est le big data, la capacité à stocker d’énormes quantités de données, l’algorithme pour exploiter cette ressource, la robotique, et l’intelligence artificielle proprement dite. Ensuite nous n’avons plus qu’à imaginer les performances qu’atteindra l’intelligence artificielle d’ici dix ans. Sachant par exemple qu’un système expert peut sans doute déjà délivrer des diagnostics médicaux plus fiables qu’un médecin. Dans ce contexte, quelle place laissera l’évolution de l’intelligence artificielle à un agir proprement humain ?  Pour résumer, rappelons tout d’abord que ce problème majeur de l’intelligence artificielle traite des relations de l’Homme avec ses outils : une vieille thématique. Dès l’origine l’Homme fabrique des outils, c’est l’homo faber. Nous sommes très intimidés par les performances de la machine, par la capacité d’une chaîne d’embouteillage, la vitesse d’une voiture, l’aptitude d’un avion à décoller… A partir de l’invention du premier boulier, l’Homme a commencé à fabriquer des machines à penser. Etre intimidé par une voiture, une embouteilleuse ou un avion ce n’est pas grave… Mais être intimidé par des machines à penser c’est très différent, ça peut devenir grave pour l’humanité »  il explique pourquoi : « Nous assistons à l’implosion de la vie individuelle. La vie privée a complètement changé de définition, son étanchéité appartient au passé, et c’est ce monde qui va s’établir. Cela se passe de deux manières. Tout d’abord avec la numérisation des données de santé. La Commission nationale de l’informatique et des libertés, la CNIL, a déployé beaucoup d’efforts pour crypter, protéger les données de santé mais aucun code n’est inviolable. Tout le monde le sait. Protéger les citoyens va devenir difficile. Mais il y a plus pervers encore. Une grande partie de ce qui peut être transformé en données n’est protégé par aucun code. Il suffit de suivre le comportement des internautes. On est désormais capable de détecter le début d’une nouvelle épidémie avant même que les centres de contrôle soient au courant. Il suffit juste pour cela d’analyser le comportement des gens connectés ! Si la machine sait mieux que vous ce que vous allez vouloir, que reste-t-il ? La dictature de « Big Brother » avait besoin d’espions. Nous sommes devenus nos propres « Big Brother », parce que nous dévoilons notre intimité volontairement » a déroulé Axel Kahn, évoquant les comportements sur Internet et les réseaux sociaux. ». Finalement une vue assez pertinente mais aussi fataliste face au développement des machines à penser.

 

Immobilier : la confiance revient ! où ça ?

Immobilier : la confiance revient ! où ça ?

 

Offensive des lobbies immobiliers pour faire croire que le marché est reparti. Curieuse cette phrase dans un grand média « Selon le bilan 2014 de la Faim, les prix au mètre carré baissent sans relancer les transactions. Depuis janvier, les professionnels de l’immobilier observent une reprise, toujours dopée par des taux bas. » . On observerait uen reprise mais où ? Il suffit de lire l’article entièrement pour vérifier qu’il s’agit d’uen incantation :

« La prudence des Français met les nerfs des agents immobiliers à rude épreuve. Les taux d’intérêt historiquement bas, des prix au mètre carré en baisse de 1,7 % dans l’ancien et de 0,4 % dans le neuf (appartements) sur l’année 2014, n’ont pas réussi à stimuler le marché. Et peu importe que les prix soient particulièrement en chute en Lorraine, Centre, Bourgogne ou encore Franche-Comté. Selon l’étude annuelle de la Fédération nationale de l’immobilier (Fnaim), dévoilée cette semaine, le nombre de ventes dans l’ancien a diminué de 2,4 % sur la France entière en 2014 par rapport à 2013. Même l’Île-de-France, réputée dynamique, a été touchée avec une baisse de 1,1 % du nombre de transactions. La palme revient à la région Poitou-Charentes (– 6,7%), suivie du Centre (–5,7%), et de l’Aquitaine (– 4,7 %). « Le tableau n’est pas si sombre, il est même contrasté, nuance Jacky Chapelot, président adjoint de la Fnaim. Certes, les villes moyennes souffrent, comme Limoges, Laval, Bourges, Vichy ou encore Mâcon. Mais dès que l’économie est dynamique, le territoire devient attractif. C’est le cas de Bordeaux, de Toulouse et d’une partie de Montpellier. Rennes et Nantes restent solides. Tout comme Lille ou Strasbourg. » Les ventes de biens à moins de 200.000 € reprennent Le marché a-t-il touché le fond avant de rebondir? Jacky Chapelot se veut optimiste : « Depuis janvier, les professionnels ont le sentiment d’un frémissement sur les biens à moins de 200.000 €. Toutes les régions sont concernées. C’est particulièrement sensible dans le Centre, la Champagne-Ardenne, la Franche-Comté. À Paris, les surfaces à moins de 500.000 € commencent aussi à s’échanger. Les primo- accédants, c’est-à-dire les jeunes qui achètent pour la première fois, font un retour progressif. »  Pour autant, la Fédération nationale de l’immobilier ne milite pas pour une reprise conséquente de la construction de logements neufs. L’année dernière, les mises en chantier ont chuté de 11,3 % pour atteindre 356.200 unités. Un chiffre nettement inférieur à la moyenne des dix dernières années. Mais pour Jacky Chapelot, le salut viendra plutôt de la reprise de l’investissement immobilier à vocation locative dans l’ancien. « Les 70.000 acquéreurs par an sur ce marché doivent être encouragés. Nous avons besoin de ces particuliers qui achètent pour louer avec un objectif patrimonial. En trois mois, ils peuvent mettre un bien en location. Alors qu’il faut plus de trois ans pour construire un logement neuf et parvenir à le mettre sur le marché. » Les professionnels croisent les doigts. Le retour de la confiance devrait se confirmer pour l’année 2015. Les fondamentaux sont là : les prix vont poursuivre leur baisse, les banques continueront de prêter à faible taux, les aides pour l’accession à la propriété produiront leur plein effet, la démographie reste dynamique. Enfin, la baisse de l’euro par rapport au dollar et surtout la livre sterling laissent espérer le retour des investisseurs étrangers dans les maisons secondaires en régions ou les pied-à-terre parisiens. ». Tout cela masque une autre réalité, les acheteurs sosnt encore attentistes car il espèrent à juste titre de nouvelles baisse des prix.

 




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol