Archive pour le Tag 'artificielle'

Comment mettre l’intelligence artificielle à grande échelle (Mohit Joshi)

 Comment mettre l’intelligence artificielle à grande échelle (Mohit Joshi)

 

Mohit Joshi, Président d’Infosys explique comment mettre en œuvre l’IA à grande échelle:  les entreprises doivent prendre soin de leurs talents internes, mettre l’éthique au premier plan et développer une stratégie à l’échelle de l’entreprise pour la technologie sur toute la chaîne de valeur( chronique de la Tribune)

 

Nous sommes fermement ancrés dans la cinquième révolution industrielle, une révolution basée sur l’intelligence artificielle (IA). Tout a commencé par l’ordinateur central, puis les ordinateurs personnels dans les années 1980, suivis par Internet, et enfin l’agilité et la puissance du cloud computing dans les années 2010. Cette cinquième vague informatique sera la plus retentissante à ce jour, avec des capacités qui promettent toujours plus d’initiatives et d’exploration humaines.

Toutefois, un problème se pose. Bien que l’IA soit adaptée aux entreprises, nombre d’entre elles ne parviennent pas à en tirer pleinement profit. L’innovation est tellement rapide que les entreprises n’arrivent pas à suivre le rythme. En 2015, les chercheurs ont publié 10.000 articles scientifiques sur l’IA. En 2019, ce chiffre est passé à 25 000 rien qu’aux États-Unis. Pour de nombreux dirigeants, cette situation est inquiétante, surtout lorsqu’on sait qu’une bonne utilisation de l’IA devrait améliorer les bénéfices de l’entreprise de 38 % et permettrait d’offrir 14 000 milliards de dollars de valeur ajouté aux entreprises d’ici 2035.

Il serait donc judicieux que les entreprises à la traîne tirent les enseignements des organisations plus avancées en matière d’IA. Dans notre étude, nous avons découvert que les leaders en matière d’IA plaçaient la technologie au cœur de leur activité et de leurs modèles d’exploitation. Ils l’utilisent pour découvrir, démocratiser et réduire les risques inhérents à l’utilisation de l’IA. Pour ces entreprises, l’IA fait partie intégrante de leur ADN et leur permet de proposer de meilleurs produits, d’améliorer l’expérience client et d’obtenir davantage de valeur ajoutée auprès de leur écosystème de partenaires.

À l’inverse, les entreprises ayant pris du retard utilisent principalement l’IA pour améliorer l’efficacité plutôt que pour changer la façon dont l’entreprise gagne de l’argent. Pour prendre une longueur d’avance, ces entreprises doivent requalifier les employés, s’assurer que l’adoption de l’IA n’est pas fragmentée, développer des cadres éthiques et de gouvernance solide, et informer les dirigeants des risques et opportunités liés à l’adoption de l’IA. Cela permettrait d’augmenter les marges opérationnelles d’au moins 3 %. Pour une entreprise de services financiers dont les revenus s’élèvent à 10 milliards de dollars, cela équivaut à 300 millions de dollars supplémentaires de revenus, ce qui n’est pas négligeable.

La plupart des talents en science des données se tournant vers les grandes entreprises technologiques, les entreprises de services financiers leaders en matière d’IA se démarquent par leur capacité à requalifier la main d’œuvre. Elles utilisent des plateformes numériques et des outils d’auto-modélisation pour garantir un apprentissage permanent. C’est crucial. Il est maintenant temps pour les entreprises de former leurs talents internes, c’est-à-dire ces employés qui connaissent parfaitement l’entreprise et qui peuvent repérer les cas d’utilisation pertinents pour l’IA plus rapidement que les nouveaux embauchés.

Il est également essentiel de réunir les équipes sous un seul et même cadre d’IA au sein de toute l’entreprise. En effet, des opérations d’IA réussies peuvent accroître les marges opérationnelles d’au moins 6 % (ce qui représente 600 millions de dollars supplémentaires pour une entreprise dont les revenus s’élèvent à 10 milliards de dollars). Ces entreprises visionnaires s’assurent généralement que les équipes commerciales, financières et technologiques travaillent ensemble sur les projets d’IA tout au long du cycle de vie de l’IA, le plus souvent via un centre d’excellence. Les employés sont formés plus rapidement, les bons processus de gestion des changements sont regroupés afin que les solutions d’IA évoluent rapidement du stade de pilote au stade du déploiement et que l’IA au sein de l’entreprise soit en mesure de répondre aux attentes.

 

Pour obtenir des résultats et développer l’intelligence à grande échelle, il est nécessaire de développer une vision globale de l’IA d’entreprise qui repose sur des plateformes d’IA professionnelles. En outre, en tirant profit du produit visionnaire, du domaine et de conseils d’experts, les entreprises sont assurées d’obtenir des bénéfices exponentiels au fil du temps.

Des cadres d’IA éthiques et de gouvernance solide doivent être établis dès le départ. Cela permet de garantir des déploiements d’IA justes, équitables et impartiaux. Nous avons constaté que ces entreprises qui ont défini ces cadres surpassent d’au moins 25 % les entreprises retardataires sur un certain nombre d’indicateurs de performance clés de l’entreprise. Toutefois, il n’est pas toujours évident d’éliminer toute déformation inconsciente de ces données. C’est ici que le mandat organisationnel pour des solutions d’IA efficaces et explicables intervient.

Les employés qui utilisent l’IA en back office ou avec les clients doivent rapidement être informés des pratiques éthiques. Les algorithmes d’apprentissage automatique doivent être en mesure d’expliquer les décisions qu’ils prennent, de façon à ce qu’elles soient comprises par les autorités d’IA, notamment les régulateurs. Sans ce pilier d’IA, des éthiques d’IA imparfaites peuvent ruiner la réputation d’une entreprise financière en un instant, auprès des partenaires et des consommateurs.

Enfin, les leaders de l’IA doivent connaître l’impact des technologies sur un certain nombre d’aspects, notamment le modèle commercial, les employés, les partenaires, les clients et la société dans son ensemble. De nombreux dirigeants rencontrent des difficultés dans ces domaines et n’ont qu’une vague idée de la façon dont l’IA peut améliorer les marges et leur permettre de devancer la concurrence. Si 2020 est l’année de l’IA, alors cela doit également être l’année au cours de laquelle les dirigeants des entreprises financières commencent leur apprentissage de l’IA.

L’IA étant présente dans tous les aspects de notre vie, le temps est venu pour les entreprises d’accélérer le mouvement vers des statuts d’IA visionnaires. De l’IA normatif utilisé dans les stratégies de fonds de roulement et la réduction du risque opérationnel au traitement du langage naturel utilisé pour extraire les attributs sensibles des contrats, les applications innovantes de l’IA améliorent les entreprises de services financiers et leur permettent d’être plus rapides et plus agiles.

Pour mettre en œuvre l’IA à grande échelle, les entreprises de services financiers doivent prendre soin de leurs talents internes, mettre l’éthique au premier plan et développer une stratégie à l’échelle de l’entreprise pour la technologie sur toute la chaîne de valeur. Ce faisant, nos clients seront les annonciateurs de la cinquième révolution industrielle.

 

Nouvelles technologies-Quelle régulation de l’intelligence artificielle

Nouvelles technologies-Quelle  régulation de l’intelligence artificielle

 

Florian Ingen-Housz, partner au sein d’Altermind, et Victor Storchan, ingénieur en IA dans l’industrie financière, explique l’enjeu de la régulation de l’intelligence artificielle (IA) dans la Tribune

 

 

En février dernier, la Commission européenne a publié son livre blanc sur la régulation des applications de l’Intelligence Artificielle (IA). Plutôt que de légiférer unilatéralement sur ce sujet, la Commission a choisi, de manière novatrice, une approche consultative et participative en incitant l’ensemble des parties prenantes à cet écosystème à participer à la discussion. Cette approche doit être encouragée, approfondie et accélérée pour ajuster l’état du droit à un état de l’art technologique qui ne cesse de faire surgir des débats juridiques et normatifs inédits. Cette approche est aussi le seul moyen de faire émerger, dans la décennie qui vient, une véritable vision européenne de la Tech, tout à la fois pro-business et respectueuse des libertés individuelles.

Un défi majeur pour les régulateurs

L’IA constitue en effet un défi majeur pour les régulateurs. La vitesse prodigieuse des avancées technologiques doit inviter ces derniers à co-construire la norme avec un écosystème plus large qu’ils n’en ont l’habitude, plutôt que d’imposer celle-ci « par le haut ». Tout comme l’ont montré les débats sur la bioéthique depuis les années 1970, la régulation technologique est avant tout un choix de société et par conséquent un effort continu. La question se pose néanmoins avec une acuité particulière pour le déploiement de l’IA, compte tenu de l’ambiguïté de ses définitions, de sa nature stochastique et de l’opacité des multiples modèles sur lesquels elle est bâtie. Cette opacité est aggravée par l’hypercroissance de l’écosystème (50% de plus de papiers soumis à NeurIPS – une des conférences majeures de la discipline - en 2019 par rapport à l’année précédente), qui rend immédiatement obsolètes des savoirs difficilement acquis par des régulateurs parfois mal-équipés sur le plan technique. Si la régulation est évidemment primordiale pour permettre l’adoption, créer du consensus et de la confiance envers cette technologie, son élaboration devra donc être suffisamment (i) spécifique dans son champ d’application pour être « implémentable », (ii) inclusive et ouverte dans sa démarche et (iii) sélective dans ses priorités et son séquencement.

Il faudra donc, dans un premier temps, d’abord s’assurer de la juste définition de l’objet ciblé. Ce besoin de spécificité dans un domaine aux frontières floues soulève un premier défi : celui de la sémantique. Le concept d’IA est imprécis, même pour les experts. Contrairement aux précédentes vagues de disruption technologique, que ce soit la machine à vapeur, l’électricité, la chimie ou même les premiers programmes informatiques, les contours de l’IA sont moins tangibles. Ainsi, en 2013, l’Etat du Nevada a dû ainsi revoir sa définition de l’IA pour les véhicules autonomes car celle-ci englobait aussi certains modèles de voitures sophistiquées avec des fonctionnalités de contrôle avancées. La définition de ce qu’est un robot pour l’Union européenne n’est pas non plus satisfaisante. Contrairement à ce que semble indiquer cette dernière, les robots n’acquièrent en effet pas de capacité d’autonomie uniquement grâce aux données et aux capteurs dont ils disposeraient. Comme le montrent les travaux de Bryan Casey et Mark A. Lemley (Stanford Law School) lorsque cela est possible, une manière de contourner le problème sémantique est de s’assurer que la régulation cerne en priorité les comportements des individus et non pas les techniques, les types d’algorithmes ou les robots.

 

Faire coopérer des acteurs très divers

L’efficacité de la régulation pour l’IA se mesurera aussi à sa capacité à faire coopérer des acteurs très divers. Les usages de cette technologie doivent être appréhendés non pas in-vitro mais au sein d’écosystèmes technico-sociaux complexes où elle est déployée. Ainsi cette coopération doit à la fois s’effectuer horizontalement et verticalement. Horizontalement d’abord, par la co-construction entre juristes, techniciens, et chercheurs, mais également sociologues et citoyens qui via les décideurs publics seront les utilisateurs de ces systèmes d’IA. Ces derniers doivent être dotés d’outils pour améliorer leur capacité à contester la décision d’un modèle afin de créer de la confiance. Le dialogue doit aussi être plurilatéral, non seulement par une coordination entre pays et puissances régionales, mais aussi en incluant les ONG, la société et l’industrie.

 

Cette coopération est aussi verticale. Pour être opérant, le processus délibératif d’une gouvernance globale doit pouvoir être traduit en termes techniques par les ingénieurs et les chercheurs qui conçoivent les modèles. Cependant, pour être parfaitement efficace et agile, cette approche différenciée devra pouvoir s’incarner par une gouvernance dans les entreprises capable de guider les équipes techniques. Ces dernières sont confrontées à plusieurs dilemmes du fait des contraintes techniques, mathématiques ou algorithmiques et ont besoin d’indications précises qui tranchent des compromis entre certaines notions d’éthiques comme l’équité ou le respect de la vie privée. Il est donc nécessaire de faire un choix qui relève presque de philosophie politique. Ces choix sont sociétaux et culturels.

Enfin, lorsqu’une directive réglementaire présente une ambiguïté intrinsèque (dans le but par exemple d’anticiper des développements de technologie future ou pour pouvoir être appliquée à un spectre large d’acteurs), il est précieux que l’écosystème puisse collectivement expliciter les points d’incertitude qui sont sujets à l’interprétation. Cet effort de clarification permettrait d’aligner les efforts de gestion du risque dans les modèles d’IA sur des standards communs. Ces concertations des parties prenantes ont vocation à constituer une « soft law » pour préciser ou compléter au plus près du terrain des principes plus généraux fixant l’esprit et l’intention.

Se concentrer sur un nombre réduit de secteurs

 

Enfin, la régulation pour être efficace doit en priorité se concentrer sur un nombre réduit de secteurs et d’applications sur lesquels une attention immédiate est requise. A titre d’exemple, l’UE propose de calibrer le niveau de régulation selon le niveau de risque que représente une application de l’IA ou un secteur industriel applicatif. La commission propose ainsi une liste de plusieurs secteurs à haut risque comme les transports, la santé ou l’énergie dans lesquels certains déploiements technologiques sensibles devront respecter un ensemble de règles plus exigeant. Cette approche semble raisonnable. Le risque consubstantiel à l’innovation et un principe de précaution aveugle à la diversité des cas d’usages aboutirait à une société du statu quo vidée de sa force entrepreneuriale et créatrice. Les applications dans le secteur public (justice et éducation notamment), la santé font certainement partis des chantiers prioritaires. Les exemples récents de systèmes mal déployés sont légions : les entreprises technologiques comme IBM ou Microsoft ont stoppé leurs services de reconnaissance faciale après que des failles éthiques à répétition aient été identifiées. L’algorithme néerlandais de prédiction de fraude pour les demandeurs de sécurité sociale a été suspendu par une juridiction du pays pour violation des droits de l’homme et de la régulation RGPD sur les données.

Ainsi, les rapports entre les régulateurs et les innovateurs en IA ne peuvent être résumés à un conflit entre le glaive et le bouclier. La multidisciplinarité de cette technologie, ses évolutions rapides et disruptives doivent être accompagnées pour qu’elle serve le plus grand nombre dans la transparence et responsabilité des acteurs.

Quelle régulation de l’intelligence artificielle

Quelle régulation de l’intelligence artificielle

L’informaticien et philosophe Jean-Gabriel Ganascia estime que les Etats doivent se saisir de ces questions et prendre leurs responsabilités, afin de ne pas s’en remettre uniquement aux acteurs privés.(Interview dans le monde)

Elon Musk a présenté, le 28 août, les recherches de sa société Neuralink visant, avec le recours de l’intelligence artificielle, à soigner des pathologies et augmenter les capacités cérébrales. Comment analysez-vous ces annonces ?

Les déclarations d’Elon Musk sont problématiques. Sa société travaille sur les implants cérébraux et sur les interfaces cerveaux-ordinateurs. Nous savons que quand une personne a une activité cérébrale, ses neurones émettent des signaux électriques. Les recherches dans le domaine des interfaces visent à analyser ces signaux grâce à des techniques d’apprentissage machine, afin de les transformer par exemple en commande d’un objet, d’une prothèse, etc. On parle ici d’un signal qui part de l’homme vers une machine.

Elon Musk, lui, laisse entendre qu’il pourrait aussi avoir un signal retour, de la machine vers l’homme donc. Nous pourrions, à terme, tous être connectés au réseau par nos cerveaux et bénéficier d’informations mises en commun. En étant tous liés par un « lacet neuronal » nous deviendrions d’une certaine manière transparents les uns aux autres. Il y a, derrière cette idée, la théorie selon laquelle l’intelligence artificielle va nous dépasser et qu’il faut, pour rivaliser, augmenter notre mémoire.

D’où vient cette notion de mémoire augmentée ?

En partie des auteurs de science-fiction, comme l’Ecossais Iain Banks (1954-2013), qui, dans la seconde moitié du XXe siècle, utilise le terme de « lacet neuronal » repris par Elon Musk dans sa présentation. Mais on trouve des liens encore plus anciens. Le physicien Vannevar Bush (1890-1974), conseiller scientifique du président Roosevelt, a écrit en 1945 – avant le premier ordinateur électronique – un texte visionnaire, As We May Think (« comme nous pourrions penser »), où il imagine le Memex (Memory Extender), un extenseur de mémoire pour gérer le savoir technologique en constante augmentation.

Il imagine, dessin à l’appui, un verre dépoli, l’équivalent d’un écran, sur lequel pourrait être projeté de l’information. Dans la conclusion du texte, il évoque les ondes électriques cérébrales et s’interroge : « Peut-être qu’un jour, on saura quelle est leur nature et on pourra passer, sans intermédiaire, directement de l’électricité extérieure, remplie d’information, à l’électricité intérieure. » On peut voir une certaine continuité entre sa vision et celle d’Elon Musk.

 

L’enjeu de la régulation de l’intelligence artificielle

L’enjeu de la régulation de l’intelligence artificielle

 

Florian Ingen-Housz, partner au sein d’Altermind, et Victor Storchan, ingénieur en IA dans l’industrie financière, explique l’enjeu de la régulation de l’intelligence artificielle (IA) dans la Tribune

 

 

En février dernier, la Commission européenne a publié son livre blanc sur la régulation des applications de l’Intelligence Artificielle (IA). Plutôt que de légiférer unilatéralement sur ce sujet, la Commission a choisi, de manière novatrice, une approche consultative et participative en incitant l’ensemble des parties prenantes à cet écosystème à participer à la discussion. Cette approche doit être encouragée, approfondie et accélérée pour ajuster l’état du droit à un état de l’art technologique qui ne cesse de faire surgir des débats juridiques et normatifs inédits. Cette approche est aussi le seul moyen de faire émerger, dans la décennie qui vient, une véritable vision européenne de la Tech, tout à la fois pro-business et respectueuse des libertés individuelles.

Un défi majeur pour les régulateurs

L’IA constitue en effet un défi majeur pour les régulateurs. La vitesse prodigieuse des avancées technologiques doit inviter ces derniers à co-construire la norme avec un écosystème plus large qu’ils n’en ont l’habitude, plutôt que d’imposer celle-ci « par le haut ». Tout comme l’ont montré les débats sur la bioéthique depuis les années 1970, la régulation technologique est avant tout un choix de société et par conséquent un effort continu. La question se pose néanmoins avec une acuité particulière pour le déploiement de l’IA, compte tenu de l’ambiguïté de ses définitions, de sa nature stochastique et de l’opacité des multiples modèles sur lesquels elle est bâtie. Cette opacité est aggravée par l’hypercroissance de l’écosystème (50% de plus de papiers soumis à NeurIPS – une des conférences majeures de la discipline - en 2019 par rapport à l’année précédente), qui rend immédiatement obsolètes des savoirs difficilement acquis par des régulateurs parfois mal-équipés sur le plan technique. Si la régulation est évidemment primordiale pour permettre l’adoption, créer du consensus et de la confiance envers cette technologie, son élaboration devra donc être suffisamment (i) spécifique dans son champ d’application pour être « implémentable », (ii) inclusive et ouverte dans sa démarche et (iii) sélective dans ses priorités et son séquencement.

Il faudra donc, dans un premier temps, d’abord s’assurer de la juste définition de l’objet ciblé. Ce besoin de spécificité dans un domaine aux frontières floues soulève un premier défi : celui de la sémantique. Le concept d’IA est imprécis, même pour les experts. Contrairement aux précédentes vagues de disruption technologique, que ce soit la machine à vapeur, l’électricité, la chimie ou même les premiers programmes informatiques, les contours de l’IA sont moins tangibles. Ainsi, en 2013, l’Etat du Nevada a dû ainsi revoir sa définition de l’IA pour les véhicules autonomes car celle-ci englobait aussi certains modèles de voitures sophistiquées avec des fonctionnalités de contrôle avancées. La définition de ce qu’est un robot pour l’Union européenne n’est pas non plus satisfaisante. Contrairement à ce que semble indiquer cette dernière, les robots n’acquièrent en effet pas de capacité d’autonomie uniquement grâce aux données et aux capteurs dont ils disposeraient. Comme le montrent les travaux de Bryan Casey et Mark A. Lemley (Stanford Law School) lorsque cela est possible, une manière de contourner le problème sémantique est de s’assurer que la régulation cerne en priorité les comportements des individus et non pas les techniques, les types d’algorithmes ou les robots.

Faire coopérer des acteurs très divers

L’efficacité de la régulation pour l’IA se mesurera aussi à sa capacité à faire coopérer des acteurs très divers. Les usages de cette technologie doivent être appréhendés non pas in-vitro mais au sein d’écosystèmes technico-sociaux complexes où elle est déployée. Ainsi cette coopération doit à la fois s’effectuer horizontalement et verticalement. Horizontalement d’abord, par la co-construction entre juristes, techniciens, et chercheurs, mais également sociologues et citoyens qui via les décideurs publics seront les utilisateurs de ces systèmes d’IA. Ces derniers doivent être dotés d’outils pour améliorer leur capacité à contester la décision d’un modèle afin de créer de la confiance. Le dialogue doit aussi être plurilatéral, non seulement par une coordination entre pays et puissances régionales, mais aussi en incluant les ONG, la société et l’industrie.

 

Cette coopération est aussi verticale. Pour être opérant, le processus délibératif d’une gouvernance globale doit pouvoir être traduit en termes techniques par les ingénieurs et les chercheurs qui conçoivent les modèles. Cependant, pour être parfaitement efficace et agile, cette approche différenciée devra pouvoir s’incarner par une gouvernance dans les entreprises capable de guider les équipes techniques. Ces dernières sont confrontées à plusieurs dilemmes du fait des contraintes techniques, mathématiques ou algorithmiques et ont besoin d’indications précises qui tranchent des compromis entre certaines notions d’éthiques comme l’équité ou le respect de la vie privée. Il est donc nécessaire de faire un choix qui relève presque de philosophie politique. Ces choix sont sociétaux et culturels.

Enfin, lorsqu’une directive réglementaire présente une ambiguïté intrinsèque (dans le but par exemple d’anticiper des développements de technologie future ou pour pouvoir être appliquée à un spectre large d’acteurs), il est précieux que l’écosystème puisse collectivement expliciter les points d’incertitude qui sont sujets à l’interprétation. Cet effort de clarification permettrait d’aligner les efforts de gestion du risque dans les modèles d’IA sur des standards communs. Ces concertations des parties prenantes ont vocation à constituer une « soft law » pour préciser ou compléter au plus près du terrain des principes plus généraux fixant l’esprit et l’intention.

Se concentrer sur un nombre réduit de secteurs

 

Enfin, la régulation pour être efficace doit en priorité se concentrer sur un nombre réduit de secteurs et d’applications sur lesquels une attention immédiate est requise. A titre d’exemple, l’UE propose de calibrer le niveau de régulation selon le niveau de risque que représente une application de l’IA ou un secteur industriel applicatif. La commission propose ainsi une liste de plusieurs secteurs à haut risque comme les transports, la santé ou l’énergie dans lesquels certains déploiements technologiques sensibles devront respecter un ensemble de règles plus exigeant. Cette approche semble raisonnable. Le risque consubstantiel à l’innovation et un principe de précaution aveugle à la diversité des cas d’usages aboutirait à une société du statu quo vidée de sa force entrepreneuriale et créatrice. Les applications dans le secteur public (justice et éducation notamment), la santé font certainement partis des chantiers prioritaires. Les exemples récents de systèmes mal déployés sont légions : les entreprises technologiques comme IBM ou Microsoft ont stoppé leurs services de reconnaissance faciale après que des failles éthiques à répétition aient été identifiées. L’algorithme néerlandais de prédiction de fraude pour les demandeurs de sécurité sociale a été suspendu par une juridiction du pays pour violation des droits de l’homme et de la régulation RGPD sur les données.

Ainsi, les rapports entre les régulateurs et les innovateurs en IA ne peuvent être résumés à un conflit entre le glaive et le bouclier. La multidisciplinarité de cette technologie, ses évolutions rapides et disruptives doivent être accompagnées pour qu’elle serve le plus grand nombre dans la transparence et responsabilité des acteurs.

 

Chômage : encore une baisse artificielle au mois d’août

Chômage : encore une baisse artificielle au mois d’août

 

Une évaluation assez surréaliste du nombre de formats qu’on constate en baisse pour le quatrième mois consécutif en août. Le nombre de chômeurs aurait de nouveau diminué (-4,3%) en août, soit 174.800 inscrits en catégorie A en moins, une baisse due comme les mois précédents au retour de demandeurs d’emploi vers l’activité réduite (catégories B et C) avec la reprise de l’économie qui a suivi le confinement, selon les chiffres de la Dares publiés vendredi. En fait un assiste à un transfert de catégorie. Par ailleurs le plan général de soutien du chômage partiel pousse complètement les chiffres. Il paraît pour le moins surprenant d’annoncer une baisse du nombre de chômeurs qu’en 800 000 emplois ont été supprimé depuis le début de l’année et que se succèdent les annonces des plans de licenciement un peu partout.

« lntelligence artificielle: pour une pédagogie sur des cas concrets»

« lntelligence artificielle: pour  une pédagogie sur des cas concrets»

L’intelligence artificielle nourrit toutes les peurs et tous les fantasmes. Certains craignent la mise à l’écart de l’humain voire sa domination, d’autres contraires voient l’occasion d’une « renaissance humaine » . Des visions et des sentiments souvent excessifs d’abord parce que l’intelligence artificielle a pénétré depuis déjà longtemps dans la production et la société ensuite parce que le concept d’intelligence artificielle est souvent très flou. L’acceptation de la progression des technologies dites intelligences artificielles nécessite donc beaucoup de pédagogie pour être admise. De nombreuses initiatives ont été lancées pour définir une intelligence artificielle éthique et respectueuse des droits humains, mais pour l’instant, la mise en œuvre concrète de ces principes marque le pas, regrette la spécialiste de l’IA Nozha Boujemaa dans une chronique au « Monde ».

«  Comment faire en sorte que les usages de l’intelligence artificielle (IA), qui se développent à un rythme effréné, restent éthiques, respectueux des droits humains et des valeurs démocratiques ? Depuis 2019, les principes de l’IA de confiance ont fait leur chemin, après la publication du rapport du groupe d’experts de haut niveau en intelligence artificielle de la Commission européenne (High-Level Expert Group on Artificial Intelligence, AI HLEG) et l’élaboration des principes de l’OCDE sur l’intelligence artificielle, qui ont été adoptés en mai 2019 par les pays membres de l’OCDE.

En juin 2019, le G20 a adopté des principes qui s’inspirent de ceux de l’OCDE. Avec un temps différé, l’Unesco a inclus en 2020 dans sa Commission mondiale d’éthique des connaissances scientifiques et des technologies (Comest) des experts travaillant sur les principes d’une IA éthique.

Une autre initiative de coordination internationale, franco-canadienne à l’origine, a été lancée, en parallèle avec l’AI HLEG, le 15 juin 2020 par 15 pays et s’intitule Global Partnership on AI (GPAI). Les efforts sont structurés selon quatre axes : l’usage responsable de l’IA, la gouvernance des données, le futur du travail, l’innovation et la commercialisation. Il est toutefois encore trop tôt pour savoir quel serait le niveau opérationnel des conclusions de ces groupes de coordination.

Courant 2020, l’OCDE a de son côté constitué son réseau d’experts, ONE AI, pour travailler au développement et au déploiement responsables de l’IA. Il s’agit d’une démarche proactive dans cette quête d’une IA de confiance : comment passer des principes aux actions ?

Ainsi, le premier groupe d’experts, consacré à « la classification des systèmes d’IA », développe un cadre vulgarisé pour classer et aider les décideurs politiques à naviguer dans les systèmes d’IA et à comprendre les différentes considérations politiques associées.

Le deuxième groupe travaille sur la mise en œuvre pratique des principes d’IA fondés sur des valeurs centrées sur l’humain. Les efforts de ce groupe sont orientés vers l’identification des outils technologiques, processus et bonnes pratiques spécifiques qui permettront une application pratique de ces principes. Le troisième groupe est consacré à l’élaboration des politiques publiques qui accompagneront le déploiement technologique de l’IA : ONE AI, de l’OCDE, est un des premiers à orienter ses efforts sur les outils concrets. »

Nouvelles technologies– »Intelligence artificielle : renaissance de l’expérience humaine « !

Nouvelles technologies– »Intelligence artificielle : renaissance de l’expérience humaine « !

Un plaidoyer pour  l’intelligence artificielle par Gianmarco Monsellato, Avocat, Ancien dirigeant de Deloitte-Taj, Senior Partner Deloitte dans l’Opinion . Une vision quand même un peu réductrice du champ de l’intelligence artificielle et en même temps un peu excessive voire caricaturale.

 

Tout est écrit. Le futur peut se lire dans l’interprétation des données à notre disposition, des signes que la nature nous donne. Ces conclusions ne viennent pas d’une entreprise technologique du XXIe siècle mais des alchimistes du XVe. Serions-nous en train de vivre un retour en arrière, assisterions-nous à une nouvelle forme de pensée magique sous le couvert du vocabulaire technologique ? Les professions d’expertises et notamment les services professionnels pourraient être tentés de le croire tant leur fin, ou leur mutation complète, est souvent annoncée à cause de l’essor de l’IA. A quoi bon des experts, lorsqu’un algorithme peut vous donner toutes les réponses à vos questions ? Et pourtant…

L’IA découle de la rencontre entre la technique des algorithmes, qui n’est pas nouvelle, une masse de données immense grâce à internet, et des puissances de calcul en augmentation exponentielle. Elle constitue une formidable capacité à calculer des corrélations entre des données apparemment indépendantes, permettant de mettre en lumière des liens de causalités jusque-là ignorés. Grâce au « machine learning », les algorithmes améliorent la pertinence de leurs résultats en éliminant les corrélations aboutissant à des conclusions hors contexte, autrement dit absurdes pour un humain.

Pour les professions d’expertise (consultants, avocats, juges, auditeurs…), l’IA permet de disposer rapidement d’une analyse précise et exhaustive des précédents dans toutes leurs dimensions. Ce qui avant devait être effectué par des collaborateurs durant un temps assez long et avec un taux d’inexactitude non négligeable est désormais rapidement disponible, sans erreur et de manière exhaustive. Sur le plan du droit, l’IA permet de disposer d’analyses de précédents d’une profondeur sans équivalent, réduisant à néant le risque d’erreur ou d’omission. Elle apporte ainsi une sécurité juridique sans faille. A tel point que certaines Cours suprêmes de pays de Common Law travaillent sur des projets d’IA pour effectuer toute la préparation analytique au jugement.

Par construction, une IA ne fait que répéter le passé. Le présupposé fondateur des études de corrélation est de croire que les phénomènes passés ont vocation à se répéter dans le futur

Pour puissante qu’elle soit, l’IA n’en demeure pas moins entravée par des limites indépassables. En premier lieu, elle est sujette aux biais. Puisqu’elle traite des données existantes, ces conclusions reflètent nécessairement les a priori présents dans l’historique des environnements analysés. Plus un biais, ou une erreur de jugement sur le plan moral, a été répété de manière insidieuse dans le passé, plus il influencera les analyses de corrélations et donc les conclusions de l’IA. En second lieu, toutes les corrélations ne se valent pas. Certaines identifient des liens entre données qui sont de fausses causalités uniquement créées par la répétition non signifiante de certains aléas, ce que les mathématiciens arabes du Moyen Age ont appelé « hasard ». Enfin, par construction, une IA ne fait que répéter le passé. Le présupposé fondateur des études de corrélation est de croire que les phénomènes passés ont vocation à se répéter dans le futur. Ce qui va à l’encontre de l’aspiration humaine à la créativité qui n’est rien d’autre que le refus du déterminisme.

 

Est-ce à dire alors que l’IA serait un faux savoir à renier au même titre que l’alchimie de la fin du Moyen Age ? Bien sûr que non, ne fût-ce que parce que certains parmi les plus grands savants à l’origine de la Renaissance étaient aussi des alchimistes. Il faut en revanche l’utiliser pour ce qu’elle est sans lui prêter des capacités qu’elle ne peut avoir.

L’IA permet dès aujourd’hui, et encore plus demain, à tous les métiers de savoir, de bénéficier d’analyses techniques de plus grande qualité et plus rapidement que par le passé. Pour autant que l’on sache s’en servir. Les collaborateurs qui auparavant effectuaient les recherches techniques doivent désormais se concentrer sur le fonctionnement de l’IA pour corriger ses biais ou a minima les comprendre pour en nuancer les conclusions. Quant à ceux qui sont en position de décider, ou de conseiller, ils doivent considérer les conclusions de l’IA pour ce qu’elles sont : une vision du passé appliquée au futur, qui ne peut appréhender l’intelligence des situations si importante à la qualité de la prise décision.

C’est la responsabilité du conseil, de l’avocat ou de l’auditeur, de comprendre que décider c’est créer l’avenir et non pas répéter le passé. L’expérience permet de savoir quand il est nécessaire de s’écarter des chemins déjà tracés, ou quand une évidence provenant du passé deviendrait une erreur si elle était projetée dans le futur. Les plus grandes évolutions juridiques créatrices des droits fondamentaux qui fondent nos sociétés n’auraient jamais été possibles si les jugements ou décisions avaient été rendues par des IA, justement par ce que ces évolutions sont le fruit de décisions qui ont voulu rompre avec ce qui existait déjà.

En réalité, l’IA met sur le devant de la scène l’importance de la qualité de la prise de décision, fruit de l’expérience et de la volonté créatrice. Elle valorise la qualité du jugement humain. Et elle nous renvoie à un texte fondateur de la culture occidentale. Dans l’Odyssée, Ulysse connaît le jugement des dieux et le déterminisme qu’il impose. Il choisit de s’en départir et de tracer son propre chemin, dans un voyage qui ne cesse de nous inspirer 3 000 ans après. Finalement, le principal mérite de l’IA est de nous rappeler que nous sommes humains.

Gianmarco Monsellato, Avocat, Ancien dirigeant de Deloitte-Taj, Senior Partner Deloitte

« Intelligence artificielle : renaissance de l’expérience humaine « !. ( Gianmarco Monsellato)

« Intelligence artificielle : renaissance de l’expérience humaine « !. ( Gianmarco Monsellato)

Un plaidoyer pour  l’intelligence artificielle par Gianmarco Monsellato, Avocat, Ancien dirigeant de Deloitte-Taj, Senior Partner Deloitte dans l’Opinion . Une vision quand même un peu réductrice du champ de l’intelligence artificielle et en même temps un peu excessive.

 

Tout est écrit. Le futur peut se lire dans l’interprétation des données à notre disposition, des signes que la nature nous donne. Ces conclusions ne viennent pas d’une entreprise technologique du XXIe siècle mais des alchimistes du XVe. Serions-nous en train de vivre un retour en arrière, assisterions-nous à une nouvelle forme de pensée magique sous le couvert du vocabulaire technologique ? Les professions d’expertises et notamment les services professionnels pourraient être tentés de le croire tant leur fin, ou leur mutation complète, est souvent annoncée à cause de l’essor de l’IA. A quoi bon des experts, lorsqu’un algorithme peut vous donner toutes les réponses à vos questions ? Et pourtant…

L’IA découle de la rencontre entre la technique des algorithmes, qui n’est pas nouvelle, une masse de données immense grâce à internet, et des puissances de calcul en augmentation exponentielle. Elle constitue une formidable capacité à calculer des corrélations entre des données apparemment indépendantes, permettant de mettre en lumière des liens de causalités jusque-là ignorés. Grâce au « machine learning », les algorithmes améliorent la pertinence de leurs résultats en éliminant les corrélations aboutissant à des conclusions hors contexte, autrement dit absurdes pour un humain.

Pour les professions d’expertise (consultants, avocats, juges, auditeurs…), l’IA permet de disposer rapidement d’une analyse précise et exhaustive des précédents dans toutes leurs dimensions. Ce qui avant devait être effectué par des collaborateurs durant un temps assez long et avec un taux d’inexactitude non négligeable est désormais rapidement disponible, sans erreur et de manière exhaustive. Sur le plan du droit, l’IA permet de disposer d’analyses de précédents d’une profondeur sans équivalent, réduisant à néant le risque d’erreur ou d’omission. Elle apporte ainsi une sécurité juridique sans faille. A tel point que certaines Cours suprêmes de pays de Common Law travaillent sur des projets d’IA pour effectuer toute la préparation analytique au jugement.

Par construction, une IA ne fait que répéter le passé. Le présupposé fondateur des études de corrélation est de croire que les phénomènes passés ont vocation à se répéter dans le futur

Déterminisme. Pour puissante qu’elle soit, l’IA n’en demeure pas moins entravée par des limites indépassables. En premier lieu, elle est sujette aux biais. Puisqu’elle traite des données existantes, ces conclusions reflètent nécessairement les a priori présents dans l’historique des environnements analysés. Plus un biais, ou une erreur de jugement sur le plan moral, a été répété de manière insidieuse dans le passé, plus il influencera les analyses de corrélations et donc les conclusions de l’IA. En second lieu, toutes les corrélations ne se valent pas. Certaines identifient des liens entre données qui sont de fausses causalités uniquement créées par la répétition non signifiante de certains aléas, ce que les mathématiciens arabes du Moyen Age ont appelé « hasard ». Enfin, par construction, une IA ne fait que répéter le passé. Le présupposé fondateur des études de corrélation est de croire que les phénomènes passés ont vocation à se répéter dans le futur. Ce qui va à l’encontre de l’aspiration humaine à la créativité qui n’est rien d’autre que le refus du déterminisme.

Est-ce à dire alors que l’IA serait un faux savoir à renier au même titre que l’alchimie de la fin du Moyen Age ? Bien sûr que non, ne fût-ce que parce que certains parmi les plus grands savants à l’origine de la Renaissance étaient aussi des alchimistes. Il faut en revanche l’utiliser pour ce qu’elle est sans lui prêter des capacités qu’elle ne peut avoir.

L’IA permet dès aujourd’hui, et encore plus demain, à tous les métiers de savoir, de bénéficier d’analyses techniques de plus grande qualité et plus rapidement que par le passé. Pour autant que l’on sache s’en servir. Les collaborateurs qui auparavant effectuaient les recherches techniques doivent désormais se concentrer sur le fonctionnement de l’IA pour corriger ses biais ou a minima les comprendre pour en nuancer les conclusions. Quant à ceux qui sont en position de décider, ou de conseiller, ils doivent considérer les conclusions de l’IA pour ce qu’elles sont : une vision du passé appliquée au futur, qui ne peut appréhender l’intelligence des situations si importante à la qualité de la prise décision.

Rompre avec ce qui existait déjà. C’est la responsabilité du conseil, de l’avocat ou de l’auditeur, de comprendre que décider c’est créer l’avenir et non pas répéter le passé. L’expérience permet de savoir quand il est nécessaire de s’écarter des chemins déjà tracés, ou quand une évidence provenant du passé deviendrait une erreur si elle était projetée dans le futur. Les plus grandes évolutions juridiques créatrices des droits fondamentaux qui fondent nos sociétés n’auraient jamais été possibles si les jugements ou décisions avaient été rendues par des IA, justement par ce que ces évolutions sont le fruit de décisions qui ont voulu rompre avec ce qui existait déjà.

En réalité, l’IA met sur le devant de la scène l’importance de la qualité de la prise de décision, fruit de l’expérience et de la volonté créatrice. Elle valorise la qualité du jugement humain. Et elle nous renvoie à un texte fondateur de la culture occidentale. Dans l’Odyssée, Ulysse connaît le jugement des dieux et le déterminisme qu’il impose. Il choisit de s’en départir et de tracer son propre chemin, dans un voyage qui ne cesse de nous inspirer 3 000 ans après. Finalement, le principal mérite de l’IA est de nous rappeler que nous sommes humains.

Gianmarco Monsellato, Avocat, Ancien dirigeant de Deloitte-Taj, Senior Partner Deloitte

« L’intelligence artificielle contre le coronavirus »

« L’intelligence artificielle contre le coronavirus ».

 

L’intelligence artificielle peut-être très utile à la lutte contre le virus chinois d’après Victor Storchan et Erwan Le Noan *.( Chronique dans l’opinio

 

« 

Dans le roman de Giono, Le hussard sur le toit, Angelo découvre une Provence ravagée par le choléra. Face à l’épidémie, les habitants se confinent dans la peur, alors que les autorités tentent d’organiser, tant bien que mal, un barrage à la propagation de la maladie.

Face à l’urgence d’une crise, les mécanismes d’ajustement d’une société résiliente relèvent à la fois de l’anticipation et de l’improvisation. Anticipation, en se dotant d’un éventail de procédures de réponses coordonnées et d’expertises, qui dessinent les contours de stratégies à déployer quand survient l’imprévu. Improvisation, dans son sens positif où tels des musiciens, les différents acteurs jouent une partition dictée par les aléas de l’événement.

La crise du coronavirus confirme cette dichotomie traditionnelle entre innovation et application de la règle au cœur de la tempête : les plans d’urgence les mieux élaborés sont complétés, dans l’action, par l’initiative humaine. De façon intéressante, les nouvelles technologies comme l’intelligence artificielle (IA) participent pleinement de cette dynamique – révélant que, face aux défis les plus grands, la recherche académique et appliquée permet d’augmenter aussi bien les décisions au plus haut niveau que la pratique la plus concrète.

La publication récente des conclusions des travaux de chercheurs en médecine à l’Université de Wuhan l’illustre parfaitement : en constituant en à peine un mois un jeu de données d’images tomographiques de pneumonies, causées par le Covid-19 d’une part et provenant de pneumonies connues et plus classiques d’autre part, l’équipe a pu construire, grâce à l’IA, un outil d’aide à la décision qui permet aux praticiens d’établir un diagnostic médical avec un gain de temps estimé à 65 %.

Modèles «convolutionnels». L’imagerie médicale et plus généralement la vision assistée par ordinateur comptent parmi les applications les plus robustes de l’intelligence artificielle. Les outils utilisés aujourd’hui fonctionnent en mimant la structure du cortex visuel humain (soit 5 milliards de neurones qui se répartissent en couches successives). Ils ne sont pas nouveaux : le Français Yann LeCun fut, dès les années 1990, un pionnier de cette technique qui s’est diffusée plus largement depuis 2012, grâce à l’utilisation de circuits intégrés modernes. Ces modèles, dits « convolutionnels », sont constitués en couches neuronales qui transmettent successivement l’information en tenant compte de dépendances spatiales dans l’image. Cette méthode permet de détecter des motifs utiles pour la tâche à effectuer.

Cette technique est au cœur du système d’IA conçu à Wuhan pour identifier les pneumonies virales de Covid-19 à partir de plus de 46 000 images tomographiques – collectées en un temps record, reconstituées en mesurant l’absorption des rayons X par les tissus biologiques de 106 patients. Ces couches d’informations ont été assemblées dans une architecture spécialisée dans la segmentation d’images et capable de détecter les traces d’infection pulmonaire, parfois très légères au stade précoce de l’infection (des dixièmes de millimètres).

Les phases d’évaluation ont permis de conclure que l’algorithme fournit une précision comparable à celle des radiologues, sans pour autant s’y substituer : il est utilisé comme outil d’aide à la décision, qui permet de réduire à 40 secondes le temps nécessaire au diagnostic (contre 116 par les meilleurs médecins).

. Cet outil, qui augmente le savoir humain, a donc permis un gain de temps substantiel dans la pratique médicale. C’est essentiel, car la détection précoce de l’infection permet un isolement rapide du patient, alors que l’attente prolongée augmente les risques de surinfection. C’est aussi une espérance de meilleure lutte contre l’épidémie : dans la province chinoise de Hubei, mi-février, plus de 77 000 cas étaient sous observation médicale, dont la plupart nécessitaient un examen radiologique approfondi… alors que moins de 4 500 radiologues exercent dans cette région. La technologie rayonnera au demeurant au-delà : le partage d’une plateforme en libre accès dans le cloud permet aux autres hôpitaux et professionnels de santé de l’utiliser – et aussi de l’auditer.

En médecine, et particulièrement en imagerie médicale, l’utilisation d’algorithmes a une longue histoire. Dans son livre récent – et à succès –, Aurélie Jean explique comment elle les a mobilisés pour de la recherche en biomécanique, dans le but d’évaluer les risques de traumatismes cérébraux lors de chocs. Ces exemples comme les travaux des médecins de Wuhan montrent que, particulièrement dans des moments de crise intense, la recherche académique est un outil puissant de progrès et un éclairage précieux pour augmenter efficacement les décisions humaines, des praticiens aux dirigeants.

* Victor Storchan est spécialiste de machine learning, ancien élève de Stanford. Erwan Le Noan est associé du cabinet Altermind.

La régulation de l’intelligence artificielle ?

La régulation de l’intelligence artificielle ?

 

 

Nozha Boujemaa,Directrice science & innovation chez Median Technologies estime indispensable  la régulation de l’IA. (Tribune dans le Monde)

 

« . La Commission européenne a annoncé fin février sa volonté de réguler l’intelligence artificielle (IA). Celle-ci suscite fantasmes, craintes et fascination. Les industriels européens redoutent le coût financier d’une telle régulation et brandissent le frein à l’innovation. Les consommateurs redoutent les discriminations. Serait-ce l’avenir ou le péril de l’humanité ? On entend l’un et l’autre : l’intelligence artificielle va sauver des vies, l’intelligence artificielle va décider de nos vies.

Existe-il une définition unique de l’intelligence artificielle ? La réponse est non, il y a autant de définitions que d’écoles de pensée et de communautés scientifiques. Par exemple entre l’IA statistique et l’IA symbolique, l’IA faible et l’IA forte, certaines sont explicables et d’autres pas encore. Aucun exercice de définition de l’IA n’a débouché sur un réel consensus, et parfois même l’exercice a été abandonné.

D’ailleurs, c’est une erreur que de personnaliser l’IA. Les algorithmes de l’IA et leurs dérives potentielles de toutes sortes (éthiques ou juridiques) ne sont qu’une codification des opinions de leurs concepteurs et de ceux qui les déploient. La tentation est très forte de réguler tout ce qui semble échapper à notre compréhension et à notre contrôle. Cette approche suppose que le simple fait d’établir de nouvelles règles juridiques sera un rempart protecteur face aux dérives potentielles.

La nécessité d’encadrer juridiquement l’usage des algorithmes de l’IA ne fait pas de doute, tant leurs champs d’application sont étendus et tant les brèches pour certaines dérives au service de leurs concepteurs sont possibles. La régulation des algorithmes de manière générale, et celle de l’IA en particulier, est un terrain de jeu tout à fait nouveau pour les juristes. Il faudrait une transformation numérique du métier juridique pour espérer une réelle efficacité. Il faudrait que les avocats se forment aux algorithmes sans pour autant en devenir spécialistes et que les cabinets d’avocats se dotent de spécialistes de l’IA pour cerner les questions à résoudre.

Autrement, la régulation ne donnera lieu qu’à des mesures descendantes traduisant les principes de ce qui doit être fait mais qui resteront non applicables. Comment un juriste pourrait-il s’assurer qu’un algorithme d’IA respecterait la nouvelle juridiction qui sera mise en place ? Ce qui doit guider la régulation de ce nouveau genre, c’est l’analyse du risque des décisions algorithmiques pour l’humain. Le secteur de la santé est bien en avance dans ce domaine pour l’homologation des services logiciels comme dispositifs médicaux, pour garantir la maîtrise des biais et de la répétabilité. »

 

 

Quelle compatibilité entre Intelligence artificielle et éthique ?

Quelle compatibilité entre Intelligence artificielle et  éthique

 

Un Livre blanc européen sur l’intelligence artificielle, publié le 19 février, insiste d’abord sur l’importance du respect des droits fondamentaux des citoyens et met par exemple en garde contre des distorsions dans les algorithmes de recrutement conduisant à des discriminations.

D’après le site pwc.fr , les intelligences artificielles (IA) se font de plus en plus présentes – voitures autonomes, algorithmes de recommandation, drones, etc. – et la question de la moralité de leurs actions commence à se poser. Celles qui s’appuient sur les réseaux de neurones artificiels (deep learning) sont particulièrement critiquées : on leur reproche d’être opaques, de ne pas laisser voir le raisonnement qui permet aux algorithmes d’arriver au résultat final. Une science naissante s’applique d’ailleurs à développer des outils pour regarder à l’intérieur de ces boîtes noires que sont les réseaux neuronaux. À ce travail à rebours pour scruter le code des IA s’ajoute, en parallèle, la volonté affichée par de nombreux experts d’intégrer des préceptes éthiques très en amont, directement au cœur de l’IA.

En s’appuyant sur d’énormes quantités de données, les systèmes de deep learning sont capables d’effectuer un très grand nombre de tâches : reconnaître et analyser des images ou des voix, proposer une police d’assurance sur mesure, accepter ou refuser une offre de prêt, piloter un véhicule… Mais comment avoir confiance dans les décisions de l’IA si nous ne sommes pas en mesure de les comprendre ?

« L’intelligence doit être augmentée, c’est-à-dire au service de l’humain, plutôt qu’autonome. Nous devons construire un binôme humain-machine où l’IA devra offrir une compréhension intuitive pour l’humain. Elle devra être capable d’expliquer ses recommandations de façon simple et immédiate. » François Royer, directeur consulting Data Intelligence, PwC France

Le développement d’une telle IA a par exemple déjà été initié aux États-Unis par la DARPA (département de R&D militaire du ministère de la Défense) : les premiers résultats du projet XAI (Explainable AI) sont attendus en novembre 2018.

Si XAI vise à développer des techniques de machine learning qui permettent de construire des modèles d’IA plus compréhensibles, capables d’expliquer aux humains en bout de ligne leur raisonnement, c’est loin d’être le cas de toutes les IA. Le fonctionnement des réseaux de neurones artificiels est particulièrement opaque. Les géants du digital, boostés par des mécanismes de collecte de données très efficaces, disposent de quantités de données phénoménales ce qui les encourage à développer massivement les réseaux de neurones artificiels. Ces réseaux se nourrissent des corrélations qu’ils détectent entre des jeux de données préexistants, ce qui peut poser problème.

 

Bruxelles recommande donc  que les futurs systèmes d’intelligence artificielle à haut risque (concernant la santé par exemple) soient certifiés, testés et contrôlés, comme le sont les voitures, les cosmétiques et les jouets.

 

Theodorous Evgueniou, professeur de la prestigieuse école de management Insead, a rendu avec plusieurs autres chercheurs européens et américains un avis mettant en garde contre les risques d’une approche européenne trop centrée sur ses valeurs.

« Il semble que l’esprit du Livre blanc soit que l’Europe utilise ses valeurs comme une arme stratégique pour rattraper la Chine et les États-Unis », et se rendre attractive dans la course mondiale à l’intelligence artificielle, affirme-t-il. Mais « pourquoi penser que des pays non-européens préféreront des intelligences artificielles formées aux valeurs européennes ? Je ne suis pas sûr que ça marche », explique-t-il.

 

Par exemple, le Livre blanc affiche « l’explicabilité » comme valeur cardinale: il doit être possible de comprendre exactement pourquoi un système d’intelligence artificielle arrive à telle conclusion – comme le fait de refuser un prêt à quelqu’un.

Mais obliger des intelligences artificielles à expliquer leur choix « peut réduire leur performance de 20%, si ce n’est plus », affirme-t-il.

De son côté, Guillaume Avrin, responsable de l’intelligence artificielle au sein du Laboratoire national de métrologie et d’essais (LNE), ne remet pas en cause les impératifs éthiques dans le Livre blanc. Mais il regrette que la Commission s’avance peu sur les moyens de vérifier la conformité des intelligences artificielles auxdites valeurs.

« Comment fait-on pour s’assurer de la conformité des systèmes d’intelligence artificielle » à une réglementation, alors qu’ils sont souvent évolutifs et adaptatifs et ont des comportements  »non linéaires », voire « chaotiques », explique-t-il.

Intelligence artificielle et éthique: un livre blanc

Intelligence artificielle et  éthique: un livre blanc

Le Livre blanc européen sur l’intelligence artificielle, publié le 19 février, insiste d’abord sur l’importance du respect des droits fondamentaux des citoyens et met par exemple en garde contre des distorsions dans les algorithmes de recrutement conduisant à des discriminations.

D’après le site pwc.fr , les intelligences artificielles (IA) se font de plus en plus présentes – voitures autonomes, algorithmes de recommandation, drones, etc. – et la question de la moralité de leurs actions commence à se poser. Celles qui s’appuient sur les réseaux de neurones artificiels (deep learning) sont particulièrement critiquées : on leur reproche d’être opaques, de ne pas laisser voir le raisonnement qui permet aux algorithmes d’arriver au résultat final. Une science naissante s’applique d’ailleurs à développer des outils pour regarder à l’intérieur de ces boîtes noires que sont les réseaux neuronaux. À ce travail à rebours pour scruter le code des IA s’ajoute, en parallèle, la volonté affichée par de nombreux experts d’intégrer des préceptes éthiques très en amont, directement au cœur de l’IA.

En s’appuyant sur d’énormes quantités de données, les systèmes de deep learning sont capables d’effectuer un très grand nombre de tâches : reconnaître et analyser des images ou des voix, proposer une police d’assurance sur mesure, accepter ou refuser une offre de prêt, piloter un véhicule… Mais comment avoir confiance dans les décisions de l’IA si nous ne sommes pas en mesure de les comprendre ?

« L’intelligence doit être augmentée, c’est-à-dire au service de l’humain, plutôt qu’autonome. Nous devons construire un binôme humain-machine où l’IA devra offrir une compréhension intuitive pour l’humain. Elle devra être capable d’expliquer ses recommandations de façon simple et immédiate. » François Royer, directeur consulting Data Intelligence, PwC France

Le développement d’une telle IA a par exemple déjà été initié aux États-Unis par la DARPA (département de R&D militaire du ministère de la Défense) : les premiers résultats du projet XAI (Explainable AI) sont attendus en novembre 2018.

Si XAI vise à développer des techniques de machine learning qui permettent de construire des modèles d’IA plus compréhensibles, capables d’expliquer aux humains en bout de ligne leur raisonnement, c’est loin d’être le cas de toutes les IA. Le fonctionnement des réseaux de neurones artificiels est particulièrement opaque. Les géants du digital, boostés par des mécanismes de collecte de données très efficaces, disposent de quantités de données phénoménales ce qui les encourage à développer massivement les réseaux de neurones artificiels. Ces réseaux se nourrissent des corrélations qu’ils détectent entre des jeux de données préexistants, ce qui peut poser problème.

 

Bruxelles recommande donc  que les futurs systèmes d’intelligence artificielle à haut risque (concernant la santé par exemple) soient certifiés, testés et contrôlés, comme le sont les voitures, les cosmétiques et les jouets.

 

Theodorous Evgueniou, professeur de la prestigieuse école de management Insead, a rendu avec plusieurs autres chercheurs européens et américains un avis mettant en garde contre les risques d’une approche européenne trop centrée sur ses valeurs.

« Il semble que l’esprit du Livre blanc soit que l’Europe utilise ses valeurs comme une arme stratégique pour rattraper la Chine et les États-Unis », et se rendre attractive dans la course mondiale à l’intelligence artificielle, affirme-t-il. Mais « pourquoi penser que des pays non-européens préféreront des intelligences artificielles formées aux valeurs européennes ? Je ne suis pas sûr que ça marche », explique-t-il.

 

Par exemple, le Livre blanc affiche « l’explicabilité » comme valeur cardinale: il doit être possible de comprendre exactement pourquoi un système d’intelligence artificielle arrive à telle conclusion – comme le fait de refuser un prêt à quelqu’un.

Mais obliger des intelligences artificielles à expliquer leur choix « peut réduire leur performance de 20%, si ce n’est plus », affirme-t-il.

De son côté, Guillaume Avrin, responsable de l’intelligence artificielle au sein du Laboratoire national de métrologie et d’essais (LNE), ne remet pas en cause les impératifs éthiques dans le Livre blanc. Mais il regrette que la Commission s’avance peu sur les moyens de vérifier la conformité des intelligences artificielles auxdites valeurs.

« Comment fait-on pour s’assurer de la conformité des systèmes d’intelligence artificielle » à une réglementation, alors qu’ils sont souvent évolutifs et adaptatifs et ont des comportements  »non linéaires », voire « chaotiques », explique-t-il.

Intelligence artificielle ou technolâtrie ?

 Intelligence artificielle ou  technolâtrie ?

Un article forcément très marqué diffusé par l’ACIA (association française contre intelligence artificielle),  sans doute excessif, mais qui mérite d’être lu.

« Que les individus soient en perte de repères dans un monde déboussolé, c’est à fois un cliché et un constat certainement globalement juste. Mais il est un vieux repère de la modernité qui a résisté contre vents et marées et constituera peut-être l’ultime d’entre eux : l’enthousiasme, la foi, voire la vénération pour l’évolution technique, qui prend aujourd’hui la forme des technologies numériques. Propagé par les politiques, les économistes et les médias, cet optimisme technologique (ou technoptimisme) nous aveugle et nous empêche de prendre la mesure des conséquences humaines et écologiques du déferlement numérique et robotique qui saisit l’humanité depuis une vingtaine d’années. Bertrand Méheust, nous sommes face à un « nouvel âge de l’esprit » que plus rien ne pourra arrêter sur sa lancée… sauf un effondrement de la mégamachine (ce qui ne saurait tarder). Savoir que tout cela se terminera un jour ne nous prémunit pas hic et nunc contre la dangereuse mutation anthropologique que cela implique, même si l’on fait partie – ce qui est mon cas – des derniers réfractaires du smartphone, condamnés à vivre avec amertume l’évanouissement à marche forcée d’un monde qui nous était jusqu’il y a peu familier. L’économie numérique représente bien une rupture majeure, et il serait vain de vouloir nous comparer aux époques antérieures. Rien de cyclique ici, sous le soleil de l’innovation, rien que du nouveau, comme l’on bien vu les camarades de Pièces et main d’œuvre. Entre fantasme et réalité, le transhumanisme, l’extropianisme et la singularité technologique représentent les bonheurs et accomplissements que nous promettent les techno-prophètes dans le courant de ce siècle. Pour ce, ils peuvent compter sur l’appui des « progressistes » de gauche comme de droite, qui voient dans toute extension des droits individuels des bienfaits que seuls des réactionnaires pourraient critiquer, même si ces droits passent de plus en plus par le truchement de la technoscience, comme, par exemple, les nouvelles techniques de procréation. Que faire ? D’abord décréter un moratoire sur l’innovation incontrôlée, puis organiser une désescalade technique, voilà une condition nécessaire pour reconstruire la cohésion sociale dans une société qui se voudrait démocratique, écologique et décente.

L’actualité des livres vient à la rescousse.

Dans Seuls ensembleDe plus en plus de technologies, de moins en moins de relations humaines (éd. L’Echappée, 2015), la psychologue et anthropologue du MIT Sherry Turkle (née en 1948) a étudié l’impact des nouvelles technologies en Intelligence Artificielle sur la « façon dont nous nous pensons, dont nous pensons nos relations avec autrui et le sens de notre humanité » (p.20). Pour ce, elle s’est appuyée sur deux cent cinquante observations cliniques, principalement d’enfants, d’adolescents et de personnes âgées.

La première partie traite de leur rapport avec les robots – aux doux noms de Tamagochis, Furby, AIBO, My Real Baby, etc… – pour constater la facilité avec laquelle nous projetons sur eux nos sentiments et avons des attentes démesurées sur ce qu’ils pourraient nous apporter en terme d’aide, mais aussi de réconfort, d’amitié et même de sexualité !

D’une part, la notion d’authenticité perd de sa substance au profit d’une nouvelle définition de la vie « à mi-chemin entre le programme inanimé et la créature vivante » (p.61). D’autre part, les êtres humains sont remis en cause dans leur capacité à prendre soin les uns des autres. Les robots, « nous sommes aujourd’hui prêts, émotionnellement et je dirais même philosophiquement, à les accueillir » (p.31). Ces « créatures » robotiques sont traitées comme des égaux et non plus comme des machines, elles sont placées sur le terrain du sens, « alors qu’elles n’en dégagent aucun. » Elles sont de plus en plus présentes dans les maisons de retraite où elles remplacent le personnel manquant ou défaillant. En majorité, les pensionnaires s’y attachent, rentrent en intimité avec elles. A l’argument selon lequel les machines ne peuvent éprouver d’affects, les roboticiens répondent sans rire qu’ils en fabriqueront un jour de manière synthétique.

« Il est tellement aisé d’être obnubilé par la technologie et de ne plus chercher à développer notre compréhension de la vie », conclut l’auteure (p.170).

La seconde partie concerne l’internet avec ses réseaux sociaux, ses jeux en ligne, sa Second Life et ses sites de confession. Les effets de leur omniprésence dans notre quotidien sont loin d’être négligeables. D’abord celui d’une attention fragmentée permanente aboutissant au multitasking (multitâches) chez les jeunes, cette faculté qui impressionne tant les aînés, alors que les études en psychologie montrent que lorsque l’on fait plusieurs choses à la fois, on fractionne son attention et on les fait toutes moins bien. Ensuite, un effacement de la frontière entre la vie professionnelle et la vie privée, quand le smartphone reste allumé jour et nuit. Même en vacances, le cadre américain reçoit environ 500 courriels, plusieurs centaines de textos et 40 appels par jour !

Résultat : faute de temps, tous nos interlocuteurs sont réifiés, nous les traitons comme des objets. Turkle a aussi étudié le cas des natifs numériques (digital natives), les générations nées après 1990 pour lesquelles le web représente un liquide amniotique non questionné. « Je suis connecté, donc je suis ! » Et alors ?, répondront les technoptimistes.

« Ce n’est pas parce qu’un comportement devient normal qu’il perd la dimension problématique qui l’avait auparavant fait considérer comme pathologique », précise l’auteure (p.283).

Les jeux en ligne et Second Life nous entraînent dans un monde virtuel fait de simulacres, qu’on finit par préférer à notre vie réelle, les plus accros y passant la moitié de leur temps de veille ! Nous en demandons moins aux êtres humains et plus à la technologie, à laquelle nous appliquons une pensée magique : tant que je suis connecté, je suis en sécurité, et les gens que j’aime ne disparaîtront pas. Facebook est un fauve insatiable qu’il faut alimenter en permanence de nouvelles « positives » sous forme de textes, de photos, de vidéos, qui envahissent la vie privée, dans une simplification et un appauvrissement de nos relations.

A la fin du livre, nous apprenons qu’aujourd’hui de plus en plus de jeunes Américains ont la nostalgie du monde d’avant la connexion généralisée, quand les parents étaient attentifs, investis et engagés envers leurs enfants. Un début d’espoir de révolte ? Ce copieux essai de 523 pages fait le point sur un phénomène toujours sous-estimé dans ses retombées sociétales. Et encore, Turkle n’aborde pas ici l’aspect anti-écologique de ces technologies. Que resterait-il bien pour les défendre ? Chers lecteurs de France, voilà un excellent sujet pour le bac ! »

Bernard Legros

Article paru à l’origine dans Kairos, revue technocritique belge, n°19 avril/mai 2015

Bernard Legros est enseignant, essayiste, membre de l’Appel pour une Ecole Démocratique et membre fondateur du Mouvement politique des Objecteurs de Croissance (Belgique)

Intelligence artificielle : préserver la dimension humaine

Intelligence artificielle : préserver la dimension humaine

Dans une tribune au « Monde », le consultant Jacques Marceau explique que si le numérique s’impose comme un formidable moyen de décupler les possibles dans tous les domaines, un moyen d’accéder à une société plus durable et plus juste, il reste un outil.

« Cette crainte soudaine du numérique qui entraîne parfois son rejet pourrait se révéler dangereuse si elle venait à perdurer et à s’amplifier car ça nous priverait de solutions précieuses propres à nous aider à relever les défis de notre temps. »

Tribune.

 

 » De tout temps, les échanges entre les individus, avec les entreprises ou les Etats se sont fondés sur des relations rendues propices par la confiance réciproque. Relation et confiance sont ainsi les deux attributs indissociables, non seulement de toute économie, mais encore de toute vie politique ou sociale. Une architecture relationnelle que Paul Valéry (1871-1945) qualifie de « structure fiduciaire », une toile tissée de relations de confiance qui forment « l’édifice de la civilisation », comme l’explique le philosophe Pierre Musso, dans La Religion industrielle (Fayard, 2017).

On ne peut en effet « faire société » sans avoir besoin les uns les autres et se faire confiance. On ne peut non plus « vivre en société » sans faire confiance aux institutions et croire en la valeur de concepts parfaitement immatériels, comme notre monnaie, nos lois, nos traditions ou nos fameuses valeurs républicaines, qui, toujours pour Valéry, relèvent de « l’empire des fictions ». Des fictions néanmoins indispensables à la cohésion sociale et au fonctionnement de notre société.

Même programmée par des humains, la réponse de la machine reste artificielle et par essence arbitraire. Soit le degré zéro d’un rapport prenant en considération l’individu dans toute sa complexité et ses particularismes

Dans ce contexte, le développement d’une société dont les fonctions sont de plus en plus numérisées et virtualisées, pose la question de la transformation du lien, autrefois humain et souvent personnel, en une relation certes personnalisée, mais dorénavant désincarnée, dans laquelle la conversation avec la machine s’est substituée à la relation humaine. Une machine qui est, de surcroît et toujours davantage, investie, à la faveur du développement de l’intelligence artificielle, du pouvoir exorbitant de prendre une décision concernant son « interlocuteur » sur la base d’une mystérieuse formule appelée algorithme. Une décision vue comme un confort quand il s’agit de définir l’itinéraire routier le plus fluide ou de recommander une lecture ou un morceau de musique, mais qui devient suspecte et parfois insupportable quand il s’agit de l’obtention d’une place en université, d’un crédit immobilier ou, pourquoi pas demain, d’un traitement médical personnalisé.

 

Même programmée par des humains, la réponse de la machine reste artificielle et par essence arbitraire. Soit le degré zéro d’un rapport prenant en considération l’individu dans toute sa complexité et ses particularismes, et un terreau favorable à l’expression de ce que le sociologue allemand Hartmut Rosa désigne dans Résonance (La Découverte, 2019) comme des « protestations d’inspiration républicaine contre une politique qui ne se conçoit plus que comme la gestionnaire administrative et juridique d’un monde muet ». Et que nous appelons dorénavant, chez nous, des « gilets jaunes » ! Un monde muet qui, pour Rosa, est la conséquence de l’incapacité des politiques et de la sphère administrative d’entretenir un rapport responsif avec les individus. Il ajoute « la démocratie moderne repose (…) sur l’idée que sa forme politique donne une voix à chaque individu et la rend audible ». 

 

 

 

Enjeu de l’intelligence artificielle ?

Un député de la majorité propose un débat sur le sens et les conditions de développement de l’intelligence artificielle. Il n’est pas inutile de revenir sur ce concept à partir de l’introduction au remarquable rapport qu’a effectué la CCI de l’Essonne. Une introduction faite par Éric Villani.

« Qu’est-ce que l’intelligence artificielle ? On peut comparer le fonctionnement d’un algorithme de machine learning au développement cognitif de l’enfant : celui-ci apprend en observant le monde, en analysant la manière dont les individus interagissent, en reproduisant les règles sans pour autant qu’on les lui expose explicitement.

Schématiquement, la même chose se produit en matière d’apprentissage automatique : les algorithmes sont désormais entraînés à apprendre seuls sans programmation explicite. Il y a autant de définitions d’intelligence artificielle que de technologies. L’IA fait l’objet d’une compétition vive. Pourquoi ? L’apprentissage par données n’est pas la seule méthode menant à l’intelligence artificielle. Mais c’est aujourd’hui la méthode la plus utilisée, celle qui se développe le plus vite et celle qui fait l’objet de la compétition la plus vive.

L’Europe est la taille minimum pour être dans le concert international. Mais le budget du programme Euro HPC* (6 Mds) est insuffisant  : les Chinois investissent dix fois plus et nous serons toujours en retard de puissance. Des bases de données, à l’échelle européenne, vont voir le jour avec le concours des entreprises.

Il y a aujourd’hui des secteurs en haute tension comme la recherche et d‘autres sont à venir. La France, avec notamment Paris-Saclay et son exceptionnel écosystème, compte parmi les meilleurs mathématiciens au monde. C’est un atout de taille ! Quelle stratégie pour aider les PME essonniennes à prendre le cap des nouvelles technologies ? Elles doivent faire selon leurs moyens : avoir un référent en nouvelles technologies, constituer des petites équipes de veille technologique et de réflexions. L’essentiel pour elles est de créer des coopérations, trouver les bons interlocuteurs. Elles doivent être proactives, se mettre en connexion. * Euro HPC ; programme de l’UE pour le déploiement en Europe d’une infrastructure de calibre mondial dédiée au calcul haute performance (HPC).

Intelligence artificielle : une consultation citoyenne indispensable

Intelligence artificielle : une consultation citoyenne indispensable

 

C’est l’avis de  Didier Baichère  , député LREM, sur franceinfo mercredi 19 février. Il s’exprime après la présentation par la Commission européenne de son Livre blanc sur l’intelligence artificielle (IA). « Sur l’intelligence artificielle, on a une voix française, une voix européenne qui doit se faire entendre », appuie-t-il.

Didier Baichère souhaite une loi d’expérimentation et une consultation des citoyens concernant l’IA.  »Proposer une loi d’expérimentation, c’est s’arrêter deux minutes sur les usages qui nous ont envahis. Il faut prendre le temps de se poser la question avec des scientifiques. La science permet des choses mais est-ce qu’on est prêt à avancer en termes de valeur et d’éthique ? », demande-t-il.

L’intelligence artificielle regroupe plusieurs éléments comme les données, le machine-learning ou la reconnaissance faciale. Même sur ce dernier point, Didier Baichère prévient qu’il ne faut pas tout mélanger : « on ne peut pas raisonner ‘reconnaissance faciale’ de manière générique et globale. Il faut regarder usage par usage. »

Pour Didier Baichère, « il faut s’assurer que les bases de données qui sont utilisées ne sont pas réutilisables, ce qui est le cas aujourd’hui ». La protection des données personnelles et industrielles reste donc une priorité. L’Europe est l’un des seuls ensemble de pays qui a voté un texte spécialement pour protéger les données avec le RGPD.

 

Qu’est-ce que l’intelligence artificielle ?

 

 

Un député de la majorité propose un débat sur le sens et les conditions de développement de l’intelligence artificielle. Il n’est pas inutile de revenir sur ce concept à partir de l’introduction au remarquable rapport qu’a effectué la CCI de l’Essonne. Une introduction faite par Éric Villani.

Qu’est-ce que l’intelligence artificielle ? On peut comparer le fonctionnement d’un algorithme de machine learning au développement cognitif de l’enfant : celui-ci apprend en observant le monde, en analysant la manière dont les individus interagissent, en reproduisant les règles sans pour autant qu’on les lui expose explicitement.

Schématiquement, la même chose se produit en matière d’apprentissage automatique : les algorithmes sont désormais entraînés à apprendre seuls sans programmation explicite. Il y a autant de définitions d’intelligence artificielle que de technologies. L’IA fait l’objet d’une compétition vive. Pourquoi ? L’apprentissage par données n’est pas la seule méthode menant à l’intelligence artificielle. Mais c’est aujourd’hui la méthode la plus utilisée, celle qui se développe le plus vite et celle qui fait l’objet de la compétition la plus vive.

L’Europe est la taille minimum pour être dans le concert international. Mais le budget du programme Euro HPC* (6 Mds) est insuffisant  : les Chinois investissent dix fois plus et nous serons toujours en retard de puissance. Des bases de données, à l’échelle européenne, vont voir le jour avec le concours des entreprises.

Il y a aujourd’hui des secteurs en haute tension comme la recherche et d‘autres sont à venir. La France, avec notamment Paris-Saclay et son exceptionnel écosystème, compte parmi les meilleurs mathématiciens au monde. C’est un atout de taille ! Quelle stratégie pour aider les PME essonniennes à prendre le cap des nouvelles technologies ? Elles doivent faire selon leurs moyens : avoir un référent en nouvelles technologies, constituer des petites équipes de veille technologique et de réflexions. L’essentiel pour elles est de créer des coopérations, trouver les bons interlocuteurs. Elles doivent être proactives, se mettre en connexion. * Euro HPC ; programme de l’UE pour le déploiement en Europe d’une infrastructure de calibre mondial dédiée au calcul haute performance (HPC).

Intelligence artificielle ou technolâtrie ?

Intelligence artificielle ou  technolâtrie ?

Un article forcément très marqué diffusé par l’ACIA (association française contre intelligence artificielle),  sans doute excessif, mais qui mérite d’être lu.

« Que les individus soient en perte de repères dans un monde déboussolé, c’est à fois un cliché et un constat certainement globalement juste. Mais il est un vieux repère de la modernité qui a résisté contre vents et marées et constituera peut-être l’ultime d’entre eux : l’enthousiasme, la foi, voire la vénération pour l’évolution technique, qui prend aujourd’hui la forme des technologies numériques. Propagé par les politiques, les économistes et les médias, cet optimisme technologique (ou technoptimisme) nous aveugle et nous empêche de prendre la mesure des conséquences humaines et écologiques du déferlement numérique et robotique qui saisit l’humanité depuis une vingtaine d’années. Bertrand Méheust, nous sommes face à un « nouvel âge de l’esprit » que plus rien ne pourra arrêter sur sa lancée… sauf un effondrement de la mégamachine (ce qui ne saurait tarder). Savoir que tout cela se terminera un jour ne nous prémunit pas hic et nunc contre la dangereuse mutation anthropologique que cela implique, même si l’on fait partie – ce qui est mon cas – des derniers réfractaires du smartphone, condamnés à vivre avec amertume l’évanouissement à marche forcée d’un monde qui nous était jusqu’il y a peu familier. L’économie numérique représente bien une rupture majeure, et il serait vain de vouloir nous comparer aux époques antérieures. Rien de cyclique ici, sous le soleil de l’innovation, rien que du nouveau, comme l’on bien vu les camarades de Pièces et main d’œuvre. Entre fantasme et réalité, le transhumanisme, l’extropianisme et la singularité technologique représentent les bonheurs et accomplissements que nous promettent les techno-prophètes dans le courant de ce siècle. Pour ce, ils peuvent compter sur l’appui des « progressistes » de gauche comme de droite, qui voient dans toute extension des droits individuels des bienfaits que seuls des réactionnaires pourraient critiquer, même si ces droits passent de plus en plus par le truchement de la technoscience, comme, par exemple, les nouvelles techniques de procréation. Que faire ? D’abord décréter un moratoire sur l’innovation incontrôlée, puis organiser une désescalade technique, voilà une condition nécessaire pour reconstruire la cohésion sociale dans une société qui se voudrait démocratique, écologique et décente.

L’actualité des livres vient à la rescousse.

Dans Seuls ensembleDe plus en plus de technologies, de moins en moins de relations humaines (éd. L’Echappée, 2015), la psychologue et anthropologue du MIT Sherry Turkle (née en 1948) a étudié l’impact des nouvelles technologies en Intelligence Artificielle sur la « façon dont nous nous pensons, dont nous pensons nos relations avec autrui et le sens de notre humanité » (p.20). Pour ce, elle s’est appuyée sur deux cent cinquante observations cliniques, principalement d’enfants, d’adolescents et de personnes âgées.

La première partie traite de leur rapport avec les robots – aux doux noms de Tamagochis, Furby, AIBO, My Real Baby, etc… – pour constater la facilité avec laquelle nous projetons sur eux nos sentiments et avons des attentes démesurées sur ce qu’ils pourraient nous apporter en terme d’aide, mais aussi de réconfort, d’amitié et même de sexualité !

D’une part, la notion d’authenticité perd de sa substance au profit d’une nouvelle définition de la vie « à mi-chemin entre le programme inanimé et la créature vivante » (p.61). D’autre part, les êtres humains sont remis en cause dans leur capacité à prendre soin les uns des autres. Les robots, « nous sommes aujourd’hui prêts, émotionnellement et je dirais même philosophiquement, à les accueillir » (p.31). Ces « créatures » robotiques sont traitées comme des égaux et non plus comme des machines, elles sont placées sur le terrain du sens, « alors qu’elles n’en dégagent aucun. » Elles sont de plus en plus présentes dans les maisons de retraite où elles remplacent le personnel manquant ou défaillant. En majorité, les pensionnaires s’y attachent, rentrent en intimité avec elles. A l’argument selon lequel les machines ne peuvent éprouver d’affects, les roboticiens répondent sans rire qu’ils en fabriqueront un jour de manière synthétique.

« Il est tellement aisé d’être obnubilé par la technologie et de ne plus chercher à développer notre compréhension de la vie », conclut l’auteure (p.170).

La seconde partie concerne l’internet avec ses réseaux sociaux, ses jeux en ligne, sa Second Life et ses sites de confession. Les effets de leur omniprésence dans notre quotidien sont loin d’être négligeables. D’abord celui d’une attention fragmentée permanente aboutissant au multitasking (multitâches) chez les jeunes, cette faculté qui impressionne tant les aînés, alors que les études en psychologie montrent que lorsque l’on fait plusieurs choses à la fois, on fractionne son attention et on les fait toutes moins bien. Ensuite, un effacement de la frontière entre la vie professionnelle et la vie privée, quand le smartphone reste allumé jour et nuit. Même en vacances, le cadre américain reçoit environ 500 courriels, plusieurs centaines de textos et 40 appels par jour !

Résultat : faute de temps, tous nos interlocuteurs sont réifiés, nous les traitons comme des objets. Turkle a aussi étudié le cas des natifs numériques (digital natives), les générations nées après 1990 pour lesquelles le web représente un liquide amniotique non questionné. « Je suis connecté, donc je suis ! » Et alors ?, répondront les technoptimistes.

« Ce n’est pas parce qu’un comportement devient normal qu’il perd la dimension problématique qui l’avait auparavant fait considérer comme pathologique », précise l’auteure (p.283).

Les jeux en ligne et Second Life nous entraînent dans un monde virtuel fait de simulacres, qu’on finit par préférer à notre vie réelle, les plus accros y passant la moitié de leur temps de veille ! Nous en demandons moins aux êtres humains et plus à la technologie, à laquelle nous appliquons une pensée magique : tant que je suis connecté, je suis en sécurité, et les gens que j’aime ne disparaîtront pas. Facebook est un fauve insatiable qu’il faut alimenter en permanence de nouvelles « positives » sous forme de textes, de photos, de vidéos, qui envahissent la vie privée, dans une simplification et un appauvrissement de nos relations.

A la fin du livre, nous apprenons qu’aujourd’hui de plus en plus de jeunes Américains ont la nostalgie du monde d’avant la connexion généralisée, quand les parents étaient attentifs, investis et engagés envers leurs enfants. Un début d’espoir de révolte ? Ce copieux essai de 523 pages fait le point sur un phénomène toujours sous-estimé dans ses retombées sociétales. Et encore, Turkle n’aborde pas ici l’aspect anti-écologique de ces technologies. Que resterait-il bien pour les défendre ? Chers lecteurs de France, voilà un excellent sujet pour le bac ! »

Bernard Legros

Article paru à l’origine dans Kairos, revue technocritique belge, n°19 avril/mai 2015

Bernard Legros est enseignant, essayiste, membre de l’Appel pour une Ecole Démocratique et membre fondateur du Mouvement politique des Objecteurs de Croissance (Belgique)

 

Intelligence artificielle: le contrôle par des algorithmes responsables ? ( Nozha Boujemaa )

Intelligence artificielle: le contrôle par des algorithmes responsables ?  (  Nozha Boujemaa )

 

Nozha Boujemaa, directrice science & innovation chez Median Technologies essaie de rassurer à propos des dérives possibles de l’IA et cela  grâce aux algorithmes responsables . Un concept encore un peu flou !

 

 Tribune dans le Monde (extraits)

 

«  Des chercheurs des universités Stanford et du Massachusetts ont publié, le 22 novembre, dans la revue Science une nouvelle approche en apprentissage automatique permettant de prévenir les comportements indésirables éventuels de l’intelligence artificielle. Ils ont montré leurs résultats dans deux cas applicatifs : la discrimination du genre et la gestion du diabète.

Le cadre proposé permet de mettre en place des algorithmes dits « seldoniens », en référence au personnage de Hari Seldon, créé par l’auteur de science-fiction Isaac Asimov. Ce dernier avait inventé les « robots positroniques », gouvernés par trois lois protégeant les êtres humains, connues depuis comme les « lois d’Asimov ».

En réalité, il s’agit d’une famille d’approches qui intègrent, dans leurs fonctions objectives à optimiser, des contraintes à respecter pour éviter de causer des dommages à l’humain. Ainsi, le respect de son intégrité physique est transféré au concepteur de l’algorithme d’apprentissage plutôt qu’à celui qui l’utilise ou le déploie. Il s’agit d’algorithmes « responsables par conception », dont la publication a été bien théâtralisée par l’équipe américaine avec la référence à Seldon et à Asimov.

Cela nous renvoie vers un imaginaire de science-fiction qui éveille à la fois curiosité et étonnement. L’idée essentielle est d’anticiper la responsabilité dans la conception plutôt que de contrôler a posteriori le comportement de l’algorithme par un mécanisme d’auditabilité. Ces approches s’opposent à l’école de pensée considérant que les biais viennent uniquement des données et que les algorithmes sont irréprochables.

Ce qui prime par-dessus tout, c’est la préservation de l’intégrité physique et mentale de l’humain. C’est bien la règle d’or pour tout développement technologique incluant l’intelligence artificielle. Si on regarde de près ses implications, on y trouve la sécurité physique (par exemple pour les véhicules autonomes), la protection des données personnelles, mais aussi la préservation du libre arbitre et l’évitement du nudging (l’« influence d’opinion »). Nous avons vu récemment que ce dernier, dans le cas du marketing politique, a des impacts préjudiciables sur nos démocraties, alors qu’il n’est pas illégal. C’est un bel exemple du fossé entre le droit et la responsabilité et l’éthique.

Il est crucial d’avoir une interprétabilité du comportement algorithmique et de disposer des moyens de contrôle (a priori ou a posteriori) de leurs capacités à respecter les règles éthiques, morales et juridiques. L’explicabilité est aussi essentielle : c’est la capacité de justifier le processus de décision d’un algorithme. Cette explicabilité, qui a été popularisée par le programme Explainable AI (XAI) de la Defense Advanced Research Projects Agency, est multiforme et pas toujours réalisable d’un point de vue technique. »

 

La lumière artificielle responsable de la disparition des insectes

La lumière artificielle responsable de la  disparition des insectes

,Les insectes nocturnes ont mis au point il y a quelques millénaires une technique imparable jusqu’à la création de l’ampoule: fixer un astre et se déplacer en gardant un angle constant par rapport à lui. L’arrivée de l’éclairage artificiel, autour duquel ils tournent frénétiquement jusqu’à épuisement, expliquerait en partie leur disparition progressive. Selon une étude de scientifiques américains publiée dans la revue Biological Conservation le 16 novembre dernier - la plus importante synthèse des connaissances sur ce sujet à ce jour - la pollution lumineuse serait un facteur important, mais négligé, du déclin des populations d’insectes à travers le monde.

La  lumière artificielle peut affecter tous les aspects de la vie des invertébrés: leur mort autour des ampoules, la recherche de nourriture, la disparition des signaux d’accouplement des lucioles et des éphémères, qui ne se voient que dans le noir le plus total, ou encore le fait d’être vulnérables face à leurs prédateurs (rats ou grenouilles). «Nous croyons fermement que la lumière artificielle nocturne – combinée à la perte d’habitat, le recours aux pesticides et aux engrais de synthèse, l’agriculture intensive, les espèces envahissantes et le changement climatique – est en train de provoquer la disparition des insectes», ont conclu les auteurs de cette étude inédite, qui fait la synthèse de plus de 150 recherches antérieures. Et de conclure: «Nous postulons ici que la lumière artificielle est un facteur important – mais souvent négligé – de l’apocalypse des insectes».

La différence avec les autres facteurs de déclin est que la pollution lumineuse est plutôt facile à prévenir, soulignent les chercheurs. Il suffit en effet d’éteindre les lumières inutiles et d’utiliser des ampoules appropriées. «Cela pourrait ainsi réduire considérablement la perte d’insectes, et ce très rapidement», ont écrit les chercheurs. Pour Brett Seymoure, auteur principal de la revue et membre de l’Université Saint-Louis de Washington, la lumière artificielle «est un éclairage provoqué par l’homme, allant des lampadaires aux torches à gaz pour extraire le pétrole. Cela peut affecter les insectes dans presque tous les aspects de leur vie».

À la fin du XIXe siècle, les insectes constituaient les deux tiers (66 %) des espèces terrestres. Soit un peuple diversifié de près d’un million d’espèces sur Terre, dont la moitié vit la nuit. Aujourd’hui, selon un bilan réalisé par des chercheurs australiens et publié en février dernier, près de la moitié des insectes sont en déclin rapide dans le monde entier. «La conclusion est claire, soulignent les auteurs, à moins que nous ne changions nos façons de produire nos aliments, les insectes auront pris le chemin de l’extinction en quelques décennies». Aujourd’hui, environ un tiers des espèces sont menacées d’extinction «et chaque année environ 1% supplémentaire s’ajoute à la liste», ont calculé Francisco Sanchez-Bayo et Kris Wyckhuys, des universités de Sydney et du Queensland. Ce qui équivaut, notent-ils, «au plus massif épisode d’extinction» depuis la disparition des dinosaures.

En accord avec cette précédente étude, les scientifiques américains jugent que la disparition des insectes aurait «des conséquences dévastatrices pour la vie sur cette planète». Exemple de service vital rendu par les insectes, et sans doute le plus connu, la pollinisation des cultures. À l’inverse, exemple d’impact de leur disparition sur toute la chaîne alimentaire: le déclin «vertigineux» des oiseaux des campagnes révélé en France en 2018. Selon une étude parue fin 2017 et basée sur des captures réalisées en Allemagne, l’Europe aurait perdu près de 80% de ses insectes en moins de 30 ans, contribuant à faire disparaître plus de 400 millions d’oiseaux. Oiseaux, mais aussi hérissons, lézards, amphibiens, poissons… tous dépendent de cette nourriture.

1234



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol