Archive pour le Tag 'éthique'

“Distinguer l’éthique du traitement” et “l’éthique de la recherche”*

“Distinguer l’éthique du traitement” et “l’éthique de la recherche”

 »Christian Hervé et Henri-Corto Stoeklé  »

Chronique du Monde

 

« Deux camps se sont formés autour du Professeur Didier Raoult : le camp des « contre » versus le camp des « pour ». Les « contre » critiquèrent donc la faiblesse scientifique de ces études. Selon eux, en l’absence de groupe de témoin, même si la taille de l’échantillon de malades avait augmenté entre la première et la deuxième étude à l’époque (il passa de l’ordre de 20 malades à celui de 80, soit un facteur 4), celles-ci ne permettaient aucunement d’affirmer – ou d’infirmer – l’efficacité réelle du traitement. Pour cette raison, il ne devait pas être prescrit.

De leur côté, les « pour » soutinrent l’idée que, lors d’une telle urgence sanitaire, la déontologie médicale ordonnait aux cliniciens d’utiliser tous les moyens qui semblaient bon pour soigner le plus grand nombre de patients possibles. Ils justifièrent ainsi l’absence de groupe témoin : il n’était pas moralement acceptable de priver d’un traitement qui serait susceptible de marcher. Pour cette raison, même si les preuves scientifiques in vivo pouvaient manquer à ce stade, le traitement devait être prescrit à l’ensemble des malades.

Deux causes défendables. La situation était pour le moins délicate. En l’absence de certitude, les arguments des deux camps pouvaient objectivement s’entendre – et probablement encore aujourd’hui. Pour enfin sortir de cette dualité, la question de fond apparaît être la suivante : est-ce qu’en temps de crise sanitaire d’une extrême gravité, comme celle causée par la pandémie du Covid-19, et en l’absence de moyens réels efficients, l’intuition clinique peut être entendue ou non ? Et cela, avant l’établissement de standards thérapeutiques, scientifiquement démontrés et reconnus par les pairs.

La réponse à cette question est beaucoup moins évidente que certains peuvent le percevoir ou le contester, même massivement. L’idée d’une « éthique du traitement » versus une « éthique de la recherche » nous semble très réductrice vis-à-vis d’une situation où deux causes défendables s’affrontent.

L’agora, sur les plateaux de télévisions et les réseaux sociaux, n’est pas encore le lieu pour une telle discussion. D’ailleurs, tous les experts (ou non), « pour » ou « contre », qui ont pris à ce jour la parole ont-ils vraiment permis aux « profanes » visés de mieux saisir toute la complexité de l’affaire ?

Il faudrait bien plus qu’une ou plusieurs tribunes pour bien comprendre et expliquer ce qui relèverait plutôt d’un long travail académique d’éthique et d’intégrité scientifique, à mener une fois la crise derrière nous.

Christian Hervé est professeur émérite à l’Université de Paris, président de l’Académie internationale d’éthique, médecine et politique publique, responsable de la mission éthique de l’Hôpital Foch. Henri-Corto Stoeklé est docteur en éthique médicale, chargé de mission bioéthique à l’Hôpital Foch.

Quelle compatibilité entre Intelligence artificielle et éthique ?

Quelle compatibilité entre Intelligence artificielle et  éthique

 

Un Livre blanc européen sur l’intelligence artificielle, publié le 19 février, insiste d’abord sur l’importance du respect des droits fondamentaux des citoyens et met par exemple en garde contre des distorsions dans les algorithmes de recrutement conduisant à des discriminations.

D’après le site pwc.fr , les intelligences artificielles (IA) se font de plus en plus présentes – voitures autonomes, algorithmes de recommandation, drones, etc. – et la question de la moralité de leurs actions commence à se poser. Celles qui s’appuient sur les réseaux de neurones artificiels (deep learning) sont particulièrement critiquées : on leur reproche d’être opaques, de ne pas laisser voir le raisonnement qui permet aux algorithmes d’arriver au résultat final. Une science naissante s’applique d’ailleurs à développer des outils pour regarder à l’intérieur de ces boîtes noires que sont les réseaux neuronaux. À ce travail à rebours pour scruter le code des IA s’ajoute, en parallèle, la volonté affichée par de nombreux experts d’intégrer des préceptes éthiques très en amont, directement au cœur de l’IA.

En s’appuyant sur d’énormes quantités de données, les systèmes de deep learning sont capables d’effectuer un très grand nombre de tâches : reconnaître et analyser des images ou des voix, proposer une police d’assurance sur mesure, accepter ou refuser une offre de prêt, piloter un véhicule… Mais comment avoir confiance dans les décisions de l’IA si nous ne sommes pas en mesure de les comprendre ?

« L’intelligence doit être augmentée, c’est-à-dire au service de l’humain, plutôt qu’autonome. Nous devons construire un binôme humain-machine où l’IA devra offrir une compréhension intuitive pour l’humain. Elle devra être capable d’expliquer ses recommandations de façon simple et immédiate. » François Royer, directeur consulting Data Intelligence, PwC France

Le développement d’une telle IA a par exemple déjà été initié aux États-Unis par la DARPA (département de R&D militaire du ministère de la Défense) : les premiers résultats du projet XAI (Explainable AI) sont attendus en novembre 2018.

Si XAI vise à développer des techniques de machine learning qui permettent de construire des modèles d’IA plus compréhensibles, capables d’expliquer aux humains en bout de ligne leur raisonnement, c’est loin d’être le cas de toutes les IA. Le fonctionnement des réseaux de neurones artificiels est particulièrement opaque. Les géants du digital, boostés par des mécanismes de collecte de données très efficaces, disposent de quantités de données phénoménales ce qui les encourage à développer massivement les réseaux de neurones artificiels. Ces réseaux se nourrissent des corrélations qu’ils détectent entre des jeux de données préexistants, ce qui peut poser problème.

 

Bruxelles recommande donc  que les futurs systèmes d’intelligence artificielle à haut risque (concernant la santé par exemple) soient certifiés, testés et contrôlés, comme le sont les voitures, les cosmétiques et les jouets.

 

Theodorous Evgueniou, professeur de la prestigieuse école de management Insead, a rendu avec plusieurs autres chercheurs européens et américains un avis mettant en garde contre les risques d’une approche européenne trop centrée sur ses valeurs.

« Il semble que l’esprit du Livre blanc soit que l’Europe utilise ses valeurs comme une arme stratégique pour rattraper la Chine et les États-Unis », et se rendre attractive dans la course mondiale à l’intelligence artificielle, affirme-t-il. Mais « pourquoi penser que des pays non-européens préféreront des intelligences artificielles formées aux valeurs européennes ? Je ne suis pas sûr que ça marche », explique-t-il.

 

Par exemple, le Livre blanc affiche « l’explicabilité » comme valeur cardinale: il doit être possible de comprendre exactement pourquoi un système d’intelligence artificielle arrive à telle conclusion – comme le fait de refuser un prêt à quelqu’un.

Mais obliger des intelligences artificielles à expliquer leur choix « peut réduire leur performance de 20%, si ce n’est plus », affirme-t-il.

De son côté, Guillaume Avrin, responsable de l’intelligence artificielle au sein du Laboratoire national de métrologie et d’essais (LNE), ne remet pas en cause les impératifs éthiques dans le Livre blanc. Mais il regrette que la Commission s’avance peu sur les moyens de vérifier la conformité des intelligences artificielles auxdites valeurs.

« Comment fait-on pour s’assurer de la conformité des systèmes d’intelligence artificielle » à une réglementation, alors qu’ils sont souvent évolutifs et adaptatifs et ont des comportements  »non linéaires », voire « chaotiques », explique-t-il.

Intelligence artificielle et éthique: un livre blanc

Intelligence artificielle et  éthique: un livre blanc

Le Livre blanc européen sur l’intelligence artificielle, publié le 19 février, insiste d’abord sur l’importance du respect des droits fondamentaux des citoyens et met par exemple en garde contre des distorsions dans les algorithmes de recrutement conduisant à des discriminations.

D’après le site pwc.fr , les intelligences artificielles (IA) se font de plus en plus présentes – voitures autonomes, algorithmes de recommandation, drones, etc. – et la question de la moralité de leurs actions commence à se poser. Celles qui s’appuient sur les réseaux de neurones artificiels (deep learning) sont particulièrement critiquées : on leur reproche d’être opaques, de ne pas laisser voir le raisonnement qui permet aux algorithmes d’arriver au résultat final. Une science naissante s’applique d’ailleurs à développer des outils pour regarder à l’intérieur de ces boîtes noires que sont les réseaux neuronaux. À ce travail à rebours pour scruter le code des IA s’ajoute, en parallèle, la volonté affichée par de nombreux experts d’intégrer des préceptes éthiques très en amont, directement au cœur de l’IA.

En s’appuyant sur d’énormes quantités de données, les systèmes de deep learning sont capables d’effectuer un très grand nombre de tâches : reconnaître et analyser des images ou des voix, proposer une police d’assurance sur mesure, accepter ou refuser une offre de prêt, piloter un véhicule… Mais comment avoir confiance dans les décisions de l’IA si nous ne sommes pas en mesure de les comprendre ?

« L’intelligence doit être augmentée, c’est-à-dire au service de l’humain, plutôt qu’autonome. Nous devons construire un binôme humain-machine où l’IA devra offrir une compréhension intuitive pour l’humain. Elle devra être capable d’expliquer ses recommandations de façon simple et immédiate. » François Royer, directeur consulting Data Intelligence, PwC France

Le développement d’une telle IA a par exemple déjà été initié aux États-Unis par la DARPA (département de R&D militaire du ministère de la Défense) : les premiers résultats du projet XAI (Explainable AI) sont attendus en novembre 2018.

Si XAI vise à développer des techniques de machine learning qui permettent de construire des modèles d’IA plus compréhensibles, capables d’expliquer aux humains en bout de ligne leur raisonnement, c’est loin d’être le cas de toutes les IA. Le fonctionnement des réseaux de neurones artificiels est particulièrement opaque. Les géants du digital, boostés par des mécanismes de collecte de données très efficaces, disposent de quantités de données phénoménales ce qui les encourage à développer massivement les réseaux de neurones artificiels. Ces réseaux se nourrissent des corrélations qu’ils détectent entre des jeux de données préexistants, ce qui peut poser problème.

 

Bruxelles recommande donc  que les futurs systèmes d’intelligence artificielle à haut risque (concernant la santé par exemple) soient certifiés, testés et contrôlés, comme le sont les voitures, les cosmétiques et les jouets.

 

Theodorous Evgueniou, professeur de la prestigieuse école de management Insead, a rendu avec plusieurs autres chercheurs européens et américains un avis mettant en garde contre les risques d’une approche européenne trop centrée sur ses valeurs.

« Il semble que l’esprit du Livre blanc soit que l’Europe utilise ses valeurs comme une arme stratégique pour rattraper la Chine et les États-Unis », et se rendre attractive dans la course mondiale à l’intelligence artificielle, affirme-t-il. Mais « pourquoi penser que des pays non-européens préféreront des intelligences artificielles formées aux valeurs européennes ? Je ne suis pas sûr que ça marche », explique-t-il.

 

Par exemple, le Livre blanc affiche « l’explicabilité » comme valeur cardinale: il doit être possible de comprendre exactement pourquoi un système d’intelligence artificielle arrive à telle conclusion – comme le fait de refuser un prêt à quelqu’un.

Mais obliger des intelligences artificielles à expliquer leur choix « peut réduire leur performance de 20%, si ce n’est plus », affirme-t-il.

De son côté, Guillaume Avrin, responsable de l’intelligence artificielle au sein du Laboratoire national de métrologie et d’essais (LNE), ne remet pas en cause les impératifs éthiques dans le Livre blanc. Mais il regrette que la Commission s’avance peu sur les moyens de vérifier la conformité des intelligences artificielles auxdites valeurs.

« Comment fait-on pour s’assurer de la conformité des systèmes d’intelligence artificielle » à une réglementation, alors qu’ils sont souvent évolutifs et adaptatifs et ont des comportements  »non linéaires », voire « chaotiques », explique-t-il.

La consommation éthique en hausse

La consommation  éthique en hausse

  • La consommation éthique progresse qu’il  s agisse du rapport à l’environnement, du gaspillage, du suremballage, de la rémunération des producteurs pu du bien être animal. Selon Kantar TNS,

Plus de 90% des Français trouvent important d’acheter des aliments respectueux du bien-être animal et de l’environnement. C’est 4% de plus que lors du même sondage en 2016. La juste rémunération des producteurs est également au cœur de leurs préoccupations. 91% jugent important d’acheter des produits alimentaires plus respectueux du bien-être animal. Ils étaient 87% à répondre favorablement à cette même question en 2016. De même, 90% des sondés accordent de l’importance à l’impact environnemental des aliments qu’ils consomment, contre 86% en 2016.Ainsi, 81% choisissent en priorité des emballages biodégradables et 86% privilégient les produits avec moins d’emballage ou de suremballage.

Les Français se montrent également sensibles à la juste rémunération des agriculteurs et des éleveurs, et ce plus que dans les autres pays de l’étude. 73% pensent que les agriculteurs ne gagnent pas assez. 78% se déclarent même prêts à payer un peu plus pour mieux valoriser ce travail, expliquant le récent succès de marques équitables, comme le lait équitable « C’est qui le patron? ». En 2016, un Français sur quatre déclarait avoir déjà utilisé les circuits courts dans les 12 derniers mois. Les consommateurs de tous les pays sont également très sensibles à la question du gaspillage alimentaire. Près d’un tiers des Français interrogés, se considérant eux-mêmes comme premiers acteurs dans ce domaine pour 66% d’entre eux, devant les grandes surfaces (52%) ou la restauration collective (46%) ou commerciale (45%).

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA, pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune)

)

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historique comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

La programmation des véhicules autonomes en cas d’accident inévitable est un exemple de cas concret qui traduit inévitablement un choix moral. La recherche scientifique sur les préférences morales des individus peut aider à identifier les critères éthiques pour fonder ce choix moral. L’automatisation des décisions grâce à l’IA peut donner lieu à de réels progrès, tels que des décisions plus transparentes et moins partiales. Aussi, se posent des questions fondamentales sur les conséquences économiques, les enjeux éthiques, et l’encadrement juridique de cette évolution. »

Prospective-Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Prospective-Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune)

)

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historique comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

La programmation des véhicules autonomes en cas d’accident inévitable est un exemple de cas concret qui traduit inévitablement un choix moral. La recherche scientifique sur les préférences morales des individus peut aider à identifier les critères éthiques pour fonder ce choix moral. L’automatisation des décisions grâce à l’IA peut donner lieu à de réels progrès, tels que des décisions plus transparentes et moins partiales. Aussi, se posent des questions fondamentales sur les conséquences économiques, les enjeux éthiques, et l’encadrement juridique de cette évolution. »

 

Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune )

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historiques comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

 

 

 

Michel Rocard : un intellectuel et un homme d’éthique trop complexe pour la gauche

Michel Rocard : un intellectuel et un homme d’éthique trop complexe pour la gauche

 

Aujourd’hui évidemment c’est le concert de louanges y compris de ceux  qui ne partagent  à peu près rien avec Michel Rocard. La vérité c’est que Michel Rocard n’a jamais été vraiment accepté par cette gauche qui se caractérise en général par un discours radical avant les échéances électorales et une pratique molle et ambiguë lorsqu’elle parvient pouvoir. Finalement le même reproche que faisait déjà Michel Rocard à la SFIO de Guy Mollet. Première observation et de taille l’homme politique Michel Rocard était un intellectuel capable d’approfondir et d’articuler les problématiques économiques, sociales, environnementales et sociétales,  cela y compris au plan international. Pas étonnant si nombre de ses  collègues socialistes admettaient ne pas comprendre grand-chose à ses analyses. Pourquoi tout simplement parce que les intellectuels à gauche sont rares voire inexistants. On attend encore une analyse un peu novatrice, un peu pertinente de la plupart des responsables socialistes. Des socialistes qui pour faire moderne reprennent tout simplement et maladroitement certaines propositions intéressantes de la droite. Du coup les électeurs enivrés les propos radicaux et démagogiques des campagnes électorales se retrouvent complètement déboussolés par la gestion des socialistes parvenus au pouvoir. La plupart des responsables socialistes se réfugient  donc dans une sorte de langue de bois qui marque le grand vide politique et culturel. On objectera aussi à juste titre que les intellectuels se font rares aussi à droite, cela ne saurait  constituer  évidemment une excuse pour la gauche. La plupart des responsables politiques actuellement en France sont intellectuellement creux. Il suffit pour s’en persuader d’examiner le profil de la plupart des candidats à l’élection présidentielle de 2017. Le vide intellectuel est sidéral à gauche bien sûr mais aussi à droite y compris et peut-être surtout aux extrêmes. Des grandes gueules, des marchands d’illusions purs produits du système médiatique qui préfère  les clowns bruyants aux  intellos discrets et rigoureux. La vérité c’est que Michel Rocard n’a jamais été compris ni admis par cette gauche qui revendique frauduleusement son héritage. Michel Rocard a toujours été marginalisé au sein du petit socialiste voire  écarté brutalement notamment par François Mitterrand, un homme de culture ,lui ,mais qui ne s’est jamais embarrassé de conviction en slalomant entre  de l’extrême droite à l’extrême gauche pour finir dans le marais des gestionnaires incompétents,  avec en plus des deux amitiés très sulfureuses. « Jusqu’à son dernier souffle, il a continué à avancer des idées et à proposer ses solutions. Jamais il n’exprimait une nostalgie ou un regret. Seul comptait l’avenir. Michel Rocard a réussi à être un homme d’Etat respecté, un intellectuel brillant et un militant fidèle à l’idéal pour lequel il avait très jeune décidé de consacrer sa vie », cependant dit Hollande que tout oppose à Michel Rocard. « Il a incarné la modernisation de la gauche et l’exigence de dire la vérité. Il était l’homme du ‘parler vrai’. Il restera un exemple de droiture, d’intelligence et d’ardeur. Il savait en même temps rêver le monde et tout faire pour le changer », a aussi déclaré Valls qui sans doute à oublier les convictions de démocratie participative de Michel Rocard, lequel s’est toujours évertué à rechercher les compromis avec toutes les parties. Pas vraiment le style de Valls à la capacité d’analyse limitée jouant les adjudants chef pour tenter de ressembler à Clémenceau.

FIFA fric foot : Platini boycotte le comité d’éthique

FIFA fric foot : Platini boycotte le comité d’éthique 

Platini a évidemment en raison de boycotter la commission d’éthique de la FIFA puisque son sort est scellé déjà depuis longtemps. En effet le porte-parole de ce comité dit d’éthique a déclaré dans la presse que Michel Platini serait suspendu pendant plusieurs années. Dès lors  on ne voit pas l’intérêt pour Platini de présenter sa défense puisque la sentence est déjà rendue. En fait la mise à l’écart de Platini correspond à la stratégie d’un grand nombre de responsables de la FIFA d’écarter ce dernier àfin de maintenir une chape de plomb sur les nombreuses affaires de corruption et de conflit d’intérêts dont se sont rendus comptes coupables nombres de dirigeants de la FIFA ( 16 sont aujourd’hui impliqués et 150 opérations financières font l’objet d’une enquête en Suisse). Platini a sans doute été un peu naïf, voir à peut-être commis des imprudences mais sa suspension pendant plusieurs années de toute responsabilité dans les instances internationales du foot relève d’un règlement de compte. D’autant qu’au sein du comité d’éthique plusieurs soutiennent d’autres candidats que Michel Platini voir même se présentent eux-mêmes. Michel Platini a donc annoncé qu’il ne se présentera à son audition devant la commission d’éthique de la FIFA qui rendra son verdict lundi concernant l’avenir de l’ancien international français. Michel Platini a décidé de boycotter son audition prévue vendredi à Zurich devant la justice interne de la FIFA, « dès lors que le verdict a déjà été annoncé dans la presse par un des porte-parole » au « mépris de la présomption d’innocence », ont indiqué ses avocats dans un communiqué transmis mercredi à l’AFP. La radiation à vie du monde du foot a été requise contre Michel Platini pour ce fameux paiement controversé de 1,8 million d’euros en 2011 - sans contrat écrit –  par Sepp Blatter, président démissionnaire de la FIFA qui sera lui entendu jeudi. Le verdict de la justice interne de la FIFA est attendu à partir de lundi. « Par cette décision (boycotter son audition, ndlr), Michel Platini entend signifier sa plus profonde indignation face à une procédure qu’il considère comme uniquement politique et visant à l’empêcher de se présenter à la présidence de la FIFA », poursuivent ses conseils. 

Foot–fric–FIFA : la sulfureuse commission d’éthique qui va juger Platini

Foot–fric–FIFA : la sulfureuse commission d’éthique qui va juger Platini

Platini a sans doute été un peu naïf et imprudent dans l’affaire qui le concerne ; pour autant, il semble bien d’après des documents que s’est procuré le JDD qu’existait  bien un contrat entre la FIFA et Platini pour justifier de son salaire. Dès lors on peut s’interroger à propos de la sévérité de la chambre d’instruction du comité d’éthique de la FIFA qui n’envisage rien de moins que la radiation à vie de l’intéressé. Mais pour comprendre une telle sévérité il faut savoir que cette commission d’éthique dans le passé comme aujourd’hui s’est livré à deux nombreuses manœuvres à caractère frauduleux. En outre et surtout figurent  dans cette commission d’éthique des membres qui clairement se positionnent pour des candidatures opposées à celles de Platini même qui veulent se présenter eux- même ;  bref,  une commission d’éthique véritable panier de crabes et de vipères dans une organisation qui ressemble à la mafia. Mais Les défenseurs de Michel Platini se sont déclarés optimistes après la publication par le Journal du dimanche d’un document datant de 1998 et accréditant la réalité d’un contrat entre Sepp Blatter, le patron de la FIFA, et leur client, pour un montant d’un million de francs suisses. Le Journal du dimanche fait état d’un rapport de 23 pages qui montre que le salaire suspect reproché à Platini a été en partie évoqué dès 1998 dans un document présenté lors d’une réunion à Stockholm du comité exécutif de la FIFA. « A partir du moment où nous avons la preuve d’un accord entre la FIFA et M. Platini et que cet accord était connu de plusieurs responsables de la FIFA, l’enquête du comité d’éthique n’a plus de raison d’être », a dit à Reuters l’un des avocats de Michel Platini, Thomas Clay. « Pour nous, il s’agit d’une preuve que M. Platini a toujours dit la vérité », a-t-il ajouté. « Cela montre que le contrat n’avait rien de secret et que plusieurs personnes, au sein de l’UEFA et de la FIFA, étaient au courant dès 1998




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol