Archive pour le Tag 'philosophique'

Nouvelles technologies-Pour une approche philosophique aussi de l’intelligence artificielle

Nouvelles technologies- Pour une approche philosophique aussi de  l’intelligence artificielle

Le philosophe Martin Gibert considère nécessaire d’insuffler une morale aux robots, chatbots et autres machines. Et suggère d’entraîner leurs algorithmes d’apprentissage à partir des avis et des comportements d’humains vertueux.

 

Martin Gibert est philosophe et chercheur à l’université de Montréal, affilié au Centre de recherche en éthique et à l’Institut de valorisation des données. En 2015, il appliquait les théories morales classiques au véganisme dans Voir son steak comme un animal mort (Lux Editeur). Il vient de faire de même, sur le terrain plus artificiel des robots, machines et autres algorithmes, dans Faire la morale aux robots (Flammarion, 168 p., 17 €).

Pourquoi un philosophe s’occupe-t-il des dispositifs d’intelligence artificielle (IA) tels que les voitures autonomes, les chatbots ou les systèmes de recommandation en ligne ?

Le moment est vraiment passionnant pour un philosophe car nous pouvons nous poser sur ces dispositifs des questions à la fois inédites et très fondamentales. Et, en plus, c’est très concret, avec des applications immédiates et urgentes. Prenons le cas célèbre du dilemme du tramway, posé par Philippa Foot en 1967 : actionne-t-on un aiguillage pour éviter que le véhicule percute cinq travailleurs si, sur l’autre voie, se trouve une seule personne ?

Jusqu’aux avancées récentes de l’IA, il faut bien dire que les philosophes réfléchissaient aux réponses, mais leurs réponses ne prêtaient pas à conséquence. Désormais, leur avis compte. Nous devons dire quelque chose aux programmeurs dont les algorithmes feront le choix fatal ! L’IA nous oblige à prendre des décisions sur ce qui est bien ou mal, et ce n’est plus une simple expérience de pensée.

Pour y voir clair sur ce qu’il s’agit de faire, il faut ordonner un peu différents domaines en éthique appliquée. Par ordre de généralité, on a d’abord l’éthique de la technique, dans laquelle on va mettre aussi bien les tournevis que les centrales nucléaires. A un deuxième niveau, l’éthique de l’IA pose des questions comme l’impact de ces systèmes sur la société ou l’environnement, ou encore sur d’éventuels droits des robots.

L’éthique des algorithmes qui m’intéresse dans le livre se situe à un troisième niveau, plus spécifique. Comment programmer une machine, un algorithme, un agent moral artificiel pour qu’il se comporte « bien » ? Cela oblige à rentrer dans les détails et, bien sûr, cela n’empêche pas de s’interroger sur l’échelon supérieur : collectivement, a-t-on vraiment besoin de tel ou tel robot ?

 

C’est d’autant plus intéressant et nécessaire que les algorithmes ont des effets sur la vie des gens. Dans le cas d’une voiture autonome confrontée au dilemme du tramway, c’est évident, mais ce seront des décisions très rares à prendre. En revanche, un algorithme de recommandations de YouTube ou Facebook peut avoir des conséquences massives sur la circulation des informations. Plus on développe de nouveaux pouvoirs, plus on a de responsabilité morale. Même derrière un chatbot, il y a des enjeux moraux sérieux.

Pour une approche philosophique aussi de l’intelligence artificielle

Pour une approche philosophique aussi de  l’intelligence artificielle

Le philosophe Martin Gibert considère nécessaire d’insuffler une morale aux robots, chatbots et autres machines. Et suggère d’entraîner leurs algorithmes d’apprentissage à partir des avis et des comportements d’humains vertueux.

 

Martin Gibert est philosophe et chercheur à l’université de Montréal, affilié au Centre de recherche en éthique et à l’Institut de valorisation des données. En 2015, il appliquait les théories morales classiques au véganisme dans Voir son steak comme un animal mort (Lux Editeur). Il vient de faire de même, sur le terrain plus artificiel des robots, machines et autres algorithmes, dans Faire la morale aux robots (Flammarion, 168 p., 17 €).

Pourquoi un philosophe s’occupe-t-il des dispositifs d’intelligence artificielle (IA) tels que les voitures autonomes, les chatbots ou les systèmes de recommandation en ligne ?

Le moment est vraiment passionnant pour un philosophe car nous pouvons nous poser sur ces dispositifs des questions à la fois inédites et très fondamentales. Et, en plus, c’est très concret, avec des applications immédiates et urgentes. Prenons le cas célèbre du dilemme du tramway, posé par Philippa Foot en 1967 : actionne-t-on un aiguillage pour éviter que le véhicule percute cinq travailleurs si, sur l’autre voie, se trouve une seule personne ?

Jusqu’aux avancées récentes de l’IA, il faut bien dire que les philosophes réfléchissaient aux réponses, mais leurs réponses ne prêtaient pas à conséquence. Désormais, leur avis compte. Nous devons dire quelque chose aux programmeurs dont les algorithmes feront le choix fatal ! L’IA nous oblige à prendre des décisions sur ce qui est bien ou mal, et ce n’est plus une simple expérience de pensée.

Pour y voir clair sur ce qu’il s’agit de faire, il faut ordonner un peu différents domaines en éthique appliquée. Par ordre de généralité, on a d’abord l’éthique de la technique, dans laquelle on va mettre aussi bien les tournevis que les centrales nucléaires. A un deuxième niveau, l’éthique de l’IA pose des questions comme l’impact de ces systèmes sur la société ou l’environnement, ou encore sur d’éventuels droits des robots.

L’éthique des algorithmes qui m’intéresse dans le livre se situe à un troisième niveau, plus spécifique. Comment programmer une machine, un algorithme, un agent moral artificiel pour qu’il se comporte « bien » ? Cela oblige à rentrer dans les détails et, bien sûr, cela n’empêche pas de s’interroger sur l’échelon supérieur : collectivement, a-t-on vraiment besoin de tel ou tel robot ?

 

C’est d’autant plus intéressant et nécessaire que les algorithmes ont des effets sur la vie des gens. Dans le cas d’une voiture autonome confrontée au dilemme du tramway, c’est évident, mais ce seront des décisions très rares à prendre. En revanche, un algorithme de recommandations de YouTube ou Facebook peut avoir des conséquences massives sur la circulation des informations. Plus on développe de nouveaux pouvoirs, plus on a de responsabilité morale. Même derrière un chatbot, il y a des enjeux moraux sérieux.

Affaire Sarah Halimi : La dimension philosophique et morale du discernement

Affaire Sarah Halimi : La dimension philosophique et morale du discernement

La confirmation de la Cour de cassation de l’irresponsabilité pénale du meurtrier de cette femme a relancé la controverse sur cette notion, dont la sociologue Caroline Protais retrace l’évolution dans un entretien au « Monde ».

La sociologue Caroline Protais est chercheuse associée au Cermes3 (CNRS-Inserm-EHESS) et autrice de Sous l’emprise de la folie ? L’expertise judiciaire face à la maladie mentale (1950-2009) (EHESS, 2016). Si les experts ont longtemps considéré l’irresponsabilité pénale comme automatique en cas de « démence », rappelle la spécialiste des liens entre la justice et le monde de la santé mentale, les non-lieux pour irresponsabilité pénale sont de plus en plus rares. Après la décision de la Cour de cassation dans l’affaire Sarah Halimi, qui a confirmé, mercredi 14 avril, que le discernement du meurtrier était « aboli » au moment des faits, elle a répondu aux questions du Monde.

A quand le principe d’irresponsabilité pénale remonte-t-il ?

La folie comme cause d’irresponsabilité est un principe humaniste qui date de l’origine de nos sociétés. On en trouve des traces dans le code babylonien d’Hammourabi (environ 1760 av. J.-C.), qui reconnaissait la folie comme un état venant abolir le libre arbitre. On le retrouve ensuite chez Platon (IVe-IIIe siècles av. J.-C.), puis dans l’Evangile selon Luc, « Père pardonne-leur, ils ne savent pas ce qu’ils font. » Cette conception persiste de l’Antiquité jusqu’à la période moderne. L’article 64 du code pénal de 1810 énonce que la « démence » est une cause d’annulation de l’infraction. C’était tout ou rien. Et il y a eu, dès le début, des critiques au motif qu’il existe un ensemble d’états intermédiaires entre la responsabilité entière et l’irresponsabilité totale. A partir des années 1970, le code pénal entre en révision et la question est : comment rendre compte de cette responsabilité atténuée ?

Est-ce ainsi qu’est né l’article 122.1, qui introduit la notion d’altération du discernement ?

Oui, cet article énonce l’idée que la personne n’est pas pénalement responsable si elle était atteinte d’un trouble psychique ou neuropsychique qui a aboli son discernement ou le contrôle de ses actes au moment de l’infraction. Mais elle demeure punissable si ceux-ci étaient seulement altérés. Aujourd’hui, ce qui divise les experts psychiatres est beaucoup moins l’existence du trouble psychique que la question de savoir s’il a aboli – ou altéré – le discernement et le contrôle des actes. Or, la question du discernement n’est pas une question clinique, c’est une question philosophique et morale. L’expert psychiatre appréhende aussi les choses avec ses valeurs.




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol