Archive pour le Tag 'remplacer'

Nouvelles technologies-L’ intelligence artificielle pour remplacer les auteurs ?

Nouvelles technologies-L’ intelligence artificielle pour remplacer les auteurs ?


Un article intéressant qui pose la question de la nature juridique des œuvres créées par l’intelligence artificielle. Une question qui pourrait aussi se poser pour les œuvres qui sont en fait produite en sous-traitance par des petites mains au bénéfice d’auteurs connus, de stars médiatiques, scientifiques ou encore politiques
NDLR

Par Caroline Casalonga, Avocate Associée et Juliette Dionisi, Avocate Collaboratrice au Barreau de Paris, du cabinet Casalonga dans la Tribune.

À partir d’une instruction donnée par l’homme, les logiciels d’IA (tels que Dall-E, Stable Diffusion, Midjourney ou ChatGPT) sont capables de générer automatiquement des images ou du texte, en reproduisant, analysant et mixant un grand nombre d’œuvres et de contenus préexistants.

L’humain donne des instructions à la machine qui les applique selon son algorithme et ses connaissances / contenus au moment de la réception des instructions. Sur la base des instructions reçues et des connaissances de l’IA, la machine génère une œuvre différente. Se pose la question des droits d’auteur : est-ce qu’une telle œuvre générée par l’IA à partir d’instructions humaines est protégeable par le droit d’auteur et, dans l’affirmative, qui serait titulaire de droits sur cette œuvre ?

Les œuvres exclusivement créées par des IA sont-elles protégeables par le droit d’auteur ?

Pour l’institution américaine, la réponse est NON !

L’USCO affirme que le droit d’auteur nécessite une intervention humaine dans le processus de création. Ce principe avait déjà été appliqué par l’Office américain pour refuser la protection par le droit d’auteur à un selfie pris par un singe.

Ainsi, l’USCO refusera les dépôts d’œuvres générées exclusivement par l’IA.

Pour le tribunal de Shenzhen en Chine, c’est OUI !

Le tribunal de Shenzhen a jugé différemment, considérant qu’une œuvre générée par une IA, en l’occurrence des articles de presse générés par le robot Dreamwriter, développé par la société Tencent, étaient protégeables par le droit d’auteur. Le tribunal a estimé que les droits d’auteur appartenaient à l’éditeur de l’IA.

En France et plus généralement dans l’Union européenne, il est probable que la solution serait similaire à celle de l’USCO, il faut une intervention humaine pour qu’il y ait un droit d’auteur.

En effet, l’œuvre, pour être protégeable, doit être originale, ce qui signifie qu’elle est « l’expression ou l’empreinte de la personnalité du créateur ». Sans apport intellectuel de l’auteur, il ne peut pas y avoir d’œuvre, ni donc de droits d’auteur.

Plusieurs questions se posent :

Les œuvres dont la création est en partie générée par l’IA et en partie par un auteur sont-elles protégeables ?
Les créations générées par l’IA sont-elles libres de droits ?
Les œuvres cocréées par l’IA et un humain sont-elles protégeables ?
Le principe de non-protection des œuvres générées exclusivement par ordinateur n’exclut pas pour un auteur de recourir à l’IA dans son processus de création. Pour être protégeable par le droit d’auteur, l’œuvre créée par un humain avec l’aide d’une IA devra porter l’empreinte de la personnalité de son auteur, ce qui signifie qu’il faut une véritable création humaine, et pas juste des instructions à une IA.

À titre d’exemple, dans le roman graphique « Zarya of the Dawn » de Kris Kashtanova composé d’un texte écrit par un auteur combiné à des images générées par l’IA l’USCO a accordé une protection par les droits d’auteur au texte, mais pas aux images.

On pourrait également imaginer un auteur qui donnerait des instructions à une IA afin de générer une image et qui travaillerait ensuite à partir de cette image pour créer son œuvre. L’œuvre ainsi créée devrait être considérée comme originale.

On vient de le voir, a priori, il n’y a pas de droits d’auteurs sur une œuvre générée par l’IA. Mais les contenus générés par l’IA sont-ils pour autant libres de droits et, dans la négative, qui est leur propriétaire ? Plusieurs pistes peuvent être envisagées :

Le producteur de l’IA : le producteur, programmateur de l’IA qui a investi dans le développement du logiciel et sélectionné les données pourrait, sur le modèle du droit accordé au producteur de bases de données, être titulaire des droits sur le contenu ainsi créé par l’IA.

L’utilisateur de l’IA, c’est-à-dire à la personne qui, par ses instructions à l’IA, a généré un nouveau contenu, pourrait également se voir reconnaitre des droits sur le contenu généré par l’IA.

On pourrait également imaginer, sur le modèle de l’œuvre collective, une cotitularité sur le contenu ainsi généré entre l’utilisateur et l’éditeur de l’IA.

La solution est généralement contractuelle : l’éditeur de l’IA peut prévoir, dans ses conditions générales, qu’il reste propriétaire de tous les contenus générés par l’IA, ou qu’ils sont libres de droits et que personne ne saurait revendiquer un quelconque droit sur ces contenus. Ainsi, les conditions générales d’utilisations (CGU) prévoient que OpenAI est propriétaire de l’intégralité des contenus générés par ChatGPT.

Si les CGU prévoient que l’éditeur de l’IA reste propriétaire des contenus générés par son IA, est-ce qu’un auteur pourrait générer un contenu par l’IA, puis le transformer pour créer une œuvre ?

L’intelligence artificielle soulève de nouvelles questions sur les droits d’auteur qui devront être examinées par le législateur.

L’ intelligence artificielle pour remplacer les créateurs ?

L’ intelligence artificielle pour remplacer les créateurs ?


Un article intéressant qui pose la question de la nature juridique des œuvres créées par l’intelligence artificielle. Une question qui pourrait aussi se poser pour les œuvres qui sont en fait produite en sous-traitance par des petites mains au bénéfice d’auteurs connus, de stars médiatiques, scientifiques ou encore politiques
NDLR

Par Caroline Casalonga, Avocate Associée et Juliette Dionisi, Avocate Collaboratrice au Barreau de Paris, du cabinet Casalonga dans la Tribune.

À partir d’une instruction donnée par l’homme, les logiciels d’IA (tels que Dall-E, Stable Diffusion, Midjourney ou ChatGPT) sont capables de générer automatiquement des images ou du texte, en reproduisant, analysant et mixant un grand nombre d’œuvres et de contenus préexistants.

L’humain donne des instructions à la machine qui les applique selon son algorithme et ses connaissances / contenus au moment de la réception des instructions. Sur la base des instructions reçues et des connaissances de l’IA, la machine génère une œuvre différente. Se pose la question des droits d’auteur : est-ce qu’une telle œuvre générée par l’IA à partir d’instructions humaines est protégeable par le droit d’auteur et, dans l’affirmative, qui serait titulaire de droits sur cette œuvre ?

Les œuvres exclusivement créées par des IA sont-elles protégeables par le droit d’auteur ?

Pour l’institution américaine, la réponse est NON !

L’USCO affirme que le droit d’auteur nécessite une intervention humaine dans le processus de création. Ce principe avait déjà été appliqué par l’Office américain pour refuser la protection par le droit d’auteur à un selfie pris par un singe.

Ainsi, l’USCO refusera les dépôts d’œuvres générées exclusivement par l’IA.

Pour le tribunal de Shenzhen en Chine, c’est OUI !

Le tribunal de Shenzhen a jugé différemment, considérant qu’une œuvre générée par une IA, en l’occurrence des articles de presse générés par le robot Dreamwriter, développé par la société Tencent, étaient protégeables par le droit d’auteur. Le tribunal a estimé que les droits d’auteur appartenaient à l’éditeur de l’IA.

En France et plus généralement dans l’Union européenne, il est probable que la solution serait similaire à celle de l’USCO, il faut une intervention humaine pour qu’il y ait un droit d’auteur.

En effet, l’œuvre, pour être protégeable, doit être originale, ce qui signifie qu’elle est « l’expression ou l’empreinte de la personnalité du créateur ». Sans apport intellectuel de l’auteur, il ne peut pas y avoir d’œuvre, ni donc de droits d’auteur.

Plusieurs questions se posent :

Les œuvres dont la création est en partie générée par l’IA et en partie par un auteur sont-elles protégeables ?
Les créations générées par l’IA sont-elles libres de droits ?
Les œuvres cocréées par l’IA et un humain sont-elles protégeables ?
Le principe de non-protection des œuvres générées exclusivement par ordinateur n’exclut pas pour un auteur de recourir à l’IA dans son processus de création. Pour être protégeable par le droit d’auteur, l’œuvre créée par un humain avec l’aide d’une IA devra porter l’empreinte de la personnalité de son auteur, ce qui signifie qu’il faut une véritable création humaine, et pas juste des instructions à une IA.

À titre d’exemple, dans le roman graphique « Zarya of the Dawn » de Kris Kashtanova composé d’un texte écrit par un auteur combiné à des images générées par l’IA l’USCO a accordé une protection par les droits d’auteur au texte, mais pas aux images.

On pourrait également imaginer un auteur qui donnerait des instructions à une IA afin de générer une image et qui travaillerait ensuite à partir de cette image pour créer son œuvre. L’œuvre ainsi créée devrait être considérée comme originale.

On vient de le voir, a priori, il n’y a pas de droits d’auteurs sur une œuvre générée par l’IA. Mais les contenus générés par l’IA sont-ils pour autant libres de droits et, dans la négative, qui est leur propriétaire ? Plusieurs pistes peuvent être envisagées :

Le producteur de l’IA : le producteur, programmateur de l’IA qui a investi dans le développement du logiciel et sélectionné les données pourrait, sur le modèle du droit accordé au producteur de bases de données, être titulaire des droits sur le contenu ainsi créé par l’IA.

L’utilisateur de l’IA, c’est-à-dire à la personne qui, par ses instructions à l’IA, a généré un nouveau contenu, pourrait également se voir reconnaitre des droits sur le contenu généré par l’IA.

On pourrait également imaginer, sur le modèle de l’œuvre collective, une cotitularité sur le contenu ainsi généré entre l’utilisateur et l’éditeur de l’IA.

La solution est généralement contractuelle : l’éditeur de l’IA peut prévoir, dans ses conditions générales, qu’il reste propriétaire de tous les contenus générés par l’IA, ou qu’ils sont libres de droits et que personne ne saurait revendiquer un quelconque droit sur ces contenus. Ainsi, les conditions générales d’utilisations (CGU) prévoient que OpenAI est propriétaire de l’intégralité des contenus générés par ChatGPT.

Si les CGU prévoient que l’éditeur de l’IA reste propriétaire des contenus générés par son IA, est-ce qu’un auteur pourrait générer un contenu par l’IA, puis le transformer pour créer une œuvre ?

L’intelligence artificielle soulève de nouvelles questions sur les droits d’auteur qui devront être examinées par le législateur.

L’ intelligence artificielle pour remplacer les auteurs

L’ intelligence artificielle pour remplacer les auteurs


Un article intéressant qui pose la question de la nature juridique des œuvres créées par l’intelligence artificielle. Une question qui pourrait aussi se poser pour les œuvres qui sont en fait produite en sous-traitance par des petites mains au bénéfice d’auteurs connus, de stars médiatiques, scientifiques ou encore politiques
NDLR

Par Caroline Casalonga, Avocate Associée et Juliette Dionisi, Avocate Collaboratrice au Barreau de Paris, du cabinet Casalonga dans la Tribune.

À partir d’une instruction donnée par l’homme, les logiciels d’IA (tels que Dall-E, Stable Diffusion, Midjourney ou ChatGPT) sont capables de générer automatiquement des images ou du texte, en reproduisant, analysant et mixant un grand nombre d’œuvres et de contenus préexistants.

L’humain donne des instructions à la machine qui les applique selon son algorithme et ses connaissances / contenus au moment de la réception des instructions. Sur la base des instructions reçues et des connaissances de l’IA, la machine génère une œuvre différente. Se pose la question des droits d’auteur : est-ce qu’une telle œuvre générée par l’IA à partir d’instructions humaines est protégeable par le droit d’auteur et, dans l’affirmative, qui serait titulaire de droits sur cette œuvre ?

Les œuvres exclusivement créées par des IA sont-elles protégeables par le droit d’auteur ?

Pour l’institution américaine, la réponse est NON !

L’USCO affirme que le droit d’auteur nécessite une intervention humaine dans le processus de création. Ce principe avait déjà été appliqué par l’Office américain pour refuser la protection par le droit d’auteur à un selfie pris par un singe.

Ainsi, l’USCO refusera les dépôts d’œuvres générées exclusivement par l’IA.

Pour le tribunal de Shenzhen en Chine, c’est OUI !

Le tribunal de Shenzhen a jugé différemment, considérant qu’une œuvre générée par une IA, en l’occurrence des articles de presse générés par le robot Dreamwriter, développé par la société Tencent, étaient protégeables par le droit d’auteur. Le tribunal a estimé que les droits d’auteur appartenaient à l’éditeur de l’IA.

En France et plus généralement dans l’Union européenne, il est probable que la solution serait similaire à celle de l’USCO, il faut une intervention humaine pour qu’il y ait un droit d’auteur.

En effet, l’œuvre, pour être protégeable, doit être originale, ce qui signifie qu’elle est « l’expression ou l’empreinte de la personnalité du créateur ». Sans apport intellectuel de l’auteur, il ne peut pas y avoir d’œuvre, ni donc de droits d’auteur.

Plusieurs questions se posent :

Les œuvres dont la création est en partie générée par l’IA et en partie par un auteur sont-elles protégeables ?
Les créations générées par l’IA sont-elles libres de droits ?
Les œuvres cocréées par l’IA et un humain sont-elles protégeables ?
Le principe de non-protection des œuvres générées exclusivement par ordinateur n’exclut pas pour un auteur de recourir à l’IA dans son processus de création. Pour être protégeable par le droit d’auteur, l’œuvre créée par un humain avec l’aide d’une IA devra porter l’empreinte de la personnalité de son auteur, ce qui signifie qu’il faut une véritable création humaine, et pas juste des instructions à une IA.

À titre d’exemple, dans le roman graphique « Zarya of the Dawn » de Kris Kashtanova composé d’un texte écrit par un auteur combiné à des images générées par l’IA l’USCO a accordé une protection par les droits d’auteur au texte, mais pas aux images.

On pourrait également imaginer un auteur qui donnerait des instructions à une IA afin de générer une image et qui travaillerait ensuite à partir de cette image pour créer son œuvre. L’œuvre ainsi créée devrait être considérée comme originale.

On vient de le voir, a priori, il n’y a pas de droits d’auteurs sur une œuvre générée par l’IA. Mais les contenus générés par l’IA sont-ils pour autant libres de droits et, dans la négative, qui est leur propriétaire ? Plusieurs pistes peuvent être envisagées :

Le producteur de l’IA : le producteur, programmateur de l’IA qui a investi dans le développement du logiciel et sélectionné les données pourrait, sur le modèle du droit accordé au producteur de bases de données, être titulaire des droits sur le contenu ainsi créé par l’IA.

L’utilisateur de l’IA, c’est-à-dire à la personne qui, par ses instructions à l’IA, a généré un nouveau contenu, pourrait également se voir reconnaitre des droits sur le contenu généré par l’IA.

On pourrait également imaginer, sur le modèle de l’œuvre collective, une cotitularité sur le contenu ainsi généré entre l’utilisateur et l’éditeur de l’IA.

La solution est généralement contractuelle : l’éditeur de l’IA peut prévoir, dans ses conditions générales, qu’il reste propriétaire de tous les contenus générés par l’IA, ou qu’ils sont libres de droits et que personne ne saurait revendiquer un quelconque droit sur ces contenus. Ainsi, les conditions générales d’utilisations (CGU) prévoient que OpenAI est propriétaire de l’intégralité des contenus générés par ChatGPT.

Si les CGU prévoient que l’éditeur de l’IA reste propriétaire des contenus générés par son IA, est-ce qu’un auteur pourrait générer un contenu par l’IA, puis le transformer pour créer une œuvre ?

L’intelligence artificielle soulève de nouvelles questions sur les droits d’auteur qui devront être examinées par le législateur.

L’intelligence artificielle pour remplacer l’ humain ?

L’intelligence artificielle pour remplacer l’ humain ?

Par Charles Hadji
Professeur honoraire (Sciences de l’éducation), Université Grenoble Alpes (UGA)

dans The Conversation France

Depuis sa mise en ligne fin novembre, le logiciel ChatGPT, agent conversationnel (chatbot) qui utilise les capacités impressionnantes du plus gros réseau mondial de neurones artificiels actuel (GPT-3), a provoqué un tsunami de questions sur les sujets les plus variés de demandes de rédaction de devoirs, d’articles, de courriers, etc. Destinées à l’éprouver, à en tester les limites, ces utilisations très diverses ont aussi fait naître, ou conforté, de fortes craintes.Au-delà même de ses dangers immédiatement visibles (fabrication possible de fake news, triche aux examens, facilitation d’entreprises illégales ou nocives), et contre lesquels il y aurait lieu de se prémunir par des régulations appropriées, cet outil d’intelligence artificielle (IA), n’est-il pas de nature à remplacer un humain devenu obsolète ? Le moment de la fin de la « singularité », l’IA venant dépasser l’intelligence de l’homme, n’est-il pas arrivé ? La machine ne va-t-elle pas pousser l’homme dans les oubliettes de l’histoire ?

La question de savoir s’il faut craindre que la machine se hisse au niveau de l’humain, voire le dépasse, en soulève en fait deux autres, que nous proposons d’examiner rapidement. La première porte sur l’étendue de ce que l’IA peut en quelque sorte arracher à l’homme. Il s’agit de savoir ce qui est vraiment à portée des « machines intelligentes ». N’existe-t-il pas des capacités spécifiquement humaines, qui rendraient l’homme irremplaçable, le mettant à l’abri des empiétements dévastateurs de l’IA ?
La deuxième porte sur l’intensité, et la nature même, de la peur que l’homme doit éprouver quand sont en question ses pouvoirs dans les domaines de la connaissance et de l’action. Qu’est-ce que l’homme doit craindre le plus : le développement de l’IA, ou la force et la permanence de ses tentations et perversions ? L’homme ne serait-il pas, bien plus que la machine, le principal ennemi de l’Homme ?

La première question nous invite à nous prononcer sur l’existence de capacités humaines qui ne seraient pas « algorithmables », c’est-à-dire découpables en une suite logique d’opérations permettant d’atteindre à coup sûr un résultat désiré. Il devrait être clair que la réponse à cette question relève sans doute plus de l’anthropologie, et de la philosophie, que de la robotique et de l’IA. Car on peut s’attendre à ce que l’IA prenne en charge tout ce que peuvent faire les êtres humains sur le plan cognitif, sauf ce qui relèverait de ce que seuls les humains sont capables de faire : douter, faillir, et souffrir.

Les performances de ChatGPT sont particulièrement impressionnantes dans le champ de ce qui est calculable. Mais calculer n’est pas penser. Il manque au calcul la dimension de la distanciation, autrement dit du doute. Un algorithme n’est pas capable de sortir de lui-même, comme l’expliquait le spécialiste de robotique Raja Chatila dans Le Monde en 2020. Il déroule, sans état d’âme, sa suite d’opérations. Alors que l’homme est capable, non seulement de produire, mais de s’interroger continûment sur ses productions.

Depuis sa mise en ligne fin novembre, le logiciel ChatGPT a provoqué un tsunami de questions sur les sujets les plus variés. Shutterstock
ChatGPT pourrait très bien réécrire le Cogito de Descartes, mais alors en imitant seulement son style, sans prendre lui-même la décision de sortir du rapport habituel à la réalité, et sans mettre en œuvre le travail intellectuel par lequel cette décision devient opératoire. Il n’est pas capable de produire des idées, car l’idée n’est pas « une peinture muette sur un panneau ». « L’idée, mode du penser ne consiste ni dans l’image de quelque chose, ni dans les mots », disait Spinoza dans l’Ethique.

Dire des mots (produire un texte, ce dont est capable ChatGPT) n’est pas davantage penser que simplement calculer. Blaise Pascal, par ailleurs inventeur de ce qui est considéré comme la première machine à calculer (« la pascaline ») avait perçu les limites des algorithmes : « La machine d’arithmétique fait des effets qui approchent plus de la pensée que tout ce que font les animaux ; mais elle ne fait rien qui puisse faire dire qu’elle a de la volonté, comme les animaux ».

Il faut avoir la volonté de bien penser : « Travaillons donc à bien penser : voilà le principe de la morale ». Certes « nous sommes automate [Pascal appelait cela « la « machine »] autant qu’esprit ». Mais l’ordre des automatismes, où peuvent régner les logiciels, est inférieur à l’ordre des esprits, où règne la pensée : « De tous les corps ensemble, on ne saurait en faire réussir une petite pensée. Cela est impossible, et d’un autre ordre ».

Quand il opère dans son champ d’application (ici, le mot a été bien choisi), l’algorithme est (quasiment) infaillible. Il fait disparaître toute incertitude. Mais l’être humain souffre d’une faillibilité intrinsèque. Il erre, il se trompe, commet des fautes. L’âme humaine est fragile. Avec le doute vient l’incertitude. Le comble de cette faillibilité est sans doute la bêtise (pour ne pas dire la connerie, terme qui serait le plus approprié).

La faculté de dire des bêtises, dont abuse tout populiste qui se respecte, est un signe très fiable d’humanité. « L’homme est bien capable des plus extravagantes opinions ». « Voilà mon état, plein de faiblesse et d’incertitude » (Pascal, encore). Il faudra bien sûr se poser la question de savoir en quel sens cette faiblesse pourrait être une force. Mais nous voyons que la réflexion sur la force et les limites de l’outil ChatGPT nous contraint à réfléchir sur la force et les limites de la cognition humaine !

Enfin, l’homme éprouve des sentiments. Spinoza en a retenu deux principaux (en plus du désir) : la joie, toujours positive, en tant que « passion par laquelle l’esprit passe à une perfection plus grande » ; et la tristesse, toujours négative, en tant que « passion par laquelle il passe à une perfection moindre ». Un sentiment est un état dans lequel le corps est affecté. Un algorithme ne connaîtra jamais d’instant d’émotion. On ne le verra jamais pleurer, ni de joie, ni de tristesse.

Quand donc un robot pourra effectivement douter (penser), faillir, et pleurer, on pourra dire bienvenue à ce nouveau frère en humanité ! Mais si la pensée est à l’évidence une force, la faillibilité et la souffrance sont, immédiatement, des faiblesses. Cela nous conduit à la seconde question : qu’est-ce qui est le plus à craindre pour l’homme ? Certainement les dérives auxquelles peuvent le conduire ses faiblesses – mais des faiblesses qui sont aussi la source de son principal point fort, la créativité. Car, sans les sentiments, pas d’énergie pour entreprendre.

Si un robot peut mimer des comportements humaines, il ne ressentira jamais d’émotion. Shutterstock

Dans La psychologie de l’intelligence, Piaget nous a fait comprendre que « toute conduite implique une énergétique ou une “économie”, qui constitue son aspect affectif » ainsi qu’une « structuration » des « rapports entre le milieu et l’organisme », en lequel « consiste son aspect cognitif ». Sans l’énergie provenant des sentiments, il n’y a ni vie intellectuelle ni création.
C’est que, chez l’homme, force et faiblesse sont intimement liées. Ce qui fait sa faiblesse est aussi ce qui fait sa force, et réciproquement. Si donc le robot a la force que donne la maîtrise d’un logiciel, il n’a pas celle que donne la capacité d’être affecté, et de souffrir. Et il n’a pas la créativité que confère la capacité d’essayer, en prenant le risque de se tromper, et d’entrer en errance. Alors que chez l’homme, la « bassesse », que Pascal reconnaît même en Jésus-Christ, ne peut pas empêcher d’accéder à l’ordre, « surnaturel », de la « sagesse » et de la « charité ».

Mais pourquoi alors cette cohabitation, en l’homme, de sa force et de sa faiblesse, est-elle bien plus à craindre qu’une hypothétique prise de pouvoir par les algorithmes, dont ChatGPT serait le champion ? Parce que, étant donné la nature de ce qui fait sa force, si l’homme est capable du meilleur, il est aussi trop souvent coupable du pire ! Mais ni le meilleur ni le pire ne sont certains.
L’homme est le seul animal capable de choisir, et de faire consciemment, le mal : tuer par cruauté ; faire souffrir par plaisir. Ce n’est pas un algorithme qui a créé le darknet. Mais d’un autre côté, on peut voir dans le triptyque penser, faillir, éprouver, les trois piliers fondateurs de la liberté. La liberté qui rend possible le choix du mal, comme du bien.

En définitive, est-ce ChatGPT qu’il faut craindre ? Il n’y a là qu’un outil, dont la valeur dépend de l’usage qui en sera fait. Cet usage dépend lui-même de choix d’ordre éthique. Selon ce choix, et comme pour tout, l’homme pourra se montrer capable du meilleur, en mettant l’outil au service du développement et de la valorisation de la personne humaine, pour faciliter ses apprentissages, et l’accomplissement de ses actions. Ou bien coupable du pire, en faisant de l’outil un instrument d’assujettissement et d’exploitation de l’être humain, en tombant dans l’une ou l’autre des dérives possibles.

C’est à l’homme qu’il appartient de choisir. La machine (comme Dieu, selon Platon) est innocen-te : elle n’a pas le pouvoir de choisir… Le plus grand ennemi de l’homme sera toujours l’homme.

L’intelligence artificielle va-t-elle remplacer l’être humain ?

L’intelligence artificielle va-t-elle remplacer l’être humain ?

Par Charles Hadji
Professeur honoraire (Sciences de l’éducation), Université Grenoble Alpes (UGA)

dans The Conversation France

Depuis sa mise en ligne fin novembre, le logiciel ChatGPT, agent conversationnel (chatbot) qui utilise les capacités impressionnantes du plus gros réseau mondial de neurones artificiels actuel (GPT-3), a provoqué un tsunami de questions sur les sujets les plus variés de demandes de rédaction de devoirs, d’articles, de courriers, etc. Destinées à l’éprouver, à en tester les limites, ces utilisations très diverses ont aussi fait naître, ou conforté, de fortes craintes.Au-delà même de ses dangers immédiatement visibles (fabrication possible de fake news, triche aux examens, facilitation d’entreprises illégales ou nocives), et contre lesquels il y aurait lieu de se prémunir par des régulations appropriées, cet outil d’intelligence artificielle (IA), n’est-il pas de nature à remplacer un humain devenu obsolète ? Le moment de la fin de la « singularité », l’IA venant dépasser l’intelligence de l’homme, n’est-il pas arrivé ? La machine ne va-t-elle pas pousser l’homme dans les oubliettes de l’histoire ?

La question de savoir s’il faut craindre que la machine se hisse au niveau de l’humain, voire le dépasse, en soulève en fait deux autres, que nous proposons d’examiner rapidement. La première porte sur l’étendue de ce que l’IA peut en quelque sorte arracher à l’homme. Il s’agit de savoir ce qui est vraiment à portée des « machines intelligentes ». N’existe-t-il pas des capacités spécifiquement humaines, qui rendraient l’homme irremplaçable, le mettant à l’abri des empiétements dévastateurs de l’IA ?
La deuxième porte sur l’intensité, et la nature même, de la peur que l’homme doit éprouver quand sont en question ses pouvoirs dans les domaines de la connaissance et de l’action. Qu’est-ce que l’homme doit craindre le plus : le développement de l’IA, ou la force et la permanence de ses tentations et perversions ? L’homme ne serait-il pas, bien plus que la machine, le principal ennemi de l’Homme ?

La première question nous invite à nous prononcer sur l’existence de capacités humaines qui ne seraient pas « algorithmables », c’est-à-dire découpables en une suite logique d’opérations permettant d’atteindre à coup sûr un résultat désiré. Il devrait être clair que la réponse à cette question relève sans doute plus de l’anthropologie, et de la philosophie, que de la robotique et de l’IA. Car on peut s’attendre à ce que l’IA prenne en charge tout ce que peuvent faire les êtres humains sur le plan cognitif, sauf ce qui relèverait de ce que seuls les humains sont capables de faire : douter, faillir, et souffrir.

Les performances de ChatGPT sont particulièrement impressionnantes dans le champ de ce qui est calculable. Mais calculer n’est pas penser. Il manque au calcul la dimension de la distanciation, autrement dit du doute. Un algorithme n’est pas capable de sortir de lui-même, comme l’expliquait le spécialiste de robotique Raja Chatila dans Le Monde en 2020. Il déroule, sans état d’âme, sa suite d’opérations. Alors que l’homme est capable, non seulement de produire, mais de s’interroger continûment sur ses productions.

Depuis sa mise en ligne fin novembre, le logiciel ChatGPT a provoqué un tsunami de questions sur les sujets les plus variés. Shutterstock
ChatGPT pourrait très bien réécrire le Cogito de Descartes, mais alors en imitant seulement son style, sans prendre lui-même la décision de sortir du rapport habituel à la réalité, et sans mettre en œuvre le travail intellectuel par lequel cette décision devient opératoire. Il n’est pas capable de produire des idées, car l’idée n’est pas « une peinture muette sur un panneau ». « L’idée, mode du penser ne consiste ni dans l’image de quelque chose, ni dans les mots », disait Spinoza dans l’Ethique.

Dire des mots (produire un texte, ce dont est capable ChatGPT) n’est pas davantage penser que simplement calculer. Blaise Pascal, par ailleurs inventeur de ce qui est considéré comme la première machine à calculer (« la pascaline ») avait perçu les limites des algorithmes : « La machine d’arithmétique fait des effets qui approchent plus de la pensée que tout ce que font les animaux ; mais elle ne fait rien qui puisse faire dire qu’elle a de la volonté, comme les animaux ».

Il faut avoir la volonté de bien penser : « Travaillons donc à bien penser : voilà le principe de la morale ». Certes « nous sommes automate [Pascal appelait cela « la « machine »] autant qu’esprit ». Mais l’ordre des automatismes, où peuvent régner les logiciels, est inférieur à l’ordre des esprits, où règne la pensée : « De tous les corps ensemble, on ne saurait en faire réussir une petite pensée. Cela est impossible, et d’un autre ordre ».

Quand il opère dans son champ d’application (ici, le mot a été bien choisi), l’algorithme est (quasiment) infaillible. Il fait disparaître toute incertitude. Mais l’être humain souffre d’une faillibilité intrinsèque. Il erre, il se trompe, commet des fautes. L’âme humaine est fragile. Avec le doute vient l’incertitude. Le comble de cette faillibilité est sans doute la bêtise (pour ne pas dire la connerie, terme qui serait le plus approprié).

La faculté de dire des bêtises, dont abuse tout populiste qui se respecte, est un signe très fiable d’humanité. « L’homme est bien capable des plus extravagantes opinions ». « Voilà mon état, plein de faiblesse et d’incertitude » (Pascal, encore). Il faudra bien sûr se poser la question de savoir en quel sens cette faiblesse pourrait être une force. Mais nous voyons que la réflexion sur la force et les limites de l’outil ChatGPT nous contraint à réfléchir sur la force et les limites de la cognition humaine !

Enfin, l’homme éprouve des sentiments. Spinoza en a retenu deux principaux (en plus du désir) : la joie, toujours positive, en tant que « passion par laquelle l’esprit passe à une perfection plus grande » ; et la tristesse, toujours négative, en tant que « passion par laquelle il passe à une perfection moindre ». Un sentiment est un état dans lequel le corps est affecté. Un algorithme ne connaîtra jamais d’instant d’émotion. On ne le verra jamais pleurer, ni de joie, ni de tristesse.

Quand donc un robot pourra effectivement douter (penser), faillir, et pleurer, on pourra dire bienvenue à ce nouveau frère en humanité ! Mais si la pensée est à l’évidence une force, la faillibilité et la souffrance sont, immédiatement, des faiblesses. Cela nous conduit à la seconde question : qu’est-ce qui est le plus à craindre pour l’homme ? Certainement les dérives auxquelles peuvent le conduire ses faiblesses – mais des faiblesses qui sont aussi la source de son principal point fort, la créativité. Car, sans les sentiments, pas d’énergie pour entreprendre.

Si un robot peut mimer des comportements humaines, il ne ressentira jamais d’émotion. Shutterstock

Dans La psychologie de l’intelligence, Piaget nous a fait comprendre que « toute conduite implique une énergétique ou une “économie”, qui constitue son aspect affectif » ainsi qu’une « structuration » des « rapports entre le milieu et l’organisme », en lequel « consiste son aspect cognitif ». Sans l’énergie provenant des sentiments, il n’y a ni vie intellectuelle ni création.
C’est que, chez l’homme, force et faiblesse sont intimement liées. Ce qui fait sa faiblesse est aussi ce qui fait sa force, et réciproquement. Si donc le robot a la force que donne la maîtrise d’un logiciel, il n’a pas celle que donne la capacité d’être affecté, et de souffrir. Et il n’a pas la créativité que confère la capacité d’essayer, en prenant le risque de se tromper, et d’entrer en errance. Alors que chez l’homme, la « bassesse », que Pascal reconnaît même en Jésus-Christ, ne peut pas empêcher d’accéder à l’ordre, « surnaturel », de la « sagesse » et de la « charité ».

Mais pourquoi alors cette cohabitation, en l’homme, de sa force et de sa faiblesse, est-elle bien plus à craindre qu’une hypothétique prise de pouvoir par les algorithmes, dont ChatGPT serait le champion ? Parce que, étant donné la nature de ce qui fait sa force, si l’homme est capable du meilleur, il est aussi trop souvent coupable du pire ! Mais ni le meilleur ni le pire ne sont certains.
L’homme est le seul animal capable de choisir, et de faire consciemment, le mal : tuer par cruauté ; faire souffrir par plaisir. Ce n’est pas un algorithme qui a créé le darknet. Mais d’un autre côté, on peut voir dans le triptyque penser, faillir, éprouver, les trois piliers fondateurs de la liberté. La liberté qui rend possible le choix du mal, comme du bien.

En définitive, est-ce ChatGPT qu’il faut craindre ? Il n’y a là qu’un outil, dont la valeur dépend de l’usage qui en sera fait. Cet usage dépend lui-même de choix d’ordre éthique. Selon ce choix, et comme pour tout, l’homme pourra se montrer capable du meilleur, en mettant l’outil au service du développement et de la valorisation de la personne humaine, pour faciliter ses apprentissages, et l’accomplissement de ses actions. Ou bien coupable du pire, en faisant de l’outil un instrument d’assujettissement et d’exploitation de l’être humain, en tombant dans l’une ou l’autre des dérives possibles.

C’est à l’homme qu’il appartient de choisir. La machine (comme Dieu, selon Platon) est innocen-te : elle n’a pas le pouvoir de choisir… Le plus grand ennemi de l’homme sera toujours l’homme.

LFI: Un stalinien pour remplacer Mélenchon

LFI: Un stalinien pour remplacer Mélenchon !

Le député LFI des Bouches-du-Rhône Manuel Bompard officiellement nommé à la tête du mouvement lors du rassemblement des cadres et des militants à Paris

Depuis le retrait, en septembre dernier, du député Adrien Quatennens, accusé de violences conjugales, Manuel Bompard assurait à sa place la coordination opérationnelle du mouvement.

À noter que LFI se passera d’élections pour désigner les principaux responsables se fent simplement à leur haut niveau de compétences. Ce qui par parenthèse permettra d’écarter notamment François Ruffin.

Concernant les fonctions de François Ruffin dans le mouvement, le député de la Somme, peu investi par le passé dans les instances, ne sera pas inclus dans la direction opérationnelle, mais il sera intégré dans une nouvelle instance, appelée le « conseil politique », qui sera dédiée à la « discussion stratégique ».

Ce mouvement va de plus « changer de nature », selon l’ancien directeur de campagne de Jean-Luc Mélenchon. Cette restructuration passera ainsi par la constitution de boucles départementales censées favoriser la communication entre les groupes d’action locaux. Une école des cadres sera aussi créée et prise en charge par l’Institut La Boétie, lancé en juillet 2020. La fondation insoumise, dont Jean-Luc Mélenchon prendra la direction .

Le principal problème rencontré LFI c’est qu’en fait il est pratiquement impossible de remplacer Mélenchon tellement il incarne le mouvement et le réduit même trop souvent à sa propre personne. Et le successeur aura bien du mal à faire preuve d’autant de charisme. Le risque étant que LFI se transforme tout simplement en classique organisation politique d’extrême gauche et se condamne un mouvement d’opposition minoritaire voire anecdotique.

À noter aussi que le nouveau « secrétaire national » a fait toute sa carrière professionnelle dans la politique. Bref un véritable apparatchik à la mode stalinienne.

Manuel Bompard pour remplacer Mélenchon

LFI: Manuel Bompard pour « remplacer » Mélenchon ?

Le député LFI des Bouches-du-Rhône Manuel Bompard officiellement nommé à la tête du mouvement lors du rassemblement des cadres et des militants à Paris

Depuis le retrait, en septembre dernier, du député Adrien Quatennens, accusé de violences conjugales, Manuel Bompard assurait à sa place la coordination opérationnelle du mouvement.

À noter que LFI se passera d’élections pour désigner les principaux responsables se fent simplement à leur haut niveau de compétences. Ce qui par parenthèse permettra d’écarter notamment François Ruffin.

Concernant les fonctions de François Ruffin dans le mouvement, le député de la Somme, peu investi par le passé dans les instances, ne sera pas inclus dans la direction opérationnelle, mais il sera intégré dans une nouvelle instance, appelée le « conseil politique », qui sera dédiée à la « discussion stratégique ».

Ce mouvement va de plus « changer de nature », selon l’ancien directeur de campagne de Jean-Luc Mélenchon. Cette restructuration passera ainsi par la constitution de boucles départementales censées favoriser la communication entre les groupes d’action locaux. Une école des cadres sera aussi créée et prise en charge par l’Institut La Boétie, lancé en juillet 2020. La fondation insoumise, dont Jean-Luc Mélenchon prendra la direction .

Le principal problème rencontré LFI c’est qu’en fait il est pratiquement impossible de remplacer Mélenchon tellement Il incarne le mouvement et le réduit même trop souvent à sa propre personne. Et le successeur aura bien du mal à faire preuve d’autant de charisme et de culture. Le risque étant que LFI se transforme tout simplement en classique organisation politique d’extrême gauche et se condamne un mouvement d’opposition minoritaire voire anecdotique.

À noter aussi que le nouveau « secrétaire national » a fait toute sa carrière professionnelle dans la politique.

Un nouveau réseau pour remplacer Twitter

Un nouveau réseau pour remplacer Twitter ?

Selon une information de Franceinfo un nouveau réseau pourrait bien progressivement remplacer Twitter complètement pollué par Elon Musk. Mastodon est un réseau social de micro-blogging, libre, open-source et décentralisé. Il a été créé en octobre 2016 par Eugen Rochko, un développeur allemand. Similaire à Twitter et à Tumblr, il permet de partager des messages, des images et des vidéos, dans une limite de 500 caractères. Les messages, à la différence du réseau américain, peuvent être édités et portent le nom de « pouets », « toots » en anglais.

La particularité de Mastodon est son caractère décentralisé. Comme l’explique la rubrique d’aide du réseau social, chaque nouvel utilisateur choisit un serveur lors de son inscription. Ce dernier est géré par une organisation ou une personne indépendante. Les informations de l’utilisateur sont ensuite stockées sur ce serveur. Au total, Mastodon compte un peu plus de 3 300 serveurs dans le monde. Mais attention, s’il existe une multitude de serveurs, chaque utilisateur a bien accès à l’entièreté du réseau social.

Ce choix permet à Mastodon « de répartir sa charge sur différents serveurs », explique le magazine américain Wired*, ce qui veut dire que « Mastodon n’a pas besoin de l’infrastructure, de l’ingénierie, ou d’un soutien financier important qu’un réseau comme Twitter nécessite ». L’organisation permet en outre à Mastodon de se passer de publicité, pour n’être financé que par des donations et des sponsors.

Sandrine Rousseau: objectif, remplacer Mélenchon en 2027

Sandrine Rousseau: objectif, remplacer Mélenchon en 2027

Nombre d’observateurs politiques s’interrogent à propos de la stratégie politique de la provocatrice Sandrine Rousseau. Pourtant l’objectif est clair l’intéressée n’a jamais caché ses ambitions aussi bien sur le plan personnel que sur le plan politique.

Sa stratégie repose surtout sur la multiplication du buzz pour occuper toutes les cases de l’ultra gauchisme ( féminisme, LGBT, environnement, minorités raciales, anticapitalisme, wokisme).

Peu importe d’ailleurs, l’essentiel c’est qu’on parle d’elle. Une démarche réussie même si l’opinion est de plus en plus critique par rapport aux excès de l’intéressée et à sa pratique de la dénonciation y compris des individus.

Son premier objectif est de prendre sa revanche à l’intérieur d’Europe écologie les Verts qui ne l’a pas retenue pour les présidentielles de 2017. Pour cela, elle mettra en place une candidate proche d’elle. Mais elle vise plus loin à savoir 2027. Mais son ambition est de prendre la place de Mélenchon en faisant éclater les « insoumis » pour qu’une majorité la rejoigne sur ses combats sociaux et sociétaux.

L’intéressée est sans scrupules, ainsi a-t-elle écrit à Darmanin pour obtenir en vain la tête de l’institut d’études politiques de Lille. Ainsi a-t-elle eu la tête de Baupin et de Bayou accusés par elle seulement d’être des dragueurs !

Il n’est pas certain cependant que l’opinion adhère à cette rhétorique provocatrice par ailleurs pleines de contradictions et qui a du mal à dissimuler les ambitions démesurées de l’intéressée.Raphaël Proust et Caroline Vigoureux, journalistes politique à l’Opinion et le politologue Rémi Lefebvre décryptent la stratégie politique de l’écoféministe adepte du coup d’éclat permanent

Pour Rémi Lefebvre, professeur de sciences politiques à l’université et à l’IEP de Lille : « L’objectif est d’attirer l’attention sur elle. D’autant que Sandrine Rousseau c’est quelqu’un qui a assez peu de ressources collectives, c’est quelqu’un qui est assez isolé. Donc c’est assez emblématique du fait qu’en politique, maintenant, des personnalités sans grandes ressources collectives peuvent peser. Elle a émergé au moment de la primaire écolo, elle a un capital médiatique, évidemment, qu’elle alimente avec des propos volontiers transgressifs et provocateurs.
Ce qu’on peut dire aussi – d’ailleurs elle revendique complètement cette stratégie – c’est qu’elle est sur un créneau idéologique – l’écoféminisme – où il faut choquer les esprits. Pour elle, ce ne sont pas simplement des coups de communication, c’est aussi une stratégie politique.
Elle dit qu’il faut créer des électrochocs, il faut provoquer. Elle lance dans le débat des propos qui font réagir, et de ce point de vue là, elle estime faire avancer les causes qu’elle défend. »

pour Rémi Lefebvre : « La réponse est compliquée parce que c’est oui et non. Elle dessert cette cause parce qu’elle brutalise le débat public donc elle alimente les commentaires des réactionnaires qui fleurissent sur CNews ou dans la presse néo-conservatrice. Et, d’un certain point de vue, on peut dire aussi que ce n’est pas très efficace parce que ça discrédite la cause qu’elle veut défendre.
En même temps, je nuance mon propos : elle provoque quand même des débats. Par exemple : un débat sur le rapport à la viande. «Est-ce que la valeur travail est de gauche ou de droite ?» Le point peut-être positif, c’est que ça fait réfléchir. Et ça provoque peut-être aussi des prises de conscience. Donc c’est à la fois assez cynique, et en même temps ça peut être assez efficient d’un point de vue idéologique. »

Réalité virtuelle : pour remplacer la religion

Réalité virtuelle : pour remplacer la religion

Dans un entretien au « Monde », le philosophe et chercheur Pierre Musso estime que le métavers vise à « construire un imaginaire autour de technologies existantes ou en développement », et à les présenter comme une « nouvelle révolution ».

 

Pierre Musso est professeur honoraire des universités, associé à l’école d’ingénieurs Télécom Paris, spécialiste des imaginaires technologiques. Il porte son regard de philosophe sur la réalité virtuelle.

Est-ce que les métavers concrétiseront « la philosophie des réseaux » du penseur de la société industrielle Saint-Simon [1760-1825], dont vous vous inspirez ?

Le métavers illustre une innovation – ou un agrégat de technologies – censée représenter ou annoncer une révolution culturelle. Car, de nos jours, les utopies ou les dystopies se réalisent sous la forme du messianisme ou du catastrophisme technoscientifique. La Silicon Valley, avec l’aide des studios d’Hollywood, ne cesse de mettre en scène des promesses technologiques « révolutionnaires » dans des fictions qui sont souvent des blockbusters mondiaux, comme Matrix ou Minority Report, pour promouvoir le cyberespace et l’intelligence artificielle [IA].
« Métavers » est un nouveau mot-valise dont la Silicon Valley a le secret, comme la « guerre des étoiles » ou les « autoroutes de l’information », destiné à produire un grand récit et à construire un imaginaire autour de technologies existantes, ou en développement, et à les présenter au public comme une nouvelle « révolution ».

 

Vous avez écrit « La Religion du monde industriel » en 2006, puis « La Religion industrielle. Monastère, manufacture, usine. Une généalogie de l’entreprise » en 2017 : se dirige-t-on vers la « religion virtuelle » ?

Dans nos sociétés sécularisées et hyper-technologisées demeure un désir de divinités, car aucune société ne peut se passer de mythes ou de croyances fondatrices qui la font tenir. Une société technicienne va logiquement chercher ses divinités dans la technoscience. Ainsi, les références au sacré et à Dieu sont omniprésentes dans la culture anglo-saxonne, notamment dans les temples de la Silicon Valley, laquelle a adopté une « idéologie technico-mystique », héritière de la cybernétique de Norbert Wiener. Et souvenons-nous : la mort de Steve Jobs [1955-2011] fut saluée en 2011 par les mots : « dieu », « prophète », « messie », « pape », « icône », « apôtre » ou « gourou ». Désormais l’invocation du divin, de l’immortalité et de la transcendance est censée apporter un supplément d’âme à la prolifération des techno-discours entourant l’IA ou le transhumanisme. On est plongé en pleine « techno-religiosité ».

 

L’Europe a-t-elle déjà perdu cette nouvelle bataille de la réalité virtuelle ?

Il n’y a pas aujourd’hui de révolution virtuelle ou digitale, mais des combinaisons d’innovations technologiques issues d’une rupture majeure intervenue au milieu du XXe siècle, qui est l’informatisation créant un nouveau système technique, comme le XIXe siècle fut celui de la mécanisation. L’Europe peut et doit retrouver sa puissance industrielle dans ce secteur, il n’y a aucune fatalité au déclin.

Une IA pour remplacer le psychiatre ?

Une IA pour remplacer le psychiatre ?

Les robots-thérapeutes sont aujourd’hui légion… Mais avec quel bénéfice pour les patients ? Sont-ils si objectifs ? Entrez dans la psyché de ces psychiatres numériques et de leurs confrères humains. Par Vincent Martin, Université de Bordeaux et Christophe Gauld, Université Paris 1 Panthéon-Sorbonne

 

 

« Bonjour Monsieur. Je vous en prie, installez-vous. Alors… comment allez-vous depuis la dernière fois ? »

Et si, dans quelques années, cette phrase anodine n’était plus prononcée par un psychiatre en chair et en os mais par une IA, une Intelligence artificielle ? Avec la résurgence récente de la psychiatrie dans le débat publicnotamment en raison de la crise sanitaire, l’idée de proposer des systèmes de suivi de la santé mentale intégrant des IAs a ressurgi.

Elle est, soyons honnête, loin d’être nouvelle puisqu’on trouve la première trace d’un chatbot (programme de dialogue) dédié à la psychiatrie, nommé ELIZA, dès 1966. Ces dernières décennies, les avancées en Intelligence artificielle ont permis la montée en puissance des chatbots, « robots thérapeutes » ou autres systèmes de détection de l’état de santé à travers la voix.

Il existe aujourd’hui plus d’une vingtaine de robots-thérapeutes validés par des études scientifiques en psychiatrie. Plusieurs de ces travaux avancent que les patients pourraient développer de véritables relations thérapeutiques avec ces technologies, voire que certains d’entre eux se sentiraient même plus à l’aise avec un chatbot qu’avec un psychiatre humain.

Les ambitions sont donc grandes… D’autant que, contrairement à leurs homologues humains, ces « professionnels » numériques promettraient des décisions objectives, réplicables et dénuées de tout jugement – et d’être disponibles à toute heure.

Il faut cependant noter que, même si le nom de « robot-thérapeute » évoque l’image d’un robot physique, la plupart sont basés sur du texte, éventuellement des vidéos animées. En plus de cette absence de présence physique, importante pour la majorité des patients, beaucoup ne parviennent pas à reconnaître toutes les difficultés vécues par les personnes avec qui ils conversent. Comment, alors, fournir des réponses appropriées, comme l’orientation vers un service d’assistance dédié ?

Le psychiatre, dans son entretien avec son patient, est, lui, capable de percevoir des signaux importants trahissant l’existence d’idées suicidaires ou de violences domestiques à côté desquels peuvent passer les chatbots actuels.

Pourquoi le psychiatre surpasse-t-il encore sa version électronique ? Lorsque ce spécialiste annonce « Vous avez un trouble déficit de l’attention », ou « Votre fille présente une anorexie mentale », le processus qui l’a conduit à poser ces diagnostics dépend de son « modèle interne » : un ensemble de processus mentaux, explicites ou implicites, qui lui permettent de poser son diagnostic.

De même que l’ingénierie s’inspire de la nature pour concevoir des systèmes performants, il peut être pertinent d’analyser ce qu’il se passe dans la tête d’un psychiatre (la façon dont il conçoit et utilise son modèle interne) lorsqu’il pose son diagnostic pour ensuite mieux entraîner l’IA chargée de l’imiter… Mais dans quelle mesure un « modèle interne » humain et celui d’un programme sont-ils similaires ?

C’est ce que nous nous sommes demandé dans notre article récemment paru dans la revue Frontiers in Psychiatry.

En nous appuyant sur de précédentes études sur le raisonnement diagnostic en psychiatrie, nous avons établi une comparaison entre le modèle interne du psychiatre et celui des IAs. La formulation d’un diagnostic passe par trois grandes étapes :

● La collecte d’informations et leur organisation. Lors de son entretien avec un patient, le psychiatre assemble de nombreuses informations (à partir de son dossier médical, de ses comportements, de ce qui est dit, etc.), qu’il sélectionne dans un second temps selon leur pertinence. Ces informations peuvent ensuite être associées à des profils préexistants, aux caractéristiques similaires.

Les systèmes d’IA font de même : se basant sur les données avec lesquelles ils ont été entraînés, ils extraient de leur échange avec le patient des caractéristiques (en anglais features) qu’ils sélectionnent et organisent suivant leur importance (feature selection). Ils peuvent ensuite les regrouper en profils et, ainsi, poser un diagnostic.

● La construction du modèle. Lors de leur cursus de médecine, puis tout au long de leur carrière (pratique clinique, lecture de rapports de cas, etc.), les psychiatres formulent des diagnostics dont ils connaissent l’issue. Cette formation continue renforce, dans leur modèle, les associations entre les décisions qu’ils prennent et leurs conséquences.

Ici encore, les modèles d’IA sont entraînés de la même manière : que ce soit lors de leur entraînement initial ou leur apprentissage, ils renforcent en permanence, dans leur modèle interne, les relations entre les descripteurs extraits de leurs bases de données et l’issue diagnostique. Ces bases de données peuvent être très importantes, voire contenir plus de cas qu’un clinicien n’en verra au cours de sa carrière.

● Utilisation du modèle. Au terme des deux précédentes étapes, le modèle interne du psychiatre est prêt à être utilisé pour prendre en charge de nouveaux patients. Divers facteurs extérieurs peuvent influencer la façon dont il va le faire, comme son salaire ou sa charge de travail – qui trouvent leurs équivalents dans le coût du matériel et le temps nécessaire à l’entraînement ou l’utilisation d’une IA.

Comme indiqué précédemment, il est souvent tentant de penser que le psychiatre est influencé dans sa pratique professionnelle par tout un ensemble de facteurs subjectifs, fluctuants et incertains : la qualité de sa formation, son état émotionnel, le café du matin, etc. Et qu’une IA, étant une « machine », serait débarrassée de tous ces aléas humains… C’est une erreur ! Car l’IA comporte, elle aussi, une part de subjectivité importante ; elle est simplement moins immédiatement perceptible.

En effet, toute IA a été conçue par un ingénieur humain. Ainsi, si l’on veut comparer les processus de réflexion du psychiatre (et donc la conception et l’utilisation de son modèle interne) et ceux de l’IA, il faut considérer l’influence du codeur qui l’a créée. Celui-ci possède son propre modèle interne, dans ce cas non pas pour associer données cliniques et diagnostic mais type d’IA et problème à automatiser. Et là aussi, de nombreux choix techniques mais reposant sur de l’humain entrent en compte (quel système, quel algorithme de classification, etc.)

Le modèle interne de ce codeur est nécessairement influencé par les mêmes facteurs que celui du psychiatre : son expérience, la qualité de sa formation, son salaire, le temps de travail pour écrire son code, son café du matin, etc. Tous vont se répercuter sur les paramètres de conception de l’IA et donc, indirectement, sur les prises de décision de l’IA, c’est-à-dire sur les diagnostics qu’elle fera.

L’autre subjectivité qui influe sur le modèle interne des IAs est celle associée aux bases de données sur lesquelles celle-ci est entraînée. Ces bases de données sont en effet conçues, collectées et annotées par une ou plusieurs autres personnes ayant leurs propres subjectivités – subjectivité qui va jouer dans le choix des types de données collectées, du matériel impliqué, de la mesure choisie pour annoter la base de données, etc.

Alors que les IAs sont présentées comme objectives, elles reproduisent en fait les biais présents dans les bases de données sur lesquelles elles sont entraînées.

La subjectivité intervient non seulement chez le psychiatre humain, mais aussi chez les IAs thérapeutiques à travers les choix faits par les ingénieurs, codeurs… qui les ont conçues. Vincent Martin, Author provided

Il ressort de ces comparaisons que l’IA n’est pas exempte de facteurs subjectifs et, de ce fait notamment, n’est pas encore prête à remplacer un « vrai » psychiatre. Ce dernier dispose, lui, d’autres qualités relationnelles et empathiques pour adapter l’utilisation de son modèle à la réalité qu’il rencontre… ce que l’IA peine encore à faire.

Le psychiatre est ainsi capable de souplesse de la collecte d’informations lors de son entretien clinique, ce qui lui permet d’accéder à des informations de temporalité très différentes : il peut par exemple interroger le patient sur un symptôme survenu des semaines auparavant ou faire évoluer son échange en temps réel en fonction des réponses obtenues. Les IAs restent pour l’heure limitées à un schéma préétabli et donc rigide.

Une autre limite forte des IAs est leur manque de corporéité, un facteur très important en psychiatrie. En effet, toute situation clinique est basée sur une rencontre entre deux personnes – et cette rencontre passe par la parole et la communication non verbale : gestes, position des corps dans l’espace, lecture des émotions sur le visage ou reconnaissance de signaux sociaux non explicites… En d’autres termes, la présence physique d’un psychiatre constitue une part importante de la relation patient-soignant, qui elle-même constitue une part importante du soin.

Tout progrès des IAs dans ce domaine est dépendant des avancées en robotique, là où le modèle interne du psychiatre est déjà incarné dans celui-ci.

Est-ce à dire qu’il faut oublier l’idée d’un psy virtuel ? La comparaison entre le raisonnement du psychiatre et celui de l’IA est malgré tout intéressante dans une perspective de pédagogie croisée. En effet, bien comprendre la façon dont les psychiatres raisonnent permettra de mieux prendre en compte les facteurs intervenant dans la construction et l’utilisation des IAs dans la pratique clinique. Cette comparaison éclaire également le fait que le codeur amène lui aussi son lot de subjectivité dans les algorithmes d’IA… qui ne sont ainsi pas à même de tenir les promesses qu’on leur prête.

Ce n’est qu’à travers ce genre d’analyses qu’une véritable pratique interdisciplinaire, permettant d’hybrider l’IA et la médecine, pourra se développer à l’avenir pour le bénéfice du plus grand nombre.

_______

Par Vincent Martin, Docteur en informatique, Université de Bordeaux et Christophe Gauld, Pédopsychiatre et médecin du sommeil, Université Paris 1 Panthéon-Sorbonne.

La version originale de cet article a été publiée sur The Conversation.

La pierre pour remplacer le placement en or ?

La pierre pour remplacer le placement en or ?

La politique des taux d’intérêt a pris une tournure habituelle mais trompeuse entre, d’une part, ceux qui recommandent une hausse vigoureuse et accélérée des taux afin de rabattre l’inflation, et d’autre part les défenseurs de la croissance qui prônent une progression plus modérée pour éviter de freiner une reprise déjà bien fragile. Par Sébastien Canderlé, conférencier à Imperial College London ( la Tribune)

 

Avec une guerre en Ukraine à l’issue incertaine et une inflation à deux chiffres, de nombreux investisseurs ont cherché refuge dans l’or, le bien qui s’est avéré, par le passé, capable de préserver sa valeur en période de crise.

Lorsque l’indice des prix aux États-Unis avait doublé entre 1971 et 1980, la Réserve fédérale avait choisi une orientation monétaire restrictive, allant jusqu’à relever son taux directeur à 20% au printemps 1980.

Devant un tel contexte hyperinflationniste et de taux exorbitants, la valeur de l’or était multipliée par 16. Les autres classes d’actifs, en revanche, enduraient des progressions beaucoup moins favorables: les prix de l’immobilier outre-Atlantique augmentaient de 2,3 fois sur la période, tandis que les marchés d’actions et d’obligations évoluaient tout juste au rythme de l’inflation.

Cependant, un demi-siècle plus tard, l’actif mieux à même de résister à la crise n’est plus l’or mais la pierre. Et la raison n’est pas celle que l’on croit. Notre génération n’est guère plus dépendante de l’immobilier que celle de nos parents.

Le taux d’accession à la propriété aux États-Unis atteignait déjà 64,5% dans les années 1970. L’an passé, il était de 65,5%. Au Royaume-Uni, la proportion de propriétaires est passée de 58% en 1980 à tout juste 63% quarante ans plus tard. Et si l’accession à la propriété en France a crû de manière plus prononcée, ce taux n’a progressé que faiblement, passant de 50% au début du premier septennat de Francois Mitterrand à environ 60% aujourd’hui.

Le vrai sujet pour comprendre la réticence des autorités à relever les taux d’intérêt, c’est l’endettement de tous les acteurs économiques.

En pourcentage du PIB, l’endettement des ménages américains a quasiment doublé depuis 1970 et avoisine les 80%. Sur la même période, les français ont vu leur endettement passer de moins de 35% du PIB dans les années 1990 à environ 66% l’an dernier.

A ce fort endettement des ménages s’ajoute celui des États et des entreprises. En 1974, la dette publique outre-Atlantique avait atteint un plus-bas historique depuis la Seconde Guerre mondiale, évoluant sous les 25% du PIB. Elle excède aujourd’hui 120%, soit un ratio supérieur à celui jamais atteint, y compris en période de guerre. Pour la France, la dette publique a gonflé d’environ 20% du PIB dans les années 1970 à 115% l’an dernier.

La dette des sociétés américaines est également à un niveau record, excédant 50% du PIB, davantage qu’au cours des crises précédentes de 2009, 2001 et 1990. Dans les années 1970 ce ratio était inférieur à 35%. En France, l’an dernier, l’endettement des sociétés non-financières dépassait les 100% du PIB.

Tout ceci explique pourquoi, malgré une crise énergétique et un conflit armé régional rappelant les années 1970, la crise actuelle a peu de chance de suivre le même scénario.

Une simple comparaison servira de pièce à conviction. La dernière fois que le Royaume-Uni avait une inflation galopante, c’était il y a tout juste 40 ans. A l’époque, le taux directeur de la banque centrale était de 13,5%; aujourd’hui, il reste inférieur à 2%. L’État britannique est au pied du mur. La dette publique du pays frôle les 100%; elle était inférieure à 30% il y a 20 ans.

Désireuse d’éviter une crise immobilière ou une chute vertigineuse de la consommation, la Banque d’Angleterre demeure impuissante. Et ce malgré le fait que les prix sont cinq fois supérieurs à son indice cible de 2%.

Les propriétaires immobiliers n’ont donc pas de raison de s’inquiéter. Des États surendettés, affaiblis par une mauvaise gestion de la crise de 2008 et de la pandémie des deux dernières années, n’ont pas de marge de manoeuvre pour tacler l’inflation.

Les marchés ne s’y trompent pas. De mars 2020 au printemps de cette année, les prix de l’immobilier ont progressé de 40% aux États-Unis, et de 20% au Royaume-Uni. Le marché français a aussi connu une forte hausse du prix des maisons. Par contraste, le prix de l’or subit une forte volatilité depuis deux ans mais fait du surplace.

Le niveau d’endettement sans précédent de tous les acteurs économiques des pays développés garantit que les taux d’intérêt demeureront très largement inférieurs à l’inflation. N’en déplaise aux Cassandre qui prédisent une chute prochaine des prix, l’immobilier devrait préserver sa fonction d’arbitrage. Des taux d’intérêt réels négatifs en font le nouvel actif de référence. L’or est mort, vive la pierre!

Le biométhane pour remplacer le gaz russe

Le  biométhane pour remplacer le gaz russe 

 

Le professeur de gestion Robert Bell affirme  dans le Monde que la conversion des déchets organiques en méthane permettrait de mettre fin aux importations de gaz russe.

 

Depuis le jour où les Russes ont envahi l’Ukraine, le 24 février 2022, l’Union européenne (UE) a versé à la Russie plus de 28 milliards d’euros en échange de son gaz (Financing Putin’s war : Fossil fuel imports from Russia during the invasion of Ukraine, Centre for Research on Energy and Clean Air, CREA). Parallèlement, l’UE recherche d’autres sources d’approvisionnements pour remplacer les 155 milliards de mètres cubes (mmc) de gaz naturel importé de Russie. Or, l’UE pourrait produire localement, selon diverses modalités, suffisamment de biométhane pour remplacer ce gaz importé.

Rappelons que le biogaz est produit par la décomposition, en l’absence d’oxygène, de matières organiques (fumier, eaux usées humaines, résidus agricoles, etc.). Le biogaz se compose de 50 à 70 % de méthane et de 30 à 50 % de CO2. En éliminant ce dernier et les traces de sulfure d’hydrogène (qui produit la mauvaise odeur d’« œuf pourri ») par un processus facile et peu coûteux, il reste le méthane pur, substitut parfait au gaz naturel.

 

Le biométhane produit dans les grands centres de production coûte souvent un tiers de moins que le prix désormais élevé du gaz naturel. Dans les petits centres de production, les coûts sont plus comparables au gaz russe, mais au moins l’argent reste sur place, il ne va pas en Russie ! Le biométhane circule dans les mêmes canalisations et installations de stockage que le gaz naturel.

Dès lors, pourquoi ne pas le substituer au gaz russe ? Simplement parce qu’on en produit bien peu, environ 3 mmc, comme l’indique l’Association européenne du biogaz (EBA). Cette même source indiquait également, qu’en utilisant ses propres déchets, l’UE pourrait produire 35 mmc de biométhane d’ici à 2030, soit plus de 20 % des importations de gaz russe.

Cette estimation a été retenue dans la stratégie officielle de la Commission européenne, REPowerEU. Installer l’infrastructure de production de ce biométhane coûterait, selon l’EBA, quelque 80 milliards d’euros. Cela semble beaucoup, mais c’est peu comparé aux 28 milliards versés aux envahisseurs russes en seulement quatre mois !

 

De plus, le CO2 extrait du biogaz d’origine peut être valorisé pour obtenir plus de biométhane : combiné avec de l’hydrogène dans un réacteur, en présence d’un catalyseur au nickel, il ressort sous forme de gaz méthane pur. Ce serait un moyen de stocker l’énergie pour pallier les pertes de production intermittentes des parcs éolien et photovoltaïque.

La tentation d’un régime totalitaire pour remplacer une démocratie défaillante ?

La tentation d’un  régime totalitaire pour remplacer une démocratie défaillante ?

 

Plusieurs enquêtes d’opinion révèlent la tentation d’un exécutif fort auprès d’une large partie de la population, mais celle-ci est contrebalancée par une demande d’empathie en apparence contradictoire, observe le politiste Bruno Cautrès dans une tribune au « Monde ».

 

Depuis le soir du second tour des élections législatives, une série de questions ne quitte plus nos débats politiques : le pays est-il « gouvernable » comme cela ? La France ne devrait-elle pas apprendre les vertus des coalitions gouvernementales ? Le modèle politique français est-il compatible avec la recherche de compromis autour de « majorités de projets » ?

Beaucoup soulignent la contradiction entre des institutions politiques qui consacrent le rôle présidentiel et la recherche de ces solutions de compromis. On évoque souvent la tradition française d’un pouvoir exécutif fort devant avoir les mains libres pour gouverner et le peu de goût de notre culture politique pour l’art des compromis.

Les données de plusieurs études académiques semblent, au premier abord, bien attester de cette « particularité » française : selon la série d’enquêtes sur les valeurs des Européens, on constate en France un désir d’autorité pour tout ce qui touche à la sphère publique, une valorisation de l’autorité publique (qui s’accompagne néanmoins d’une forte demande d’autonomie et d’aspiration à la liberté dans le domaine de la vie privée).

Cette valorisation de l’autorité dans le domaine politique s’accompagne d’une forte insatisfaction sur le fonctionnement démocratique du pays : début 2021, le baromètre de la confiance politique du Cevipof montrait que seules 42 % des personnes interrogées considèrent que la démocratie fonctionne bien en France, un pourcentage très nettement inférieur à ce que l’on observe au Royaume-Uni (61 %) et en Allemagne (67 %) dans la même enquête.

Cette insatisfaction démocratique se conjugue avec un profond sentiment de défiance politique : début 2022, 77 % des personnes interrogées dans cette enquête annuelle du Cevipof pensent que les responsables politiques ne se préoccupent pas de ce que pensent les gens comme eux, 75 % que les responsables politiques sont déconnectés de la réalité et ne servent que leurs propres intérêts, 79 % que les hommes politiques parlent trop et n’agissent pas assez.

Dans un contexte de crises à répétition, cette défiance nourrit la demande inquiétante d’alternatives à la démocratie : confier le gouvernement à des experts ou à un leader fort « qui n’a pas à se préoccuper des élections ou du Parlement » séduit respectivement près de la moitié et le tiers des personnes interrogées par l’enquête du Cevipof au début 2022. Sur fond de gestion de la crise sanitaire liée au Covid-19, la demande d’efficacité semble même pousser 27 % d’entre elles à déclarer qu’un bon système de gouvernement pour la France pourrait être « l’armée dirigeant le pays » et 47 % « qu’en démocratie rien n’avance, il vaudrait mieux moins de démocratie mais plus d’efficacité » !

Carburant :Une taxe pour remplacer une taxe ?

Carburant :Une taxe pour remplacer une taxe ?

 

Deux  experts en prospective urbaine Vincent Le Rouzic et Alphonse Coulot préconisent, dans une tribune au « Monde », la création d’une cotisation sociale de transition prélevée sur les carburants carbonés, pour remplacer une partie de l’actuelle taxe intérieure de consommation sur les produits énergétiques (TICPE), ainsi que d’un « compte transition mobilité » pour chaque foyer.

En fait,  il s’agirait d’une taxe pour remplacer une autre taxe. Pas vraiment une innovation notamment si l’on en juge par les effets presque neutres du très haut niveau actuel de fiscalité sur le carburant. La lutte contre les émissions de carbone dans les transports réclame sans une approche autrement plus globale et plus complexe NDLR

 

Il y a près de soixante ans, la France était pionnière de la fiscalité écologique. Aujourd’hui, elle peine pourtant à instaurer un mode de taxation des émissions de carbone. En instaurant une redevance sur l’eau, en 1964, la France luttait contre le risque de consommation excessive de cette ressource. Pourtant, depuis l’échec de la taxe générale sur les activités polluantes (TGAP) en 2001, les projets de fiscalité carbone peinent à s’instaurer durablement.

Dans sa définition, la taxe carbone qui a vu le jour en 2014 a une prise directe sur les transports, puisqu’elle est intégrée à la taxe intérieure de consommation sur les produits énergétiques (TICPE), elle-même responsable de 60 % du prix de l’essence.

Mais, depuis l’épisode sans précédent des « gilets jaunes », l’idée même de hausse de la composante carbone crispe tous les bords politiques, au point d’être quasiment absente de l’élection présidentielle 2022.

Pourtant, en appliquant une tarification aux émissions de carbone, la mesure se veut un accélérateur d’une transition énergétique dont la nécessité ne fait plus débat. Las, le dispositif est encore trop imparfait : manque de transparence dans l’allocation de ses recettes, coût social trop important.

A cela s’ajoute un enjeu, que le débat public et les gouvernements qui se succèdent n’abordent pas : la contraction des recettes de cette fiscalité carbone. La TICPE représente aujourd’hui près de 5 % du budget général de l’Etat (soit 13,6 milliards en 2019). Or la fiscalité carbone est vouée à décroître, voire à s’éteindre complètement, à mesure que la part des énergies fossiles diminue dans les transports.

Ce paradoxe trahit une position impossible à tenir pour l’Etat, qui doit financer massivement les étapes nécessaires de la décarbonation de son écosystème, alors qu’il se voit inexorablement privé de recettes dont il dépend pourtant.

De plus, la fiscalité carbone actuelle privilégie encore trop la contrainte à la coopération, puisqu’elle impose une forte hausse des prix sur un bien non substituable et ne redistribue pas de façon transparente ses recettes. De là une perception de la fiscalité carbone comme une pénalité supplémentaire plutôt que comme la contrepartie d’un accompagnement à la transition.

Enfin, le versement du produit de cette fiscalité au budget général de l’Etat ne permet pas d’en faire la pédagogie et nuit à son acceptabilité. Ce défaut de transparence et le faible bénéfice visible que retire la population de cette taxe constituent les principaux ferments de l’opposition qu’elle suscite.

1234



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol