Archive pour le Tag 'humaine'

Nouvelles technologies– »Intelligence artificielle : renaissance de l’expérience humaine « !

Nouvelles technologies– »Intelligence artificielle : renaissance de l’expérience humaine « !

Un plaidoyer pour  l’intelligence artificielle par Gianmarco Monsellato, Avocat, Ancien dirigeant de Deloitte-Taj, Senior Partner Deloitte dans l’Opinion . Une vision quand même un peu réductrice du champ de l’intelligence artificielle et en même temps un peu excessive voire caricaturale.

 

Tout est écrit. Le futur peut se lire dans l’interprétation des données à notre disposition, des signes que la nature nous donne. Ces conclusions ne viennent pas d’une entreprise technologique du XXIe siècle mais des alchimistes du XVe. Serions-nous en train de vivre un retour en arrière, assisterions-nous à une nouvelle forme de pensée magique sous le couvert du vocabulaire technologique ? Les professions d’expertises et notamment les services professionnels pourraient être tentés de le croire tant leur fin, ou leur mutation complète, est souvent annoncée à cause de l’essor de l’IA. A quoi bon des experts, lorsqu’un algorithme peut vous donner toutes les réponses à vos questions ? Et pourtant…

L’IA découle de la rencontre entre la technique des algorithmes, qui n’est pas nouvelle, une masse de données immense grâce à internet, et des puissances de calcul en augmentation exponentielle. Elle constitue une formidable capacité à calculer des corrélations entre des données apparemment indépendantes, permettant de mettre en lumière des liens de causalités jusque-là ignorés. Grâce au « machine learning », les algorithmes améliorent la pertinence de leurs résultats en éliminant les corrélations aboutissant à des conclusions hors contexte, autrement dit absurdes pour un humain.

Pour les professions d’expertise (consultants, avocats, juges, auditeurs…), l’IA permet de disposer rapidement d’une analyse précise et exhaustive des précédents dans toutes leurs dimensions. Ce qui avant devait être effectué par des collaborateurs durant un temps assez long et avec un taux d’inexactitude non négligeable est désormais rapidement disponible, sans erreur et de manière exhaustive. Sur le plan du droit, l’IA permet de disposer d’analyses de précédents d’une profondeur sans équivalent, réduisant à néant le risque d’erreur ou d’omission. Elle apporte ainsi une sécurité juridique sans faille. A tel point que certaines Cours suprêmes de pays de Common Law travaillent sur des projets d’IA pour effectuer toute la préparation analytique au jugement.

Par construction, une IA ne fait que répéter le passé. Le présupposé fondateur des études de corrélation est de croire que les phénomènes passés ont vocation à se répéter dans le futur

Pour puissante qu’elle soit, l’IA n’en demeure pas moins entravée par des limites indépassables. En premier lieu, elle est sujette aux biais. Puisqu’elle traite des données existantes, ces conclusions reflètent nécessairement les a priori présents dans l’historique des environnements analysés. Plus un biais, ou une erreur de jugement sur le plan moral, a été répété de manière insidieuse dans le passé, plus il influencera les analyses de corrélations et donc les conclusions de l’IA. En second lieu, toutes les corrélations ne se valent pas. Certaines identifient des liens entre données qui sont de fausses causalités uniquement créées par la répétition non signifiante de certains aléas, ce que les mathématiciens arabes du Moyen Age ont appelé « hasard ». Enfin, par construction, une IA ne fait que répéter le passé. Le présupposé fondateur des études de corrélation est de croire que les phénomènes passés ont vocation à se répéter dans le futur. Ce qui va à l’encontre de l’aspiration humaine à la créativité qui n’est rien d’autre que le refus du déterminisme.

 

Est-ce à dire alors que l’IA serait un faux savoir à renier au même titre que l’alchimie de la fin du Moyen Age ? Bien sûr que non, ne fût-ce que parce que certains parmi les plus grands savants à l’origine de la Renaissance étaient aussi des alchimistes. Il faut en revanche l’utiliser pour ce qu’elle est sans lui prêter des capacités qu’elle ne peut avoir.

L’IA permet dès aujourd’hui, et encore plus demain, à tous les métiers de savoir, de bénéficier d’analyses techniques de plus grande qualité et plus rapidement que par le passé. Pour autant que l’on sache s’en servir. Les collaborateurs qui auparavant effectuaient les recherches techniques doivent désormais se concentrer sur le fonctionnement de l’IA pour corriger ses biais ou a minima les comprendre pour en nuancer les conclusions. Quant à ceux qui sont en position de décider, ou de conseiller, ils doivent considérer les conclusions de l’IA pour ce qu’elles sont : une vision du passé appliquée au futur, qui ne peut appréhender l’intelligence des situations si importante à la qualité de la prise décision.

C’est la responsabilité du conseil, de l’avocat ou de l’auditeur, de comprendre que décider c’est créer l’avenir et non pas répéter le passé. L’expérience permet de savoir quand il est nécessaire de s’écarter des chemins déjà tracés, ou quand une évidence provenant du passé deviendrait une erreur si elle était projetée dans le futur. Les plus grandes évolutions juridiques créatrices des droits fondamentaux qui fondent nos sociétés n’auraient jamais été possibles si les jugements ou décisions avaient été rendues par des IA, justement par ce que ces évolutions sont le fruit de décisions qui ont voulu rompre avec ce qui existait déjà.

En réalité, l’IA met sur le devant de la scène l’importance de la qualité de la prise de décision, fruit de l’expérience et de la volonté créatrice. Elle valorise la qualité du jugement humain. Et elle nous renvoie à un texte fondateur de la culture occidentale. Dans l’Odyssée, Ulysse connaît le jugement des dieux et le déterminisme qu’il impose. Il choisit de s’en départir et de tracer son propre chemin, dans un voyage qui ne cesse de nous inspirer 3 000 ans après. Finalement, le principal mérite de l’IA est de nous rappeler que nous sommes humains.

Gianmarco Monsellato, Avocat, Ancien dirigeant de Deloitte-Taj, Senior Partner Deloitte

« Intelligence artificielle : renaissance de l’expérience humaine « !. ( Gianmarco Monsellato)

« Intelligence artificielle : renaissance de l’expérience humaine « !. ( Gianmarco Monsellato)

Un plaidoyer pour  l’intelligence artificielle par Gianmarco Monsellato, Avocat, Ancien dirigeant de Deloitte-Taj, Senior Partner Deloitte dans l’Opinion . Une vision quand même un peu réductrice du champ de l’intelligence artificielle et en même temps un peu excessive.

 

Tout est écrit. Le futur peut se lire dans l’interprétation des données à notre disposition, des signes que la nature nous donne. Ces conclusions ne viennent pas d’une entreprise technologique du XXIe siècle mais des alchimistes du XVe. Serions-nous en train de vivre un retour en arrière, assisterions-nous à une nouvelle forme de pensée magique sous le couvert du vocabulaire technologique ? Les professions d’expertises et notamment les services professionnels pourraient être tentés de le croire tant leur fin, ou leur mutation complète, est souvent annoncée à cause de l’essor de l’IA. A quoi bon des experts, lorsqu’un algorithme peut vous donner toutes les réponses à vos questions ? Et pourtant…

L’IA découle de la rencontre entre la technique des algorithmes, qui n’est pas nouvelle, une masse de données immense grâce à internet, et des puissances de calcul en augmentation exponentielle. Elle constitue une formidable capacité à calculer des corrélations entre des données apparemment indépendantes, permettant de mettre en lumière des liens de causalités jusque-là ignorés. Grâce au « machine learning », les algorithmes améliorent la pertinence de leurs résultats en éliminant les corrélations aboutissant à des conclusions hors contexte, autrement dit absurdes pour un humain.

Pour les professions d’expertise (consultants, avocats, juges, auditeurs…), l’IA permet de disposer rapidement d’une analyse précise et exhaustive des précédents dans toutes leurs dimensions. Ce qui avant devait être effectué par des collaborateurs durant un temps assez long et avec un taux d’inexactitude non négligeable est désormais rapidement disponible, sans erreur et de manière exhaustive. Sur le plan du droit, l’IA permet de disposer d’analyses de précédents d’une profondeur sans équivalent, réduisant à néant le risque d’erreur ou d’omission. Elle apporte ainsi une sécurité juridique sans faille. A tel point que certaines Cours suprêmes de pays de Common Law travaillent sur des projets d’IA pour effectuer toute la préparation analytique au jugement.

Par construction, une IA ne fait que répéter le passé. Le présupposé fondateur des études de corrélation est de croire que les phénomènes passés ont vocation à se répéter dans le futur

Déterminisme. Pour puissante qu’elle soit, l’IA n’en demeure pas moins entravée par des limites indépassables. En premier lieu, elle est sujette aux biais. Puisqu’elle traite des données existantes, ces conclusions reflètent nécessairement les a priori présents dans l’historique des environnements analysés. Plus un biais, ou une erreur de jugement sur le plan moral, a été répété de manière insidieuse dans le passé, plus il influencera les analyses de corrélations et donc les conclusions de l’IA. En second lieu, toutes les corrélations ne se valent pas. Certaines identifient des liens entre données qui sont de fausses causalités uniquement créées par la répétition non signifiante de certains aléas, ce que les mathématiciens arabes du Moyen Age ont appelé « hasard ». Enfin, par construction, une IA ne fait que répéter le passé. Le présupposé fondateur des études de corrélation est de croire que les phénomènes passés ont vocation à se répéter dans le futur. Ce qui va à l’encontre de l’aspiration humaine à la créativité qui n’est rien d’autre que le refus du déterminisme.

Est-ce à dire alors que l’IA serait un faux savoir à renier au même titre que l’alchimie de la fin du Moyen Age ? Bien sûr que non, ne fût-ce que parce que certains parmi les plus grands savants à l’origine de la Renaissance étaient aussi des alchimistes. Il faut en revanche l’utiliser pour ce qu’elle est sans lui prêter des capacités qu’elle ne peut avoir.

L’IA permet dès aujourd’hui, et encore plus demain, à tous les métiers de savoir, de bénéficier d’analyses techniques de plus grande qualité et plus rapidement que par le passé. Pour autant que l’on sache s’en servir. Les collaborateurs qui auparavant effectuaient les recherches techniques doivent désormais se concentrer sur le fonctionnement de l’IA pour corriger ses biais ou a minima les comprendre pour en nuancer les conclusions. Quant à ceux qui sont en position de décider, ou de conseiller, ils doivent considérer les conclusions de l’IA pour ce qu’elles sont : une vision du passé appliquée au futur, qui ne peut appréhender l’intelligence des situations si importante à la qualité de la prise décision.

Rompre avec ce qui existait déjà. C’est la responsabilité du conseil, de l’avocat ou de l’auditeur, de comprendre que décider c’est créer l’avenir et non pas répéter le passé. L’expérience permet de savoir quand il est nécessaire de s’écarter des chemins déjà tracés, ou quand une évidence provenant du passé deviendrait une erreur si elle était projetée dans le futur. Les plus grandes évolutions juridiques créatrices des droits fondamentaux qui fondent nos sociétés n’auraient jamais été possibles si les jugements ou décisions avaient été rendues par des IA, justement par ce que ces évolutions sont le fruit de décisions qui ont voulu rompre avec ce qui existait déjà.

En réalité, l’IA met sur le devant de la scène l’importance de la qualité de la prise de décision, fruit de l’expérience et de la volonté créatrice. Elle valorise la qualité du jugement humain. Et elle nous renvoie à un texte fondateur de la culture occidentale. Dans l’Odyssée, Ulysse connaît le jugement des dieux et le déterminisme qu’il impose. Il choisit de s’en départir et de tracer son propre chemin, dans un voyage qui ne cesse de nous inspirer 3 000 ans après. Finalement, le principal mérite de l’IA est de nous rappeler que nous sommes humains.

Gianmarco Monsellato, Avocat, Ancien dirigeant de Deloitte-Taj, Senior Partner Deloitte

Démystification des algorithmes pour la compréhension humaine

Démystification des algorithmes pour la compréhension humaine

 

Aurélie Jean, docteure en sciences et entrepreneure : explique dans l’opinion les limites des algorithmes pour la compréhension humaine.

 « Nous ne voulons pas endosser le rôle d’arbitre de la vérité. » Cet argument développé par Mark Zuckerberg pour se justifier de ne pas avoir à trancher ce qui peut être publié sur sa plateforme devient intenable alors que les réseaux sociaux s’installent toujours plus dans notre quotidien. Mais si ce n’est pas au patron de Facebook de tenir ce rôle, d’autres le peuvent-ils ? C’est ce que cherche à savoir l’Opinion dans cette série estivale.

Galilée l’affirmait : la nature est un livre écrit en langage mathématique. Tout phénomène, selon lui, pourrait être décrit par un système capable de capturer l’essence des mécanismes qui le constituent. Les philosophes recherchent le sens ultime des choses alors que les scientifiques recherchent des explications. Aux premiers, la quête du pourquoi, aux seconds l’exploration du comment. Par leur travail explicatif, les scientifiques traquent les erreurs qui font avancer cette recherche de vérité. Aujourd’hui, à nos sentiments, nos expériences et nos raisonnements parfois mathématiques, s’ajoutent le calcul et la logique algorithmiques. On s’efforcera ici de répondre à une question a priori banale, mais qui suppose une connaissance du fonctionnement des algorithmes, de leurs limites et de leurs potentiels, face à notre pensée bien humaine : les algorithmes détiennent-ils la vérité ?

La méthode algorithmique repose sur un dosage subtil d’empirisme et de rationalisme — pourtant traditionnellement distingués, voire opposés, dans le passé par nombre de philosophes. Les algorithmes explicites possèdent par définition une logique décrite par les humains. Dans cette logique on trouve par exemple des structures conditionnelles — si une condition est validée alors une opération algorithmique est exécutée —, des équations mathématiques souvent complexes, des conditions d’usage ou encore des hypothèses.

Parti pris. L’algorithme explicite fait alors appel principalement au raisonnement de ceux qui le conçoivent. On comprend, dès lors, qu’il modélise un phénomène à partir d’une observation et d’une compréhension du monde inévitablement subjective. Cela posé, la simulation qui en résulte permet de soulever des corrélations jusque-là purement conceptualisées, des couplages inconnus entre composantes du phénomène, ou des incohérences face à la réalité ou à ce qu’on pensait d’elle. Comme une meilleure compréhension des mécanismes de maladies, de phénomènes climatiques ou de manifestations sociologiques…

Contrairement aux algorithmes explicites, les algorithmes implicites possèdent une logique entièrement construite par apprentissage sur des données choisies et labellisées par les scientifiques. D’une certaine manière, cette approche s’inspire de l’empirisme par une utilisation brute des scénarios du phénomène à simuler symbolisés par les données d’apprentissage. Un jour, on pourra peut-être entraîner un algorithme entièrement sur des données non labellisées, mais il restera toujours le choix de ces données. Même sur des tailles gigantesques, celles-ci captureront toujours une réalité et non la réalité dans sa totalité. Rien ne permettra de démontrer le contraire.

Qu’ils soient explicites ou implicites, les algorithmes sont le fruit d’une construction humaine plus ou moins supervisée, avec ses biais et son prisme. Ils permettent de démontrer des concepts jusqu’ici induits ou tout simplement pensés, de trouver des solutions à des problèmes encore difficiles à mathématiser, ou de mettre en lumière des relations de causalité encore jamais soulignées. Cela dit, les algorithmes ne saisissent pas toute la réalité, ils se contentent de traduire une réalité induite par le raisonnement, sur un problème que notre logique a formulé, et dont nous analysons les résultats avec, là aussi, un parti pris inconscient.

Limites. Ce sujet rejoint une autre idée préconçue selon laquelle les algorithmes seraient capables un jour de tout modéliser — et, partant, de tout simuler. Cette position est invivable : on ne pourra jamais dire qu’on a tout observé ou tout capturé du monde qui nous entoure, car pour atteindre un tel paradigme il faudrait s’affranchir de l’idée même de monde. Les algorithmes qui permettent également d’apporter des éléments prédictifs sur un phénomène, deviennent pour les hommes l’outil suprême pour devenir maîtres de leur destin. L’algorithme deviendrait alors l’héritier des augures, des haruspices et autres devins. Mais là encore, il ne peut détenir la vérité future, par notre incapacité de confirmer l’intégralité de sa représentation du réel sans approximation, interprétation ou encore omission.

Penser les algorithmes comme détenteurs ultimes de la réalité, c’est s’interroger sur l’idée que celle-ci peut toujours être décrite analytiquement. Le cas de l’amour, par son caractère incapturable et indémontrable, affaiblit le principe même de véracité par une description analytique. Sans contredire Galilée, on admettra les limites des algorithmes à s’emparer de la vérité sur tout et à tout moment, car de la même manière que tout ne peut pas s’exprimer avec des mots, tout ne peut pas s’exprimer avec la logique actuellement formalisée, même complexe et fortement abstraite.

Le physicien nobélisé Richard Feynman disait que « le paradoxe n’est qu’un conflit entre la réalité et notre sentiment de ce que la réalité devrait être ». A la réalité résonne ici la vérité du monde que les philosophes tentent de trouver depuis plus de 2000 ans. Les algorithmes permettent de soulever de nombreux paradoxes par le niveau d’abstraction et la complexité de leur logique. Mais nous ne serons jamais à un paradoxe près… et nous aurons toujours besoin de philosophes !

Docteur en sciences et entrepreneure, Aurélie Jean est auteure du livre L’apprentissage fait la force, aux Editions de l’Observatoire.

« L’activité humaine complètement dématérialisée !!

« L’activité humaine complètement dématérialisée !!

Le télétravail, les robots , une façon générale les nouvelles technologies laissent parfois entendre que le travail pourrait être totalement dématérialisées. Dans les faits aujourd’hui en France 60 % des tâches nécessitent une intervention humaine et des contacts entre partenaires. 40 % seulement des tâches pourraient être dématérialisés notamment celle de certains cadres. Même pour des activités comme le notariat le contact humain paraît encore souhaitable.

Jean-François Humbert, président du Conseil supérieur du notariat( interview JDD)

Quel est votre bilan de ces deux mois de confinement pour le notariat?
Sur le plan économique, la crise a porté un sérieux coup d’arrêt à l’activité notariale, qui a chuté de 75 % en nombre d’actes. Heureusement que nous avons vécu ce confinement en 2020, et pas dans les années 1990! Le numérique a permis de maintenir le lien avec nos clients et d’assurer une continuité de service, au cœur de notre mission. Sur le plan social, la pandémie a exacerbé ce que nous avions touché du doigt avec les Gilets jaunes, la crise des territoires. Il existe une fracture numérique en France entre les métropoles, technologiquement équipées, et les territoires ruraux, peu et mal desservis.

Comment et avec quels outils les quelque 6.000 études se sont-elles organisées?
La quasi-totalité d’entre elles sont restées ouvertes et ont continué leur activité de conseil à distance. Les actes qui pouvaient être régularisés l’ont été grâce à des procurations et à la comparution à distance : ce chantier que nous avions engagé depuis longtemps a été accéléré, avec un décret examiné par le Conseil d’État en quinze jours. Le nombre de stations de télétravail a été multiplié par 10, et les notaires ont largement utilisé la visioconférence. Nous avons mis en place un numéro d’appel, le 3620 : en deux mois, 1.700 notaires ont recueilli 15.000 appels, d’une durée moyenne de dix minutes. Nous avons aussi maintenu un lien étroit avec l’ensemble des pouvoirs publics, notamment pour faire admettre le chômage partiel.

Quelles sont les principales urgences auxquelles les notaires ont dû faire face?
Il a fallu principalement gérer l’ensemble des délais qui ne pouvaient pas être respectés sur les compromis de vente et les successions. L’urgence a été de maintenir le contact avec les clients qui avaient besoin d’être informés et rassurés. Les notaires ont aussi été confrontés aux conséquences dramatiques de la crise sanitaire, avec, au pic de la pandémie, un nombre important d’appels annonçant le décès d’un proche.

La dématérialisation des relations était un chantier avancé pour les notaires. Qu’est-ce que la crise a accéléré dans cette optique?
L’activité est en effet fortement dématérialisée, avec près de 95 % des actes dressés sur supports numériques, mais le confinement a dopé leur usage. Quant au télétravail, nous sommes passés de 2.500 postes à 30.000 en quelques jours. Il n’en restera pas autant, mais ce mode de travail a fait ses preuves, et les études vont repenser leur manière de gérer leurs effectifs.

Comment définiriez-vous le rôle social des notaires dans cette période d’incertitude?
Il est indispensable de s’approprier les nouvelles technologies. Néanmoins, l’homme n’est ni un algorithme ni une équation. L’échange est irremplaçable, et le numérique restera ce qu’il doit être, une assistance, une aide, qui ne peut pas remplacer la réalité du terrain. Par exemple, les régimes matrimoniaux diffèrent selon les régions et les traditions, il est donc essentiel de maintenir le maillage territorial afin de rester au plus près des Français et surtout de les rencontrer. La déjudiciarisation de certaines missions voulue par l’État est possible à condition que soit mise en œuvre une politique de proximité.

Le notariat fait-il partie des métiers qui ne pourront jamais être entièrement digitalisés?
Heureusement! J’ai parfois fait l’expérience de webconférences pendant lesquelles je m’adressais à 1.000 personnes sans les voir, sans recevoir le plus petit signe d’approbation ou de dénégation, ce n’est pas la même qualité d’échange. Des sujets délicats ou des négociations compliquées ne peuvent se traiter sans lien physique. Tout ce qui a trait à l’activité humaine ne pourra jamais être complètement dématérialisé.

Intelligence artificielle : préserver la dimension humaine

Intelligence artificielle : préserver la dimension humaine

Dans une tribune au « Monde », le consultant Jacques Marceau explique que si le numérique s’impose comme un formidable moyen de décupler les possibles dans tous les domaines, un moyen d’accéder à une société plus durable et plus juste, il reste un outil.

« Cette crainte soudaine du numérique qui entraîne parfois son rejet pourrait se révéler dangereuse si elle venait à perdurer et à s’amplifier car ça nous priverait de solutions précieuses propres à nous aider à relever les défis de notre temps. »

Tribune.

 

 » De tout temps, les échanges entre les individus, avec les entreprises ou les Etats se sont fondés sur des relations rendues propices par la confiance réciproque. Relation et confiance sont ainsi les deux attributs indissociables, non seulement de toute économie, mais encore de toute vie politique ou sociale. Une architecture relationnelle que Paul Valéry (1871-1945) qualifie de « structure fiduciaire », une toile tissée de relations de confiance qui forment « l’édifice de la civilisation », comme l’explique le philosophe Pierre Musso, dans La Religion industrielle (Fayard, 2017).

On ne peut en effet « faire société » sans avoir besoin les uns les autres et se faire confiance. On ne peut non plus « vivre en société » sans faire confiance aux institutions et croire en la valeur de concepts parfaitement immatériels, comme notre monnaie, nos lois, nos traditions ou nos fameuses valeurs républicaines, qui, toujours pour Valéry, relèvent de « l’empire des fictions ». Des fictions néanmoins indispensables à la cohésion sociale et au fonctionnement de notre société.

Même programmée par des humains, la réponse de la machine reste artificielle et par essence arbitraire. Soit le degré zéro d’un rapport prenant en considération l’individu dans toute sa complexité et ses particularismes

Dans ce contexte, le développement d’une société dont les fonctions sont de plus en plus numérisées et virtualisées, pose la question de la transformation du lien, autrefois humain et souvent personnel, en une relation certes personnalisée, mais dorénavant désincarnée, dans laquelle la conversation avec la machine s’est substituée à la relation humaine. Une machine qui est, de surcroît et toujours davantage, investie, à la faveur du développement de l’intelligence artificielle, du pouvoir exorbitant de prendre une décision concernant son « interlocuteur » sur la base d’une mystérieuse formule appelée algorithme. Une décision vue comme un confort quand il s’agit de définir l’itinéraire routier le plus fluide ou de recommander une lecture ou un morceau de musique, mais qui devient suspecte et parfois insupportable quand il s’agit de l’obtention d’une place en université, d’un crédit immobilier ou, pourquoi pas demain, d’un traitement médical personnalisé.

 

Même programmée par des humains, la réponse de la machine reste artificielle et par essence arbitraire. Soit le degré zéro d’un rapport prenant en considération l’individu dans toute sa complexité et ses particularismes, et un terreau favorable à l’expression de ce que le sociologue allemand Hartmut Rosa désigne dans Résonance (La Découverte, 2019) comme des « protestations d’inspiration républicaine contre une politique qui ne se conçoit plus que comme la gestionnaire administrative et juridique d’un monde muet ». Et que nous appelons dorénavant, chez nous, des « gilets jaunes » ! Un monde muet qui, pour Rosa, est la conséquence de l’incapacité des politiques et de la sphère administrative d’entretenir un rapport responsif avec les individus. Il ajoute « la démocratie moderne repose (…) sur l’idée que sa forme politique donne une voix à chaque individu et la rend audible ». 

 

 

 

L’intelligence artificielle : comment prendre en compte l’intelligence humaine ?

L’intelligence artificielle : comment prendre en compte  l’intelligence humaine ?

 

Arnaud Martin, Université Rennes 1 pose la question de l’intégration de  l’incertitude humaine dans l’intelligence artificielle. (La Tribune)

« L’intelligence artificielle est devenue aujourd’hui un enjeu économique et se retrouve au cœur de nombreuses actualités. En effet les applications d’un grand nombre d’algorithmes regroupés sous le terme d’intelligence artificielle se retrouvent dans plusieurs domaines. Citons par exemple l’utilisation de l’intelligence artificielle dans les processus de recrutement ou encore pour le développement de voitures autonomes. Dans ce contexte, la France veut jouer un rôle dans lequel le rapport Villani pose les bases d’une réflexion. Ces méthodes et algorithmes d’intelligence artificielle soulèvent cependant des craintes et des critiques liées à la perte du sens commun issu des relations humaines.

Il faut toutefois avoir conscience que l’ensemble de ces approches ne font qu’intégrer des connaissances humaines qui ont été au préalable modélisées bien souvent à partir de processus d’extraction de connaissances.

C’est dans ce cadre que nous menons des recherches dans l’équipe DRUID (Declarative and Reliable Management of Uncertain, User-generated Interlinked Data) de l’IRISA (Institut de recherche en informatique et systèmes aléatoires). Il est en effet important de pouvoir modéliser de façon la plus exacte possible les connaissances des hommes aussi imparfaites qu’elles soient. Par exemple, lorsqu’on s’exprime sur les réseaux sociaux, on peut émettre des avis entachés d’incertitude ou encore d’imprécision. Il ne serait pas raisonnable de croire tout ce qui peut se dire sur les réseaux sociaux. Mais comment modéliser ces doutes que l’on a tous ?

Nous développons ainsi des approches dans le cadre de la théorie des fonctions de croyance. Cette théorie permet de modéliser à la fois le caractère incertain d’une information mais également son caractère imprécis. Par exemple, si l’on me dit qu’il pleuvra peut-être beaucoup demain, d’une part je ne suis pas certain qu’il pleuve demain et d’autre part je ne sais pas interpréter le terme « beaucoup » qui peut correspondre à la quantité d’eau qu’il va tomber ou à la durée de la pluie. Alors dois-je prendre un parapluie ?

Cette modélisation de l’information produite par les hommes, l’intelligence naturelle, doit être particulièrement fine lorsque l’on veut combiner ces informations issues de différentes personnes. En effet, si beaucoup de personnes pensent qu’il va peut-être pleuvoir demain, sur la base de leurs connaissances diverses et indépendantes, on peut penser qu’il y a plus de chance qu’il pleuve demain, même si les personnes initialement étaient incertaines.

 

Ainsi, plusieurs stratégies de combinaison de ces informations dans le cadre de la théorie des fonctions de croyance ont été proposées. Au cœur de ces approches, réside la notion de conflit car lorsqu’on laisse la possibilité à plusieurs personnes indépendantes de s’exprimer, inévitablement certaines opinions seront contradictoires. Le conflit peut donc être vu comme une conséquence inhérente à la diversité de l’intelligence naturelle. Atteindre un consensus devient donc un des principaux défis de l’intelligence artificielle.

C’est en effet à partir d’un consensus qu’une décision peut être prise que ce soit lors d’une assemblée de personnes ou par un algorithme. Si le consensus est mou, la décision sera moins fiable et parfois peu pertinente. Il serait illusoire de penser que les décisions prises par un algorithme d’intelligence artificielle sont indiscutables et sont prises de façon certaine. Toute décision doit donc être accompagnée d’un niveau de confiance que l’on peut lui porter. Ainsi, dans le cadre de la théorie des fonctions de croyance, plusieurs stratégies de décision sont développées pour m’aider notamment à prendre ou non un parapluie.

Bien sûr le développement de ces approches sous-entend qu’on laisse suffisamment d’expressivité aux personnes afin de préciser leur incertitude et imprécision. C’est malheureusement peu souvent le cas. Aujourd’hui on nous demande notre avis sur tout : on doit noter l’hôtel dans lequel on vient de séjourner, le chauffeur qui nous a conduits, le vendeur d’électroménager ou encore le livreur. Il est cependant bien souvent difficile d’attribuer une note ou un avis, qui reste très subjectif, alors que par exemple on ne s’est même pas encore servi de l’électroménager. Les questionnaires ne permettent pas de préciser nos incertitudes et imprécisions alors qu’il est des plus naturels de les exprimer dans le langage courant. Pire, les algorithmes d’apprentissage qui sont le fondement d’un grand nombre de méthodes d’intelligence artificielle ne permettent pas d’intégrer ces connaissances naturelles puisqu’elles n’ont pas été recueillies dans les bases de données. En particulier, des plates-formes de productions participatives (crowdsourcing en anglais) permettent, entre autres, d’acquérir des bases de connaissances nécessaires à l’apprentissage d’algorithmes de plus en plus gourmands avec la résurgence des réseaux de neurones.

Ainsi dans le cadre d’un projet de recherche qui porte sur le développement de ces plates-formes, nous cherchons à proposer des questionnaires permettant des réponses incertaines et imprécises.

Ces recherches nous paraissent essentielles pour l’intégration de l’intelligence naturelle dans les algorithmes d’intelligence artificielle. »

______

Par Arnaud Martin, Intelligence Artificielle, Fouille de données, Université Rennes 1

 

L’intelligence artificielle : comment y intégrer l’intelligence humaine ?

L’intelligence artificielle : comment y intégrer l’intelligence humaine ?

 

Arnaud Martin, Université Rennes 1 pose la question de l’intégration de  l’incertitude humaine dans l’intelligence artificielle. (La Tribune)


« L’intelligence artificielle est devenue aujourd’hui un enjeu économique et se retrouve au cœur de nombreuses actualités. En effet les applications d’un grand nombre d’algorithmes regroupés sous le terme d’intelligence artificielle se retrouvent dans plusieurs domaines. Citons par exemple l’utilisation de l’intelligence artificielle dans les processus de recrutement ou encore pour le développement de voitures autonomes. Dans ce contexte, la France veut jouer un rôle dans lequel le rapport Villani pose les bases d’une réflexion. Ces méthodes et algorithmes d’intelligence artificielle soulèvent cependant des craintes et des critiques liées à la perte du sens commun issu des relations humaines.

Il faut toutefois avoir conscience que l’ensemble de ces approches ne font qu’intégrer des connaissances humaines qui ont été au préalable modélisées bien souvent à partir de processus d’extraction de connaissances.

C’est dans ce cadre que nous menons des recherches dans l’équipe DRUID (Declarative and Reliable Management of Uncertain, User-generated Interlinked Data) de l’IRISA (Institut de recherche en informatique et systèmes aléatoires). Il est en effet important de pouvoir modéliser de façon la plus exacte possible les connaissances des hommes aussi imparfaites qu’elles soient. Par exemple, lorsqu’on s’exprime sur les réseaux sociaux, on peut émettre des avis entachés d’incertitude ou encore d’imprécision. Il ne serait pas raisonnable de croire tout ce qui peut se dire sur les réseaux sociaux. Mais comment modéliser ces doutes que l’on a tous ?

Nous développons ainsi des approches dans le cadre de la théorie des fonctions de croyance. Cette théorie permet de modéliser à la fois le caractère incertain d’une information mais également son caractère imprécis. Par exemple, si l’on me dit qu’il pleuvra peut-être beaucoup demain, d’une part je ne suis pas certain qu’il pleuve demain et d’autre part je ne sais pas interpréter le terme « beaucoup » qui peut correspondre à la quantité d’eau qu’il va tomber ou à la durée de la pluie. Alors dois-je prendre un parapluie ?

Cette modélisation de l’information produite par les hommes, l’intelligence naturelle, doit être particulièrement fine lorsque l’on veut combiner ces informations issues de différentes personnes. En effet, si beaucoup de personnes pensent qu’il va peut-être pleuvoir demain, sur la base de leurs connaissances diverses et indépendantes, on peut penser qu’il y a plus de chance qu’il pleuve demain, même si les personnes initialement étaient incertaines.

 

Ainsi, plusieurs stratégies de combinaison de ces informations dans le cadre de la théorie des fonctions de croyance ont été proposées. Au cœur de ces approches, réside la notion de conflit car lorsqu’on laisse la possibilité à plusieurs personnes indépendantes de s’exprimer, inévitablement certaines opinions seront contradictoires. Le conflit peut donc être vu comme une conséquence inhérente à la diversité de l’intelligence naturelle. Atteindre un consensus devient donc un des principaux défis de l’intelligence artificielle.

C’est en effet à partir d’un consensus qu’une décision peut être prise que ce soit lors d’une assemblée de personnes ou par un algorithme. Si le consensus est mou, la décision sera moins fiable et parfois peu pertinente. Il serait illusoire de penser que les décisions prises par un algorithme d’intelligence artificielle sont indiscutables et sont prises de façon certaine. Toute décision doit donc être accompagnée d’un niveau de confiance que l’on peut lui porter. Ainsi, dans le cadre de la théorie des fonctions de croyance, plusieurs stratégies de décision sont développées pour m’aider notamment à prendre ou non un parapluie.

Bien sûr le développement de ces approches sous-entend qu’on laisse suffisamment d’expressivité aux personnes afin de préciser leur incertitude et imprécision. C’est malheureusement peu souvent le cas. Aujourd’hui on nous demande notre avis sur tout : on doit noter l’hôtel dans lequel on vient de séjourner, le chauffeur qui nous a conduits, le vendeur d’électroménager ou encore le livreur. Il est cependant bien souvent difficile d’attribuer une note ou un avis, qui reste très subjectif, alors que par exemple on ne s’est même pas encore servi de l’électroménager. Les questionnaires ne permettent pas de préciser nos incertitudes et imprécisions alors qu’il est des plus naturels de les exprimer dans le langage courant. Pire, les algorithmes d’apprentissage qui sont le fondement d’un grand nombre de méthodes d’intelligence artificielle ne permettent pas d’intégrer ces connaissances naturelles puisqu’elles n’ont pas été recueillies dans les bases de données. En particulier, des plates-formes de productions participatives (crowdsourcing en anglais) permettent, entre autres, d’acquérir des bases de connaissances nécessaires à l’apprentissage d’algorithmes de plus en plus gourmands avec la résurgence des réseaux de neurones.

Ainsi dans le cadre d’un projet de recherche qui porte sur le développement de ces plates-formes, nous cherchons à proposer des questionnaires permettant des réponses incertaines et imprécises.

Ces recherches nous paraissent essentielles pour l’intégration de l’intelligence naturelle dans les algorithmes d’intelligence artificielle. »

______

Par Arnaud Martin, Intelligence Artificielle, Fouille de données, Université Rennes 1

 

L’urine humaine comme engrais bio ?

L’urine humaine comme engrais bio ? 

Pour l’instant l’urine n’est pas autorisée dans la culture bio mais nombre de jardiniers s’en servent  déjà (notons qu’elle a été utilisée pendant des siècles !).  Les scientifiques s’intéressent au rôle de l’urine dans la fertilisation.  D’après un jardin bio

  • l’urine est notre déchet quotidien le plus important en poids et en volume : 2 litres/personne/jour
  • Ce déchet pollue 10 à 20 fois ce volume en eau potable
  • La totalité des minéraux contenus dans l’urine sont assimilables très rapidement par les plantes
  • Le sol amendé en compost permet de traiter efficacement l’urine, de compléter ses apports et de dégrader les résidus médicamenteux (alors que les stations de traitement de l’eau ne traitent pas ces mêmes résidus qui finalement peuvent être absorbés par les poissons)
  • En Suisse l’urine (stabilisée naturellement) est commercialisée : http://vuna.ch/aurin/index_fr.html
  • l’urine d’une personne peut fertiliser 400 m² et assurer une autonomie alimentaire à base de végétaux
  • C’est un geste écologique simple, à comprendre et mettre en œuvre.
  •  Dans un litre d’urine classique on trouve en effet, 6 g d’azote, élément essentiel à la croissance du feuillage, 1g de phosphore et 2 g de potassium, éléments qui favorisent les fleurs et la fructification. Partant de ce constat, l’urine peut effectivement constituer un excellent engrais naturel au jardin.
  • En se penchant sur le côté écologique de la chose, on constate que grâce à ce procédé, les économies d’eau potable partant avec chaque chasse d’eau sont conséquentes et qu’au passage, on évite son retraitement.
  • Unepersonne produit en moyenne 1,5 l. d’urine par jour ce qui correspond à une surface de jardin fertilisé de 2,5m².
  • En association dans le sols avec des amendements organiques (compostfumier décomposé…) qui vont favoriser sa minéralisation, l’urine constitue un excellent engrais, tout aussi efficace que la corne broyée ou le sang séché.
  • Pour détériore l’odeur, un peu de vinaigre suffit.

 

 

L’urine serait une alternative aux produits chimiques et les rendements équivalents : « entre une parcelle fertilisée à l’engrais chimique et une parcelle fertilisée à l’urine humaine, il n’y a aucune différence », explique Tristan Martin, ingénieur à l’Ecole des Ponts Paris Tech. « 

Les intérêts de cette technique sont multiples. L’utilisation d’urine permet de réduire les importations de pétrole pour fabriquer les engrais de synthèse, de réduire l’exploitation de mines de phosphate très polluantes. Egalement, alors que l’on connait des périodes de sécheresse de plus en plus longues : récupérer les urines permet de réduire la consommation d’eau potable. Bon à noter lorsque l’on sait que 30% de notre consommation d’eau potable part dans les toilettes.

Et pourquoi miser sur de l’urine humaine ? D’abord parce que la matière première est gratuite et rapidement disponible. Un être humain produit plus de 500 litres d’urine par an ! Les scientifiques expliquent également qu’elle est bien moins chargée en antibiotiques (100 à 10 000 fois moins) que l’urine des animaux d’élevage utilisée couramment dans les engrais organiques.

Mais ce n’est pas tout. Après analyse, les ingénieurs ont trouvé dans l’urine de l’azote (N), du phosphore (P), et du potassium (K) : NPK ! C’est la recette connue de tous les agriculteurs pour fertiliser leurs cultures. Avec en bonus d’autres composants nécessaires à la bonne croissance des plantes.

« Si on envoie l’urine dans les toilettes à chasse d’eau, puis dans les égouts et en station d’épuration, on envoie les nutriments dans les rivières ! C’est de la nourriture pour les plantes. Dans les rivières, ça va faire pousser les algues, et entraîner une pollution. Alors que sur les champs, ça fait pousser les cultures », expose Fabien Esculier. C’est d’ailleurs en travaillant sur la pollution de l’eau que les ingénieurs suisses se sont penchés sur l’urine.

En France, Renaud de Looze, pépiniériste en Isère utilise le produit suisse. Depuis des années, ce professionnel expérimente l’urine au jardin. « Les plantes adorent ça », affirme-t-il. Mais il a aussi sa recette maison :  »Pour un terreau gratuit, je verse l’urine dans un récipient puis 20 fois la dose de composte dessus et je laisse le produit imbiber le composte sans mélanger pendant 15 jours. » Et pour enlever l’odeur, il suffit de verser l’équivalent d’un bouchon de vinaigre dans l’urine. Ensuite, attention au dosage. « Si on prend le produit maison, on prend un verre de 25 cl et on met deux verres dans un arrosoir de 10 litres. Avec ça, on arrose les plantes tous les 15 jours. Ça suffit car tout engrais, quel qu’il soit, brûle quand il est trop concentré et trop fréquemment appliqué ! »

Pour cet ingénieur de formation, l’urine est une alternative crédible aux engrais chimiques de synthèse. Elle est d’ailleurs expérimentée à grande échelle en Suède et en Allemagne.

Manif Hong Kong : une marée noire humaine

Manif Hong Kong : une marée noire humaine

 

 

Sans doute près de 500 000 manifestants souvent vêtus de noir ;  Les organisateurs parlent de 1,7 million de manifestants. La police en a, elle, dénombrés 128.000 au parc Victoria, point de départ du défilé, au plus fort de la mobilisation. Une manifestation massive et pacifique pour manifester clairement l’adhésion de la population au mécontentement vis-à-vis de Pékin. Le caractère pacifique était aussi destiné à discréditer les propos outranciers et guerriers de Pékin qui parle de criminels et de terroristes.

“Ils disent que nous sommes des émeutiers. La manifestation d’aujourd’hui montre que nous ne le sommes pas”, a déclaré Chris, un jeune homme de 23 ans travaillant dans le marketing, entièrement vêtu de noir, le visage masqué par un foulard et une casquette de baseball. Plus loin dans le cortège, un homme réclame à un groupe de manifestants de cesser de huer les forces de police. “C’est une manifestation pacifique ! Ne tombez pas dans le piège. Le monde entier nous regarde”, leur intime-t-il.

Lancé à l’origine contre un projet de loi aujourd’hui suspendu qui aurait autorisé l’extradition de suspects vers la Chine, le mouvement s’est élargi à la défense des libertés garanties par le principe “un pays, deux systèmes”, accepté dans le cadre de la rétrocession de l’ex-colonie britannique, en 1997.Cette formule reconnaît la souveraineté chinoise sur la “région administration spéciale” tout en garantissant son autonomie et le respect des libertés individuelles.Pour de nombreux Hongkongais, Pékin a resserré son emprise sur le territoire et remet en cause ce principe. La contestation exige aussi la démission de la dirigeante de l’exécutif local, Carrie Lam, et une enquête sur les

La contestation en cours constitue la plus grave crise politique qu’ait vécue Hong Kong depuis la rétrocession. C’est aussi un défi sans précédent lancé au président chinois Xi Jinping au pouvoir depuis 2012, alors que le Parti communiste chinois se prépare à célébrer le 1er octobre prochain le 70e anniversaire de la fondation de la république populaire. Une contestation créée  par Pekin qui n’a pas respecté ses engagements.Il faut se rappeler que  lors du dernier congrès du Parti communiste, en octobre 2017, le numéro un chinois était on ne peut plus clair. « Après le retour de Hongkong et de Macao dans le giron de la patrie, la mise en pratique du principe “un pays, deux systèmes” a été une grande réussite universellement reconnue, expliquait-il. Les faits ont prouvé que ledit principe était la meilleure solution pour régler la question, léguée par l’histoire, de Hongkong et de Macao, de même que le meilleur régime pour y maintenir la prospérité et la stabilité à long terme. Dans ce but, il faut appliquer dans leur intégralité et avec précision les principes dits “un pays, deux systèmes” “administration de Hongkong par les Hongkongais”, “administration de Macao par les Macanais”, et le principe d’un haut degré d’autonomie. ». Depuis la doctrine a changé !

 

Climat : la responsabilité humaine du réchauffement

Climat : la responsabilité humaine du réchauffement

 

Un article du Monde démonte l’argumentation qui conteste la responsabilité humaine vis-à-vis du réchauffement. (Extrait)

« Plusieurs articles publiés ces derniers jours, notamment par les sites Wikistrike.com ou Reseauinternational.net (deux publications qui nous apparaissent peu fiables dans le Décodex) mettent en avant des déclarations de Werner Munter, un Suisse « spécialiste reconnu des avalanches », qui « planche nuit et jour depuis trois ans sur le réchauffement climatique ». Ce dernier explique qu’il « ne conteste pas le réchauffement [climatique] lui-même », mais le fait qu’il serait engendré par l’activité humaine. Il avance pour cela plusieurs arguments :

  1. Le réchauffement climatique en cours ne serait qu’un cycle naturel parmi d’autres (« rien que dans les 10 000 dernières années, il y a eu cinq pics de températures comparables à celui que nous vivons ») ;
  2. L’homme ne serait responsable que d’une faible quantité d’émissions de gaz à effet de serre (« il y en a un peu moins de 0,5 % dans l’atmosphère, et au maximum 5 % de cette quantité est imputable à l’homme […] Et on veut nous faire croire que cette infime proportion due à l’homme est une catastrophe ? ») ;
  3. D’autres phénomènes planétaires seraient à l’œuvre, comme les variations de l’intensité du rayonnement solaire. Et « quoi qu’il en soit, c’est de l’arrogance de croire qu’en 150 ans d’industrialisation, nous avons changé le climat. La nature est bien plus forte que l’homme, nous ne sommes pas les maîtres de la Terre ! »

POURQUOI C’EST FAUX

Les déclarations de Werner Munter reprises dans ces articles ont tout du réchauffé : elles sont extraites d’un entretien qu’il a accordé au journal suisse Le Matin, publié en mai 2014. Surtout, ses affirmations sont contestables sur le fond. Reprenons-les point par point.

1. L’argument temporel ne tient pas la route

Il est tout à fait juste de rappeler que le climat a varié de manière tout à fait naturelle tout au long de l’histoire de la Terre. Ce que Werner Munter occulte, en revanche, c’est la vitesse et l’ampleur du réchauffement en cours.

Selon le dernier rapport du GIEC, le réchauffement climatique était d’environ 0,87 °C sur la période 2006-2015 par rapport à la moyenne des années 1850-1900. Sauf sursaut mondial majeur, le seuil de 1,5 °C sera franchi entre 2030 et 2052, et la surchauffe pourrait être de l’ordre de 5,5 °C à la fin du siècle.

Une étude publiée dans la revue Science en 2013 concluait qu’après s’être rafraîchi pendant les 5 000 dernières années, le climat terrestre a rapidement augmenté depuis les années 1800. Il atteindrait désormais des niveaux supérieurs à ceux estimés au cours de 90 % des 10 000 dernières années. C’est notamment cette observation qui amène les spécialistes à estimer le changement climatique récent comme une irrégularité.

En résumé, le réchauffement climatique actuel n’a rien de banal, contrairement à ce qu’affirme M. Munter.

2. L’activité humaine a bien fait augmenter la concentration de CO2 dans l’atmosphère

Werner Munter conteste que l’activité humaine ait pu engendrer une hausse de la concentration de dioxyde de carbone (CO2) dans l’atmosphère. Mais là aussi, il utilise une argumentation trompeuse. Il est tout à fait juste que des quantités considérables de COsont émises chaque année en dehors de toute intervention humaine. Il est également exact que les océans, les mers ou les forêts, par exemple, en absorbent une partie.

Cependant, il est indéniable que la part humaine des émissions de CO2 a explosé au cours des dernières décennies. L’homme produisait 1,5 milliard de tonnes de COen 1950 ; cette quantité a été multipliée par plus de vingt pour atteindre 36,3 milliards de tonnes émises en 2016.

Résultat : la concentration de CO2 dans l’atmosphère a elle aussi augmenté fortement depuis la fin des années 1800, alors qu’on estime qu’elle avait stagné au cours des siècles précédents. L’activité humaine a donc bien eu, une nouvelle fois, un réel effet.

Une concentration de CO2 dans l’atmosphère en forte hausse depuis le début du XXe siècle

Il est donc abusif d’affirmer, comme le fait l’expert en avalanches, que l’homme n’aurait qu’un rôle marginal dans les émissions de CO2.

3. Les facteurs naturels ne peuvent expliquer à eux seuls le réchauffement actuel

La brusque hausse de la concentration de CO2 dans l’atmosphère est préoccupante, car il s’agit d’un gaz à effet de serre, qui favorise le réchauffement climatique. La combinaison de cet indicateur avec les autres facteurs d’évolution du climat d’origine humaine correspond assez bien au réchauffement climatique observé depuis des décennies. En théorie, des facteurs naturels comme le rayonnement solaire ou les éruptions volcaniques ont certes joué un rôle dans des réchauffements climatiques par le passé. Mais selon l’immense majorité des spécialistes, la combinaison de ces facteurs avec d’autres éléments naturels aurait eu une contribution quasi nulle sur le climat au cours de la période récente. En clair, ce sont bien les facteurs humains, et non naturels, qui ont eu une influence décisive dans le réchauffement en cours. »

Greffe tête humaine « réussie » : un espoir pour Trump (et les autres)

 

 Greffe tête humaine « réussie » : un espoir pour Trump (et les autres)

Un chirurgien a annoncé la réussite dune  greffe de tête, ce qui constitue évidemment un immense espoir tous les responsables notamment politiques qui souffrent d’un affaiblissement des neurones. Le président américain Donal Trump  pourrait être l’un des premiers bénéficiaires de cette avancée scientifique. Un progrès qui  pourrait aussi profiter d’autres personnalités, d’autres responsables y compris en France notamment dans les milieux politiques. Reste à savoir si le nombre de donneurs sera suffisant car les besoins sont immenses. En effet la transplantation n’a été effectuée que sur des cadavres. Or la transplantation à partir d’êtres vivants aurait  plus grandes chances de succès. . Le neurochirurgien italien Sergio Canavero a annoncé en effet avoir réalisé la « première greffe de tête humaine », lors d’une conférence de presse à Vienne (Autriche), vendredi 17 novembre. L’opération a duré 18 heures et s’est déroulée en Chine sous la direction du  professeur Xiaoping Ren, de l’université médicale Harbin. Le compte-rendu de l’opération a été publié dans une revue médicale spécialisée, Surgical Neurology International (en anglais). De nombreux scientifiques ont accueilli cette annonce avec beaucoup de réserves. Franceinfo revient sur cette opération en quatre questions. L’opération a été réalisée sur deux cadavres. Les deux équipes de cinq chirurgiens ont réalisé simultanément deux décapitations sur deux hommes de même gabarit « qui ont fait don de leur corps à la recherche, et dont les familles ont signé un consentement » approuvé par le bureau Human Research Ethics de l’université médicale Harbin, rapporte Sciences et avenir. La tête du receveur a été  »reconnectée » au corps du donneur, précise le site spécialisé. « Certains nerfs comme les nerfs phréniques qui innervent le diaphragme venaient du donneur. D’autres, comme le nerf vague qui part du cerveau du receveur, ont dû être rabouté [assemblé] à celui du corps pour innerver les organes. Les vaisseaux sanguins aussi ont été reconnectés un à un », détaille Sciences et avenir. Depuis 2013, Sergio Canavero annonce qu’il sera le premier à greffer une tête humaine sur un corps humain. En 2015, il avait réitéré sa promesse, tout en appelant à des levées de fonds. Entre-temps, le neurochirurgien a annoncé, en 2016, la greffe réussie avec une tête de singe, rapporte The Guardian (en anglais). Mais l’animal n’a pas repris conscience après la transplantation. Il a été maintenu en vie une vingtaine d’heures avant d’être finalement déclaré mort. Même s’il avait survécu, il aurait été paralysé à vie puisque sa colonne vertébrale n’avait pas été ressoudée, détaille le quotidien. Mais chez certains humains la perte de mobilité est peut-être moins importante que le manque d’intelligence !

 

U




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol