Archive pour le Tag 'l’humain ? ('

Ce qui sépare vraiment l’humain de l’animal ?

Ce qui sépare vraiment l’humain de l’animal ?


En ces temps de crise de la biodiversité et de questionnements sur le vivant, la vieille question de la dualité homme-animal est, semble-t-il, toujours d’actualité. Même si le « vraiment » de la question laisse entendre qu’au fond la séparation n’est pas si profonde. Sur le plan de la biologie, de la zoologie même devrait-on préciser, le paradoxe a été levé depuis longtemps. L’homme est un animal. Il ne peut donc se séparer de lui-même. La question n’est donc plus de nature scientifique, mais philosophique et sociologique. Il reste que pour la plupart d’entre nous la réponse scientifique importe peu tant les termes sont connotés. Affirmer que l’homme est un animal a peu de poids. L’affirmation serait-elle admise que la question deviendrait : qu’est-ce qui distingue l’humain des autres animaux ?

par Pascal Tassy
Professeur, paléontologue, paléomammalogie, Muséum national d’histoire naturelle (MNHN) dans The Conversation

Depuis des siècles les caractéristiques biologiques de l’humanité ont toutes été intégrées dans le panorama des traits des êtres vivants en général et des animaux en particulier. Et pourtant l’homme s’est quasiment toujours singularisé par rapport au reste du monde vivant. Toute une tradition de réflexion philosophique et spirituelle s’oppose à la vision unitaire de la science biologique.

C’est là le grand problème que Linné au 1VIIIe siècle a cru résoudre définitivement. Dans son Systema Naturae dont la 10e édition datant de 1758 est considérée comme le point de départ de la nomenclature zoologique moderne, l’homme, genre Homo, est classé, parmi les animaux, dans l’ordre des Primates – les « premiers », noblesse oblige –, mais en compagnie de trois autres genres : Simia (les singes), Lemur (les lémuriens incluant, pour Linné, le galéopithèque, un petit mammifère arboricole planeur d’Indonésie) et Vespertilio (les chauves-souris).

Ce choix est significatif et fait de Linné un pionnier qui, d’une certaine manière, dépassa les concepts de la majorité de ses successeurs du 1IXe siècle. De fait en 1910, une fois la biologie devenue évolutionniste, l’anatomiste William K. Gregory nomma Archonta un groupe réunissant les primates (singes, lémuriens, homme), les chauves-souris (ordre des chiroptères), le galéopithèque (ordre des dermoptères) à quoi s’ajoutent des mammifères insectivores inconnus de Linné, les toupayes (mammifères arboricoles d’Asie).

L’homme était non seulement un membre des Primates, mais aussi un membre des Mammalia (tous ces termes sont dus à Carl Von Linné). On peut remonter la hiérarchie classificatoire est inclure l’homme dans les amniotes, dans les vertébrés, dans les animaux. Les animaux c’est-à-dire dans les classifications le règne des Animalia, aujourd’hui appelé Metazoa (mot qui signifie la totalité des animaux) – les deux termes sont synonymes.

Le terme de Metazoa à la sonorité incontestablement scientifique ne heurte aucune oreille. Dire que l’homme est un métazoaire ne choque personne. Dire qu’il est un métazoaire parce qu’il est pluricellulaire et possède une protéine qui structure le lien entre les cellules – le collagène – est affaire de spécialistes et empêche invariablement toute percée philosophique. Aucune sensibilité là-dedans. Un animal, c’est autre chose, n’est-ce pas ?

Les successeurs de Linné ont voulu placer l’humain hors du règne animal
Linné à sa manière a été un révolutionnaire. Ses successeurs se sont attachés à défaire le regroupement des Primates. Le naturaliste français Armand de Quatrefages classa en 1861 l’homme seul dans le « règne humain », caractérisé par « l’âme humaine » reprenant une suggestion émise plus de quarante ans auparavant par l’agronome lamarckien Charles-Hélion de Barbançois : classer l’homme dans un règne à part, le « règne moral ».

Quatrefages s’attacha autant à réfléchir à l’unité de l’espèce humaine qu’à analyser la singularité de ses composantes. Pour Quatrefage, en savant positiviste, c’est-à-dire qui s’en tient aux faits, la notion de Règne (la plus haute des catégories de la classification) s’impose à l’esprit humain : les caractères qui définissent l’homme sont évidents et ne sont liés à aucune hypothèse ou théorie.

L’âme humaine, différente de l’âme animale serait un pur fait d’observation. Auparavant, l’anatomiste allemand Johann Friedrich Blumenbach et l’anatomiste français Georges Cuvier opposèrent l’homme seul (ordre des Bimana) aux autres primates (ordre des Quadrumana). Le naturaliste allemand J. C. Illiger avait classé l’homme seul (seul à être debout) dans les Erecta, tandis que l’anatomiste britannique Richard Owen, adversaire résolu du darwinisme, en fit le seul représentant des Archencephala, introduction notable du cerveau comme spécificité humaine.

On peut remarquer toutefois qu’à l’exception de Quatrefages, tous les autres auteurs cités subordonnent l’espèce humaine au règne animal et à la classe des mammifères. On saisit bien la difficulté de ces anatomistes distingués qui, bien conscients des caractères morphologiques et physiologiques qui tout en intégrant parfaitement l’homme dans les mammifères, étaient tentés irrépressiblement, aussi en tant que croyants, de l’opposer au reste de la création.

L’anatomiste, celui qui décide, c’est bien l’homme, Homo sapiens (« l’homme sage » que Linné n’a pas nommé comme tel par hasard). On aura donc compris que ces affirmations taxinomiques ont pour objet de placer l’Homo sapiens à part, en fonction de traits qui lui sont propres, du psychisme à la bipédie, et non d’identifier une séquence de caractères partagés par l’homme et différents animaux.

Que l’homme soit opposé au reste du règne animal ou bien à son plus proche parent animal revient au même. Un évolutionniste tel que Julian Huxley prit en 1957 l’exemple de la classification de l’homme pour illustrer sa conception du « grade évolutif ». L’activité intellectuelle de l’homme est telle qu’elle lui suffit pour concevoir une niche écologique sans précédent. Le cerveau humain situerait l’homme, seul, au niveau de la plus haute des catégories, le règne : le règne des Psychozoa.

On le sait, le plus proche parent vivant de l’homme (Homo) est le chimpanzé (Pan). Dans les années 1960, les premières classifications incluant les deux genres dans la famille des Hominidae firent scandale. Le tableau de famille était dégradé, gâché, détruit.

La biologie moléculaire nous dit que l’homme et les chimpanzés sont presque identiques génétiquement parlant. Mais c’est en pure perte : on reconnaît aisément un homme d’un chimpanzé. On devrait dire : on reconnaît aisément les deux animaux. La baleine bleue et la musaraigne aussi sont des animaux, et même des mammifères, certes bien distincts. Leurs différences sont infiniment plus grandes que celles qui séparent l’homme et le chimpanzé, mais elles ne sont pas importantes à nos yeux d’hommes sages. Philosophiquement parlant, ce ne sont pas elles qui nous concernent. L’anthropocentrisme est patent. En fait, après des centaines de millions d’années d’évolution animale, la lignée humaine est celle des chimpanzés se sont séparées il y a 7 millions d’années environ.

Sept millions d’années d’évolution : voilà qui est responsable de l’existence des humains et des chimpanzés à la surface de la planète. Et rien d’autre.

L’homme est pétri de caractères animaux depuis le liquide amniotique dans lequel baigne l’embryon rappelant les origines aquatiques des animaux jusqu’à l’éminence mentonnière qui fait saillie à l’avant de la mâchoire inférieure (la grande invention ostéologique des humains !) en passant par tous les traits de vertébrés, de tétrapodes, de mammifères et de primates. L’homme n’est qu’un animal comme les autres et différent de tous les autres comme le sont toutes les espèces animales les unes des autres.

Peut-on se contenter d’une telle affirmation ? Les mots du quotidien sont lourds de sens et de contresens. Le verbe persiste, tenace. Malgré l’idéologie et la perte des repères scientifiques, on n’aura pas la mauvaise grâce de s’en plaindre puisque le verbe, après tout, est l’une des caractéristiques d’Homo sapiens, au moins dans la nature actuelle.

Intelligence artificielle : des menaces pour l’humain ?

Intelligence artificielle : des menaces pour l’humain ?

IA: Une menace pour l’espèce humaine ?

Science et Société-La fin de homme face à l’intelligence artificielle ?

Le développement de l’IA représente une menace de taille pour l’espèce humaine, analyse l’auteur de La Guerre des intelligences (voir résumé) à l’heure de ChatGPT *. Il est urgent, explique-t-il dans le Figaro, de réfléchir à ses conséquences politiques et aux moyens de cohabiter avec elle.

L’arrivée de ChatGPT a relancé le débat sur l’intelligence artificielle générale : de quoi s’agit-il ?

Laurent ALEXANDRE. – Il existe deux types d’IA qui préoccupent les chercheurs. D’abord, l’intelligence artificielle générale, qui serait légèrement supérieure à l’homme dans tous les domaines cognitifs. Ensuite, la super-intelligence artificielle, l’ASI en anglais, qui pourrait être des milliers, voire des millions, de fois supérieure à la totalité des cerveaux sur ­terre.

Faut-il croire à son émergence ou s’agit-il en réalité d’un fantasme ?

Sam Altman, le patron de ChatGPT, a écrit le mois dernier qu’il est convaincu que la super-intelligence artificielle sera là avant 2030. Il n’y a pas de certitude que nous y parviendrons, mais je constate qu’il y a de plus en plus de chercheurs, une grande majorité, même, qui sont aujourd’hui convaincus que l’IA nous dépassera dans tous les domaines.

La Guerre des intelligences -résumé ( de likedin)

Les inégalités de QI sont majoritairement génétiques (de naissance) et globalement héréditaires même si le mode de vie (malbouffe, sous-stimulation…) accentue cet état de fait. De fait, les inégalités de QI se creusent.

Après une période d’augmentation générale du QI (due à une meilleure hygiène de vie), l’effet Flynn s’est tari en occident, entrainant une baisse du QI moyen, car les personnes au meilleur QI font moins d’enfants et les personnes de faibles QI en font plus et les stimulent moins.

En Asie, l’effet Flynn bat son plein : le QI connaît une forte augmentation pour des raisons environnementales (fin de la malnutrition, éducation…).

L’Afrique devrait connaître à son tour une explosion du QI dans les prochaines décennies.

L’éducation est clef : on en est encore à l’âge de pierre. Il n’y a pas d’évaluation des méthodes (cf les débats stériles entre méthode globale et syllabique alors qu’aucune étude sérieuse n’a jamais été menée sur le sujet), process de transmission inchangé depuis des siècles/millénaires (cours magistral de groupe). Grâce aux neurosciences on va vraiment comprendre comment le cerveau apprend / les cerveaux apprennent.

On pourra alors vraiment faire de la pédagogie efficace et individualisée.

Après le QI, le QCIA

Mais au-delà du QI, le vrai enjeu va être le QCIA (quotient de compatibilité avec l’IA) car l’IA arrive à grands pas.

Aujourd’hui, on n’en est qu’aux balbutiements (l’IA est encore faible, il n’existe pas encore d’IA « forte », consciente d’elle-même) mais les développements sont extrêmement rapides.

Les nouvelles IA sont auto-apprenantes (deep-learning) et deviennent des boîtes noires. On ne sait pas vraiment comment elles fonctionnent car elles évoluent d’elles-mêmes en apprenant. Cela les différentie fondamentalement des algorithmes qui sont pré-programmés par quelqu’un, donc auditables.

Les IA apprennent grâce à la masse des données (textes, vidéos, photos, données de navigation…) dont on les nourrit.

Ce n’est pas un hasard si Google et FB sont des créateurs d’IA : avec les datas dont ils disposent, ils peuvent nourrir les IA.

L’Europe en protégeant les données utilisateurs fait prendre un retard à l’IA européenne vs la Chine ou les US.

Les IA vont rapidement remplacer le travail intellectuel (avocat, médecin…) car la masse de données qu’elles possèdent est phénoménale (ex : des millions de clichés radiologiques, des milliards de datas de santé…) et cela permet de réaliser des corrélations impossibles à un humain.

Paradoxalement, les métiers manuels diversifiés seront les derniers remplacés car un robot multitâche coûte plus cher qu’un programme informatique (le radiologue sera remplacé avant l’aide-soignante).

La fin du travail est annoncée par beaucoup, mais cette peur méconnait l’inventivité humaine : de nouveaux métiers vont apparaître autour de l’IA (comme les datascientistes, les développeurs web ou les spécialistes du retargeting n’existaient pas il y a 20 ans). Par nature, on ne peut pas prévoir ce que seront ces jobs, mais ils existeront comme après chaque révolution industrielle. Ce qu’on peut imaginer et que ces futurs emplois seront étroitement liés à l’IA, il est donc essentiel que notre intelligence soit compatible, d’où l’importance du QCIA.

L’IA est pour le court terme une formidable opportunité (elle va résoudre de nombreux problèmes bien mieux que les humains, surtout dans la santé). Le problème est qu’on ne sait pas comment elle va évoluer. Une IA forte (ie avec conscience) peut devenir dangereuse pour l’homme et comme elle sera dupliquée / répartie (via Internet) dans tous les objets connectés, elle sera difficile à tuer en cas de besoin.

Comment l’IA avec conscience se comportera-t-elle avec nous ? Cela est très difficile à prévoir.

Quel avenir pour l’humanité ?

Assez vite, l’homme va être dépassé par l’IA, alors comment rester dans la course et ne pas être asservi ?

- l’eugénisme : les humains mieux sélectionnés in-vitro seront plus intelligents et en meilleure santé (cf Bienvenue à Gattaca). Cela pose évidemment de nombreux problèmes éthiques mais les réponses à ces problèmes seront différentes selon les pays et la Chine et les US sont plus permissifs. Cependant, cette évolution sera lente alors que l’IA évolue en permanence : les humains risquent de rester à la traîne de l’IA. Enfin, maîtriser la conception des enfants doit interroger sur la capacité de survie de l’espèce humaine en tant que telle. Le hasard de la génétique (mutations non prévues) est en effet le moyen trouvé par la vie pour s’adapter, sur le long terme, à un environnement lui-même en évolution permanente (principe de l’évolution).

- l’hybridation : cette solution prônée par Elon Musk consiste à se mettre des implants cérébraux qui vont booster notre cerveau. Si l’idée est très enthousiasmante (maîtriser la connaissance sans effort ni délai), le vrai risque est la manipulation : qui produit les contenus ? seront-ils orientés ? quid du brain washing ? que se passe-t-il si nous sommes hackés ? Ces implants seraient-ils le cheval de Troie d’une véritable dictature de la pensée encore plus aboutie que 1984 ? En effet, si on peut injecter des informations directement dans notre cerveau, il sera possible également de lire nos pensées. Que reste-t-il de nous si nous n’avons même plus de refuge de notre cerveau pour penser en toute liberté ? Quel usage un gouvernement pourrait-il faire de ces informations, qui ne soit pas totalitaire ?

- projeter nos esprits dans des corps robots : la victoire ultime sur la mort. Sans corps, nous sommes immortels. Mais que restera-t-il de nous quand nous serons fusionnés avec l’IA et que la mortalité n’existera plus alors qu’elle est l’essence même de l’homme et vraisemblablement l’origine de son désir créatif ?

Le problème de toutes ces évolutions c’est qu’elles ont des effets bénéfiques individuels indéniables à court terme (moins de maladies, meilleur QI…), mais à la fois vont créer des inégalités temporaires (seuls les riches pourront au début s’offrir cela) et impliquent des changements pour l’humanité toute entière.

Dès lors que les effets bénéfiques sont importants, il sera impossible d’enrayer le développement des IA dans tous les aspects de nos vies. En effet, quel parent pourrait refuser de faire soigner son enfant par une IA plutôt qu’un médecin, si ses chances de survie sont décuplées ? Quel homme politique pourrait assumer de faire prendre à son pays un retard si énorme en terme de santé publique ?

Mais si les humains sont connectés à des implants, l’IA sera certainement dedans. Serons-nous encore des humains ? Comment ne pas être asservis par l’IA si celle-ci est déjà dans nos cerveaux ?

Les technobéats ne réfléchissent pas à plusieurs générations, trop enthousiastes de voir où leur création les mènera. Quant aux politiques ils sont complètement largués et ne comprennent rien à la technologie. De toute manière, ils ne savent pas penser à plus de deux ans.

Au final, l’IA se développe sans maîtrise, car personne ne pense ni ne parle pour l’humanité.

(A ce sujet, je recommande l’essai d’Edmund Burke « Réflexion sur la Révolution de France » qui explique sa pensée, le « conservatisme », et sa vision de la société comme un contrat entre les vivants, mais également entre les vivants, les morts et les futures générations. Il y a certainement des idées pour nourrir le débat.)

Dans tous les cas, la bataille sera gagnée par les tenants de l’hybridation (transhumanistes) car ceux qui s’hybrideront (et ils le feront même si la réglementation le leur interdit) deviendront super-intelligents et deviendront donc de-facto les leaders. Ceux qui refuseront l’hybridation seront à la traîne.

Face à une IA galopante et à l’hybridation, le rôle de l’école va changer. Notre valeur sera dans ce qui fait notre humanité puisque la connaissance sera injectable à la demande sans effort. Donc il faudra former davantage à l’esprit critique, la réflexion, la créativité. L’homme a cet avantage sur la machine de faire des erreurs et c’est des erreurs que viennent des découvertes.

Afrique: Investir dans l’humain

Afrique: Investir dans l’humain

Par Franck Kié est commissaire général du Cyber Africa Forum et associé Gérant de Ciberobs Consulting dans l’Opinion

La transformation numérique de l’Afrique est un véritable game changer pour le continent. A mesure que celui-ci se digitalise, nous assistons à un développement socio-économique fulgurant des pays africains.

Un article intéressant qui sort un peu de l’approche classique du codéveloppement réduit au financement des grosses infrastructures matérielles. La formation dans l’humain est un préalable sans doute à l’indispensable développement de l’Afrique NDLR

Selon un rapport publié en 2020 par Google et la Société Financière Internationale (SFI), l’économie numérique en Afrique a le potentiel de générer 180 milliards de dollars de revenus d’ici 2025 et 712 milliards de dollars d’ici 2050. En quelques années, les technologies du numérique se sont imposées comme de véritables piliers de développement de l’Afrique. Seul le numérique semble pouvoir permettre au continent de répondre aux Objectifs de Développement Durables (ODD) des Nations Unies, et ainsi de réduire la pauvreté et de favoriser l’inclusion sous toutes ses formes.

Une formation adaptée à ces nouveaux outils paraît indispensable pour permettre de profiter entièrement de toutes les potentialités qu’offre le numérique. C’est un enjeu d’autant plus urgent à adresser que la population devrait atteindre les 2,4 milliards d’habitants d’ici 2050, faisant de l’Afrique le continent de la jeunesse.

Plus de 30 millions de jeunes africains entreront chaque année sur le marché du travail et près de 230 millions d’emplois en Afrique subsaharienne nécessiteront des compétences numériques selon la Société Financière Internationale. En 2017, les titulaires d’un diplôme en sciences, technologie, ingénierie et mathématiques (STEM) ne représentaient que 2 % de la population africaine totale selon une étude du World Economic Forum intitulée « The Future of Jobs and Skils in Africa. Preparing the Region for the Fourth Industrial Revolution ». Il est urgent pour l’ensemble des Etats de notre continent d’impulser des politiques d’enseignement supérieur à même de répondre à cette nouvelle économie numérique qui se déploie.

Déficit pédagogique. Nombreux sont les acteurs privés à proposer des initiatives et à se mobiliser pour faire face à ce déficit pédagogique, mais celles-ci sont loin d’être suffisantes. Nous avons besoin de l’implication et de l’engagement des pouvoirs publics pour consolider le tissu pédagogique qui se construit. Le Maroc a su le faire, en lançant sa plateforme nationale d’e-learning « Academia Ramqya » qui vise à renforcer les compétences et les connaissances de ses talents aux différents métiers du digital. Désormais, il en va de la responsabilité de tous les dirigeants africains de se doter de telles solutions.

L’appui aux start-up et à l’innovation s’impose également comme un enjeu majeur. En Tunisie, le gouvernement a développé un programme d’initiation à l’entrepreneuriat numérique. Pour permettre à toutes les populations de tirer le meilleur profit de cette révolution technologique, il est primordial de disposer, là encore, d’une formation adaptée à cette nouvelle réalité.

Au-delà de l’enjeu socio-économique, il s’agit aussi d’un enjeu de souveraineté. Alors que les cyberattaques sur le continent se multiplient et que nos données sont hébergées en grande majorité par des puissances étrangères, la sécurité nationale de chacun des pays du continent est en danger. Nous aurons besoin de data scientists, de data analystes et de développeurs, etc. Faisons en sorte qu’ils soient formés en Afrique afin qu’ils participent aux enjeux numériques de l’Afrique.

Notre jeunesse est un vivier de talents que nous ne pouvons plus ignorer. Il est plus que jamais urgent de lui offrir l’accompagnement permettant de déployer toutes les opportunités qu’offre cette transition numérique.

Franck Kié est commissaire général du Cyber Africa Forum et est associé Gérant de Ciberobs Consulting

Intelligence artificielle : l’humain toujours nécessaire

Intelligence artificielle : l’humain toujours nécessaire

L’intelligence artificielle a besoin de l’humain. Outre que ce dernier est son concepteur, il est aussi celui qui la fait régulièrement progresser grâce à des millions de petites mains invisibles. Par Philippe Boyer, directeur relations institutionnelles et innovation à Covivio.

Comme souvent en matière de technologie, le meilleur et le pire se côtoient. Impossible de bouder son plaisir lorsque l’on constate les spectaculaires progrès de l’intelligence artificielle (IA). Il n’y a qu’à voir l’irruption ces dernières semaines du logiciel ChatGPT [1] qui fait suite, en 2017 (presque une éternité…) à un autre exploit technologique : la victoire d’une machine (AlphaGo) sur l’intelligence humaine au jeu de go. Pour l’une et l’autre machines, de véritables prouesses qui attestent que les programmes savent de mieux en mieux nous déjouer, nous étonner et, peut-être, dans un futur lointain, nous contrôler.

Avec ChatGPT, agent conversationnel surpuissant et capable d’interagir avec des humains presque comme s’il l’était lui-même, nous nous prenons à fantasmer que la machine autonome existe. Exactement comme avait pu l’être pour les contemporains du XVIIIe siècle le Turc mécanique, une prétendue machine automatisée capable de jouer aux échecs.
Dans les faits, et après avoir créé l’admiration des cours royales de toute l’Europe, le canular fut découvert : cette machine recouverte d’engrenages mobiles pour donner l’illusion de sa grande complexité, recelait un compartiment secret dans lequel un joueur humain chevronné était caché, celui-ci en charge d’animer le pseudo automate qui déplaçait les pièces sur l’échiquier…

AlphaGo, ChatGPT, Siri, Alexa… toutes ces d’IA n’ont rien de magique même s’il est tentant de le penser du fait de leurs réponses de plus en plus précises et pertinentes.
Si aucun automate ne se cache à l’intérieur de nos appareils électroniques, il n’empêche que les propos de ces logiciels qui affichent leurs résultats sur les écrans de nos smartphones et autres tablettes ne tombent pas du ciel. Ils sont certes le produit des méthodes d’apprentissage automatique propres à l’entraînement de ces machines (deep learning, IA génératrice de texte…), mais ils sont aussi le résultat d’un autre travail, celui-ci bien réel et réalisé par des humains.

Début janvier, au plus fort du pic consacrant ChatGPT comme un tournant historique de l’interaction « Machines-Hommes », paraissait dans le magazine Time [2] un article relatant les dessous de l’IA. En l’occurrence, comment la société OpenAI, fondateur et financeur de ChatGPT, s’était appuyée sur des petites mains au Kenya pour faire en sorte que les résultats des requêtes des utilisateurs de ce logiciel soient politiquement corrects. En d’autres termes, que soit gommées de la machine toutes les scories de langage en lien avec les propos haineux ou à connotation sexuels.
Rémunérées entre 1 et 2 dollars de l’heure, ces travailleurs de l’ombre de l’IA ne sont pas une nouveauté car l’IA ne peut pas se passer de l’humain.

Qu’il s’agisse d’actions que nous faisons, parfois à l’insu de notre plein gré [3], en acceptant de « travailler » (gratuitement) en cochant des cases pour identifier des feux de circulation ou, à plus grande échelle, pour alimenter et corriger des banques de données indispensables à la puissance de calcul des machines, il existe des dizaines de millions de travailleurs invisibles de l’IA qui contribuent ainsi au progrès technologique.

Spécialiste du « digital labor », le sociologue Antonio Casilli [4], spécialiste des réseaux sociaux et des mutations du travail à l’ère numérique, rappelle que cette nouvelle forme de travail se caractérise par l’acte de cliquer sur la touche d’une souris ou de toucher un écran en vue d’aider la machine à progresser.
Cette « microtâchenorisation » du travail numérique est multiple et peut se faire en tous lieux et à toute heure. S’il se caractérise souvent par des tâches simples qui n’exigent que peu d’efforts (notation d’un service par exemple afin de permettre aux algorithmes de mieux répondre à des demandes futures), ce digital labor – et c’est le cas des travailleurs Kényans expurgeant Chat GPT de ses scories – peut aussi prendre des formes un peu plus élaborées telles que la classification ou le filtrage d’informations, impliquant alors que l’humain exerce sa capacité de jugement.
Lutter contre l’illusion collective d’une IA magique

Il ne s’agit pas de s’opposer au progrès ni à l’innovation, en particulier quand cette dernière est portée par l’IA, technologie prodigieuse qui, après plusieurs « hivers », connaît un développement spectaculaire rendu possible par les capacités de calcul et l’accumulation de données.

Tout au plus s’agit-il de ne pas être victime de cette illusion collective portée par l’idée que l’IA serait « magique ».
Comme souvent en matière de technologie, le meilleur et le pire se côtoient. D’un côté, l’IA au service de notre santé, de notre sécurité, de nos déplacements… et qui fait de véritables prouesses. De l’autre, des machines qui n’ont rien d’autonomes et qui ont encore besoin des humains pour être « nourries ». Encore faut-il que cette nourriture puisse être apportée par des travailleurs dignes de ce nom, et qui ne soient pas cachés dans un recoin secret de la machine…
___
NOTES
1 https://www.latribune.fr/opinions/blogs/homo-numericus/quelle-etait-la-couleur-du-cheval-blanc-d-henri-iv-948238.html
2 https://time.com/6247678/openai-chatgpt-kenya-workers/
3 https://www.latribune.fr/opinions/blogs/homo-numericus/a-l-insu-de-notre-plein-gre-755470.html
4 Publications | Antonio A. Casilli

Société- Sauver l’humain de lui-même ?

Société- Sauver l’humain de lui-même ?

Pour Sébastien Bohler,  , Neurobiologiste, rédacteur en chef de la revue Cerveau & Psycho , l’humanité est devenue l’espèce la plus dangereuse de la planète. Il est donc temps de l’installer confortablement sur un divan pour une consultation de psychiatrie. Le diagnostic est noir… mais il permet d’esquisser quelques pistes de traitement ! ( dans Science et Vie)

Sébastien Bohler:

C’est un clin d’œil à l’“American Psycho” de Bret Easton Ellis, un roman qui traite de psychopathie. Je m’intéresse à notre espèce, une espèce invasive qui a recouvert la surface de la planète et développé un réseau de connexions très dense, grâce aux moyens de transport bien sûr, mais surtout, dernièrement, grâce aux nouvelles technologies de communication. Je considère l’humanité comme un super-organisme auto-organisé, qui a beaucoup de points communs avec un cerveau, ou un essaim d’abeilles : ses propriétés et sa dynamique se distinguent de celles des individus qui le composent.

 Quelle est l’origine de cette psychopathie ?

Elle semble émerger spontanément de la constitution des sociétés humaines. Les individus sont doués d’empathie, beaucoup de gens veulent changer leur impact sur l’environnement. Mais quand on quitte l’échelle individuelle, on entre dans un comportement de prédateur. Pourquoi ? Sans doute, comme le théorisait le psychologue américain Stanley Milgram, est-ce dû à une propension à se soumettre à l’autorité dans un système hiérarchique.Et aussi parce qu’on a dressé une frontière entre l’humain et le non-humain, par un discours religieux, puis cartésien, qui place notre espèce au-dessus des autres. Notre empathie n’est plus réservée qu’à nos semblables, elle n’atteint plus ni les animaux, ni la nature.

Le but de mon diagnostic, c’est de produire un électrochoc. Une fois qu’on a accepté cette idée gênante que les individus ne sont pas aux commandes, qu’ils ne contrôlent pas les actions de l’humanité, que fait-on ? Les vrais psychopathes, on les enferme et on les isole de leurs victimes.

On ne sait pas les soigner. Dans notre cas, il existe la possibilité théorique que nous, les constituants de Human psycho, décidions de recâbler l’humanité par notre action interne.

Je suis allé jusqu’au bout du raisonnement. En reprenant les symptômes psychopathologiques, et en voyant comment les contrer, un par un. Et cela donne des pistes de guérison. Nous devons arrêter de déclamer nos discours délirants sur la supériorité humaine. Pour donner une vision plus réaliste du rôle désastreux joué par notre espèce. Face à ses pulsions de manipulation, Human psycho peut apprendre à considérer la nature, la terre, les rivières non plus comme des outils mais comme des partenaires. On peut augmenter son empathie en repensant l’organisation pyramidale des sociétés et des entreprises ; lutter contre son impulsivité en envisageant systématiquement les conséquences à long terme de ses décisions. En réorganisant la société, en proposant d’autres discours sur l’humanité, on peut sonner la révolte des humains contre le super-organisme.

Métiers de l’humain: en voie de prolétarisation

 Métiers de l’humain: en voie  de prolétarisation 

 

Daniel Goldberg, Président de l’Uriopss Ile-de-France, union régionale membre de l’Union nationale interfédérale des oeuvres et organismes privés non lucratifs sanitaires et sociaux-Uniops dénonce dans le Monde  la prolétarisation des métiers de l’humain

Par manque d’attrait des métiers de l’accompagnement social, médico-social et sanitaire, la pénurie de professionnels s’approche d’un point de rupture dans une région déjà sous-dotée, alerte le dirigeant associatif, qui appelle les candidats aux élections régionales à organiser des Assises pour l’emploi francilien des solidarités.

Un seul exemple celui des assistants de vie qui se rende chaque jour chez les personnes dépendantes et dont dans la plupart du cas les temps d’attente, les temps de transport voire les frais de transport ne sont pas ou partiellement pris en compte. Résultat des amplitudes de 12 heures pour parfois des salaires de 800 €

 

 

Tribune.
 Avec le recul de la pandémie, l’envie légitime de « passer à autre chose » risque de faire oublier les principes qui ont guidé nos vies depuis plus d’un an : la solidarité, l’attention aux autres, notre nécessaire interdépendance, quels que soient le statut social ou le lieu d’habitation. De faire oublier celles et ceux qui sont en première ligne pour soigner, accompagner, enseigner, nous protéger, mais aussi pour nous permettre de nous nourrir ou pour nettoyer nos rues. De faire oublier enfin que l’Ile-de-France, déjà fragmentée, a durement montré sa fragilité face à la pandémie. 

L’erreur fondamentale serait de tout recommencer comme avant. Or, l’Ile-de-France est à la croisée des chemins entre une attractivité qui ne profite pas à toutes les parties de son territoire, notamment celles qui connaissent la pauvreté généralisée, un coût de la vie qui freine l’accès de nombreuses familles à des besoins essentiels, des fractures territoriales qui génèrent des tensions et la fragilisent dans son ensemble, et des aspirations à un mode de vie plus doux qui incitent à des départs.

Quand s’ajoutent à cela des vulnérabilités personnelles – une maladie, un accident ou une difficulté sociale, transitoire comme pérenne –, alors la sous-dotation en équipements et services ainsi que leur répartition inégale se vivent très concrètement et au quotidien. Beaucoup de Franciliens peinent ainsi à se voir assurer une dignité dans tous leurs parcours de vie.

Les associations de la solidarité et de la santé agissent tous les jours auprès des personnes en situation de perte d’autonomie, de handicap ou d’exclusion, auprès des malades et des jeunes à protéger. Par leur agilité et leur innovation, elles ont tenu au plus fort de la crise.

Elles ont donc la légitimité du terrain pour vouloir dorénavant une mobilisation réelle et efficace face aux vulnérabilités de nos existences, à de nouveaux risques épidémiologiques comme à ceux liés aux transformations climatiques, et cela dans tous leurs impacts sanitaires, sociaux, sociétaux et économiques.

S’engager pour une société inclusive et bienveillante qui garantit une égale attention au respect des droits des personnes, quelle que soit leur condition, c’est cela une Ile-de-France résolument humaine.

Mais, la pénurie de professionnels met les associations en grande difficulté pour remplir leurs missions. Cette fragilisation par manque d’attrait des métiers de l’humain s’approche d’un point de rupture dans bien des cas. Et ce sont les responsables des associations qui doivent faire avec un fonctionnement qui peut être dégradé, au détriment des personnes vulnérables.

Grippe aviaire : un premier cas de transmission à l’humain détecté en Russie

Grippe aviaire : un premier cas de transmission à l’humain détecté en  Russie

La Russie a annoncé samedi avoir détecté le premier cas de transmission à l’être humain de la souche H5N8 de la grippe aviaire, ajoutant avoir informé l’Organisation mondiale de la santé (OMS) de cette «découverte importante». «Le laboratoire a confirmé le premier cas d’infection d’une personne par le virus de groupe A, la grippe aviaire AH5N8», a déclaré à la télévision Anna Popova, à la tête de l’agence sanitaire russe Rospotrebnadzor.

 

Ce virus a été détecté chez sept personnes contaminées dans une usine de volaille du sud de la Russie, où une épidémie de grippe aviaire a touché les animaux en décembre 2020, a précisé Mme Popova, précisant que les malades «se sentent bien» et n’ont pas de complications. «Des mesures ont été rapidement prises pour contrôler la situation» dans ce foyer d’infection, a-t-elle indiqué.

Bientôt l’intelligence artificielle au niveau de l’humain ?

Bientôt l’intelligence artificielle au niveau de l’humain ?

(Yann Le Cun )

Dans une interview aux Échos, Yann Le Cun analyses les possibilités et les limites de l’IA.  Yann Le Cun  est  responsable de la recherche en intelligence artificielle (IA) de Facebook et professeur à New York University, Yann Le Cun a reçu le prix Turing 2019, équivalent du Nobel d’informatique. Il vient de publier un livre retraçant son parcours et ses travaux.

 

Dans votre livre, vous vous montrez fier des progrès accomplis par l’intelligence artificielle (IA). Mais vous dites aussi qu’elle est loin de l’intelligence d’un rat. Diriez-vous, comme un autre expert français, Luc Julia (*), que l’intelligence artificielle n’existe pas ?

Non ! Ce n’est pas qu’elle n’existe pas, mais il y a une confusion fréquente : quand on voit une machine qui a des compétences surhumaines sur une tâche particulière, on lui attribue les compétences qu’elle aurait si cette intelligence venait d’une personne. Et donc on se dit : « la machine peut nous battre à plate couture au jeu de go, donc elle peut nous battre partout » ou bien « elle peut traduire dans une centaine de langues, donc elle est plus intelligente que n’importe quel humain ». Ce n’est pas vrai, car ces systèmes sont très spécialisés, très étroits.

Ce n’est donc pas la même intelligence que les humains…

Certaines personnes estiment que ce qui caractérise l’intelligence humaine, c’est qu’elle est générale. Je dis dans mon livre que ce n’est pas vrai non plus. L’intelligence humaine est, elle aussi, spécialisée, mais moins spécialisée que l’intelligence artificielle. Je crois à ce qu’on appelle l’intelligence artificielle de niveau humain (« human level intelligence »). Pour moi, il ne fait aucun doute que les machines arriveront tôt ou tard à des niveaux d’intelligence aussi performante et générale que les humains et, probablement, nous dépasseront assez vite.

Et l’intelligence de niveau humain, ce serait quoi ? Qu’une machine soit capable de tenir la conversation que nous avons en ce moment ?

Oui, qu’elle puisse faire toutes les tâches intellectuelles que fait un être humain, à peu près aussi bien, à l’exception de ce qui relève de l’expérience humaine.

Pensez-vous que vous verrez bientôt les machines atteindre ce niveau d’intelligence ?

Je pense que je le verrai un jour, mais pas bientôt. C’est un peu difficile de le dire. Il y a des obstacles qu’il faudra franchir, et certaines personnes ne voient pas ces obstacles et pensent qu’il suffira de prendre les techniques actuelles, et d’avoir plus de données et plus de puissance pour arriver à une intelligence de niveau humain. Je n’y crois pas du tout. Je pense qu’il faudra des progrès conceptuels qui sont du ressort de la science, pas de la technologie.

Quel genre de progrès ?

Pour moi, le premier obstacle à franchir est de permettre aux machines d’apprendre par elles-mêmes, un peu à la manière des enfants ou des animaux. Un enfant acquiert une quantité gigantesque de savoirs sur le fonctionnement du monde simplement par l’observation.

Comme celui d’intelligence artificielle, le terme d’apprentissage automatique (« machine learning », en anglais) est trompeur car une machine n’apprend pas du tout comme un humain…

Absolument. Pour qu’une machine reconnaisse des chaises, des chiens ou des chats, il faut d’abord lui montrer des milliers d’images étiquetées, dans chaque catégorie. Alors qu’un petit enfant auquel on montre trois dessins d’un éléphant saura ensuite reconnaître un éléphant dans une photo. Qu’est-ce qui fait qu’il y parvient sans avoir vu des milliers d’images ? Permettre aux machines d’apprendre de cette manière est d’autant plus important que l’on se lance dans des problèmes complexes : on veut apprendre aux voitures à se conduire toutes seules, par exemple, et cela n’est pas possible avec les méthodes traditionnelles.

Comment faire autrement ?

Ce qui manque, c’est de permettre à la machine, par un apprentissage autosupervisé, de se construire un modèle du monde. Qu’elle sache prédire que, si elle roule au bord d’un ravin et qu’elle donne un coup de volant, elle va finir au fond, et que ce n’est pas bon. Apprendre un modèle du monde, cela revient à prédire le futur à partir du passé et du présent, et peut-être d’une séquence d’actions que l’on a l’intention de faire. Pouvoir prédire, c’est un peu l’essence de l’intelligence.

Ce qui est étonnant, en lisant votre livre, c’est à quel point vous êtes fasciné par les neurosciences, par la façon dont le cerveau apprend…

C’est une inspiration. Il y a des gens qui disent que l’on peut faire de l’intelligence artificielle sans se référer du tout à l’intelligence humaine. Cela a été un des courants classiques de l’IA, fondé sur la logique, et cela a conduit aux systèmes experts, qui ont montré leurs limites notamment pour l’apprentissage car il faut entrer toutes les données « à la main ». Et puis il y a l’autre approche, qui consiste à essayer de copier ce qui se passe dans le cerveau. Mais là, il y a un autre danger, qui est de reproduire de trop près ce qui se passe, sans en comprendre les principes.

Les réseaux de neurones profonds, que vous avez contribué à inventer, sont particulièrement performants pour la reconnaissance faciale, qui est en train de se répandre partout, parfois de façon inquiétante. Qu’est-ce que cela vous inspire ?

C’est vrai pour toutes les technologies. Les technologies sont neutres, elles peuvent être utilisées à des fins bénéfiques ou moins bénéfiques. Ce qui fait qu’elles seront principalement utilisées à des fins bénéfiques, c’est la force de nos institutions démocratiques. Ceci dit, si on retourne plusieurs siècles en arrière, personne ne peut contester les bénéfices de l’invention de l’imprimerie, même si elle a permis de disséminer les écrits de Calvin et Luther qui ont causé deux cents ans de persécutions en Europe. C’est vrai que  les systèmes de reconnaissance du visage qui sont utilisés en Chine sont directement inspirés d’un de mes articles sur les réseaux convolutifs publiés en 2014. Mais la même invention sert aussi dans la sécurité routière, pour des systèmes d’aide à la conduite, ou dans l’analyse d’imagerie médicale pour augmenter la fiabilité. Elle sert à beaucoup de choses utiles, y compris chez Facebook pour lutter contre les images terroristes.

 (*) Luc Julia, aujourd’hui responsable de la recherche de Samsung, est à l’origine de Siri, l’assistant vocal d’Apple. Il a publié l’an dernier « L’intelligence artificielle n’existe pas » (First Editions).

« Quand la machine apprend », Yann Le Cun, éditions Odile Jacob, 396 pages, 22,90 euros.

 

Intelligence artificielle: au niveau de l’humain ? (Yann Le Cun )

Intelligence artificielle: au niveau de l’humain ?

(Yann Le Cun )

Dans une interview aux Échos, Yann Le Cun analyses les possibilités et les limites de l’IA.  Yann Le Cun  est  responsable de la recherche en intelligence artificielle (IA) de Facebook et professeur à New York University, Yann Le Cun a reçu le prix Turing 2019, équivalent du Nobel d’informatique. Il vient de publier un livre retraçant son parcours et ses travaux.

 

Dans votre livre, vous vous montrez fier des progrès accomplis par l’intelligence artificielle (IA). Mais vous dites aussi qu’elle est loin de l’intelligence d’un rat. Diriez-vous, comme un autre expert français, Luc Julia (*), que l’intelligence artificielle n’existe pas ?

Non ! Ce n’est pas qu’elle n’existe pas, mais il y a une confusion fréquente : quand on voit une machine qui a des compétences surhumaines sur une tâche particulière, on lui attribue les compétences qu’elle aurait si cette intelligence venait d’une personne. Et donc on se dit : « la machine peut nous battre à plate couture au jeu de go, donc elle peut nous battre partout » ou bien « elle peut traduire dans une centaine de langues, donc elle est plus intelligente que n’importe quel humain ». Ce n’est pas vrai, car ces systèmes sont très spécialisés, très étroits.

Ce n’est donc pas la même intelligence que les humains…

Certaines personnes estiment que ce qui caractérise l’intelligence humaine, c’est qu’elle est générale. Je dis dans mon livre que ce n’est pas vrai non plus. L’intelligence humaine est, elle aussi, spécialisée, mais moins spécialisée que l’intelligence artificielle. Je crois à ce qu’on appelle l’intelligence artificielle de niveau humain (« human level intelligence »). Pour moi, il ne fait aucun doute que les machines arriveront tôt ou tard à des niveaux d’intelligence aussi performante et générale que les humains et, probablement, nous dépasseront assez vite.

Et l’intelligence de niveau humain, ce serait quoi ? Qu’une machine soit capable de tenir la conversation que nous avons en ce moment ?

Oui, qu’elle puisse faire toutes les tâches intellectuelles que fait un être humain, à peu près aussi bien, à l’exception de ce qui relève de l’expérience humaine.

Pensez-vous que vous verrez bientôt les machines atteindre ce niveau d’intelligence ?

Je pense que je le verrai un jour, mais pas bientôt. C’est un peu difficile de le dire. Il y a des obstacles qu’il faudra franchir, et certaines personnes ne voient pas ces obstacles et pensent qu’il suffira de prendre les techniques actuelles, et d’avoir plus de données et plus de puissance pour arriver à une intelligence de niveau humain. Je n’y crois pas du tout. Je pense qu’il faudra des progrès conceptuels qui sont du ressort de la science, pas de la technologie.

Quel genre de progrès ?

Pour moi, le premier obstacle à franchir est de permettre aux machines d’apprendre par elles-mêmes, un peu à la manière des enfants ou des animaux. Un enfant acquiert une quantité gigantesque de savoirs sur le fonctionnement du monde simplement par l’observation.

Comme celui d’intelligence artificielle, le terme d’apprentissage automatique (« machine learning », en anglais) est trompeur car une machine n’apprend pas du tout comme un humain…

Absolument. Pour qu’une machine reconnaisse des chaises, des chiens ou des chats, il faut d’abord lui montrer des milliers d’images étiquetées, dans chaque catégorie. Alors qu’un petit enfant auquel on montre trois dessins d’un éléphant saura ensuite reconnaître un éléphant dans une photo. Qu’est-ce qui fait qu’il y parvient sans avoir vu des milliers d’images ? Permettre aux machines d’apprendre de cette manière est d’autant plus important que l’on se lance dans des problèmes complexes : on veut apprendre aux voitures à se conduire toutes seules, par exemple, et cela n’est pas possible avec les méthodes traditionnelles.

Comment faire autrement ?

Ce qui manque, c’est de permettre à la machine, par un apprentissage autosupervisé, de se construire un modèle du monde. Qu’elle sache prédire que, si elle roule au bord d’un ravin et qu’elle donne un coup de volant, elle va finir au fond, et que ce n’est pas bon. Apprendre un modèle du monde, cela revient à prédire le futur à partir du passé et du présent, et peut-être d’une séquence d’actions que l’on a l’intention de faire. Pouvoir prédire, c’est un peu l’essence de l’intelligence.

Ce qui est étonnant, en lisant votre livre, c’est à quel point vous êtes fasciné par les neurosciences, par la façon dont le cerveau apprend…

C’est une inspiration. Il y a des gens qui disent que l’on peut faire de l’intelligence artificielle sans se référer du tout à l’intelligence humaine. Cela a été un des courants classiques de l’IA, fondé sur la logique, et cela a conduit aux systèmes experts, qui ont montré leurs limites notamment pour l’apprentissage car il faut entrer toutes les données « à la main ». Et puis il y a l’autre approche, qui consiste à essayer de copier ce qui se passe dans le cerveau. Mais là, il y a un autre danger, qui est de reproduire de trop près ce qui se passe, sans en comprendre les principes.

Les réseaux de neurones profonds, que vous avez contribué à inventer, sont particulièrement performants pour la reconnaissance faciale, qui est en train de se répandre partout, parfois de façon inquiétante. Qu’est-ce que cela vous inspire ?

C’est vrai pour toutes les technologies. Les technologies sont neutres, elles peuvent être utilisées à des fins bénéfiques ou moins bénéfiques. Ce qui fait qu’elles seront principalement utilisées à des fins bénéfiques, c’est la force de nos institutions démocratiques. Ceci dit, si on retourne plusieurs siècles en arrière, personne ne peut contester les bénéfices de l’invention de l’imprimerie, même si elle a permis de disséminer les écrits de Calvin et Luther qui ont causé deux cents ans de persécutions en Europe. C’est vrai que  les systèmes de reconnaissance du visage qui sont utilisés en Chine sont directement inspirés d’un de mes articles sur les réseaux convolutifs publiés en 2014. Mais la même invention sert aussi dans la sécurité routière, pour des systèmes d’aide à la conduite, ou dans l’analyse d’imagerie médicale pour augmenter la fiabilité. Elle sert à beaucoup de choses utiles, y compris chez Facebook pour lutter contre les images terroristes.

 (*) Luc Julia, aujourd’hui responsable de la recherche de Samsung, est à l’origine de Siri, l’assistant vocal d’Apple. Il a publié l’an dernier « L’intelligence artificielle n’existe pas » (First Editions).

« Quand la machine apprend », Yann Le Cun, éditions Odile Jacob, 396 pages, 22,90 euros.




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol