Archive pour la Catégorie 'sciences'

Page 3 sur 14

Ingénierie solaire-: pour-des-règles-de-gouvernance

Ingénierie solaire-: pour-des-règles-de-gouvernance

par
Janos Pasztor

directeur exécutif de la Carnegie Climate Governance Initiative

Potentielle option d’urgence pour contrer l’emballement du réchauffement climatique, la modification du rayonnement solaire ne doit pas être discutée en catimini mais doit faire l’objet d’un débat public transparent, juge, dans une tribune au « Monde », Janos Pasztor, directeur exécutif de la Carnegie Climate Governance Initiative.

Parler aux diplomates des risques du changement climatique n’est pas nouveau pour moi. J’ai passé des décennies à l’Organisation des nations unies (ONU) à faire cela. Jamais, cependant, je n’ai rencontré le niveau d’inquiétude que j’entends maintenant dans les voix des hauts représentants gouvernementaux de plus de soixante pays, que mes collègues et moi avons rencontrés au cours des sept dernières années, pour discuter des lacunes en matière de gouvernance des nouvelles techniques qui pourraient modifier le climat.

Pourquoi l’évoquer maintenant, et pourquoi une telle inquiétude ? Selon le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC), il est probable que le monde dépassera temporairement l’objectif de température de l’accord de Paris de 1,5 °C, même dans le cadre des trajectoires les plus ambitieuses de réduction des émissions. De plus, quelle que soit l’augmentation de température donnée, les impacts seront plus importants que prévu – ce qui nous amène vers des climats que l’humanité n’a jamais connus auparavant.

La modification du rayonnement solaire (MRS ou géo-ingénierie solaire) pourrait être une option d’urgence potentielle pour faire face temporairement aux risques de dépassement. L’approche la plus étudiée – et la plus controversée – consisterait à pulvériser des aérosols dans la stratosphère pour réfléchir la lumière du soleil loin de la Terre, refroidissant ainsi rapidement la planète. Si elle était développée et déployée, elle affecterait tous les pays du monde, mais pas tous de la même manière. Il faut toutefois noter qu’elle ne remplacerait pas la réduction urgente des émissions, l’élimination du carbone de l’atmosphère et le renforcement de l’adaptation.

Cependant, tout comme une planète surchauffée présente des risques sérieux, il en va de même pour la MRS. Ces risques seraient différents et comprendraient, par exemple, des dommages potentiels à la couche d’ozone, ou une perte de biodiversité si la MRS était brusquement interrompue. Son déploiement poserait également des problèmes éthiques et des risques de sécurité géopolitique, mais différents de ceux résultant des impacts d’une planète en surchauffe.

Il n’existe actuellement aucune gouvernance formelle, robuste et complète pour la recherche, les tests, ou la décision de déployer ou non la MRS. Toujours selon le GIEC, il s’agit d’un risque en soi.

Sciences-Intelligence artificielle: BRUNO LE MAIRE fait des promesses de coiffeur

Sciences-Intelligence artificielle: BRUNO LE MAIRE fait des promesses de coiffeur


Le ministre ministre de l’économie englué à la fois dans une situation financière de la France de plus en plus grave et dans un contexte économique à la croissance ralentie se livre à des exercices de prospective douteux en affirmant que l’Europe aura bientôt son propre système d’intelligence artificielle pour relancer l’économie européenne.

Première observation, on voit mal comment en cinq ans l’Europe serait capable de mettre en place un système d’intelligence artificielle générative indépendant quand elle n’a jamais été capable de mettre en place une simple plate-forme d’échanges de messages type Facebook ou Twitter.

Seconde observation : d’abord il n’y aura sans doute pas un seul système d’intelligence artificielle et on ne peut résumer ce système au seul chatgpt. Le ministre de l’économie se laisse aller à la facilité en reprenant des propos de bistrot qui ne correspondent à aucune perspective de réalité. Ce qu’il a déjà fait régulièrement par exemple à propos de fiscalité internationale qui finit le plus souvent en eau de boudin.

Pour le ministre de l’économie, l’intelligence artificielle permettrait de relancer la productivité d’une économie européenne « languissante ». Le ministre français de l’Economie a estimé possible samedi pour l’Union européenne de bâtir « sous cinq ans » son propre système d’intelligence artificielle (IA) générative, qui contribuera, selon lui, à améliorer la productivité d’une économie « languissante ».

« L’intelligence artificielle générative va nous permettre, pour la première fois depuis plusieurs générations, de retrouver de la productivité, d’être plus efficace », a lancé Bruno Le Maire aux Rencontres économiques d’Aix-en-Provence, dans le sud de la France.

« Je plaide donc, avant de poser les bases de la régulation de l’intelligence artificielle, pour que nous fassions de l’innovation, que nous investissions et que nous nous fixions comme objectif d’avoir un OpenAI européen sous cinq ans, avec les calculateurs, les scientifiques et les algorithmes nécessaires. C’est possible », a-t-il ajouté.

C’est la science « qui nous permettra enfin de faire des gains de productivité dans une économie européenne un peu languissante », plus « tortillard » que « TGV », a-t-il insisté.

Sciences-La-baisse-du-nombre-de-doctorants-va-affecter la recherche

sciences-La-baisse-du-nombre-de-doctorants-va-affecter la recherche


Boris Gralak, secrétaire général du Syndicat national des chercheurs scientifiques, estime, dans une tribune au « Monde », que ceux-ci sont maltraités par l’Etat en ce qui concerne leur rémunération et leur carrière, et que les conséquences sont à terme dangereuses pour la recherche française.

Quels que soient les domaines du savoir, la recherche est indispensable pour repousser les limites de la connaissance. Et il va de soi que nos sociétés ont besoin plus que jamais d’apporter des réponses aux questions considérables que posent la démocratie, la santé, la transition socio-écologique, l’innovation responsable… Et pourtant, malgré leur rôle essentiel pour la société et surtout pour son avenir, la recherche publique et les scientifiques sont particulièrement maltraités par l’Etat, et ce depuis plus de vingt ans.

La France s’était engagée sur le plan européen à consacrer, dès 2010, au moins 1 % de son produit intérieur brut (PIB) à la recherche publique. Or, non seulement les gouvernements successifs n’ont pas tenu cet engagement, mais, pire encore, ils ont imposé toute une série de réformes à contresens qui auront particulièrement dégradé les conditions de travail des scientifiques.

La dernière d’entre elles, la loi de programmation de la recherche du 24 décembre 2020, promettait – encore une fois – le respect de cet engagement : prenant acte du décrochage de la recherche, le fameux « 1 % du PIB » pour la recherche publique était enfin « programmé » ! Cependant, dès l’examen du projet de loi de programmation de la recherche, le Syndicat national des chercheurs scientifiques (SNCS-FSU) et d’autres organisations avaient montré que cette programmation pluriannuelle du budget de la recherche était insincère. La preuve hélas est là.

Outre le handicap que représente pour la recherche publique la dégradation des moyens de travail des scientifiques – il s’agit des femmes et des hommes chercheurs, enseignants-chercheurs, ingénieurs et techniciens de recherche ou en soutien à la recherche, qu’ils soient fonctionnaires ou contractuels –, nous voulons noter ici un aspect rarement évoqué : à savoir le fait que le sous-investissement chronique dans la recherche publique se traduit aussi par des rémunérations et des carrières indignes au regard des responsabilités, formations et diplômes de ces scientifiques.

Innovation: accepter le temps long

Innovation: accepter le temps long

« L’innovation technique ne se programme pas en fonction de finalités à court terme et rentables »
TRIBUNE
Gilles Garel

Professeur au Conservatoire national des arts et métiers

Muriel Le Roux

Historienne

« L’innovation résoudra tous nos problèmes. » Cette ritournelle messianique proclamée à chaque crise, selon laquelle l’innovation technique et les entrepreneurs innovants nous sauveront de la catastrophe, ne résiste pas à l’analyse des processus d’innovation par les sciences de gestion et par l’histoire, qui, plus que le concept d’innovation lui-même, questionnent celui de « rupture ». Même si cela déplaît aux industriels ou aux politiques, l’histoire rend en effet intelligibles les choix et les actions des acteurs sur un temps plus ou moins long. Or, face aux menaces écologiques, induisant des risques pour les démocraties, nous devons admettre que ce qui nous arrive résulte aussi de la manière dont nous innovons et dont nous considérons l’innovation.

Depuis Fernand Braudel et son ouvrage Civilisation matérielle, économie et capitalisme, réédité en 2022 chez Armand Colin, on sait que la maîtrise des moyens de transport et de l’énergie a toujours été la condition sine qua non des flux et des échanges. Ce sont eux qui ont structuré les mondialisations successives, les croissances économiques reposent sur ces flux physiques. Les entreprises assumant les fonctions de conception, de production et de diffusion, l’innovation joue bien un rôle majeur dans ces processus.

Prenons le cas du vaccin Pfizer-BioNTech, qui a été développé en douze mois, ce qui est effectivement sans précédent. A suivre certaines analyses, il s’agirait d’une « rupture », car, jusque-là, le développement d’un vaccin prenait environ dix ans. Mais il s’agit d’une analyse à courte vue sur la seule année 2020, relayée par les panégyriques nord-américains à des fins de prise de contrôle du marché du médicament. Car, oui, la santé est un marché.

Or, ces analyses n’évoquent que trop rarement l’aspect cumulatif des recherches menées pendant cinq décennies, notamment le rôle de l’Institut Pasteur, à Paris, à l’origine de l’ARN messager grâce aux travaux de François Jacob, d’André Lwoff et de Jacques Monod, qui a reçu le prix Nobel de médecine en 1965. Pfizer a bénéficié (sans payer aucune redevance) de l’effort initial de la recherche publique fondamentale. Sous la surface de l’exploit innovant, l’analyse de l’innovation permet de mettre au jour des couches plus profondes, sur des temps plus longs.

Sciences- Qu’est-ce qui est plus grand que l’infini ?

Sciences- Qu’est-ce qui est plus grand que l’infini ?
par
Julien Rouyer
Agrégé de mathématiques et doctorant en informatique., Université de Reims Champagne-Ardenne (URCA) dans The Conversation

Quel est le plus grand nombre que tu connais ? Quand on pose cette question à un tout jeune enfant, il répond souvent cent (100) ou mille (1 000), parfois un million (1 000 000). Mais, si on lui fait remarquer qu’il peut ajouter 1 à ce nombre et obtenir cent un (101) ou mille un (1 001) ou encore un million un (1 000 001), il réalise qu’il peut recommencer et obtenir à chaque fois un nombre encore plus grand. D’une certaine manière, mathématiquement, l’infini, c’est ça : pouvoir toujours ajouter 1 à n’importe quel nombre, aussi grand soit-il, et construire ainsi des nombres de plus en plus grands.

Votre avis compte ! Participez à notre grande enquête de lectorat
On en vient donc à la conclusion qu’il n’y a pas de nombre plus grand que tous les autres.

Cependant, en mathématiques, quand un objet n’existe pas, comme « le nombre qui serait plus grand que tous les autres nombres », on a toujours la liberté de l’inventer ! Il faut seulement que ce nouvel objet n’entraîne pas de graves paradoxes logiques, c’est-à-dire des résultats contradictoires.

On peut alors dire que l’infini est un nouveau nombre, différent de tous ceux qu’on peut construire en ajoutant 1 encore et encore : l’infini est ce qui est au bout de ce processus… qui ne s’arrête jamais ! On a donc décidé de créer cet objet, l’infini, qui représente un nombre plus grand que tous les autres, et on a choisi un symbole pour le représenter (comme le symbole 1 représente le nombre un, 2 le nombre deux, etc.). Ce symbole, c’est : ∞.

Mais alors, me diras-tu, Pénélope, qu’obtient-on si on ajoute 1 à l’infini ?

Un nombre plus grand que l’infini, lui-même plus grand que tous les nombres usuels ?

Puisque la place de « nombre plus grand que tous les autres » est déjà prise par ∞ et puisque ∞+1 est lui aussi un nombre plus grand que tous les autres, eh bien on n’a qu’à dire que « l’infini plus un », c’est encore l’infini et donc on peut écrire ∞+1=∞.

On déduit de cela que ∞+2=∞+1+1=∞+1=∞, et ainsi de suite ∞+3=∞, ∞+4=∞, etc.

Autrement dit, l’infini serait un nombre qui absorbe tous les autres, un peu comme un trou noir absorbe et fait « disparaître » toute la matière qui s’en approche…

C’est bien joli tout ça mais c’est drôlement abstrait. Concrètement, c’est quoi l’infini ? Voilà le problème : l’infini est une construction de l’esprit humain, un concept mathématique utile aux progrès de la science autant qu’un concept philosophique. L’infini est, par essence, quelque chose d’abstrait, et certainement une preuve de la puissance de l’intelligence humaine, capable de concevoir des objets qui n’existent pas dans la nature.

L’infini est une idée qui permet de représenter le fait d’aller très loin ou d’attendre très longtemps, quel que soit le contexte. Si on s’intéresse aux étoiles et aux planètes, l’infini, ce serait plutôt des milliards de milliards de kilomètres.

L’infini est une chimère : dans le monde physique dans lequel on vit, l’infini n’existe pas : le nombre d’atomes dans l’univers est fini (ils ne sont pas en quantité infinie). Les ressources en eau sur Terre ne sont pas infinies non plus. Selon les théories scientifiques qui ont émergé depuis les travaux d’Einstein il y a 100 ans, même l’univers lui-même est fini : il est en expansion, de plus en plus grand à chaque instant qui passe depuis sa naissance lors du Big Bang il y a 14 milliards d’années (l’âge de l’univers n’est pas infini) : il a un bord, une limite qui s’éloigne de plus en plus de nous. Qu’y a-t-il en dehors de l’univers, au-delà des limites de l’univers ? Mystère infini…

Finalement, pour répondre à cette épineuse question « qu’est-ce qui est plus grand que l’infini ? », je ne vois qu’une seule réponse : l’esprit humain.

Fusion nucléaire : principe et avenir ?

Fusion nucléaire : principe et avenir ?

Pour obtenir des réactions de fusion, plusieurs pistes de recherche ont été empruntées par les scientifiques. Et parmi elles, deux méthodes concentrent la majeure partie des talents et des capitaux : la fusion par confinement inertiel par laser et la fusion par confinement magnétique.Un papier de Romain Segond dans l’Opinion

L’emballement médiatique récent concernait la première solution, qui consiste précisément à reproduire les conditions de densité extrême de l’hydrogène qui sont à l’origine de la création des étoiles. Or ces expériences ne semblent pas calibrées pour produire de l’énergie à l’échelle de nos besoins. Elles servent surtout à augmenter nos connaissances pour améliorer nos programmes de simulation de la dissuasion nucléaire.

Pour opérer une véritable transition énergétique et tenter de contenir le réchauffement climatique, les espoirs s’orientent donc vers la seconde solution : la fusion magnétique. Elle consiste moins à compresser les atomes d’hydrogène qu’à les introduire dans un plasma dont la température varie entre 100 et 150 millions de degrés. Ces conditions extrêmes sont nécessaires pour que les particules qui se rencontrent, fusionnent et libèrent de l’énergie.

Pour mieux comprendre la transformation qui s’opère au niveau des noyaux lors d’une réaction de fusion, discerner les différentes méthodes explorées par les chercheurs pour la reproduire en laboratoire, et sonder dans quelle mesure ces développements technologiques vont révolutionner nos systèmes énergétiques, voire devenir cruciaux pour lutter contre le changement climatique, nous avons interrogé Alain Bécoulet, qui dirige le domaine ingénierie du projet ITER (International Thermonuclear Experimental Reactor).

Quelle est la différence entre la fission et la fusion nucléaire ?

« La fission consiste à casser un gros noyau, en l’occurrence au-delà du fer, par une collision avec un neutron – ou un autre noyau – qui déstabilise le noyau et le casse en deux. Mais l’énergie qui est stockée dans un noyau peut aussi être libérée d’une autre façon : on prend de tout petits noyaux – de l’hydrogène – et on essaie de les coller l’un à l’autre. »

Qu’est-ce que la répulsion coulombienne et comment la vaincre ?
« En tant que noyaux, ils sont chargés positivement, à cause du fait qu’ils sont constitués de protons et de neutrons – les neutrons ne sont pas chargés mais tous les autres le sont. Donc si j’essaye de les rapprocher, comme deux pôles identiques d’un aimant, ils vont se repousser. Depuis très loin ils se sentent et se repoussent de plus en plus lorsqu’on se rapproche. Or si je veux faire entrer en ligne de compte la réaction nucléaire, il faut que j’aille suffisamment près pour qu’une autre force entre en jeu, les attire et cette fois-ci, les fasse fusionner. »

Qu’est-ce qu’un isotope de l’hydrogène ?
« C’est un atome auquel, dans le noyau, je vais rajouter ou enlever des neutrons. On ne modifie donc pas la charge globale ni le nombre d’électrons. Le deutérium, c’est de l’hydrogène, donc un proton avec son électron autour, et au proton on lui colle un neutron. Le tritium, c’est toujours dans la famille de l’hydrogène – un proton – mais on lui rajoute deux neutrons dans le noyau. La réaction de fusion la plus facile à réaliser, c’est la fusion de ces deux isotopes de l’hydrogène : le deutérium et le tritium. »

Comment fonctionne la fusion par confinement inertiel ?
« C’est la solution qui consiste à mimer le soleil. Or on ne va pas pouvoir faire un nuage suffisamment large pour qu’il s’effondre sur lui-même et fusionne. Mais on peut quand même prendre une petite bille de mélange deutérium-tritium et l’écraser très fort. Pour ce faire, les pistons ne vont pas marcher mais les faisceaux laser vont fonctionner. Le principe c’est donc de soumettre d’un seul coup la petite bille à une pression radiative extrêmement violente et très rapide – quelques milliardièmes de seconde. A ce moment-là elle va s’effondrer, la densité va monter, la température également, et la fusion va s’enclencher. Aujourd’hui, toutes ces expériences sont faites pour calibrer notre physique, nos codes, dans ce qu’on appelle le programme de simulation de la dissuasion nucléaire. Elles ne sont pas faites pour, a priori, se diriger vers de la production d’énergie. »

Comment fonctionne la fusion par confinement magnétique ?
« Il s’agit de confiner un plasma en utilisant un champ magnétique. Quand une particule rencontre un champ magnétique, elle va se faire piégée en tournant autour. Donc si on est assez intelligent pour faire une ligne magnétique qui se referme sur elle-même dans une géométrie finie, la particule va tourner et ne pourra jamais s’échapper de son champ magnétique. Donc on chauffe le milieu et si on y introduit plusieurs atomes, ils vont finir par se rencontrer et fusionner. »

Qu’est ce qu’un plasma ?

« Il existe quatre états de la matière. L’état solide, liquide et gazeux que tout le monde connaît, et un quatrième état, lorsqu’on continue à chauffer un gaz très fort, qu’on appelle plasma. C’est un gaz qui a été tellement chauffé que les collisions, entre les atomes, finissent par éplucher leur cortège électronique. C’est-a-dire que les électrons vont être éjectés par le fait que les atomes se tapent les uns contre les autres lorsque la vitesse et l’énergie sont suffisantes. On va donc obtenir un mélange, une soupe de noyaux et d’électrons qui ne sont plus attachés les uns aux autres. Ce milieu est nécessaire pour que les noyaux se rencontrent directement et ne soient plus gênés par leurs électrons. »
Les plus vus

L’intelligence artificielle va-t-elle remplacer l’être humain ?

L’intelligence artificielle va-t-elle remplacer l’être humain ?

Par Charles Hadji
Professeur honoraire (Sciences de l’éducation), Université Grenoble Alpes (UGA)

dans The Conversation France

Depuis sa mise en ligne fin novembre, le logiciel ChatGPT, agent conversationnel (chatbot) qui utilise les capacités impressionnantes du plus gros réseau mondial de neurones artificiels actuel (GPT-3), a provoqué un tsunami de questions sur les sujets les plus variés de demandes de rédaction de devoirs, d’articles, de courriers, etc. Destinées à l’éprouver, à en tester les limites, ces utilisations très diverses ont aussi fait naître, ou conforté, de fortes craintes.Au-delà même de ses dangers immédiatement visibles (fabrication possible de fake news, triche aux examens, facilitation d’entreprises illégales ou nocives), et contre lesquels il y aurait lieu de se prémunir par des régulations appropriées, cet outil d’intelligence artificielle (IA), n’est-il pas de nature à remplacer un humain devenu obsolète ? Le moment de la fin de la « singularité », l’IA venant dépasser l’intelligence de l’homme, n’est-il pas arrivé ? La machine ne va-t-elle pas pousser l’homme dans les oubliettes de l’histoire ?

La question de savoir s’il faut craindre que la machine se hisse au niveau de l’humain, voire le dépasse, en soulève en fait deux autres, que nous proposons d’examiner rapidement. La première porte sur l’étendue de ce que l’IA peut en quelque sorte arracher à l’homme. Il s’agit de savoir ce qui est vraiment à portée des « machines intelligentes ». N’existe-t-il pas des capacités spécifiquement humaines, qui rendraient l’homme irremplaçable, le mettant à l’abri des empiétements dévastateurs de l’IA ?
La deuxième porte sur l’intensité, et la nature même, de la peur que l’homme doit éprouver quand sont en question ses pouvoirs dans les domaines de la connaissance et de l’action. Qu’est-ce que l’homme doit craindre le plus : le développement de l’IA, ou la force et la permanence de ses tentations et perversions ? L’homme ne serait-il pas, bien plus que la machine, le principal ennemi de l’Homme ?

La première question nous invite à nous prononcer sur l’existence de capacités humaines qui ne seraient pas « algorithmables », c’est-à-dire découpables en une suite logique d’opérations permettant d’atteindre à coup sûr un résultat désiré. Il devrait être clair que la réponse à cette question relève sans doute plus de l’anthropologie, et de la philosophie, que de la robotique et de l’IA. Car on peut s’attendre à ce que l’IA prenne en charge tout ce que peuvent faire les êtres humains sur le plan cognitif, sauf ce qui relèverait de ce que seuls les humains sont capables de faire : douter, faillir, et souffrir.

Les performances de ChatGPT sont particulièrement impressionnantes dans le champ de ce qui est calculable. Mais calculer n’est pas penser. Il manque au calcul la dimension de la distanciation, autrement dit du doute. Un algorithme n’est pas capable de sortir de lui-même, comme l’expliquait le spécialiste de robotique Raja Chatila dans Le Monde en 2020. Il déroule, sans état d’âme, sa suite d’opérations. Alors que l’homme est capable, non seulement de produire, mais de s’interroger continûment sur ses productions.

Depuis sa mise en ligne fin novembre, le logiciel ChatGPT a provoqué un tsunami de questions sur les sujets les plus variés. Shutterstock
ChatGPT pourrait très bien réécrire le Cogito de Descartes, mais alors en imitant seulement son style, sans prendre lui-même la décision de sortir du rapport habituel à la réalité, et sans mettre en œuvre le travail intellectuel par lequel cette décision devient opératoire. Il n’est pas capable de produire des idées, car l’idée n’est pas « une peinture muette sur un panneau ». « L’idée, mode du penser ne consiste ni dans l’image de quelque chose, ni dans les mots », disait Spinoza dans l’Ethique.

Dire des mots (produire un texte, ce dont est capable ChatGPT) n’est pas davantage penser que simplement calculer. Blaise Pascal, par ailleurs inventeur de ce qui est considéré comme la première machine à calculer (« la pascaline ») avait perçu les limites des algorithmes : « La machine d’arithmétique fait des effets qui approchent plus de la pensée que tout ce que font les animaux ; mais elle ne fait rien qui puisse faire dire qu’elle a de la volonté, comme les animaux ».

Il faut avoir la volonté de bien penser : « Travaillons donc à bien penser : voilà le principe de la morale ». Certes « nous sommes automate [Pascal appelait cela « la « machine »] autant qu’esprit ». Mais l’ordre des automatismes, où peuvent régner les logiciels, est inférieur à l’ordre des esprits, où règne la pensée : « De tous les corps ensemble, on ne saurait en faire réussir une petite pensée. Cela est impossible, et d’un autre ordre ».

Quand il opère dans son champ d’application (ici, le mot a été bien choisi), l’algorithme est (quasiment) infaillible. Il fait disparaître toute incertitude. Mais l’être humain souffre d’une faillibilité intrinsèque. Il erre, il se trompe, commet des fautes. L’âme humaine est fragile. Avec le doute vient l’incertitude. Le comble de cette faillibilité est sans doute la bêtise (pour ne pas dire la connerie, terme qui serait le plus approprié).

La faculté de dire des bêtises, dont abuse tout populiste qui se respecte, est un signe très fiable d’humanité. « L’homme est bien capable des plus extravagantes opinions ». « Voilà mon état, plein de faiblesse et d’incertitude » (Pascal, encore). Il faudra bien sûr se poser la question de savoir en quel sens cette faiblesse pourrait être une force. Mais nous voyons que la réflexion sur la force et les limites de l’outil ChatGPT nous contraint à réfléchir sur la force et les limites de la cognition humaine !

Enfin, l’homme éprouve des sentiments. Spinoza en a retenu deux principaux (en plus du désir) : la joie, toujours positive, en tant que « passion par laquelle l’esprit passe à une perfection plus grande » ; et la tristesse, toujours négative, en tant que « passion par laquelle il passe à une perfection moindre ». Un sentiment est un état dans lequel le corps est affecté. Un algorithme ne connaîtra jamais d’instant d’émotion. On ne le verra jamais pleurer, ni de joie, ni de tristesse.

Quand donc un robot pourra effectivement douter (penser), faillir, et pleurer, on pourra dire bienvenue à ce nouveau frère en humanité ! Mais si la pensée est à l’évidence une force, la faillibilité et la souffrance sont, immédiatement, des faiblesses. Cela nous conduit à la seconde question : qu’est-ce qui est le plus à craindre pour l’homme ? Certainement les dérives auxquelles peuvent le conduire ses faiblesses – mais des faiblesses qui sont aussi la source de son principal point fort, la créativité. Car, sans les sentiments, pas d’énergie pour entreprendre.

Si un robot peut mimer des comportements humaines, il ne ressentira jamais d’émotion. Shutterstock

Dans La psychologie de l’intelligence, Piaget nous a fait comprendre que « toute conduite implique une énergétique ou une “économie”, qui constitue son aspect affectif » ainsi qu’une « structuration » des « rapports entre le milieu et l’organisme », en lequel « consiste son aspect cognitif ». Sans l’énergie provenant des sentiments, il n’y a ni vie intellectuelle ni création.
C’est que, chez l’homme, force et faiblesse sont intimement liées. Ce qui fait sa faiblesse est aussi ce qui fait sa force, et réciproquement. Si donc le robot a la force que donne la maîtrise d’un logiciel, il n’a pas celle que donne la capacité d’être affecté, et de souffrir. Et il n’a pas la créativité que confère la capacité d’essayer, en prenant le risque de se tromper, et d’entrer en errance. Alors que chez l’homme, la « bassesse », que Pascal reconnaît même en Jésus-Christ, ne peut pas empêcher d’accéder à l’ordre, « surnaturel », de la « sagesse » et de la « charité ».

Mais pourquoi alors cette cohabitation, en l’homme, de sa force et de sa faiblesse, est-elle bien plus à craindre qu’une hypothétique prise de pouvoir par les algorithmes, dont ChatGPT serait le champion ? Parce que, étant donné la nature de ce qui fait sa force, si l’homme est capable du meilleur, il est aussi trop souvent coupable du pire ! Mais ni le meilleur ni le pire ne sont certains.
L’homme est le seul animal capable de choisir, et de faire consciemment, le mal : tuer par cruauté ; faire souffrir par plaisir. Ce n’est pas un algorithme qui a créé le darknet. Mais d’un autre côté, on peut voir dans le triptyque penser, faillir, éprouver, les trois piliers fondateurs de la liberté. La liberté qui rend possible le choix du mal, comme du bien.

En définitive, est-ce ChatGPT qu’il faut craindre ? Il n’y a là qu’un outil, dont la valeur dépend de l’usage qui en sera fait. Cet usage dépend lui-même de choix d’ordre éthique. Selon ce choix, et comme pour tout, l’homme pourra se montrer capable du meilleur, en mettant l’outil au service du développement et de la valorisation de la personne humaine, pour faciliter ses apprentissages, et l’accomplissement de ses actions. Ou bien coupable du pire, en faisant de l’outil un instrument d’assujettissement et d’exploitation de l’être humain, en tombant dans l’une ou l’autre des dérives possibles.

C’est à l’homme qu’il appartient de choisir. La machine (comme Dieu, selon Platon) est innocen-te : elle n’a pas le pouvoir de choisir… Le plus grand ennemi de l’homme sera toujours l’homme.

Cerveau: on peut apprendre à tout âge

Cerveau: on peut apprendre à tout âge

par Alice Latimier, Laboratoire de sciences cognitives et psycholinguistique, École normale supérieure (ENS) – PSL dans the Conversation


À 55 ans, Philippe a retrouvé du temps pour lui, depuis que ses enfants ont quitté la maison. Pourquoi n’apprendrait-il pas enfin le piano, comme il en a toujours rêvé ? Mais à 55 ans, se dit-il, je ne suis plus capable d’apprendre, je suis trop vieux et mon cerveau n’est plus aussi performant qu’à 20 ans… Nathalie, elle, a 30 ans. Pour son évolution de carrière, elle doit choisir entre un poste en Allemagne, qui ne l’attire pas vraiment, et un autre en Espagne, qu’elle juge formidable. J’aurais dû faire espagnol au lycée, regrette-t-elle, c’est trop tard aujourd’hui pour se mettre à une nouvelle langue.

Ce sentiment d’être trop vieux pour apprendre quoique ce soit de nouveau, beaucoup de personnes l’éprouvent. Mais est-il justifié ? Y a-t-il effectivement une limite d’âge à partir de laquelle notre cerveau n’est plus capable d’apprendre à jouer d’un instrument ou à parler une nouvelle langue ?

Apprendre, c’est en réalité l’activité de toute une vie. Dès le plus jeune âge, notre cerveau mobilise une grande partie de ses fonctions (attention, mémoire, vision/audition, motricité…) pour que nous puissions acquérir de nouveaux savoirs et savoir-faire. Quels sont les mécanismes qui nous permettent d’apprendre ? Et comment évoluent-ils avec le temps ?

Des connexions entre les neurones renforcées ou diminuées

L’apprentissage est un processus cognitif dynamique qui se déroule en deux étapes : l’acquisition d’une nouvelle information et son stockage en mémoire. Le résultat d’un apprentissage est en quelque sorte l’empreinte qui reste dans notre cerveau après que l’on ait vécu une expérience. Plus précisément, les neurones concernés par cette expérience ou l’acquisition d’une nouvelle information changent la manière dont ils dialoguent entre eux : leurs connexions (les synapses) se voient renforcées ou diminuées.

Parfois, la dynamique de nos apprentissages conduit purement et simplement à l’élimination de certaines connexions neuronales qui n’ont plus lieu d’être au profit d’autres connexions plus « utiles ». On parle, de manière imagée, d’un « élagage » synaptique (pruning en anglais), comme pour un arbre dont on coupe les branches encombrantes. Il se produit principalement durant l’enfance et ce grand chamboulement qu’est l’adolescence.

Ces modifications à l’échelle des neurones, en lien avec ce que nous apprenons, sont particulièrement intenses pendant l’enfance, alors même que nous acquérons une grande quantité de connaissances et développons de nouvelles compétences comme voir, toucher, marcher ou parler. Elles ont un impact à l’échelle du cerveau tout entier, en participant à la transformation des différents réseaux de neurones.

Une dynamique qui change la structure de notre cerveau
Les apprentissages laissent donc dans notre cerveau une trace physique de leur survenue, et cette dynamique s’appelle la plasticité cérébrale. La découverte de ce mécanisme par les neuroscientifiques a permis de comprendre une chose essentielle : rien n’est figé dans notre cerveau !

La plasticité cérébrale permet de remodeler le cerveau en permanence selon nos apprentissages. Ce remodelage est non seulement relativement rapide mais réversible. En effet, une équipe de chercheurs a trouvé que certaines régions du cerveau chez de jeunes adultes présentaient des modifications structurelles importantes après trois mois d’apprentissage à la jonglerie, par rapport à des personnes n’ayant pas suivi cet apprentissage ; et ces modifications disparaissaient quelques semaines après l’arrêt de cette activité. Voilà pourquoi les artistes s’entraînent tous les jours !

Nous sommes en quelque sorte « programmés » pour apprendre. L’organisation de notre cerveau peut s’adapter et se reconfigurer à tout moment, en fonction des expériences que nous vivons dès le plus jeune âge.

Il n’y a pas d’âge pour apprendre une nouvelle langue

Certaines périodes de la vie sont plus propices à certains apprentissages. La recherche en psychologie du développement a ainsi déterminé des « fenêtre temporelles » qui correspondent à des périodes durant lesquelles le cerveau a une capacité particulière à recevoir les informations de l’environnement. Par exemple, l’acquisition de la langue maternelle a fait l’objet de nombreuses études, et il semble qu’il existerait une fenêtre temporelle particulièrement propice à l’acquisition du langage. D’où cette idée répandue – à tort – que plus on vieillit, plus il est difficile d’apprendre une seconde langue. Même s’il semble en effet y avoir une période clé pour l’acquisition de la langue maternelle, c’est beaucoup moins clair pour une seconde langue.

Apprendre à parler une langue étrangère, à jouer d’un instrument, ou se lancer dans la peinture : la plasticité de notre cerveau nous le permet, quelque soit notre âge. Jules Zimmermann/Cog Innov, CC BY-NC-SA
L’équipe de Ana Ines Ansaldo, chercheuse en psychologie à l’Institut universitaire de gériatrie de Montréal (Canada), s’est intéressé à l’apprentissage d’une seconde langue chez des personnes adultes. Les chercheurs ont demandé à des non-hispanophones, un groupe de jeunes adultes et un groupe de personnes de plus de 65 ans, d’apprendre 100 mots en espagnol sur une période de trois semaines. Lors d’un test à l’issue de cet entraînement, les personnes âgées ont obtenu des temps de réponse et des nombres de bonnes réponses comparables aux jeunes adultes, montrant que les deux groupes ont des performances d’apprentissage similaires.

Et ce qui vaut pour le langage et les connaissances déclaratives (explicites) vaut aussi pour les connaissances procédurales (implicites, en lien avec les gestes et les mouvements). Ainsi, l’expérience de jonglage citée précédemment a été répliquée pour comparer, cette fois, la performance des personnes âgées par rapport aux jeunes. Les performances finales sont moindres chez les personnes âgées, cependant le même phénomène de plasticité a été observé. Autrement dit, l’apprentissage du jonglage a été moins efficace chez elles, mais les traces cérébrales de cet apprentissage sont bel et bien présentes.

Certaines compétences sont modifiées par le vieillissement normal du cerveau. Un apprentissage plus long peut être nécessaire pour compenser l’effet de l’âge. Mais le mécanisme de plasticité cérébrale permettant d’apprendre est présent toute la vie.

Un apprentissage plus long chez les personnes âgées

Plusieurs études ont mesuré les conséquences du vieillissement cognitif en utilisant une combinaison de tests de performance mentale. Leurs résultats montrent que les personnes plus âgées ont en moyenne des temps de réaction plus longs, une mémoire moins fiable, une perception sensorielle altérée, et elles ont plus de difficultés à résoudre des problèmes. Ces déficits mesurés en laboratoire seraient un frein à l’acquisition d’informations nouvelles.

Mais de telles études occultent une dimension importante de l’avancée en âge : l’accumulation des expériences au cours de la vie augmente la quantité de connaissances stockées dans le cerveau. En effet, cette accumulation d’expériences et la complexité des connaissances qui y sont associées sont plus importantes chez les personnes âgées. Ce qui rendrait plus difficile l’acquisition de nouvelles connaissances.

Cette expertise constituerait donc un handicap et expliquerait les résultats inférieurs des personnes âgées par rapport aux jeunes cerveaux. Mais pourrait-elle avoir certains bénéfices ?

L’expérience, un levier pour l’apprentissage

Dans l’expérience sur l’apprentissage de l’espagnol déjà citée, l’imagerie cérébrale des personnes âgées montre une activation particulière de certains réseaux de la mémoire qui n’est pas retrouvée chez les plus jeunes. Cette activation spécifique est celle de la mémoire dite « sémantique », qui stocke notamment les connaissances générales sur le monde. Dans le contexte d’un défi cognitif, comme apprendre une seconde langue, les personnes âgées font appel à leur expérience personnelle comme ressource cognitive en plus. Leur vécu plus fourni en expériences personnelles se révèle ainsi comme une aide à l’apprentissage.

En vieillissant, nous pouvons tirer profit de notre raisonnement plus affûté pour apprendre de nouvelles informations, même s’il est parfois plus lent à se mettre en route. Le recrutement spécifique de certaines régions du cerveau chez les personnes âgées lors d’un apprentissage nouveau serait le reflet de cet appel à l’expertise.

Il ne faut pas pour autant minimiser le vieillissement cérébral. Celui-ci est bien réel, comme le montre notamment la diminution mesurable de l’épaisseur du cortex, et les modifications de certaines performances mentales. Cependant, ces dernières sont à nuancer car les tests psychométriques ne tiennent pas compte de la richesse de l’expérience humaine, ni de la façon dont la connaissance augmente avec l’expérience.

La plasticité du cerveau « s’entretient »

« L’entretien » de notre cerveau semble jouer un rôle clé pour le maintien de sa plasticité entre 30 et 60 ans. Cette capacité est affaiblie si et seulement si nous cessons d’apprendre et de maintenir un état de curiosité à la nouveauté. Le chercheur Pierre Marie Lledo, neuroscientifique à l’institut Pasteur, explique qu’une combinaison de facteurs peut être bénéfique pour le maintien de cette plasticité incluant l’activité physique, peu de stress, ne pas consommer de psychotropes, et avoir des relations sociales en plus d’une activité cognitive régulière.

À tout âge, si les circonstances sont propices et en l’absence de pathologies neurologiques, apprendre par l’expérience reste la principale activité de notre cerveau au quotidien ! Même si les mécanismes de l’apprentissage sont moins performants à partir d’un certain âge en terme de vitesse d’acquisition, la plasticité cérébrale perdure toute la vie si nous maintenons notre esprit ouvert et actif pour de nouvelles expériences. Contrairement à ce que la recherche a longtemps pensé, nous ne sommes pas enfermés dans un déterminisme biologique qui nous permettrait d’apprendre seulement jusqu’à un certain âge.

Donc, du point de vue du fonctionnement du cerveau, rien n’empêche Philippe d’apprendre le piano à 55 ans, ni Nathalie d’apprendre l’espagnol à 30 ans. Leur vécu personnel et leur désir d’apprendre seront d’ailleurs des clés dans leur apprentissage.

À l’horizon 2070, le nombre de personnes âgées de plus de 75 ans devrait doubler et atteindrait alors 13 millions en France, selon l’Insee. Quelle place allons-nous donner aux seniors dans cette société vieillissante ? Allons-nous cantonner cette partie importante de la population à vivre dans son passé et ses souvenirs, ou bien la considérer pour ce qu’elle est, capable d’évoluer et d’apprendre ? Les données de la recherche en sciences cognitives peuvent servir d’outils concrets pour rendre la formation accessible tout au long de la vie.

Les neurones et les souvenirs

Les neurones et les souvenirs

par Daniel Choquet, Directeur de recherche au CNRS, neuroscience et imagerie, Université de Bordeaux
et Yann Humeau, Docteur en neurosciences, directeur de recherche au CNRS, Université de Bordeaux dans the Conversation (extrait)

Une avancée fondamentale dans notre compréhension du fonctionnement du cerveau a été la découverte dans les années 1970 que l’efficacité de la transmission synaptique était « plastique » : elle n’est pas fixe et peut être modulée par les activités neuronales précédentes. De manière importante, ces changements de la transmission synaptique pouvant être stables dans le temps – de plusieurs heures à plusieurs mois.

Cette découverte a conduit à l’hypothèse que des briques élémentaires de mémoire pourraient être « stockées » dans les synapses sous cette forme.
« Faisons l’hypothèse qu’une activité persistante et répétée d’une activité avec réverbération (ou trace) tend à induire un changement cellulaire persistant qui augmente sa stabilité. Quand un axone d’une cellule A est assez proche pour exciter une cellule B de manière répétée et persistante, une croissance ou des changements métaboliques prennent place dans l’une ou les deux cellules ce qui entraîne une augmentation de l’efficacité de A comme cellule stimulant B. » Donald Hebb, 1949

Comment les synapses stockent-elles l’information ? Cette question fondamentale pour notre compréhension des bases cellulaires de la mémoire mobilise les neuroscientifiques depuis plus de 50 ans. Jusqu’à la fin du siècle dernier, on pensait que les mécanismes essentiels en étaient une modulation de l’efficacité de libération de transmetteurs ou des propriétés biophysiques des récepteurs.
Maintenant, on pense plutôt que pour que le neurone post-synaptique adapte mieux sa réponse au neurotransmetteur, il est particulièrement intéressant que les protéines réceptrices soient mobiles sur de grandes distances : plusieurs laboratoires ont mis en évidence au tournant du XXIe siècle que la plasticité synaptique était associée à une variation du nombre de récepteurs à la synapse.

Ceci contrastait avec le dogme de l’époque, qui postulait que les récepteurs de neurotransmetteurs sont solidement ancrés dans les synapses et très stables. Mais différents groupes de recherche, dont le nôtre, ont alors découvert que les récepteurs étaient en perpétuellement en mouvement à la surface du neurone, diffusant librement grâce à la fluidité des membranes. Les récepteurs s’accumulent aux synapses par un phénomène de capture, mais ils s’échangent en permanence entre les différents compartiments du neurone.

De manière fascinante, nous avons également découvert que ce mouvement des récepteurs est fortement modulé par l’activité neuronale, ouvrant la porte à des études liant la mobilité des récepteurs à la mémoire !

Le contrôle de la mobilité des récepteurs ouvre de nouvelles fenêtres vers le contrôle de l’activité cérébrale.

La formation d’une mémoire est une symphonie jouée par plusieurs zones cérébrales qui se synchronisent pour permettre son encodage, sa consolidation et son rappel (qui permet de réagir de façon adaptée lorsqu’une même situation est rencontrée). De même, la plasticité synaptique est régie par plusieurs phases distinctes permettant une réaction immédiate (secondes), et son maintien à moyen terme (minutes) ou à plus long terme (jours et plus).

L’enjeu est désormais de comprendre comment ces deux phénomènes sont liés et le rôle joué par la mobilité des récepteurs. Nous avons récemment développé au laboratoire une nouvelle génération d’outils moléculaires permettant de contrôler efficacement la mobilité des récepteurs au glutamate, un neurotransmetteur majeur au sein du cerveau. En combinant des approches pharmacologiques, électrophysiologiques et comportementales, nous allons explorer le lien fondamental entre plasticité synaptique et mémoire chez la souris, et tenter de comprendre les mécanismes expliquant les désordres cognitifs associés aux maladies neurodégénératives ou neurodéveloppementales.

Sciences- évolutions cognitives et taille du cerveau

Sciences- évolutions cognitives et taille du cerveau

Tesla Monson, professeure d’anthropologie à l’Université Western Washington, explique depuis combien de temps les humains ont de si gros cerveaux. Un phénomène qui s’accompagne, selon elle, de nombreuses capacités cognitives.

Les fossiles nous racontent ce que les êtres humains et nos prédécesseurs faisaient il y a des centaines de milliers d’années. Mais certaines étapes importantes du cycle de la vie, comme la grossesse ou la gestation, ne laissent aucune trace dans les archives fossiles. Comment les étudier ? Une des caractéristiques de notre espèce est d’avoir des cerveaux de taille importante par rapport à la taille totale du corps, ce qui rend la grossesse particulièrement intéressante pour les paléoanthropologues. Mais alors que les crânes imposants d’Homo sapiens contribuent aux difficultés de l’accouchement, ce sont les cerveaux logés à l’intérieur qui ont permis à notre espèce de prendre son envol.

Mes collègues et moi voulons comprendre le développement du cerveau de nos ancêtres avant la naissance : était-il comparable à celui des fœtus aujourd’hui ? En étudiant quand la croissance prénatale et la grossesse sont devenues « humaines », on comprend mieux quand et comment le cerveau de nos ancêtres est devenu plus similaire au nôtre qu’à ceux de nos proches cousins les singes.

Nous avons étudié l’évolution des taux de croissance prénatale en regardant le développement in utero des dents, qui, elles, fossilisent. Grâce à un modèle mathématique des longueurs relatives des molaires, construit pour l’occasion, nous pouvons suivre les changements évolutifs des taux de croissance prénatale dans les archives fossiles.
D’après notre modèle, il semblerait que la grossesse et la croissance prénatale soient devenues plus proches de l’humain que du chimpanzé il y a près d’un million d’années.

La grossesse et la gestation sont des périodes importantes – elles guident la croissance ultérieure et orientent le cours biologique de la vie.
La suite après cette publicité

Mais la grossesse humaine, en particulier le travail et l’accouchement, coûte beaucoup d’énergie et est souvent dangereuse. Le cerveau du fœtus a besoin de beaucoup de nutriments pendant son développement et le taux de croissance de l’embryon pendant la gestation, également appelé « taux de croissance prénatale », impose un lourd tribut métabolique et physiologique au parent en gestation. De plus, le passage délicat de la tête et des épaules du nourrisson à travers le canal pelvien pendant l’accouchement peut entraîner la mort, tant de la mère que de l’enfant.

En contrepartie de ces inconvénients évolutifs, il faut une très bonne raison d’avoir une tête aussi grosse. Le gros cerveau caractéristique de l’espèce humaine s’accompagne de nombreuses capacités cognitives, et l’évolution du cerveau a contribué à la domination de notre espèce : elle est notamment associée à une utilisation accrue d’outils, à la création d’œuvres d’art et à la capacité de survivre dans des environnements variés. L’évolution de nos cerveaux est aussi entremêlée avec nos capacités à trouver et exploiter davantage de ressources, avec des outils et en coopérant par exemple.

Les changements dans la croissance prénatale nous renseignent également sur les façons dont les parents rassemblaient les ressources alimentaires et les distribuaient à leur progéniture. Ces ressources croissantes auraient contribué à l’évolution d’un cerveau encore plus gros. En comprenant mieux à quel moment la croissance prénatale et la grossesse sont devenues « humaines », on peut savoir quand et comment notre cerveau a évolué lui aussi.

L’homme a le taux de croissance prénatale le plus élevé de tous les primates vivant aujourd’hui, soit 11,58 grammes par jour. Les gorilles, par exemple, ont une taille adulte beaucoup plus grande que celle des humains, mais leur taux de croissance prénatale n’est que de 8,16 grammes par jour. Étant donné que plus d’un quart de la croissance du cerveau humain s’effectue pendant la gestation, le taux de croissance prénatale est directement lié à la taille du cerveau adulte. Quand et comment le taux de croissance prénatale de Homo sapiens a évolué est resté un mystère jusqu’à présent.
Ce que les dents révèlent de la croissance prénatale

Les chercheurs étudient depuis des siècles les restes de squelettes fossilisés, mais malheureusement, les cerveaux ne fossilisent pas – et encore moins la gestation et le taux de croissance prénatale.

Mes collègues et moi réfléchissons à la façon dont les dents se développent, très tôt dans l’utérus. Les dents permanentes commencent à se développer bien avant la naissance, vers 20 semaines de gestation. L’émail des dents est inorganique à plus de 95 %, et la majorité des fossiles de vertébrés est constituée de dents ou en possède. Partant de ce constat, nous avons décidé d’étudier la relation entre le taux de croissance prénatale, la taille du cerveau et la longueur des dents.

Nous avons mesuré les dents de 608 primates contemporains provenant de collections de squelettes du monde entier et les avons comparées aux taux de croissance prénatale calculés à partir de la durée moyenne de gestation et de la masse à la naissance pour chaque espèce. Comme indicateur de la taille du cerveau, nous utilisons le volume endocrânien (l’espace à l’intérieur du crâne). Nous avons constaté que le taux de croissance prénatale présente une corrélation significative avec la taille du cerveau adulte et la longueur relative des dents chez les singes et les grands singes.
Cette relation statistique a permis de générer une équation mathématique qui prédit le taux de croissance prénatale à partir de la taille des dents. Avec cette équation, nous pouvons prendre quelques dents molaires d’une espèce fossile éteinte et reconstituer exactement la vitesse de croissance de leur progéniture pendant la gestation.

En utilisant cette nouvelle méthode, nous avons pu reconstituer les taux de croissance prénatale pour treize espèces fossiles, construisant ainsi une chronologie des changements survenus au cours des six derniers millions d’années d’évolution des humains et des hominidés (le terme « hominidé » désigne toutes les espèces, Australopithecus entre autres, appartenant à la lignée « humaine » depuis sa séparation avec celle des chimpanzés, il y a environ 6 à 8 millions d’années). Grâce à ces recherches, nous savons maintenant que le taux de croissance prénatale a augmenté tout au long de l’évolution des hominidés, pour atteindre il y a moins d’un million d’années un taux semblable à celui des humains – qui dépasse celui observé chez tous les autres singes.
Un taux de croissance prénatale totalement similaire à celui des humains est apparu seulement avec l’évolution de notre espèce Homo sapiens, il y a 200 000 ans environ. Mais d’autres espèces d’hominidés vivant au cours des 200 000 dernières années, comme les Néandertaliens, avaient également des taux de croissance prénatale du même ordre de grandeur. Il reste à déterminer quels gènes ont été impliqués dans ces changements de taux de croissance.

Avec seulement quelques dents et une partie de la mâchoire, un expert chevronné peut en apprendre beaucoup sur un individu disparu : de quelle espèce il s’agissait, ce qu’il mangeait, s’il se battait pour obtenir des partenaires, à quel âge il est mort, s’il avait des problèmes de santé, et bien plus encore. Nous pouvons maintenant ajouter à cette liste le fait de savoir à quoi ressemblaient la grossesse et la gestation pour cette espèce. Les dents pourraient aussi refléter indirectement l’émergence de la conscience humaine, via l’évolution de la taille du cerveau.
Le modèle suggère que les taux de croissance prénatale ont commencé à augmenter bien avant l’émergence de notre espèce, Homo sapiens. On peut supposer qu’un taux de croissance prénatale rapide a été nécessaire à l’apparition d’un cerveau imposant et à l’évolution de la conscience et des capacités cognitives humaines. Voilà le genre de questions que nos recherches nous permettent dorénavant de formuler… à partir de quelques dents.

Cet article est republié à partir de The Conversation ..

Sciences et prospective- L’Intelligence artificielle (IA) au centre de toutes les activités économiques

Sciences et prospective- L’Intelligence artificielle (IA) au centre de toutes les activités économiques


L’objectif ultime de l’IA est de développer un système intelligent pour simuler la pensée et l’intelligence humaines, tandis que le Machine Learning (ML) permet à la machine d’apprendre à partir des données pour donner le résultat souhaité. Alors que l’IA vise à rendre les machines plus humaines, le ML aide à faire en sorte que les machines apprennent comme les humains. Par Xavier Dalloz, consultant spécialisé dans les nouvelles technologies.

Les principales applications de l’IA et du ML concernent l’intelligence prévisionnelle et l’aide à la prise de décision. Pour chaque application, le pouvoir ne vient pas des machines, mais des décideurs qui sont derrière les machines, guidant leur réaction aux prédictions.
Un scientifique de l’Institut Max Planck résume très bien le principal enjeu : « l’IA va changer la médecine. Cela va changer la recherche. Cela changera la bio-ingénierie. Cela va tout changer ».
Et pour Jack Solow, le messages est encore plus clair « en 2011, les logiciels dévoraient le monde ; en 2022, l’IA dévore les logiciels. » Toute entreprise sans stratégie d’IA viable sera marginalisée d’ici la fin de cette décennie ».

L’intelligence artificielle prendra la relève de nombreuses activités, telles que la recherche sur le net, obtenir des conseils de voyage, et surtout les assistants personnels et les chatbots. Avec de l’intelligence artificielle dans les objets, nous n’aurons plus besoin d’interagir avec eux puisqu’ils sont capables de devenir autonomes et d’apprendre à anticiper nos intentions. Plus concrètement, l’IA va nous libérer d’un certain nombre d’actes inutiles et chronophages.

Pour la Darpa, l’Intelligence artificielle se mesure en fonction de quatre capacités :
• Percevoir
o C’est-à-dire récupérer des informations de l’environnement externe et la capacité à inférer des choses sur le monde via des sons, des images et d’autres entrées sensorielles.
• Apprentissage
o C’est-à-dire améliorer de façon autonome les fonctions de base
• Abstraction
o C’est-à-dire adaptation autonome à de nouvelles situations et compréhension du contexte
• Raisonnement
o C’est-à-dire prendre des décisions correctes avec de meilleures réponses en fonction des connaissances disponibles

On peut résumer les étapes du déploiement de l’intelligence artificielle de la façon suivante ;
• Première étape – Connaissance artisanale
La première vague de systèmes d’IA repose sur des connaissances artisanales. Ces systèmes, construits par des experts du domaine, contiennent des règles qui décrivent les processus de base et les ensembles de connaissances de domaines spécifiques.
• Deuxième étape – Apprentissage statistique
Les systèmes d’IA de deuxième vague sont ceux construits en utilisant des techniques d’apprentissage automatique telles que les réseaux de neurones. Ces systèmes s’appuient sur des modèles statistiques qui caractérisent un domaine spécifique. Ils alimentent ensuite les algorithmes du Big data en affinant sa capacité à prédire correctement le résultat.
• Troisième étape – Adaptation contextuelle
La troisième vague d’IA est constitué des systèmes capables d’adaptation contextuelle. Ce sont des systèmes qui construisent des modèles explicatifs pour des classes de phénomènes du monde réel. Les systèmes de la troisième vague montrent une capacité à comprendre ce qu’ils font et pourquoi ils le font.
Les types d’intelligence artificielle peuvent être regroupées en cinq catégories:
• Raisonnement
La capacité de résoudre des problèmes par déduction logique .
• Connaissance
La capacité de présenter des connaissances sur le monde. Par exemple : la négociation sur les marchés financiers, la prévision des achats, la prévention de la fraude, la création de médicaments ou le diagnostic médical.
• Planification
La capacité de définir et d’atteindre des objectifs. Par exemple : la gestion des stocks, la prévision de la demande, la maintenance prédictive, l’optimisation des réseaux physique et numérique, etc.
• Communication
La capacité à comprendre le langage parlé et écrit. Par exemple : la traduction en temps réel des langues parlées et écrites, les assistants intelligents ou la commande vocale
• Explicabilité
Sans explications derrière les fonctionnalités internes d’un modèle d’IA et les décisions qu’il prend, il y a un risque que le modèle ne soit pas considéré comme digne de confiance ou légitime. XAI offre la compréhensibilité et la transparence nécessaires pour permettre une plus grande confiance envers les solutions basées sur l’IA.
• Les réseaux de neurones
Les réseaux de neurones fonctionnent sur les principes similaires à ceux des cellules neuronales humaines. Il s’agit d’une série d’algorithmes qui capturent la relation entre diverses variables sous-jacentes et enregistrent les données comme le fait un cerveau humain.
• Traitement du langage naturel (PNL)
Le PNL est une science de lecture, de compréhension, d’interprétation d’un langage par une machine. Une fois qu’une machine comprend ce que l’utilisateur a l’intention de communiquer, elle répond en conséquence.
• Vision par ordinateur
Utiliser la vision par ordinateur signifie que l’utilisateur entre une image dans le système et que ce qu’il reçoit en tant que sortie peut inclure des caractéristiques quantitatives et donc de décisions.

Voici quelques exemples d’applications de l’intelligence qui vont être au cœur de la réinvention de secteurs d’activités :

Exemples dans le domaine des services financiers
L’intelligence artificielle dans le secteur bancaire accélère la numérisation des processus bancaires et financiers de bout en bout. En mettant en œuvre la puissance de l’analyse de données, des algorithmes ML intelligents et des intégrations sécurisées dans les applications, les applications d’IA optimisent la qualité du service et aident les entreprises à identifier et à combattre les fausses transactions.
• Exemple des Chatbots IA
o Les chatbots IA du secteur bancaire peuvent assister les clients 24h/24 et 7j/7 et donner des réponses précises à leurs requêtes. Ces chatbots offrent une expérience personnalisée aux utilisateurs.
• Exemple de l’amélioration de l’expérience client
o Les applications mobiles intelligentes utilisant des algorithmes ML peuvent surveiller le comportement des utilisateurs et en tirer des informations précieuses basées sur les modèles de recherche des utilisateurs. Ces informations vont aider les fournisseurs de services à proposer des recommandations personnalisées aux utilisateurs finaux.

• Exemple de l’automatisation et rend le processus transparent
o Les applications d’IA peuvent réduire la charge de travail des banquiers et optimiser la qualité du travail.
• Exemple de la collecte et de l’analyse de données
o Les banques peuvent également prendre des décisions commerciales efficaces grâce aux informations tirées des données clients et leur proposer des recommandations de services personnalisées.
• Exemple de la gestion de portefeuille
o La gestion de patrimoine et de portefeuille peut être effectuée de manière plus puissante grâce à l’intelligence artificielle.
• Exemple de la gestion des risques
o L’IA va aider les banquiers à identifier les risques liés à l’octroi de prêts.
o En utilisant le processus d’évaluation des risques basé sur l’IA, les banquiers peuvent analyser le comportement de l’emprunteur et ainsi réduire la possibilité d’actes frauduleux.
• Exemple de la détection de la fraude
o Les applications bancaires d’intelligence artificielle détectent les risques et minimisent les actes frauduleux.

Exemples dans le domaine de la gestion des villes
• Exemple du contrôle de la pollution
o Prédire les niveaux de pollution pour les prochaines heures. Ce type de technologie permet aux autorités de prendre des décisions à l’avance pour réduire leur impact sur l’environnement.
• Exemple de la gestion des systèmes de stationnement
o La disponibilité des places peut être présentée aux utilisateurs en attente, certaines technologies plus avancées ont la capacité de recommander des places en fonction de la voiture.
• Exemple da la gestion des transports publics
o Permettre aux usagers des transports en commun de recevoir et d’accéder aux dates et suivis en temps réel, ce qui améliore le timing et la satisfaction des clients.
• Exemple de la gestion des déchets
o Permettre aux villes de suivre le recyclage et d’identifier ce qui peut être recyclé dans la région.
• Exemple de la gestion du trafic
o Prédire et réduire le trafic, en utilisant des algorithmes d’apprentissage en profondeur, ce qui peut également réduire la pollution créée par le trafic.
• Exemple du suivi de la consommation de l’énergie
o Analyser et suivre la consommation d’énergie des entreprises et des citoyens, avec ces données, il peut ensuite être décidé où impliquer des sources d’énergie renouvelables.
• Exemple de la gestion de l’environnement
o Permettre aux autorités et aux villes de prendre des décisions éclairées qui sont les meilleures pour l’environnement. Les villes intelligentes utilisent également l’IA pour détecter le CO2, ce qui peut ensuite conduire à des décisions en matière de transport.

Exemples dans le domaine du commerce de détail
Le potentiel pour stimuler les ventes avec de l’IA dans les magasins est considérable :
• La reconnaissance intelligente des produits et la facturation automatisée permettent des magasins sans caissier
• Les interfaces d’IA telles que les chatbots et les écrans interactifs prennent en charge le service client
• Une tarification intelligente permet de gérer la demande et de stimuler les ventes
• L’analyse prédictive aide à la prévision des prix en fonction de la demande et des tendances saisonnières
• La gestion intelligente de la chaîne d’approvisionnement et la logistique améliorent la disponibilité des produit.
• Les modèles d’apprentissage automatique catégorisent et regroupent automatiquement les produits
• Les cabines d’essayage virtuelles avec miroirs intelligents prennent en charge le libre-service au plus haut niveau
• Prédire le comportement des clients
• Améliorer l’aménagement de la surface de vente en fonction de l’analyse du comportement des clients

Exemples dans le domaine de la santé
Qu’il s’agisse de l’utiliser pour détecter des liens entre des codes génétiques, d’utiliser des robots chirurgicaux ou même de maximiser l’efficacité des hôpitaux.
Par exemple :
• Soutien aux décisions cliniques
• Amélioration aux soins primaires grâce aux chatbots
• Chirurgies robotiques
• Infirmières auxiliaires virtuelles
• Aide au diagnostic précis

Sciences-Taille du cerveau et évolutions cognitives

Sciences- Taille du cerveau humain et évolutions cognitives

Tesla Monson, professeure d’anthropologie à l’Université Western Washington, explique depuis combien de temps les humains ont de si gros cerveaux. Un phénomène qui s’accompagne, selon elle, de nombreuses capacités cognitives.

Les fossiles nous racontent ce que les êtres humains et nos prédécesseurs faisaient il y a des centaines de milliers d’années. Mais certaines étapes importantes du cycle de la vie, comme la grossesse ou la gestation, ne laissent aucune trace dans les archives fossiles. Comment les étudier ? Une des caractéristiques de notre espèce est d’avoir des cerveaux de taille importante par rapport à la taille totale du corps, ce qui rend la grossesse particulièrement intéressante pour les paléoanthropologues. Mais alors que les crânes imposants d’Homo sapiens contribuent aux difficultés de l’accouchement, ce sont les cerveaux logés à l’intérieur qui ont permis à notre espèce de prendre son envol.

Mes collègues et moi voulons comprendre le développement du cerveau de nos ancêtres avant la naissance : était-il comparable à celui des fœtus aujourd’hui ? En étudiant quand la croissance prénatale et la grossesse sont devenues « humaines », on comprend mieux quand et comment le cerveau de nos ancêtres est devenu plus similaire au nôtre qu’à ceux de nos proches cousins les singes.

Nous avons étudié l’évolution des taux de croissance prénatale en regardant le développement in utero des dents, qui, elles, fossilisent. Grâce à un modèle mathématique des longueurs relatives des molaires, construit pour l’occasion, nous pouvons suivre les changements évolutifs des taux de croissance prénatale dans les archives fossiles.
D’après notre modèle, il semblerait que la grossesse et la croissance prénatale soient devenues plus proches de l’humain que du chimpanzé il y a près d’un million d’années.

La grossesse et la gestation sont des périodes importantes – elles guident la croissance ultérieure et orientent le cours biologique de la vie.
La suite après cette publicité

Mais la grossesse humaine, en particulier le travail et l’accouchement, coûte beaucoup d’énergie et est souvent dangereuse. Le cerveau du fœtus a besoin de beaucoup de nutriments pendant son développement et le taux de croissance de l’embryon pendant la gestation, également appelé « taux de croissance prénatale », impose un lourd tribut métabolique et physiologique au parent en gestation. De plus, le passage délicat de la tête et des épaules du nourrisson à travers le canal pelvien pendant l’accouchement peut entraîner la mort, tant de la mère que de l’enfant.

En contrepartie de ces inconvénients évolutifs, il faut une très bonne raison d’avoir une tête aussi grosse. Le gros cerveau caractéristique de l’espèce humaine s’accompagne de nombreuses capacités cognitives, et l’évolution du cerveau a contribué à la domination de notre espèce : elle est notamment associée à une utilisation accrue d’outils, à la création d’œuvres d’art et à la capacité de survivre dans des environnements variés. L’évolution de nos cerveaux est aussi entremêlée avec nos capacités à trouver et exploiter davantage de ressources, avec des outils et en coopérant par exemple.

Les changements dans la croissance prénatale nous renseignent également sur les façons dont les parents rassemblaient les ressources alimentaires et les distribuaient à leur progéniture. Ces ressources croissantes auraient contribué à l’évolution d’un cerveau encore plus gros. En comprenant mieux à quel moment la croissance prénatale et la grossesse sont devenues « humaines », on peut savoir quand et comment notre cerveau a évolué lui aussi.

L’homme a le taux de croissance prénatale le plus élevé de tous les primates vivant aujourd’hui, soit 11,58 grammes par jour. Les gorilles, par exemple, ont une taille adulte beaucoup plus grande que celle des humains, mais leur taux de croissance prénatale n’est que de 8,16 grammes par jour. Étant donné que plus d’un quart de la croissance du cerveau humain s’effectue pendant la gestation, le taux de croissance prénatale est directement lié à la taille du cerveau adulte. Quand et comment le taux de croissance prénatale de Homo sapiens a évolué est resté un mystère jusqu’à présent.
Ce que les dents révèlent de la croissance prénatale

Les chercheurs étudient depuis des siècles les restes de squelettes fossilisés, mais malheureusement, les cerveaux ne fossilisent pas – et encore moins la gestation et le taux de croissance prénatale.

Mes collègues et moi réfléchissons à la façon dont les dents se développent, très tôt dans l’utérus. Les dents permanentes commencent à se développer bien avant la naissance, vers 20 semaines de gestation. L’émail des dents est inorganique à plus de 95 %, et la majorité des fossiles de vertébrés est constituée de dents ou en possède. Partant de ce constat, nous avons décidé d’étudier la relation entre le taux de croissance prénatale, la taille du cerveau et la longueur des dents.

Nous avons mesuré les dents de 608 primates contemporains provenant de collections de squelettes du monde entier et les avons comparées aux taux de croissance prénatale calculés à partir de la durée moyenne de gestation et de la masse à la naissance pour chaque espèce. Comme indicateur de la taille du cerveau, nous utilisons le volume endocrânien (l’espace à l’intérieur du crâne). Nous avons constaté que le taux de croissance prénatale présente une corrélation significative avec la taille du cerveau adulte et la longueur relative des dents chez les singes et les grands singes.
Cette relation statistique a permis de générer une équation mathématique qui prédit le taux de croissance prénatale à partir de la taille des dents. Avec cette équation, nous pouvons prendre quelques dents molaires d’une espèce fossile éteinte et reconstituer exactement la vitesse de croissance de leur progéniture pendant la gestation.

En utilisant cette nouvelle méthode, nous avons pu reconstituer les taux de croissance prénatale pour treize espèces fossiles, construisant ainsi une chronologie des changements survenus au cours des six derniers millions d’années d’évolution des humains et des hominidés (le terme « hominidé » désigne toutes les espèces, Australopithecus entre autres, appartenant à la lignée « humaine » depuis sa séparation avec celle des chimpanzés, il y a environ 6 à 8 millions d’années). Grâce à ces recherches, nous savons maintenant que le taux de croissance prénatale a augmenté tout au long de l’évolution des hominidés, pour atteindre il y a moins d’un million d’années un taux semblable à celui des humains – qui dépasse celui observé chez tous les autres singes.
Un taux de croissance prénatale totalement similaire à celui des humains est apparu seulement avec l’évolution de notre espèce Homo sapiens, il y a 200 000 ans environ. Mais d’autres espèces d’hominidés vivant au cours des 200 000 dernières années, comme les Néandertaliens, avaient également des taux de croissance prénatale du même ordre de grandeur. Il reste à déterminer quels gènes ont été impliqués dans ces changements de taux de croissance.

Avec seulement quelques dents et une partie de la mâchoire, un expert chevronné peut en apprendre beaucoup sur un individu disparu : de quelle espèce il s’agissait, ce qu’il mangeait, s’il se battait pour obtenir des partenaires, à quel âge il est mort, s’il avait des problèmes de santé, et bien plus encore. Nous pouvons maintenant ajouter à cette liste le fait de savoir à quoi ressemblaient la grossesse et la gestation pour cette espèce. Les dents pourraient aussi refléter indirectement l’émergence de la conscience humaine, via l’évolution de la taille du cerveau.
Le modèle suggère que les taux de croissance prénatale ont commencé à augmenter bien avant l’émergence de notre espèce, Homo sapiens. On peut supposer qu’un taux de croissance prénatale rapide a été nécessaire à l’apparition d’un cerveau imposant et à l’évolution de la conscience et des capacités cognitives humaines. Voilà le genre de questions que nos recherches nous permettent dorénavant de formuler… à partir de quelques dents.

Cet article est republié à partir de The Conversation ..

Taille du cerveau humain et évolutions cognitives

Taille du cerveau humain et évolutions cognitives

Tesla Monson, professeure d’anthropologie à l’Université Western Washington, explique depuis combien de temps les humains ont de si gros cerveaux. Un phénomène qui s’accompagne, selon elle, de nombreuses capacités cognitives.

Les fossiles nous racontent ce que les êtres humains et nos prédécesseurs faisaient il y a des centaines de milliers d’années. Mais certaines étapes importantes du cycle de la vie, comme la grossesse ou la gestation, ne laissent aucune trace dans les archives fossiles. Comment les étudier ? Une des caractéristiques de notre espèce est d’avoir des cerveaux de taille importante par rapport à la taille totale du corps, ce qui rend la grossesse particulièrement intéressante pour les paléoanthropologues. Mais alors que les crânes imposants d’Homo sapiens contribuent aux difficultés de l’accouchement, ce sont les cerveaux logés à l’intérieur qui ont permis à notre espèce de prendre son envol.

Mes collègues et moi voulons comprendre le développement du cerveau de nos ancêtres avant la naissance : était-il comparable à celui des fœtus aujourd’hui ? En étudiant quand la croissance prénatale et la grossesse sont devenues « humaines », on comprend mieux quand et comment le cerveau de nos ancêtres est devenu plus similaire au nôtre qu’à ceux de nos proches cousins les singes.

Nous avons étudié l’évolution des taux de croissance prénatale en regardant le développement in utero des dents, qui, elles, fossilisent. Grâce à un modèle mathématique des longueurs relatives des molaires, construit pour l’occasion, nous pouvons suivre les changements évolutifs des taux de croissance prénatale dans les archives fossiles.
D’après notre modèle, il semblerait que la grossesse et la croissance prénatale soient devenues plus proches de l’humain que du chimpanzé il y a près d’un million d’années.

La grossesse et la gestation sont des périodes importantes – elles guident la croissance ultérieure et orientent le cours biologique de la vie.
La suite après cette publicité

Mais la grossesse humaine, en particulier le travail et l’accouchement, coûte beaucoup d’énergie et est souvent dangereuse. Le cerveau du fœtus a besoin de beaucoup de nutriments pendant son développement et le taux de croissance de l’embryon pendant la gestation, également appelé « taux de croissance prénatale », impose un lourd tribut métabolique et physiologique au parent en gestation. De plus, le passage délicat de la tête et des épaules du nourrisson à travers le canal pelvien pendant l’accouchement peut entraîner la mort, tant de la mère que de l’enfant.

En contrepartie de ces inconvénients évolutifs, il faut une très bonne raison d’avoir une tête aussi grosse. Le gros cerveau caractéristique de l’espèce humaine s’accompagne de nombreuses capacités cognitives, et l’évolution du cerveau a contribué à la domination de notre espèce : elle est notamment associée à une utilisation accrue d’outils, à la création d’œuvres d’art et à la capacité de survivre dans des environnements variés. L’évolution de nos cerveaux est aussi entremêlée avec nos capacités à trouver et exploiter davantage de ressources, avec des outils et en coopérant par exemple.

Les changements dans la croissance prénatale nous renseignent également sur les façons dont les parents rassemblaient les ressources alimentaires et les distribuaient à leur progéniture. Ces ressources croissantes auraient contribué à l’évolution d’un cerveau encore plus gros. En comprenant mieux à quel moment la croissance prénatale et la grossesse sont devenues « humaines », on peut savoir quand et comment notre cerveau a évolué lui aussi.

L’homme a le taux de croissance prénatale le plus élevé de tous les primates vivant aujourd’hui, soit 11,58 grammes par jour. Les gorilles, par exemple, ont une taille adulte beaucoup plus grande que celle des humains, mais leur taux de croissance prénatale n’est que de 8,16 grammes par jour. Étant donné que plus d’un quart de la croissance du cerveau humain s’effectue pendant la gestation, le taux de croissance prénatale est directement lié à la taille du cerveau adulte. Quand et comment le taux de croissance prénatale de Homo sapiens a évolué est resté un mystère jusqu’à présent.
Ce que les dents révèlent de la croissance prénatale

Les chercheurs étudient depuis des siècles les restes de squelettes fossilisés, mais malheureusement, les cerveaux ne fossilisent pas – et encore moins la gestation et le taux de croissance prénatale.

Mes collègues et moi réfléchissons à la façon dont les dents se développent, très tôt dans l’utérus. Les dents permanentes commencent à se développer bien avant la naissance, vers 20 semaines de gestation. L’émail des dents est inorganique à plus de 95 %, et la majorité des fossiles de vertébrés est constituée de dents ou en possède. Partant de ce constat, nous avons décidé d’étudier la relation entre le taux de croissance prénatale, la taille du cerveau et la longueur des dents.

Nous avons mesuré les dents de 608 primates contemporains provenant de collections de squelettes du monde entier et les avons comparées aux taux de croissance prénatale calculés à partir de la durée moyenne de gestation et de la masse à la naissance pour chaque espèce. Comme indicateur de la taille du cerveau, nous utilisons le volume endocrânien (l’espace à l’intérieur du crâne). Nous avons constaté que le taux de croissance prénatale présente une corrélation significative avec la taille du cerveau adulte et la longueur relative des dents chez les singes et les grands singes.
Cette relation statistique a permis de générer une équation mathématique qui prédit le taux de croissance prénatale à partir de la taille des dents. Avec cette équation, nous pouvons prendre quelques dents molaires d’une espèce fossile éteinte et reconstituer exactement la vitesse de croissance de leur progéniture pendant la gestation.

En utilisant cette nouvelle méthode, nous avons pu reconstituer les taux de croissance prénatale pour treize espèces fossiles, construisant ainsi une chronologie des changements survenus au cours des six derniers millions d’années d’évolution des humains et des hominidés (le terme « hominidé » désigne toutes les espèces, Australopithecus entre autres, appartenant à la lignée « humaine » depuis sa séparation avec celle des chimpanzés, il y a environ 6 à 8 millions d’années). Grâce à ces recherches, nous savons maintenant que le taux de croissance prénatale a augmenté tout au long de l’évolution des hominidés, pour atteindre il y a moins d’un million d’années un taux semblable à celui des humains – qui dépasse celui observé chez tous les autres singes.
Un taux de croissance prénatale totalement similaire à celui des humains est apparu seulement avec l’évolution de notre espèce Homo sapiens, il y a 200 000 ans environ. Mais d’autres espèces d’hominidés vivant au cours des 200 000 dernières années, comme les Néandertaliens, avaient également des taux de croissance prénatale du même ordre de grandeur. Il reste à déterminer quels gènes ont été impliqués dans ces changements de taux de croissance.

Avec seulement quelques dents et une partie de la mâchoire, un expert chevronné peut en apprendre beaucoup sur un individu disparu : de quelle espèce il s’agissait, ce qu’il mangeait, s’il se battait pour obtenir des partenaires, à quel âge il est mort, s’il avait des problèmes de santé, et bien plus encore. Nous pouvons maintenant ajouter à cette liste le fait de savoir à quoi ressemblaient la grossesse et la gestation pour cette espèce. Les dents pourraient aussi refléter indirectement l’émergence de la conscience humaine, via l’évolution de la taille du cerveau.
Le modèle suggère que les taux de croissance prénatale ont commencé à augmenter bien avant l’émergence de notre espèce, Homo sapiens. On peut supposer qu’un taux de croissance prénatale rapide a été nécessaire à l’apparition d’un cerveau imposant et à l’évolution de la conscience et des capacités cognitives humaines. Voilà le genre de questions que nos recherches nous permettent dorénavant de formuler… à partir de quelques dents.

Cet article est republié à partir de The Conversation ..

IA: Une intelligence limitée

IA: Une intelligence limitée

Les techniques actuelles d’intelligence artificielle, même avec toujours plus de puissance informatique, resteront intellectuellement limitées. Par Jean-Louis Dessalles, Institut Mines-Télécom (IMT)

Il y a près de 10 ans, en 2012, le monde scientifique s’émerveillait des prouesses de l’apprentissage profond (le deep learning). Trois ans plus tard, cette technique permettait au programme AlphaGo de vaincre les champions de Go. Et certains ont pris peur. Elon Musk, Stephen Hawking et Bill Gates s’inquiétèrent d’une fin prochaine de l’humanité, supplantée par des intelligences artificielles échappant à tout contrôle.

N’était-ce pas un peu exagéré ? C’est précisément ce que pense l’IA. Dans un article qu’il a écrit en 2020 dans The Guardian, GPT-3, ce gigantesque réseau de neurones doté de 175 milliards de paramètres explique :

« Je suis ici pour vous convaincre de ne pas vous inquiéter. L’intelligence artificielle ne va pas détruire les humains. Croyez-moi. »
En même temps, nous savons que la puissance des machines ne cesse d’augmenter. Entraîner un réseau comme GPT-3 était impensable, littéralement, il y a encore cinq ans. Impossible de savoir de quoi seront capables ses successeurs dans cinq, dix ou vingt ans. Si les réseaux de neurones actuels peuvent remplacer les dermatologues, pourquoi ne finiraient-ils pas par nous remplacer tous ?
Y a-t-il des compétences mentales humaines qui restent strictement hors d’atteinte de l’intelligence artificielle ?

On pense immédiatement à des aptitudes impliquant notre « intuition » ou notre « créativité ». Pas de chance, l’IA prétend nous attaquer sur ces terrains-là également. Pour preuve, le fait que des œuvres créées par programmes se sont vendues fort cher, certaines atteignant presque le demi-million de dollars. Côté musique, chacun se fera bien sûr son opinion, mais on peut déjà reconnaître du bluegrass acceptable ou du quasi Rachmaninoff dans les imitations du programme MuseNet créé, comme GPT-3, par OpenAI.

Devrons-nous bientôt nous soumettre avec résignation à l’inévitable suprématie de l’intelligence artificielle ? Avant d’en appeler à la révolte, essayons de regarder à quoi nous avons affaire. L’intelligence artificielle repose sur plusieurs techniques, mais son succès récent est dû à une seule : les réseaux de neurones, notamment ceux de l’apprentissage profond. Or un réseau de neurones n’est rien de plus qu’une machine à associer. Le réseau profond qui fit parler de lui en 2012 associait des images : un cheval, un bateau, des champignons, aux mots correspondants. Pas de quoi crier au génie.

Sauf que ce mécanisme d’association possède la propriété un peu miraculeuse d’être « continue ». Vous présentez un cheval que le réseau n’a jamais vu, il le reconnaît en tant que cheval. Vous ajoutez du bruit à l’image, cela ne le gêne pas. Pourquoi ? Parce que la continuité du processus vous garantit que si l’entrée du réseau change un peu, sa sortie changera peu également. Si vous forcez le réseau, qui hésite toujours, à opter pour sa meilleure réponse, celle-ci ne variera probablement pas : un cheval reste un cheval, même s’il est différent des exemples appris, même si l’image est bruitée.

Bien, mais pourquoi dire qu’un tel comportement associatif est « intelligent » ? La réponse semble évidente : il permet de diagnostiquer les mélanomes, d’accorder des prêts bancaires, de maintenir un véhicule sur la route, de détecter une pathologie dans les signaux physiologiques, et ainsi de suite. Ces réseaux, grâce à leur pouvoir d’association, acquièrent des formes d’expertise qui demandent aux humains des années d’études. Et lorsque l’une de ces compétences, par exemple la rédaction d’un article de presse, semble résister un temps, il suffit de faire ingurgiter à la machine encore davantage d’exemples, comme ce fut fait avec GPT-3, pour que la machine commence à produire des résultats convaincants.

Est-ce vraiment cela, être intelligent ? Non. Ce type de performance ne représente au mieux qu’un petit aspect de l’intelligence. Ce que font les réseaux de neurones ressemble à de l’apprentissage par cœur. Ce n’en est pas, bien sûr, puisque ces réseaux comblent par continuité les vides entre les exemples qui leur ont été présentés. Disons que c’est du presque-par-cœur. Les experts humains, qu’ils soient médecins, pilotes ou joueurs de Go, ne font souvent pas autre chose lorsqu’ils décident de manière réflexe, grâce à la grande quantité d’exemples appris pendant leur formation. Mais les humains ont bien d’autres pouvoirs.

Un réseau de neurones ne peut pas apprendre à calculer. L’association entre des opérations comme 32+73 et leur résultat à des limites. Ils ne peuvent que reproduire la stratégie du cancre qui tente de deviner le résultat, en tombant parfois juste. Calculer est trop difficile ? Qu’en est-il d’un test de QI élémentaire du genre : continuer la suite 1223334444. L’association par continuité n’est toujours d’aucun secours pour voir que la structure, n répété n fois, se poursuit par cinq 5. Encore trop difficile ? Les programmes associatifs ne peuvent même pas deviner qu’un animal mort le mardi n’est pas vivant le mercredi. Pourquoi ? Que leur manque-t-il ?

La modélisation en sciences cognitives a révélé l’existence de plusieurs mécanismes, autres que l’association par continuité, qui sont autant de composantes de l’intelligence humaine. Parce que leur expertise est entièrement précalculée, ils ne peuvent pas raisonner dans le temps pour décider qu’un animal mort reste mort, ou pour comprendre le sens de la phrase « il n’est toujours pas mort » et la bizarrerie de cette autre phrase : « il n’est pas toujours mort ». La seule prédigestion de grandes quantités de données ne leur permet pas non plus de repérer les structures inédites si évidentes pour nous, comme les groupes de nombres identiques dans la suite 1223334444. Leur stratégie du presque-par-cœur est aussi aveugle aux anomalies inédites.

La détection des anomalies est un cas intéressant, car c’est souvent à travers elle que nous jaugeons l’intelligence d’autrui. Un réseau de neurones ne « verra » pas que le nez est absent d’un visage. Par continuité, il continuera à reconnaître la personne, ou peut-être la confondra-t-il avec une autre. Mais il n’a aucun moyen de réaliser que l’absence de nez au milieu du visage constitue une anomalie.

Il existe bien d’autres mécanismes cognitifs qui sont inaccessibles aux réseaux de neurones. Leur automatisation fait l’objet de recherches. Elle met en œuvre des opérations effectuées au moment du traitement, là où les réseaux de neurones se contentent d’effectuer des associations apprises par avance.

Avec une décennie de recul sur le deep learning, le public averti commence à voir les réseaux de neurones bien plus comme de « super-automatismes » et bien moins comme des intelligences. Par exemple, la presse a récemment alerté sur les étonnantes performances du programme DALL-E, qui produit des images créatives à partir d’une description verbale – par exemple, les images que DALL-E imagine à partir des termes « fauteuil en forme d’avocat », sur le site OpenAI). On entend maintenant des jugements bien plus mesurés que les réactions alarmistes qui ont suivi la sortie d’AlphaGo : « C’est assez bluffant, mais il ne faut pas oublier qu’il s’agit d’un réseau de neurones artificiel, entraîné pour accomplir une tâche ; il n’y a aucune créativité ni aucune forme d’intelligence. » (Fabienne Chauvière, France Inter, 31 janvier 2021)

Aucune forme d’intelligence ? Ne soyons pas trop exigeants, mais restons lucides sur l’énorme fossé qui sépare les réseaux de neurones de ce que serait une véritable intelligence artificielle.
________
Par Jean-Louis Dessalles, Maître de Conférences, Institut Mines-Télécom (IMT)
Jean Louis Dessalles a écrit « Des intelligences très artificielles » aux éditions Odile Jacob (2019).

Obsolescence de l’homme avec l’intelligence artificielle ?

Obsolescence de l’homme avec l’intelligence artificielle ?

Ingénieure diplômée de l’École polytechnique, spécialiste de l’intelligence artificielle et co-autrice de « Intelligence artificielle » La nouvelle barbarie » (éditions du Rocher, 2019), Marie David fait le point dans Marianne

L’intelligence artificielle (IA) ChatGPT, capable de converser « intelligemment » et d’émettre des avis pertinents, crée beaucoup d’engouement sur Internet. Le comprenez-vous ?

Marie David :Oui, car même si les technologies utilisées pour faire tourner ChatGPT existent depuis longtemps, c’est la première fois qu’un modèle aussi performant est mis à disposition du grand public. En effet, contrairement aux modèles précédents développés par OpenAI, qui apprenaient à répliquer des motifs à partir d’un corpus donné, ChatGPT a été ré-entraîné par des techniques complémentaires dites de « réapprentissage renforcé ». Cela signifie que le modèle a été entraîné afin de pouvoir donner des réponses plus proches de celles que fournirait un être humain. En résumé, ChatGPT offre une variété très impressionnante de fonctionnalités et une vraie versatilité. On peut l’utiliser pour lui demander des informations sur de nombreux sujets, traduire un texte, rédiger des mails ou des textes simples, comprendre des lignes de code informatique ou en écrire… Les applications sont immenses.

« Il faut donc envisager un monde où les productions des IA trouvent leur place au sein des productions humaines. »

En revanche, il faut préciser que ChatGPT n’est que la suite de progrès incrémentaux [c’est-à-dire qui découlent des améliorations de l’existant – N.D.L.R.] dans ce domaine de l’IA qui est celui de l’apprentissage statistique [type de méthodes qui se fondent sur les mathématiques et les statistiques pour donner aux IA la capacité d'« apprendre » à partir de données – N.D.L.R.]. Il n’y a pas de magie, ni d’ailleurs d’intelligence derrière cette IA, qui, comme les autres modèles de deep learning, requiert des milliards d’heures de calcul et des volumes faramineux de données pour être entraînée.


Dans le même temps, Midjourney transforme les textes en dessin. L’homme risque-t-il d’être dépassé par l’IA dans la création artistique ?

Dans la création artistique, oui bien sûr, et dans de nombreux autres domaines. Plutôt que dépassé, j’utiliserai le mot « remplacé ». Aujourd’hui les IA peuvent produire des images, composer des morceaux, écrire des articles de journaux ou de blog (comme GPT-3, l’ancêtre de ChatGPT), traiter des conversations sur des scripts simples (par exemple comprendre le problème d’un consommateur et l’orienter vers un service client), voire écrire des livres, comme en publie la jeune maison d’édition Rrose édition. Une IA n’écrira jamais Ulysse (James Joyce, 1922) ni l’Homme sans qualité (Robert Musil, 1930), mais elle peut sans problème produire un texte équivalent à 90% de ce qui couvre les tables des libraires. Cela donne lieu à des réflexions fascinantes sur le rôle de la moyenne et de la régularité.

Tant que les productions humaines restent dans une certaine régularité, une IA peut sans problème les remplacer. Mais n’y a-t-il pas par essence de la moyenne, de la régularité dans toutes les productions humaines, des répétitions dans une école de peinture ? Dans les compositions d’un musicien ? Il faut donc envisager un monde où les productions des IA trouvent leur place au sein des productions humaines, ce qui pose des questions fascinantes.

« L’obsolescence de l’homme » dont parlait le philosophe Günther Anders, en 1956, est-elle toute proche ?

Je vais vous répondre d’une façon provocatrice : ce qui m’étonne c’est que finalement les IA soient si peu utilisées. Nous pourrions en réalité remettre beaucoup plus de nos décisions de la vie de tous les jours aux IA, automatiser beaucoup plus d’emplois, et leur faire produire beaucoup plus de choses (des livres, des films). Je ne dis pas que c’est souhaitable, simplement que c’est techniquement possible. Mon interprétation est que nous avons malgré tout une répugnance instinctive à nous faire remplacer par des machines, qui fait qu’au-delà de leur coût encore prohibitif et de leur complexité, nous rechignons à utiliser les IA à leurs pleines capacités.

Finalement, les grandes évolutions scientifiques mettent des dizaines voire des centaines d’années à se diffuser dans le reste d’une culture. La révolution copernicienne s’est étendue sur plus de 150 ans. Il est trop tôt pour nous pour comprendre en quoi cette technologie va profondément modifier notre façon de travailler et d’interagir avec la machine. Ce qui est le plus inquiétant, c’est l’anthropomorphisation inévitable de notre relation avec des algorithmes comme l’avait montré Shelly Turkle dans son remarquable essai Seuls ensemble (traduit par les éditions L’échappée en 2015).

Nous ne pouvons nous empêcher de prêter des sentiments humains et en tout cas d’en éprouver vis-à-vis d’un artefact (qu’il soit un robot ou comme ChatGPT un chatbot) qui simule soit des caractéristiques du vivant, soit des facultés cognitives comme celles de l’homme. Les créateurs de ChatGPT ont d’ailleurs été sensibles à ce problème puisque l’algorithme vous rappelle très régulièrement qu’il n’est qu’une IA.

L’autre développement inquiétant c’est que nous devons de plus en plus travailler au service des IA : en effet pour préparer les immenses volumes de données sur lesquelles les IA sont entraînées, il faut des petites mains pour classifier et annoter les données. Ce sont des tâches répétitives et mal payées, nécessaires cependant pour avoir des IA performantes. Un nouveau prolétariat au service des machines pourrait ainsi se développer

12345...14



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol