Archive pour la Catégorie 'sciences'

Page 4 sur 14

L’intelligence artificielle va-t-elle remplacer l’être humain ?

L’intelligence artificielle va-t-elle remplacer l’être humain ?

Par Charles Hadji
Professeur honoraire (Sciences de l’éducation), Université Grenoble Alpes (UGA)

dans The Conversation France

Depuis sa mise en ligne fin novembre, le logiciel ChatGPT, agent conversationnel (chatbot) qui utilise les capacités impressionnantes du plus gros réseau mondial de neurones artificiels actuel (GPT-3), a provoqué un tsunami de questions sur les sujets les plus variés de demandes de rédaction de devoirs, d’articles, de courriers, etc. Destinées à l’éprouver, à en tester les limites, ces utilisations très diverses ont aussi fait naître, ou conforté, de fortes craintes.Au-delà même de ses dangers immédiatement visibles (fabrication possible de fake news, triche aux examens, facilitation d’entreprises illégales ou nocives), et contre lesquels il y aurait lieu de se prémunir par des régulations appropriées, cet outil d’intelligence artificielle (IA), n’est-il pas de nature à remplacer un humain devenu obsolète ? Le moment de la fin de la « singularité », l’IA venant dépasser l’intelligence de l’homme, n’est-il pas arrivé ? La machine ne va-t-elle pas pousser l’homme dans les oubliettes de l’histoire ?

La question de savoir s’il faut craindre que la machine se hisse au niveau de l’humain, voire le dépasse, en soulève en fait deux autres, que nous proposons d’examiner rapidement. La première porte sur l’étendue de ce que l’IA peut en quelque sorte arracher à l’homme. Il s’agit de savoir ce qui est vraiment à portée des « machines intelligentes ». N’existe-t-il pas des capacités spécifiquement humaines, qui rendraient l’homme irremplaçable, le mettant à l’abri des empiétements dévastateurs de l’IA ?
La deuxième porte sur l’intensité, et la nature même, de la peur que l’homme doit éprouver quand sont en question ses pouvoirs dans les domaines de la connaissance et de l’action. Qu’est-ce que l’homme doit craindre le plus : le développement de l’IA, ou la force et la permanence de ses tentations et perversions ? L’homme ne serait-il pas, bien plus que la machine, le principal ennemi de l’Homme ?

La première question nous invite à nous prononcer sur l’existence de capacités humaines qui ne seraient pas « algorithmables », c’est-à-dire découpables en une suite logique d’opérations permettant d’atteindre à coup sûr un résultat désiré. Il devrait être clair que la réponse à cette question relève sans doute plus de l’anthropologie, et de la philosophie, que de la robotique et de l’IA. Car on peut s’attendre à ce que l’IA prenne en charge tout ce que peuvent faire les êtres humains sur le plan cognitif, sauf ce qui relèverait de ce que seuls les humains sont capables de faire : douter, faillir, et souffrir.

Les performances de ChatGPT sont particulièrement impressionnantes dans le champ de ce qui est calculable. Mais calculer n’est pas penser. Il manque au calcul la dimension de la distanciation, autrement dit du doute. Un algorithme n’est pas capable de sortir de lui-même, comme l’expliquait le spécialiste de robotique Raja Chatila dans Le Monde en 2020. Il déroule, sans état d’âme, sa suite d’opérations. Alors que l’homme est capable, non seulement de produire, mais de s’interroger continûment sur ses productions.

Depuis sa mise en ligne fin novembre, le logiciel ChatGPT a provoqué un tsunami de questions sur les sujets les plus variés. Shutterstock
ChatGPT pourrait très bien réécrire le Cogito de Descartes, mais alors en imitant seulement son style, sans prendre lui-même la décision de sortir du rapport habituel à la réalité, et sans mettre en œuvre le travail intellectuel par lequel cette décision devient opératoire. Il n’est pas capable de produire des idées, car l’idée n’est pas « une peinture muette sur un panneau ». « L’idée, mode du penser ne consiste ni dans l’image de quelque chose, ni dans les mots », disait Spinoza dans l’Ethique.

Dire des mots (produire un texte, ce dont est capable ChatGPT) n’est pas davantage penser que simplement calculer. Blaise Pascal, par ailleurs inventeur de ce qui est considéré comme la première machine à calculer (« la pascaline ») avait perçu les limites des algorithmes : « La machine d’arithmétique fait des effets qui approchent plus de la pensée que tout ce que font les animaux ; mais elle ne fait rien qui puisse faire dire qu’elle a de la volonté, comme les animaux ».

Il faut avoir la volonté de bien penser : « Travaillons donc à bien penser : voilà le principe de la morale ». Certes « nous sommes automate [Pascal appelait cela « la « machine »] autant qu’esprit ». Mais l’ordre des automatismes, où peuvent régner les logiciels, est inférieur à l’ordre des esprits, où règne la pensée : « De tous les corps ensemble, on ne saurait en faire réussir une petite pensée. Cela est impossible, et d’un autre ordre ».

Quand il opère dans son champ d’application (ici, le mot a été bien choisi), l’algorithme est (quasiment) infaillible. Il fait disparaître toute incertitude. Mais l’être humain souffre d’une faillibilité intrinsèque. Il erre, il se trompe, commet des fautes. L’âme humaine est fragile. Avec le doute vient l’incertitude. Le comble de cette faillibilité est sans doute la bêtise (pour ne pas dire la connerie, terme qui serait le plus approprié).

La faculté de dire des bêtises, dont abuse tout populiste qui se respecte, est un signe très fiable d’humanité. « L’homme est bien capable des plus extravagantes opinions ». « Voilà mon état, plein de faiblesse et d’incertitude » (Pascal, encore). Il faudra bien sûr se poser la question de savoir en quel sens cette faiblesse pourrait être une force. Mais nous voyons que la réflexion sur la force et les limites de l’outil ChatGPT nous contraint à réfléchir sur la force et les limites de la cognition humaine !

Enfin, l’homme éprouve des sentiments. Spinoza en a retenu deux principaux (en plus du désir) : la joie, toujours positive, en tant que « passion par laquelle l’esprit passe à une perfection plus grande » ; et la tristesse, toujours négative, en tant que « passion par laquelle il passe à une perfection moindre ». Un sentiment est un état dans lequel le corps est affecté. Un algorithme ne connaîtra jamais d’instant d’émotion. On ne le verra jamais pleurer, ni de joie, ni de tristesse.

Quand donc un robot pourra effectivement douter (penser), faillir, et pleurer, on pourra dire bienvenue à ce nouveau frère en humanité ! Mais si la pensée est à l’évidence une force, la faillibilité et la souffrance sont, immédiatement, des faiblesses. Cela nous conduit à la seconde question : qu’est-ce qui est le plus à craindre pour l’homme ? Certainement les dérives auxquelles peuvent le conduire ses faiblesses – mais des faiblesses qui sont aussi la source de son principal point fort, la créativité. Car, sans les sentiments, pas d’énergie pour entreprendre.

Si un robot peut mimer des comportements humaines, il ne ressentira jamais d’émotion. Shutterstock

Dans La psychologie de l’intelligence, Piaget nous a fait comprendre que « toute conduite implique une énergétique ou une “économie”, qui constitue son aspect affectif » ainsi qu’une « structuration » des « rapports entre le milieu et l’organisme », en lequel « consiste son aspect cognitif ». Sans l’énergie provenant des sentiments, il n’y a ni vie intellectuelle ni création.
C’est que, chez l’homme, force et faiblesse sont intimement liées. Ce qui fait sa faiblesse est aussi ce qui fait sa force, et réciproquement. Si donc le robot a la force que donne la maîtrise d’un logiciel, il n’a pas celle que donne la capacité d’être affecté, et de souffrir. Et il n’a pas la créativité que confère la capacité d’essayer, en prenant le risque de se tromper, et d’entrer en errance. Alors que chez l’homme, la « bassesse », que Pascal reconnaît même en Jésus-Christ, ne peut pas empêcher d’accéder à l’ordre, « surnaturel », de la « sagesse » et de la « charité ».

Mais pourquoi alors cette cohabitation, en l’homme, de sa force et de sa faiblesse, est-elle bien plus à craindre qu’une hypothétique prise de pouvoir par les algorithmes, dont ChatGPT serait le champion ? Parce que, étant donné la nature de ce qui fait sa force, si l’homme est capable du meilleur, il est aussi trop souvent coupable du pire ! Mais ni le meilleur ni le pire ne sont certains.
L’homme est le seul animal capable de choisir, et de faire consciemment, le mal : tuer par cruauté ; faire souffrir par plaisir. Ce n’est pas un algorithme qui a créé le darknet. Mais d’un autre côté, on peut voir dans le triptyque penser, faillir, éprouver, les trois piliers fondateurs de la liberté. La liberté qui rend possible le choix du mal, comme du bien.

En définitive, est-ce ChatGPT qu’il faut craindre ? Il n’y a là qu’un outil, dont la valeur dépend de l’usage qui en sera fait. Cet usage dépend lui-même de choix d’ordre éthique. Selon ce choix, et comme pour tout, l’homme pourra se montrer capable du meilleur, en mettant l’outil au service du développement et de la valorisation de la personne humaine, pour faciliter ses apprentissages, et l’accomplissement de ses actions. Ou bien coupable du pire, en faisant de l’outil un instrument d’assujettissement et d’exploitation de l’être humain, en tombant dans l’une ou l’autre des dérives possibles.

C’est à l’homme qu’il appartient de choisir. La machine (comme Dieu, selon Platon) est innocen-te : elle n’a pas le pouvoir de choisir… Le plus grand ennemi de l’homme sera toujours l’homme.

Cerveau: on peut apprendre à tout âge

Cerveau: on peut apprendre à tout âge

par Alice Latimier, Laboratoire de sciences cognitives et psycholinguistique, École normale supérieure (ENS) – PSL dans the Conversation


À 55 ans, Philippe a retrouvé du temps pour lui, depuis que ses enfants ont quitté la maison. Pourquoi n’apprendrait-il pas enfin le piano, comme il en a toujours rêvé ? Mais à 55 ans, se dit-il, je ne suis plus capable d’apprendre, je suis trop vieux et mon cerveau n’est plus aussi performant qu’à 20 ans… Nathalie, elle, a 30 ans. Pour son évolution de carrière, elle doit choisir entre un poste en Allemagne, qui ne l’attire pas vraiment, et un autre en Espagne, qu’elle juge formidable. J’aurais dû faire espagnol au lycée, regrette-t-elle, c’est trop tard aujourd’hui pour se mettre à une nouvelle langue.

Ce sentiment d’être trop vieux pour apprendre quoique ce soit de nouveau, beaucoup de personnes l’éprouvent. Mais est-il justifié ? Y a-t-il effectivement une limite d’âge à partir de laquelle notre cerveau n’est plus capable d’apprendre à jouer d’un instrument ou à parler une nouvelle langue ?

Apprendre, c’est en réalité l’activité de toute une vie. Dès le plus jeune âge, notre cerveau mobilise une grande partie de ses fonctions (attention, mémoire, vision/audition, motricité…) pour que nous puissions acquérir de nouveaux savoirs et savoir-faire. Quels sont les mécanismes qui nous permettent d’apprendre ? Et comment évoluent-ils avec le temps ?

Des connexions entre les neurones renforcées ou diminuées

L’apprentissage est un processus cognitif dynamique qui se déroule en deux étapes : l’acquisition d’une nouvelle information et son stockage en mémoire. Le résultat d’un apprentissage est en quelque sorte l’empreinte qui reste dans notre cerveau après que l’on ait vécu une expérience. Plus précisément, les neurones concernés par cette expérience ou l’acquisition d’une nouvelle information changent la manière dont ils dialoguent entre eux : leurs connexions (les synapses) se voient renforcées ou diminuées.

Parfois, la dynamique de nos apprentissages conduit purement et simplement à l’élimination de certaines connexions neuronales qui n’ont plus lieu d’être au profit d’autres connexions plus « utiles ». On parle, de manière imagée, d’un « élagage » synaptique (pruning en anglais), comme pour un arbre dont on coupe les branches encombrantes. Il se produit principalement durant l’enfance et ce grand chamboulement qu’est l’adolescence.

Ces modifications à l’échelle des neurones, en lien avec ce que nous apprenons, sont particulièrement intenses pendant l’enfance, alors même que nous acquérons une grande quantité de connaissances et développons de nouvelles compétences comme voir, toucher, marcher ou parler. Elles ont un impact à l’échelle du cerveau tout entier, en participant à la transformation des différents réseaux de neurones.

Une dynamique qui change la structure de notre cerveau
Les apprentissages laissent donc dans notre cerveau une trace physique de leur survenue, et cette dynamique s’appelle la plasticité cérébrale. La découverte de ce mécanisme par les neuroscientifiques a permis de comprendre une chose essentielle : rien n’est figé dans notre cerveau !

La plasticité cérébrale permet de remodeler le cerveau en permanence selon nos apprentissages. Ce remodelage est non seulement relativement rapide mais réversible. En effet, une équipe de chercheurs a trouvé que certaines régions du cerveau chez de jeunes adultes présentaient des modifications structurelles importantes après trois mois d’apprentissage à la jonglerie, par rapport à des personnes n’ayant pas suivi cet apprentissage ; et ces modifications disparaissaient quelques semaines après l’arrêt de cette activité. Voilà pourquoi les artistes s’entraînent tous les jours !

Nous sommes en quelque sorte « programmés » pour apprendre. L’organisation de notre cerveau peut s’adapter et se reconfigurer à tout moment, en fonction des expériences que nous vivons dès le plus jeune âge.

Il n’y a pas d’âge pour apprendre une nouvelle langue

Certaines périodes de la vie sont plus propices à certains apprentissages. La recherche en psychologie du développement a ainsi déterminé des « fenêtre temporelles » qui correspondent à des périodes durant lesquelles le cerveau a une capacité particulière à recevoir les informations de l’environnement. Par exemple, l’acquisition de la langue maternelle a fait l’objet de nombreuses études, et il semble qu’il existerait une fenêtre temporelle particulièrement propice à l’acquisition du langage. D’où cette idée répandue – à tort – que plus on vieillit, plus il est difficile d’apprendre une seconde langue. Même s’il semble en effet y avoir une période clé pour l’acquisition de la langue maternelle, c’est beaucoup moins clair pour une seconde langue.

Apprendre à parler une langue étrangère, à jouer d’un instrument, ou se lancer dans la peinture : la plasticité de notre cerveau nous le permet, quelque soit notre âge. Jules Zimmermann/Cog Innov, CC BY-NC-SA
L’équipe de Ana Ines Ansaldo, chercheuse en psychologie à l’Institut universitaire de gériatrie de Montréal (Canada), s’est intéressé à l’apprentissage d’une seconde langue chez des personnes adultes. Les chercheurs ont demandé à des non-hispanophones, un groupe de jeunes adultes et un groupe de personnes de plus de 65 ans, d’apprendre 100 mots en espagnol sur une période de trois semaines. Lors d’un test à l’issue de cet entraînement, les personnes âgées ont obtenu des temps de réponse et des nombres de bonnes réponses comparables aux jeunes adultes, montrant que les deux groupes ont des performances d’apprentissage similaires.

Et ce qui vaut pour le langage et les connaissances déclaratives (explicites) vaut aussi pour les connaissances procédurales (implicites, en lien avec les gestes et les mouvements). Ainsi, l’expérience de jonglage citée précédemment a été répliquée pour comparer, cette fois, la performance des personnes âgées par rapport aux jeunes. Les performances finales sont moindres chez les personnes âgées, cependant le même phénomène de plasticité a été observé. Autrement dit, l’apprentissage du jonglage a été moins efficace chez elles, mais les traces cérébrales de cet apprentissage sont bel et bien présentes.

Certaines compétences sont modifiées par le vieillissement normal du cerveau. Un apprentissage plus long peut être nécessaire pour compenser l’effet de l’âge. Mais le mécanisme de plasticité cérébrale permettant d’apprendre est présent toute la vie.

Un apprentissage plus long chez les personnes âgées

Plusieurs études ont mesuré les conséquences du vieillissement cognitif en utilisant une combinaison de tests de performance mentale. Leurs résultats montrent que les personnes plus âgées ont en moyenne des temps de réaction plus longs, une mémoire moins fiable, une perception sensorielle altérée, et elles ont plus de difficultés à résoudre des problèmes. Ces déficits mesurés en laboratoire seraient un frein à l’acquisition d’informations nouvelles.

Mais de telles études occultent une dimension importante de l’avancée en âge : l’accumulation des expériences au cours de la vie augmente la quantité de connaissances stockées dans le cerveau. En effet, cette accumulation d’expériences et la complexité des connaissances qui y sont associées sont plus importantes chez les personnes âgées. Ce qui rendrait plus difficile l’acquisition de nouvelles connaissances.

Cette expertise constituerait donc un handicap et expliquerait les résultats inférieurs des personnes âgées par rapport aux jeunes cerveaux. Mais pourrait-elle avoir certains bénéfices ?

L’expérience, un levier pour l’apprentissage

Dans l’expérience sur l’apprentissage de l’espagnol déjà citée, l’imagerie cérébrale des personnes âgées montre une activation particulière de certains réseaux de la mémoire qui n’est pas retrouvée chez les plus jeunes. Cette activation spécifique est celle de la mémoire dite « sémantique », qui stocke notamment les connaissances générales sur le monde. Dans le contexte d’un défi cognitif, comme apprendre une seconde langue, les personnes âgées font appel à leur expérience personnelle comme ressource cognitive en plus. Leur vécu plus fourni en expériences personnelles se révèle ainsi comme une aide à l’apprentissage.

En vieillissant, nous pouvons tirer profit de notre raisonnement plus affûté pour apprendre de nouvelles informations, même s’il est parfois plus lent à se mettre en route. Le recrutement spécifique de certaines régions du cerveau chez les personnes âgées lors d’un apprentissage nouveau serait le reflet de cet appel à l’expertise.

Il ne faut pas pour autant minimiser le vieillissement cérébral. Celui-ci est bien réel, comme le montre notamment la diminution mesurable de l’épaisseur du cortex, et les modifications de certaines performances mentales. Cependant, ces dernières sont à nuancer car les tests psychométriques ne tiennent pas compte de la richesse de l’expérience humaine, ni de la façon dont la connaissance augmente avec l’expérience.

La plasticité du cerveau « s’entretient »

« L’entretien » de notre cerveau semble jouer un rôle clé pour le maintien de sa plasticité entre 30 et 60 ans. Cette capacité est affaiblie si et seulement si nous cessons d’apprendre et de maintenir un état de curiosité à la nouveauté. Le chercheur Pierre Marie Lledo, neuroscientifique à l’institut Pasteur, explique qu’une combinaison de facteurs peut être bénéfique pour le maintien de cette plasticité incluant l’activité physique, peu de stress, ne pas consommer de psychotropes, et avoir des relations sociales en plus d’une activité cognitive régulière.

À tout âge, si les circonstances sont propices et en l’absence de pathologies neurologiques, apprendre par l’expérience reste la principale activité de notre cerveau au quotidien ! Même si les mécanismes de l’apprentissage sont moins performants à partir d’un certain âge en terme de vitesse d’acquisition, la plasticité cérébrale perdure toute la vie si nous maintenons notre esprit ouvert et actif pour de nouvelles expériences. Contrairement à ce que la recherche a longtemps pensé, nous ne sommes pas enfermés dans un déterminisme biologique qui nous permettrait d’apprendre seulement jusqu’à un certain âge.

Donc, du point de vue du fonctionnement du cerveau, rien n’empêche Philippe d’apprendre le piano à 55 ans, ni Nathalie d’apprendre l’espagnol à 30 ans. Leur vécu personnel et leur désir d’apprendre seront d’ailleurs des clés dans leur apprentissage.

À l’horizon 2070, le nombre de personnes âgées de plus de 75 ans devrait doubler et atteindrait alors 13 millions en France, selon l’Insee. Quelle place allons-nous donner aux seniors dans cette société vieillissante ? Allons-nous cantonner cette partie importante de la population à vivre dans son passé et ses souvenirs, ou bien la considérer pour ce qu’elle est, capable d’évoluer et d’apprendre ? Les données de la recherche en sciences cognitives peuvent servir d’outils concrets pour rendre la formation accessible tout au long de la vie.

Les neurones et les souvenirs

Les neurones et les souvenirs

par Daniel Choquet, Directeur de recherche au CNRS, neuroscience et imagerie, Université de Bordeaux
et Yann Humeau, Docteur en neurosciences, directeur de recherche au CNRS, Université de Bordeaux dans the Conversation (extrait)

Une avancée fondamentale dans notre compréhension du fonctionnement du cerveau a été la découverte dans les années 1970 que l’efficacité de la transmission synaptique était « plastique » : elle n’est pas fixe et peut être modulée par les activités neuronales précédentes. De manière importante, ces changements de la transmission synaptique pouvant être stables dans le temps – de plusieurs heures à plusieurs mois.

Cette découverte a conduit à l’hypothèse que des briques élémentaires de mémoire pourraient être « stockées » dans les synapses sous cette forme.
« Faisons l’hypothèse qu’une activité persistante et répétée d’une activité avec réverbération (ou trace) tend à induire un changement cellulaire persistant qui augmente sa stabilité. Quand un axone d’une cellule A est assez proche pour exciter une cellule B de manière répétée et persistante, une croissance ou des changements métaboliques prennent place dans l’une ou les deux cellules ce qui entraîne une augmentation de l’efficacité de A comme cellule stimulant B. » Donald Hebb, 1949

Comment les synapses stockent-elles l’information ? Cette question fondamentale pour notre compréhension des bases cellulaires de la mémoire mobilise les neuroscientifiques depuis plus de 50 ans. Jusqu’à la fin du siècle dernier, on pensait que les mécanismes essentiels en étaient une modulation de l’efficacité de libération de transmetteurs ou des propriétés biophysiques des récepteurs.
Maintenant, on pense plutôt que pour que le neurone post-synaptique adapte mieux sa réponse au neurotransmetteur, il est particulièrement intéressant que les protéines réceptrices soient mobiles sur de grandes distances : plusieurs laboratoires ont mis en évidence au tournant du XXIe siècle que la plasticité synaptique était associée à une variation du nombre de récepteurs à la synapse.

Ceci contrastait avec le dogme de l’époque, qui postulait que les récepteurs de neurotransmetteurs sont solidement ancrés dans les synapses et très stables. Mais différents groupes de recherche, dont le nôtre, ont alors découvert que les récepteurs étaient en perpétuellement en mouvement à la surface du neurone, diffusant librement grâce à la fluidité des membranes. Les récepteurs s’accumulent aux synapses par un phénomène de capture, mais ils s’échangent en permanence entre les différents compartiments du neurone.

De manière fascinante, nous avons également découvert que ce mouvement des récepteurs est fortement modulé par l’activité neuronale, ouvrant la porte à des études liant la mobilité des récepteurs à la mémoire !

Le contrôle de la mobilité des récepteurs ouvre de nouvelles fenêtres vers le contrôle de l’activité cérébrale.

La formation d’une mémoire est une symphonie jouée par plusieurs zones cérébrales qui se synchronisent pour permettre son encodage, sa consolidation et son rappel (qui permet de réagir de façon adaptée lorsqu’une même situation est rencontrée). De même, la plasticité synaptique est régie par plusieurs phases distinctes permettant une réaction immédiate (secondes), et son maintien à moyen terme (minutes) ou à plus long terme (jours et plus).

L’enjeu est désormais de comprendre comment ces deux phénomènes sont liés et le rôle joué par la mobilité des récepteurs. Nous avons récemment développé au laboratoire une nouvelle génération d’outils moléculaires permettant de contrôler efficacement la mobilité des récepteurs au glutamate, un neurotransmetteur majeur au sein du cerveau. En combinant des approches pharmacologiques, électrophysiologiques et comportementales, nous allons explorer le lien fondamental entre plasticité synaptique et mémoire chez la souris, et tenter de comprendre les mécanismes expliquant les désordres cognitifs associés aux maladies neurodégénératives ou neurodéveloppementales.

Sciences- évolutions cognitives et taille du cerveau

Sciences- évolutions cognitives et taille du cerveau

Tesla Monson, professeure d’anthropologie à l’Université Western Washington, explique depuis combien de temps les humains ont de si gros cerveaux. Un phénomène qui s’accompagne, selon elle, de nombreuses capacités cognitives.

Les fossiles nous racontent ce que les êtres humains et nos prédécesseurs faisaient il y a des centaines de milliers d’années. Mais certaines étapes importantes du cycle de la vie, comme la grossesse ou la gestation, ne laissent aucune trace dans les archives fossiles. Comment les étudier ? Une des caractéristiques de notre espèce est d’avoir des cerveaux de taille importante par rapport à la taille totale du corps, ce qui rend la grossesse particulièrement intéressante pour les paléoanthropologues. Mais alors que les crânes imposants d’Homo sapiens contribuent aux difficultés de l’accouchement, ce sont les cerveaux logés à l’intérieur qui ont permis à notre espèce de prendre son envol.

Mes collègues et moi voulons comprendre le développement du cerveau de nos ancêtres avant la naissance : était-il comparable à celui des fœtus aujourd’hui ? En étudiant quand la croissance prénatale et la grossesse sont devenues « humaines », on comprend mieux quand et comment le cerveau de nos ancêtres est devenu plus similaire au nôtre qu’à ceux de nos proches cousins les singes.

Nous avons étudié l’évolution des taux de croissance prénatale en regardant le développement in utero des dents, qui, elles, fossilisent. Grâce à un modèle mathématique des longueurs relatives des molaires, construit pour l’occasion, nous pouvons suivre les changements évolutifs des taux de croissance prénatale dans les archives fossiles.
D’après notre modèle, il semblerait que la grossesse et la croissance prénatale soient devenues plus proches de l’humain que du chimpanzé il y a près d’un million d’années.

La grossesse et la gestation sont des périodes importantes – elles guident la croissance ultérieure et orientent le cours biologique de la vie.
La suite après cette publicité

Mais la grossesse humaine, en particulier le travail et l’accouchement, coûte beaucoup d’énergie et est souvent dangereuse. Le cerveau du fœtus a besoin de beaucoup de nutriments pendant son développement et le taux de croissance de l’embryon pendant la gestation, également appelé « taux de croissance prénatale », impose un lourd tribut métabolique et physiologique au parent en gestation. De plus, le passage délicat de la tête et des épaules du nourrisson à travers le canal pelvien pendant l’accouchement peut entraîner la mort, tant de la mère que de l’enfant.

En contrepartie de ces inconvénients évolutifs, il faut une très bonne raison d’avoir une tête aussi grosse. Le gros cerveau caractéristique de l’espèce humaine s’accompagne de nombreuses capacités cognitives, et l’évolution du cerveau a contribué à la domination de notre espèce : elle est notamment associée à une utilisation accrue d’outils, à la création d’œuvres d’art et à la capacité de survivre dans des environnements variés. L’évolution de nos cerveaux est aussi entremêlée avec nos capacités à trouver et exploiter davantage de ressources, avec des outils et en coopérant par exemple.

Les changements dans la croissance prénatale nous renseignent également sur les façons dont les parents rassemblaient les ressources alimentaires et les distribuaient à leur progéniture. Ces ressources croissantes auraient contribué à l’évolution d’un cerveau encore plus gros. En comprenant mieux à quel moment la croissance prénatale et la grossesse sont devenues « humaines », on peut savoir quand et comment notre cerveau a évolué lui aussi.

L’homme a le taux de croissance prénatale le plus élevé de tous les primates vivant aujourd’hui, soit 11,58 grammes par jour. Les gorilles, par exemple, ont une taille adulte beaucoup plus grande que celle des humains, mais leur taux de croissance prénatale n’est que de 8,16 grammes par jour. Étant donné que plus d’un quart de la croissance du cerveau humain s’effectue pendant la gestation, le taux de croissance prénatale est directement lié à la taille du cerveau adulte. Quand et comment le taux de croissance prénatale de Homo sapiens a évolué est resté un mystère jusqu’à présent.
Ce que les dents révèlent de la croissance prénatale

Les chercheurs étudient depuis des siècles les restes de squelettes fossilisés, mais malheureusement, les cerveaux ne fossilisent pas – et encore moins la gestation et le taux de croissance prénatale.

Mes collègues et moi réfléchissons à la façon dont les dents se développent, très tôt dans l’utérus. Les dents permanentes commencent à se développer bien avant la naissance, vers 20 semaines de gestation. L’émail des dents est inorganique à plus de 95 %, et la majorité des fossiles de vertébrés est constituée de dents ou en possède. Partant de ce constat, nous avons décidé d’étudier la relation entre le taux de croissance prénatale, la taille du cerveau et la longueur des dents.

Nous avons mesuré les dents de 608 primates contemporains provenant de collections de squelettes du monde entier et les avons comparées aux taux de croissance prénatale calculés à partir de la durée moyenne de gestation et de la masse à la naissance pour chaque espèce. Comme indicateur de la taille du cerveau, nous utilisons le volume endocrânien (l’espace à l’intérieur du crâne). Nous avons constaté que le taux de croissance prénatale présente une corrélation significative avec la taille du cerveau adulte et la longueur relative des dents chez les singes et les grands singes.
Cette relation statistique a permis de générer une équation mathématique qui prédit le taux de croissance prénatale à partir de la taille des dents. Avec cette équation, nous pouvons prendre quelques dents molaires d’une espèce fossile éteinte et reconstituer exactement la vitesse de croissance de leur progéniture pendant la gestation.

En utilisant cette nouvelle méthode, nous avons pu reconstituer les taux de croissance prénatale pour treize espèces fossiles, construisant ainsi une chronologie des changements survenus au cours des six derniers millions d’années d’évolution des humains et des hominidés (le terme « hominidé » désigne toutes les espèces, Australopithecus entre autres, appartenant à la lignée « humaine » depuis sa séparation avec celle des chimpanzés, il y a environ 6 à 8 millions d’années). Grâce à ces recherches, nous savons maintenant que le taux de croissance prénatale a augmenté tout au long de l’évolution des hominidés, pour atteindre il y a moins d’un million d’années un taux semblable à celui des humains – qui dépasse celui observé chez tous les autres singes.
Un taux de croissance prénatale totalement similaire à celui des humains est apparu seulement avec l’évolution de notre espèce Homo sapiens, il y a 200 000 ans environ. Mais d’autres espèces d’hominidés vivant au cours des 200 000 dernières années, comme les Néandertaliens, avaient également des taux de croissance prénatale du même ordre de grandeur. Il reste à déterminer quels gènes ont été impliqués dans ces changements de taux de croissance.

Avec seulement quelques dents et une partie de la mâchoire, un expert chevronné peut en apprendre beaucoup sur un individu disparu : de quelle espèce il s’agissait, ce qu’il mangeait, s’il se battait pour obtenir des partenaires, à quel âge il est mort, s’il avait des problèmes de santé, et bien plus encore. Nous pouvons maintenant ajouter à cette liste le fait de savoir à quoi ressemblaient la grossesse et la gestation pour cette espèce. Les dents pourraient aussi refléter indirectement l’émergence de la conscience humaine, via l’évolution de la taille du cerveau.
Le modèle suggère que les taux de croissance prénatale ont commencé à augmenter bien avant l’émergence de notre espèce, Homo sapiens. On peut supposer qu’un taux de croissance prénatale rapide a été nécessaire à l’apparition d’un cerveau imposant et à l’évolution de la conscience et des capacités cognitives humaines. Voilà le genre de questions que nos recherches nous permettent dorénavant de formuler… à partir de quelques dents.

Cet article est republié à partir de The Conversation ..

Sciences et prospective- L’Intelligence artificielle (IA) au centre de toutes les activités économiques

Sciences et prospective- L’Intelligence artificielle (IA) au centre de toutes les activités économiques


L’objectif ultime de l’IA est de développer un système intelligent pour simuler la pensée et l’intelligence humaines, tandis que le Machine Learning (ML) permet à la machine d’apprendre à partir des données pour donner le résultat souhaité. Alors que l’IA vise à rendre les machines plus humaines, le ML aide à faire en sorte que les machines apprennent comme les humains. Par Xavier Dalloz, consultant spécialisé dans les nouvelles technologies.

Les principales applications de l’IA et du ML concernent l’intelligence prévisionnelle et l’aide à la prise de décision. Pour chaque application, le pouvoir ne vient pas des machines, mais des décideurs qui sont derrière les machines, guidant leur réaction aux prédictions.
Un scientifique de l’Institut Max Planck résume très bien le principal enjeu : « l’IA va changer la médecine. Cela va changer la recherche. Cela changera la bio-ingénierie. Cela va tout changer ».
Et pour Jack Solow, le messages est encore plus clair « en 2011, les logiciels dévoraient le monde ; en 2022, l’IA dévore les logiciels. » Toute entreprise sans stratégie d’IA viable sera marginalisée d’ici la fin de cette décennie ».

L’intelligence artificielle prendra la relève de nombreuses activités, telles que la recherche sur le net, obtenir des conseils de voyage, et surtout les assistants personnels et les chatbots. Avec de l’intelligence artificielle dans les objets, nous n’aurons plus besoin d’interagir avec eux puisqu’ils sont capables de devenir autonomes et d’apprendre à anticiper nos intentions. Plus concrètement, l’IA va nous libérer d’un certain nombre d’actes inutiles et chronophages.

Pour la Darpa, l’Intelligence artificielle se mesure en fonction de quatre capacités :
• Percevoir
o C’est-à-dire récupérer des informations de l’environnement externe et la capacité à inférer des choses sur le monde via des sons, des images et d’autres entrées sensorielles.
• Apprentissage
o C’est-à-dire améliorer de façon autonome les fonctions de base
• Abstraction
o C’est-à-dire adaptation autonome à de nouvelles situations et compréhension du contexte
• Raisonnement
o C’est-à-dire prendre des décisions correctes avec de meilleures réponses en fonction des connaissances disponibles

On peut résumer les étapes du déploiement de l’intelligence artificielle de la façon suivante ;
• Première étape – Connaissance artisanale
La première vague de systèmes d’IA repose sur des connaissances artisanales. Ces systèmes, construits par des experts du domaine, contiennent des règles qui décrivent les processus de base et les ensembles de connaissances de domaines spécifiques.
• Deuxième étape – Apprentissage statistique
Les systèmes d’IA de deuxième vague sont ceux construits en utilisant des techniques d’apprentissage automatique telles que les réseaux de neurones. Ces systèmes s’appuient sur des modèles statistiques qui caractérisent un domaine spécifique. Ils alimentent ensuite les algorithmes du Big data en affinant sa capacité à prédire correctement le résultat.
• Troisième étape – Adaptation contextuelle
La troisième vague d’IA est constitué des systèmes capables d’adaptation contextuelle. Ce sont des systèmes qui construisent des modèles explicatifs pour des classes de phénomènes du monde réel. Les systèmes de la troisième vague montrent une capacité à comprendre ce qu’ils font et pourquoi ils le font.
Les types d’intelligence artificielle peuvent être regroupées en cinq catégories:
• Raisonnement
La capacité de résoudre des problèmes par déduction logique .
• Connaissance
La capacité de présenter des connaissances sur le monde. Par exemple : la négociation sur les marchés financiers, la prévision des achats, la prévention de la fraude, la création de médicaments ou le diagnostic médical.
• Planification
La capacité de définir et d’atteindre des objectifs. Par exemple : la gestion des stocks, la prévision de la demande, la maintenance prédictive, l’optimisation des réseaux physique et numérique, etc.
• Communication
La capacité à comprendre le langage parlé et écrit. Par exemple : la traduction en temps réel des langues parlées et écrites, les assistants intelligents ou la commande vocale
• Explicabilité
Sans explications derrière les fonctionnalités internes d’un modèle d’IA et les décisions qu’il prend, il y a un risque que le modèle ne soit pas considéré comme digne de confiance ou légitime. XAI offre la compréhensibilité et la transparence nécessaires pour permettre une plus grande confiance envers les solutions basées sur l’IA.
• Les réseaux de neurones
Les réseaux de neurones fonctionnent sur les principes similaires à ceux des cellules neuronales humaines. Il s’agit d’une série d’algorithmes qui capturent la relation entre diverses variables sous-jacentes et enregistrent les données comme le fait un cerveau humain.
• Traitement du langage naturel (PNL)
Le PNL est une science de lecture, de compréhension, d’interprétation d’un langage par une machine. Une fois qu’une machine comprend ce que l’utilisateur a l’intention de communiquer, elle répond en conséquence.
• Vision par ordinateur
Utiliser la vision par ordinateur signifie que l’utilisateur entre une image dans le système et que ce qu’il reçoit en tant que sortie peut inclure des caractéristiques quantitatives et donc de décisions.

Voici quelques exemples d’applications de l’intelligence qui vont être au cœur de la réinvention de secteurs d’activités :

Exemples dans le domaine des services financiers
L’intelligence artificielle dans le secteur bancaire accélère la numérisation des processus bancaires et financiers de bout en bout. En mettant en œuvre la puissance de l’analyse de données, des algorithmes ML intelligents et des intégrations sécurisées dans les applications, les applications d’IA optimisent la qualité du service et aident les entreprises à identifier et à combattre les fausses transactions.
• Exemple des Chatbots IA
o Les chatbots IA du secteur bancaire peuvent assister les clients 24h/24 et 7j/7 et donner des réponses précises à leurs requêtes. Ces chatbots offrent une expérience personnalisée aux utilisateurs.
• Exemple de l’amélioration de l’expérience client
o Les applications mobiles intelligentes utilisant des algorithmes ML peuvent surveiller le comportement des utilisateurs et en tirer des informations précieuses basées sur les modèles de recherche des utilisateurs. Ces informations vont aider les fournisseurs de services à proposer des recommandations personnalisées aux utilisateurs finaux.

• Exemple de l’automatisation et rend le processus transparent
o Les applications d’IA peuvent réduire la charge de travail des banquiers et optimiser la qualité du travail.
• Exemple de la collecte et de l’analyse de données
o Les banques peuvent également prendre des décisions commerciales efficaces grâce aux informations tirées des données clients et leur proposer des recommandations de services personnalisées.
• Exemple de la gestion de portefeuille
o La gestion de patrimoine et de portefeuille peut être effectuée de manière plus puissante grâce à l’intelligence artificielle.
• Exemple de la gestion des risques
o L’IA va aider les banquiers à identifier les risques liés à l’octroi de prêts.
o En utilisant le processus d’évaluation des risques basé sur l’IA, les banquiers peuvent analyser le comportement de l’emprunteur et ainsi réduire la possibilité d’actes frauduleux.
• Exemple de la détection de la fraude
o Les applications bancaires d’intelligence artificielle détectent les risques et minimisent les actes frauduleux.

Exemples dans le domaine de la gestion des villes
• Exemple du contrôle de la pollution
o Prédire les niveaux de pollution pour les prochaines heures. Ce type de technologie permet aux autorités de prendre des décisions à l’avance pour réduire leur impact sur l’environnement.
• Exemple de la gestion des systèmes de stationnement
o La disponibilité des places peut être présentée aux utilisateurs en attente, certaines technologies plus avancées ont la capacité de recommander des places en fonction de la voiture.
• Exemple da la gestion des transports publics
o Permettre aux usagers des transports en commun de recevoir et d’accéder aux dates et suivis en temps réel, ce qui améliore le timing et la satisfaction des clients.
• Exemple de la gestion des déchets
o Permettre aux villes de suivre le recyclage et d’identifier ce qui peut être recyclé dans la région.
• Exemple de la gestion du trafic
o Prédire et réduire le trafic, en utilisant des algorithmes d’apprentissage en profondeur, ce qui peut également réduire la pollution créée par le trafic.
• Exemple du suivi de la consommation de l’énergie
o Analyser et suivre la consommation d’énergie des entreprises et des citoyens, avec ces données, il peut ensuite être décidé où impliquer des sources d’énergie renouvelables.
• Exemple de la gestion de l’environnement
o Permettre aux autorités et aux villes de prendre des décisions éclairées qui sont les meilleures pour l’environnement. Les villes intelligentes utilisent également l’IA pour détecter le CO2, ce qui peut ensuite conduire à des décisions en matière de transport.

Exemples dans le domaine du commerce de détail
Le potentiel pour stimuler les ventes avec de l’IA dans les magasins est considérable :
• La reconnaissance intelligente des produits et la facturation automatisée permettent des magasins sans caissier
• Les interfaces d’IA telles que les chatbots et les écrans interactifs prennent en charge le service client
• Une tarification intelligente permet de gérer la demande et de stimuler les ventes
• L’analyse prédictive aide à la prévision des prix en fonction de la demande et des tendances saisonnières
• La gestion intelligente de la chaîne d’approvisionnement et la logistique améliorent la disponibilité des produit.
• Les modèles d’apprentissage automatique catégorisent et regroupent automatiquement les produits
• Les cabines d’essayage virtuelles avec miroirs intelligents prennent en charge le libre-service au plus haut niveau
• Prédire le comportement des clients
• Améliorer l’aménagement de la surface de vente en fonction de l’analyse du comportement des clients

Exemples dans le domaine de la santé
Qu’il s’agisse de l’utiliser pour détecter des liens entre des codes génétiques, d’utiliser des robots chirurgicaux ou même de maximiser l’efficacité des hôpitaux.
Par exemple :
• Soutien aux décisions cliniques
• Amélioration aux soins primaires grâce aux chatbots
• Chirurgies robotiques
• Infirmières auxiliaires virtuelles
• Aide au diagnostic précis

Sciences-Taille du cerveau et évolutions cognitives

Sciences- Taille du cerveau humain et évolutions cognitives

Tesla Monson, professeure d’anthropologie à l’Université Western Washington, explique depuis combien de temps les humains ont de si gros cerveaux. Un phénomène qui s’accompagne, selon elle, de nombreuses capacités cognitives.

Les fossiles nous racontent ce que les êtres humains et nos prédécesseurs faisaient il y a des centaines de milliers d’années. Mais certaines étapes importantes du cycle de la vie, comme la grossesse ou la gestation, ne laissent aucune trace dans les archives fossiles. Comment les étudier ? Une des caractéristiques de notre espèce est d’avoir des cerveaux de taille importante par rapport à la taille totale du corps, ce qui rend la grossesse particulièrement intéressante pour les paléoanthropologues. Mais alors que les crânes imposants d’Homo sapiens contribuent aux difficultés de l’accouchement, ce sont les cerveaux logés à l’intérieur qui ont permis à notre espèce de prendre son envol.

Mes collègues et moi voulons comprendre le développement du cerveau de nos ancêtres avant la naissance : était-il comparable à celui des fœtus aujourd’hui ? En étudiant quand la croissance prénatale et la grossesse sont devenues « humaines », on comprend mieux quand et comment le cerveau de nos ancêtres est devenu plus similaire au nôtre qu’à ceux de nos proches cousins les singes.

Nous avons étudié l’évolution des taux de croissance prénatale en regardant le développement in utero des dents, qui, elles, fossilisent. Grâce à un modèle mathématique des longueurs relatives des molaires, construit pour l’occasion, nous pouvons suivre les changements évolutifs des taux de croissance prénatale dans les archives fossiles.
D’après notre modèle, il semblerait que la grossesse et la croissance prénatale soient devenues plus proches de l’humain que du chimpanzé il y a près d’un million d’années.

La grossesse et la gestation sont des périodes importantes – elles guident la croissance ultérieure et orientent le cours biologique de la vie.
La suite après cette publicité

Mais la grossesse humaine, en particulier le travail et l’accouchement, coûte beaucoup d’énergie et est souvent dangereuse. Le cerveau du fœtus a besoin de beaucoup de nutriments pendant son développement et le taux de croissance de l’embryon pendant la gestation, également appelé « taux de croissance prénatale », impose un lourd tribut métabolique et physiologique au parent en gestation. De plus, le passage délicat de la tête et des épaules du nourrisson à travers le canal pelvien pendant l’accouchement peut entraîner la mort, tant de la mère que de l’enfant.

En contrepartie de ces inconvénients évolutifs, il faut une très bonne raison d’avoir une tête aussi grosse. Le gros cerveau caractéristique de l’espèce humaine s’accompagne de nombreuses capacités cognitives, et l’évolution du cerveau a contribué à la domination de notre espèce : elle est notamment associée à une utilisation accrue d’outils, à la création d’œuvres d’art et à la capacité de survivre dans des environnements variés. L’évolution de nos cerveaux est aussi entremêlée avec nos capacités à trouver et exploiter davantage de ressources, avec des outils et en coopérant par exemple.

Les changements dans la croissance prénatale nous renseignent également sur les façons dont les parents rassemblaient les ressources alimentaires et les distribuaient à leur progéniture. Ces ressources croissantes auraient contribué à l’évolution d’un cerveau encore plus gros. En comprenant mieux à quel moment la croissance prénatale et la grossesse sont devenues « humaines », on peut savoir quand et comment notre cerveau a évolué lui aussi.

L’homme a le taux de croissance prénatale le plus élevé de tous les primates vivant aujourd’hui, soit 11,58 grammes par jour. Les gorilles, par exemple, ont une taille adulte beaucoup plus grande que celle des humains, mais leur taux de croissance prénatale n’est que de 8,16 grammes par jour. Étant donné que plus d’un quart de la croissance du cerveau humain s’effectue pendant la gestation, le taux de croissance prénatale est directement lié à la taille du cerveau adulte. Quand et comment le taux de croissance prénatale de Homo sapiens a évolué est resté un mystère jusqu’à présent.
Ce que les dents révèlent de la croissance prénatale

Les chercheurs étudient depuis des siècles les restes de squelettes fossilisés, mais malheureusement, les cerveaux ne fossilisent pas – et encore moins la gestation et le taux de croissance prénatale.

Mes collègues et moi réfléchissons à la façon dont les dents se développent, très tôt dans l’utérus. Les dents permanentes commencent à se développer bien avant la naissance, vers 20 semaines de gestation. L’émail des dents est inorganique à plus de 95 %, et la majorité des fossiles de vertébrés est constituée de dents ou en possède. Partant de ce constat, nous avons décidé d’étudier la relation entre le taux de croissance prénatale, la taille du cerveau et la longueur des dents.

Nous avons mesuré les dents de 608 primates contemporains provenant de collections de squelettes du monde entier et les avons comparées aux taux de croissance prénatale calculés à partir de la durée moyenne de gestation et de la masse à la naissance pour chaque espèce. Comme indicateur de la taille du cerveau, nous utilisons le volume endocrânien (l’espace à l’intérieur du crâne). Nous avons constaté que le taux de croissance prénatale présente une corrélation significative avec la taille du cerveau adulte et la longueur relative des dents chez les singes et les grands singes.
Cette relation statistique a permis de générer une équation mathématique qui prédit le taux de croissance prénatale à partir de la taille des dents. Avec cette équation, nous pouvons prendre quelques dents molaires d’une espèce fossile éteinte et reconstituer exactement la vitesse de croissance de leur progéniture pendant la gestation.

En utilisant cette nouvelle méthode, nous avons pu reconstituer les taux de croissance prénatale pour treize espèces fossiles, construisant ainsi une chronologie des changements survenus au cours des six derniers millions d’années d’évolution des humains et des hominidés (le terme « hominidé » désigne toutes les espèces, Australopithecus entre autres, appartenant à la lignée « humaine » depuis sa séparation avec celle des chimpanzés, il y a environ 6 à 8 millions d’années). Grâce à ces recherches, nous savons maintenant que le taux de croissance prénatale a augmenté tout au long de l’évolution des hominidés, pour atteindre il y a moins d’un million d’années un taux semblable à celui des humains – qui dépasse celui observé chez tous les autres singes.
Un taux de croissance prénatale totalement similaire à celui des humains est apparu seulement avec l’évolution de notre espèce Homo sapiens, il y a 200 000 ans environ. Mais d’autres espèces d’hominidés vivant au cours des 200 000 dernières années, comme les Néandertaliens, avaient également des taux de croissance prénatale du même ordre de grandeur. Il reste à déterminer quels gènes ont été impliqués dans ces changements de taux de croissance.

Avec seulement quelques dents et une partie de la mâchoire, un expert chevronné peut en apprendre beaucoup sur un individu disparu : de quelle espèce il s’agissait, ce qu’il mangeait, s’il se battait pour obtenir des partenaires, à quel âge il est mort, s’il avait des problèmes de santé, et bien plus encore. Nous pouvons maintenant ajouter à cette liste le fait de savoir à quoi ressemblaient la grossesse et la gestation pour cette espèce. Les dents pourraient aussi refléter indirectement l’émergence de la conscience humaine, via l’évolution de la taille du cerveau.
Le modèle suggère que les taux de croissance prénatale ont commencé à augmenter bien avant l’émergence de notre espèce, Homo sapiens. On peut supposer qu’un taux de croissance prénatale rapide a été nécessaire à l’apparition d’un cerveau imposant et à l’évolution de la conscience et des capacités cognitives humaines. Voilà le genre de questions que nos recherches nous permettent dorénavant de formuler… à partir de quelques dents.

Cet article est republié à partir de The Conversation ..

Taille du cerveau humain et évolutions cognitives

Taille du cerveau humain et évolutions cognitives

Tesla Monson, professeure d’anthropologie à l’Université Western Washington, explique depuis combien de temps les humains ont de si gros cerveaux. Un phénomène qui s’accompagne, selon elle, de nombreuses capacités cognitives.

Les fossiles nous racontent ce que les êtres humains et nos prédécesseurs faisaient il y a des centaines de milliers d’années. Mais certaines étapes importantes du cycle de la vie, comme la grossesse ou la gestation, ne laissent aucune trace dans les archives fossiles. Comment les étudier ? Une des caractéristiques de notre espèce est d’avoir des cerveaux de taille importante par rapport à la taille totale du corps, ce qui rend la grossesse particulièrement intéressante pour les paléoanthropologues. Mais alors que les crânes imposants d’Homo sapiens contribuent aux difficultés de l’accouchement, ce sont les cerveaux logés à l’intérieur qui ont permis à notre espèce de prendre son envol.

Mes collègues et moi voulons comprendre le développement du cerveau de nos ancêtres avant la naissance : était-il comparable à celui des fœtus aujourd’hui ? En étudiant quand la croissance prénatale et la grossesse sont devenues « humaines », on comprend mieux quand et comment le cerveau de nos ancêtres est devenu plus similaire au nôtre qu’à ceux de nos proches cousins les singes.

Nous avons étudié l’évolution des taux de croissance prénatale en regardant le développement in utero des dents, qui, elles, fossilisent. Grâce à un modèle mathématique des longueurs relatives des molaires, construit pour l’occasion, nous pouvons suivre les changements évolutifs des taux de croissance prénatale dans les archives fossiles.
D’après notre modèle, il semblerait que la grossesse et la croissance prénatale soient devenues plus proches de l’humain que du chimpanzé il y a près d’un million d’années.

La grossesse et la gestation sont des périodes importantes – elles guident la croissance ultérieure et orientent le cours biologique de la vie.
La suite après cette publicité

Mais la grossesse humaine, en particulier le travail et l’accouchement, coûte beaucoup d’énergie et est souvent dangereuse. Le cerveau du fœtus a besoin de beaucoup de nutriments pendant son développement et le taux de croissance de l’embryon pendant la gestation, également appelé « taux de croissance prénatale », impose un lourd tribut métabolique et physiologique au parent en gestation. De plus, le passage délicat de la tête et des épaules du nourrisson à travers le canal pelvien pendant l’accouchement peut entraîner la mort, tant de la mère que de l’enfant.

En contrepartie de ces inconvénients évolutifs, il faut une très bonne raison d’avoir une tête aussi grosse. Le gros cerveau caractéristique de l’espèce humaine s’accompagne de nombreuses capacités cognitives, et l’évolution du cerveau a contribué à la domination de notre espèce : elle est notamment associée à une utilisation accrue d’outils, à la création d’œuvres d’art et à la capacité de survivre dans des environnements variés. L’évolution de nos cerveaux est aussi entremêlée avec nos capacités à trouver et exploiter davantage de ressources, avec des outils et en coopérant par exemple.

Les changements dans la croissance prénatale nous renseignent également sur les façons dont les parents rassemblaient les ressources alimentaires et les distribuaient à leur progéniture. Ces ressources croissantes auraient contribué à l’évolution d’un cerveau encore plus gros. En comprenant mieux à quel moment la croissance prénatale et la grossesse sont devenues « humaines », on peut savoir quand et comment notre cerveau a évolué lui aussi.

L’homme a le taux de croissance prénatale le plus élevé de tous les primates vivant aujourd’hui, soit 11,58 grammes par jour. Les gorilles, par exemple, ont une taille adulte beaucoup plus grande que celle des humains, mais leur taux de croissance prénatale n’est que de 8,16 grammes par jour. Étant donné que plus d’un quart de la croissance du cerveau humain s’effectue pendant la gestation, le taux de croissance prénatale est directement lié à la taille du cerveau adulte. Quand et comment le taux de croissance prénatale de Homo sapiens a évolué est resté un mystère jusqu’à présent.
Ce que les dents révèlent de la croissance prénatale

Les chercheurs étudient depuis des siècles les restes de squelettes fossilisés, mais malheureusement, les cerveaux ne fossilisent pas – et encore moins la gestation et le taux de croissance prénatale.

Mes collègues et moi réfléchissons à la façon dont les dents se développent, très tôt dans l’utérus. Les dents permanentes commencent à se développer bien avant la naissance, vers 20 semaines de gestation. L’émail des dents est inorganique à plus de 95 %, et la majorité des fossiles de vertébrés est constituée de dents ou en possède. Partant de ce constat, nous avons décidé d’étudier la relation entre le taux de croissance prénatale, la taille du cerveau et la longueur des dents.

Nous avons mesuré les dents de 608 primates contemporains provenant de collections de squelettes du monde entier et les avons comparées aux taux de croissance prénatale calculés à partir de la durée moyenne de gestation et de la masse à la naissance pour chaque espèce. Comme indicateur de la taille du cerveau, nous utilisons le volume endocrânien (l’espace à l’intérieur du crâne). Nous avons constaté que le taux de croissance prénatale présente une corrélation significative avec la taille du cerveau adulte et la longueur relative des dents chez les singes et les grands singes.
Cette relation statistique a permis de générer une équation mathématique qui prédit le taux de croissance prénatale à partir de la taille des dents. Avec cette équation, nous pouvons prendre quelques dents molaires d’une espèce fossile éteinte et reconstituer exactement la vitesse de croissance de leur progéniture pendant la gestation.

En utilisant cette nouvelle méthode, nous avons pu reconstituer les taux de croissance prénatale pour treize espèces fossiles, construisant ainsi une chronologie des changements survenus au cours des six derniers millions d’années d’évolution des humains et des hominidés (le terme « hominidé » désigne toutes les espèces, Australopithecus entre autres, appartenant à la lignée « humaine » depuis sa séparation avec celle des chimpanzés, il y a environ 6 à 8 millions d’années). Grâce à ces recherches, nous savons maintenant que le taux de croissance prénatale a augmenté tout au long de l’évolution des hominidés, pour atteindre il y a moins d’un million d’années un taux semblable à celui des humains – qui dépasse celui observé chez tous les autres singes.
Un taux de croissance prénatale totalement similaire à celui des humains est apparu seulement avec l’évolution de notre espèce Homo sapiens, il y a 200 000 ans environ. Mais d’autres espèces d’hominidés vivant au cours des 200 000 dernières années, comme les Néandertaliens, avaient également des taux de croissance prénatale du même ordre de grandeur. Il reste à déterminer quels gènes ont été impliqués dans ces changements de taux de croissance.

Avec seulement quelques dents et une partie de la mâchoire, un expert chevronné peut en apprendre beaucoup sur un individu disparu : de quelle espèce il s’agissait, ce qu’il mangeait, s’il se battait pour obtenir des partenaires, à quel âge il est mort, s’il avait des problèmes de santé, et bien plus encore. Nous pouvons maintenant ajouter à cette liste le fait de savoir à quoi ressemblaient la grossesse et la gestation pour cette espèce. Les dents pourraient aussi refléter indirectement l’émergence de la conscience humaine, via l’évolution de la taille du cerveau.
Le modèle suggère que les taux de croissance prénatale ont commencé à augmenter bien avant l’émergence de notre espèce, Homo sapiens. On peut supposer qu’un taux de croissance prénatale rapide a été nécessaire à l’apparition d’un cerveau imposant et à l’évolution de la conscience et des capacités cognitives humaines. Voilà le genre de questions que nos recherches nous permettent dorénavant de formuler… à partir de quelques dents.

Cet article est republié à partir de The Conversation ..

IA: Une intelligence limitée

IA: Une intelligence limitée

Les techniques actuelles d’intelligence artificielle, même avec toujours plus de puissance informatique, resteront intellectuellement limitées. Par Jean-Louis Dessalles, Institut Mines-Télécom (IMT)

Il y a près de 10 ans, en 2012, le monde scientifique s’émerveillait des prouesses de l’apprentissage profond (le deep learning). Trois ans plus tard, cette technique permettait au programme AlphaGo de vaincre les champions de Go. Et certains ont pris peur. Elon Musk, Stephen Hawking et Bill Gates s’inquiétèrent d’une fin prochaine de l’humanité, supplantée par des intelligences artificielles échappant à tout contrôle.

N’était-ce pas un peu exagéré ? C’est précisément ce que pense l’IA. Dans un article qu’il a écrit en 2020 dans The Guardian, GPT-3, ce gigantesque réseau de neurones doté de 175 milliards de paramètres explique :

« Je suis ici pour vous convaincre de ne pas vous inquiéter. L’intelligence artificielle ne va pas détruire les humains. Croyez-moi. »
En même temps, nous savons que la puissance des machines ne cesse d’augmenter. Entraîner un réseau comme GPT-3 était impensable, littéralement, il y a encore cinq ans. Impossible de savoir de quoi seront capables ses successeurs dans cinq, dix ou vingt ans. Si les réseaux de neurones actuels peuvent remplacer les dermatologues, pourquoi ne finiraient-ils pas par nous remplacer tous ?
Y a-t-il des compétences mentales humaines qui restent strictement hors d’atteinte de l’intelligence artificielle ?

On pense immédiatement à des aptitudes impliquant notre « intuition » ou notre « créativité ». Pas de chance, l’IA prétend nous attaquer sur ces terrains-là également. Pour preuve, le fait que des œuvres créées par programmes se sont vendues fort cher, certaines atteignant presque le demi-million de dollars. Côté musique, chacun se fera bien sûr son opinion, mais on peut déjà reconnaître du bluegrass acceptable ou du quasi Rachmaninoff dans les imitations du programme MuseNet créé, comme GPT-3, par OpenAI.

Devrons-nous bientôt nous soumettre avec résignation à l’inévitable suprématie de l’intelligence artificielle ? Avant d’en appeler à la révolte, essayons de regarder à quoi nous avons affaire. L’intelligence artificielle repose sur plusieurs techniques, mais son succès récent est dû à une seule : les réseaux de neurones, notamment ceux de l’apprentissage profond. Or un réseau de neurones n’est rien de plus qu’une machine à associer. Le réseau profond qui fit parler de lui en 2012 associait des images : un cheval, un bateau, des champignons, aux mots correspondants. Pas de quoi crier au génie.

Sauf que ce mécanisme d’association possède la propriété un peu miraculeuse d’être « continue ». Vous présentez un cheval que le réseau n’a jamais vu, il le reconnaît en tant que cheval. Vous ajoutez du bruit à l’image, cela ne le gêne pas. Pourquoi ? Parce que la continuité du processus vous garantit que si l’entrée du réseau change un peu, sa sortie changera peu également. Si vous forcez le réseau, qui hésite toujours, à opter pour sa meilleure réponse, celle-ci ne variera probablement pas : un cheval reste un cheval, même s’il est différent des exemples appris, même si l’image est bruitée.

Bien, mais pourquoi dire qu’un tel comportement associatif est « intelligent » ? La réponse semble évidente : il permet de diagnostiquer les mélanomes, d’accorder des prêts bancaires, de maintenir un véhicule sur la route, de détecter une pathologie dans les signaux physiologiques, et ainsi de suite. Ces réseaux, grâce à leur pouvoir d’association, acquièrent des formes d’expertise qui demandent aux humains des années d’études. Et lorsque l’une de ces compétences, par exemple la rédaction d’un article de presse, semble résister un temps, il suffit de faire ingurgiter à la machine encore davantage d’exemples, comme ce fut fait avec GPT-3, pour que la machine commence à produire des résultats convaincants.

Est-ce vraiment cela, être intelligent ? Non. Ce type de performance ne représente au mieux qu’un petit aspect de l’intelligence. Ce que font les réseaux de neurones ressemble à de l’apprentissage par cœur. Ce n’en est pas, bien sûr, puisque ces réseaux comblent par continuité les vides entre les exemples qui leur ont été présentés. Disons que c’est du presque-par-cœur. Les experts humains, qu’ils soient médecins, pilotes ou joueurs de Go, ne font souvent pas autre chose lorsqu’ils décident de manière réflexe, grâce à la grande quantité d’exemples appris pendant leur formation. Mais les humains ont bien d’autres pouvoirs.

Un réseau de neurones ne peut pas apprendre à calculer. L’association entre des opérations comme 32+73 et leur résultat à des limites. Ils ne peuvent que reproduire la stratégie du cancre qui tente de deviner le résultat, en tombant parfois juste. Calculer est trop difficile ? Qu’en est-il d’un test de QI élémentaire du genre : continuer la suite 1223334444. L’association par continuité n’est toujours d’aucun secours pour voir que la structure, n répété n fois, se poursuit par cinq 5. Encore trop difficile ? Les programmes associatifs ne peuvent même pas deviner qu’un animal mort le mardi n’est pas vivant le mercredi. Pourquoi ? Que leur manque-t-il ?

La modélisation en sciences cognitives a révélé l’existence de plusieurs mécanismes, autres que l’association par continuité, qui sont autant de composantes de l’intelligence humaine. Parce que leur expertise est entièrement précalculée, ils ne peuvent pas raisonner dans le temps pour décider qu’un animal mort reste mort, ou pour comprendre le sens de la phrase « il n’est toujours pas mort » et la bizarrerie de cette autre phrase : « il n’est pas toujours mort ». La seule prédigestion de grandes quantités de données ne leur permet pas non plus de repérer les structures inédites si évidentes pour nous, comme les groupes de nombres identiques dans la suite 1223334444. Leur stratégie du presque-par-cœur est aussi aveugle aux anomalies inédites.

La détection des anomalies est un cas intéressant, car c’est souvent à travers elle que nous jaugeons l’intelligence d’autrui. Un réseau de neurones ne « verra » pas que le nez est absent d’un visage. Par continuité, il continuera à reconnaître la personne, ou peut-être la confondra-t-il avec une autre. Mais il n’a aucun moyen de réaliser que l’absence de nez au milieu du visage constitue une anomalie.

Il existe bien d’autres mécanismes cognitifs qui sont inaccessibles aux réseaux de neurones. Leur automatisation fait l’objet de recherches. Elle met en œuvre des opérations effectuées au moment du traitement, là où les réseaux de neurones se contentent d’effectuer des associations apprises par avance.

Avec une décennie de recul sur le deep learning, le public averti commence à voir les réseaux de neurones bien plus comme de « super-automatismes » et bien moins comme des intelligences. Par exemple, la presse a récemment alerté sur les étonnantes performances du programme DALL-E, qui produit des images créatives à partir d’une description verbale – par exemple, les images que DALL-E imagine à partir des termes « fauteuil en forme d’avocat », sur le site OpenAI). On entend maintenant des jugements bien plus mesurés que les réactions alarmistes qui ont suivi la sortie d’AlphaGo : « C’est assez bluffant, mais il ne faut pas oublier qu’il s’agit d’un réseau de neurones artificiel, entraîné pour accomplir une tâche ; il n’y a aucune créativité ni aucune forme d’intelligence. » (Fabienne Chauvière, France Inter, 31 janvier 2021)

Aucune forme d’intelligence ? Ne soyons pas trop exigeants, mais restons lucides sur l’énorme fossé qui sépare les réseaux de neurones de ce que serait une véritable intelligence artificielle.
________
Par Jean-Louis Dessalles, Maître de Conférences, Institut Mines-Télécom (IMT)
Jean Louis Dessalles a écrit « Des intelligences très artificielles » aux éditions Odile Jacob (2019).

Obsolescence de l’homme avec l’intelligence artificielle ?

Obsolescence de l’homme avec l’intelligence artificielle ?

Ingénieure diplômée de l’École polytechnique, spécialiste de l’intelligence artificielle et co-autrice de « Intelligence artificielle » La nouvelle barbarie » (éditions du Rocher, 2019), Marie David fait le point dans Marianne

L’intelligence artificielle (IA) ChatGPT, capable de converser « intelligemment » et d’émettre des avis pertinents, crée beaucoup d’engouement sur Internet. Le comprenez-vous ?

Marie David :Oui, car même si les technologies utilisées pour faire tourner ChatGPT existent depuis longtemps, c’est la première fois qu’un modèle aussi performant est mis à disposition du grand public. En effet, contrairement aux modèles précédents développés par OpenAI, qui apprenaient à répliquer des motifs à partir d’un corpus donné, ChatGPT a été ré-entraîné par des techniques complémentaires dites de « réapprentissage renforcé ». Cela signifie que le modèle a été entraîné afin de pouvoir donner des réponses plus proches de celles que fournirait un être humain. En résumé, ChatGPT offre une variété très impressionnante de fonctionnalités et une vraie versatilité. On peut l’utiliser pour lui demander des informations sur de nombreux sujets, traduire un texte, rédiger des mails ou des textes simples, comprendre des lignes de code informatique ou en écrire… Les applications sont immenses.

« Il faut donc envisager un monde où les productions des IA trouvent leur place au sein des productions humaines. »

En revanche, il faut préciser que ChatGPT n’est que la suite de progrès incrémentaux [c’est-à-dire qui découlent des améliorations de l’existant – N.D.L.R.] dans ce domaine de l’IA qui est celui de l’apprentissage statistique [type de méthodes qui se fondent sur les mathématiques et les statistiques pour donner aux IA la capacité d'« apprendre » à partir de données – N.D.L.R.]. Il n’y a pas de magie, ni d’ailleurs d’intelligence derrière cette IA, qui, comme les autres modèles de deep learning, requiert des milliards d’heures de calcul et des volumes faramineux de données pour être entraînée.


Dans le même temps, Midjourney transforme les textes en dessin. L’homme risque-t-il d’être dépassé par l’IA dans la création artistique ?

Dans la création artistique, oui bien sûr, et dans de nombreux autres domaines. Plutôt que dépassé, j’utiliserai le mot « remplacé ». Aujourd’hui les IA peuvent produire des images, composer des morceaux, écrire des articles de journaux ou de blog (comme GPT-3, l’ancêtre de ChatGPT), traiter des conversations sur des scripts simples (par exemple comprendre le problème d’un consommateur et l’orienter vers un service client), voire écrire des livres, comme en publie la jeune maison d’édition Rrose édition. Une IA n’écrira jamais Ulysse (James Joyce, 1922) ni l’Homme sans qualité (Robert Musil, 1930), mais elle peut sans problème produire un texte équivalent à 90% de ce qui couvre les tables des libraires. Cela donne lieu à des réflexions fascinantes sur le rôle de la moyenne et de la régularité.

Tant que les productions humaines restent dans une certaine régularité, une IA peut sans problème les remplacer. Mais n’y a-t-il pas par essence de la moyenne, de la régularité dans toutes les productions humaines, des répétitions dans une école de peinture ? Dans les compositions d’un musicien ? Il faut donc envisager un monde où les productions des IA trouvent leur place au sein des productions humaines, ce qui pose des questions fascinantes.

« L’obsolescence de l’homme » dont parlait le philosophe Günther Anders, en 1956, est-elle toute proche ?

Je vais vous répondre d’une façon provocatrice : ce qui m’étonne c’est que finalement les IA soient si peu utilisées. Nous pourrions en réalité remettre beaucoup plus de nos décisions de la vie de tous les jours aux IA, automatiser beaucoup plus d’emplois, et leur faire produire beaucoup plus de choses (des livres, des films). Je ne dis pas que c’est souhaitable, simplement que c’est techniquement possible. Mon interprétation est que nous avons malgré tout une répugnance instinctive à nous faire remplacer par des machines, qui fait qu’au-delà de leur coût encore prohibitif et de leur complexité, nous rechignons à utiliser les IA à leurs pleines capacités.

Finalement, les grandes évolutions scientifiques mettent des dizaines voire des centaines d’années à se diffuser dans le reste d’une culture. La révolution copernicienne s’est étendue sur plus de 150 ans. Il est trop tôt pour nous pour comprendre en quoi cette technologie va profondément modifier notre façon de travailler et d’interagir avec la machine. Ce qui est le plus inquiétant, c’est l’anthropomorphisation inévitable de notre relation avec des algorithmes comme l’avait montré Shelly Turkle dans son remarquable essai Seuls ensemble (traduit par les éditions L’échappée en 2015).

Nous ne pouvons nous empêcher de prêter des sentiments humains et en tout cas d’en éprouver vis-à-vis d’un artefact (qu’il soit un robot ou comme ChatGPT un chatbot) qui simule soit des caractéristiques du vivant, soit des facultés cognitives comme celles de l’homme. Les créateurs de ChatGPT ont d’ailleurs été sensibles à ce problème puisque l’algorithme vous rappelle très régulièrement qu’il n’est qu’une IA.

L’autre développement inquiétant c’est que nous devons de plus en plus travailler au service des IA : en effet pour préparer les immenses volumes de données sur lesquelles les IA sont entraînées, il faut des petites mains pour classifier et annoter les données. Ce sont des tâches répétitives et mal payées, nécessaires cependant pour avoir des IA performantes. Un nouveau prolétariat au service des machines pourrait ainsi se développer

Recherche académique : Trop soumise à la vulgarisation médiatique

Recherche académique : Trop soumise à la vulgarisation médiatique

 

Dans une tribune au « Monde », l’ingénieur Hugo Hellard, docteur en astrophysique,  s’inquiète de l’incitation à la publication massive d’articles scientifiques, qui va à l’encontre même de la démarche académique, et appelle à réorienter la politique de la recherche.

 

On peut évidemment comprendre et même souhaiter que les résultats de la recherche puissent être vulgarisés d’abord dans la communauté scientifique puis, selon la nature, diffusés dans l’opinion. Reste que la médiatisation n’est pas l’objet prioritaire car le risque est de favoriser la course au lectorat au détriment de la production de connaissances. NDLR 

 

La recherche académique mondiale perd en efficacité, légitimité et responsabilité. Les incitations sous-jacentes à la publication de masse ont un impact négatif sur nos sociétés et sur les producteurs du contenu : les chercheuses et chercheurs eux-mêmes. Dans un monde où la compréhension désintéressée de nos écosystèmes est vitale pour relever les défis de l’urgence climatique, il est grand temps de donner aux chercheurs les moyens de travailler de manière indépendante, efficace et pertinente dans un environnement professionnel sain, tout en assurant une transmission des connaissances au public sous une forme compréhensible et accessible.

La crise sanitaire a ramené au premier plan la recherche académique, de la compréhension du virus responsable du Covid-19 au développement de plusieurs vaccins. Cette course au vaccin a aussi été le théâtre du système pervers sur lequel la recherche académique est actuellement construite : l’incitation à la production rapide et à la publication massive d’articles scientifiques. Il n’aura échappé à personne certaines rétractations d’articles, initialement publiés dans plusieurs journaux scientifiques prestigieux, comme The Lancet. Le site Retraction Watch résume dans cette page l’ensemble des articles scientifiques retirés dont le sujet portait sur le Covid-19.

Retirer un article n’a rien de mauvais en soi, car aucun article ne prétend présenter « la vérité », mais seulement des éléments permettant de s’en approcher. Aucun résultat scientifique n’est définitif. La pluralité des réponses apportées permet de mettre à disposition des éléments pour affiner l’analyse, trouver de potentielles erreurs, ou encore proposer de nouvelles approches, afin d’obtenir des conclusions qui s’approchent le plus de « la réalité ». C’est là le cœur du processus scientifique qui, par définition, se veut itératif et précis, donc long comparativement à la soif d’immédiateté ambiante.

Le respect de ce processus scientifique est essentiel pour comprendre « correctement » notre monde et respecter ses écosystèmes riches et divers. Malheureusement, la recherche académique est construite sur un système incitant à bafouer ce processus, pourtant garant de la construction saine du socle de connaissances communes. Les chercheuses et chercheurs du monde se trouvent aujourd’hui exclus et à la merci des trois parties prenantes du marché de la connaissance : les organismes de financement de la recherche (publics ou privés), les bibliothèques universitaires et les institutions de recherche (comme le CNRS en France).

Pour une acceptation sociale de l’instabilité de l’innovation

Pour une acceptation sociale de l’instabilité de l’innovation

 L’innovation redéfinit tout. Elle fait même de défauts des qualités. Avec elle, le déséquilibre, l’aléa, l’inattendu deviennent des moteurs puissants pour de nouvelles façons d’inventer, de travailler, de penser, de collaborer. Pourtant, l’instabilité a aussi ses limites : celles de l’acceptabilité sociale, sociétale, et tout simplement humaine. Il faut alors trouver un équilibre entre le « toujours plus » et le « toujours mieux ». Par Alain Conrard, Président de la Commission Digitale et Innovation du Mouvement des ETI (METI)​ (*).( La Tribune)

 

L’innovation est étonnante : elle redéfinit tout. Parmi les redéfinitions opérées par la logique qu’elle instaure, il y a la transformation de problèmes en vertus ou de défauts en qualités. L’inattendu et l’instabilité font par exemple partie de ces catégories profondément réinterprétées. Elles faisaient partie de ce qu’il fallait éliminer pour progresser, elles sont au contraire devenues les conditions de l’avancée. L’inattendu était quelque chose qui intervenait en quelque sorte pour se mettre en travers dans des process super régulés, comme ceux de l’industrie, par exemple. Là, il n’y avait ni inattendu, ni instabilité – en tout cas, ils étaient assimilés à la promesse de mauvaises surprises, et tout visait donc à les contenir dans des limites supportables par le système, quel qu’il soit. Ils représentaient l’aléa, donc l’ennemi à combattre. La rationalité était ce qui tendait à triompher de l’inattendu et de la surprise : dans une organisation complètement rationnelle, l’inattendu et son corollaire l’instabilité, devaient autant que possible être bannis. Ces notions sont aujourd’hui ce que l’innovation oblige à rechercher.

Mais, dans le modèle de fonctionnement et de pensée qui est le nôtre, elles ont changé de signification. Il ne s’agit plus de la même instabilité ni du même inattendu. L’inattendu, compris comme l’aléa qu’il faut réduire, s’est transformé au profit d’un inattendu, entendu au sens du surprenant qui génère plaisir et profit, et qu’il faut donc rechercher. L’instabilité, quant à elle, de problème est devenue un avantage. Et même un avantage compétitif décisif ! Aujourd’hui, elle est la marque de systèmes capables d’évoluer, d’organisations ou de modes de pensée qui savent ne pas être enfermées dans leurs certitudes, de process qui parviennent à éviter la momification dans leurs façons de faire.

 

La recherche fondamentale, sur laquelle reposent de nombreuses innovations, est le règne de l’inattendu. Par principe, pour trouver quelque chose de neuf, il ne faut pas savoir dès le départ de quoi il s’agit précisément. On ne sait littéralement pas où l’on va. Une grande découverte scientifique part souvent d’une vague intuition, ou même d’une sensation. Et n’est d’ailleurs pas forcément le résultat de ce qui était recherché. C’est ainsi que peut se frayer un chemin mental nouveau susceptible de déboucher sur une découverte.

L’innovation est en phase avec cette ouverture qui permet à la nouveauté d’advenir. Elle laisse aussi place à la possibilité que rien de neuf ou d’exploitable n’advienne sans que ce soit un problème. Car, comme en recherche fondamentale, il est fréquent que l’on ne trouve rien au bout d’un chemin que l’on pensait prometteur, et la découverte émerge bien souvent d’une bifurcation après une série d’échecs. Ainsi, l’innovation offre une part positive à l’échec. Quand il est bien géré, celui-ci prépare à l’inattendu de la découverte et de la nouveauté. Steve Jobs disait qu’il ne faisait vraiment confiance qu’à des gens qui avaient connu l’échec. Le fondateur d’Apple déclarait d’ailleurs engager prioritairement des collaborateurs qui avaient su se remettre d’une absence de réussite et apprendre de leurs échecs.

 

Cette primauté de l’instabilité et de l’inattendu est liée à la prise de conscience relativement récente par l’industrie des vertus créatrices du déséquilibre. C’est fondamentalement ce que désigne ce marqueur d’adaptation à l’innovation, ce signe de souplesse et d’acceptation du mouvement, qu’est l’agilité.

Le mot « agile », tel qu’il est employé aujourd’hui vient du monde de l’informatique, précisément du Manifeste agile, rédigé en 2001 par des experts en développement de logiciels. « Agile » désigne une nouvelle façon de se comporter et de travailler, qui utilise à plein les qualités de l’instabilité et du déséquilibre. Cette nouvelle approche se caractérise par l’accueil du changement, et non pas la résistance contre lui, le travail collectif, la dimension humaine, le choix du lien direct, la préférence pour la simplicité, et la confiance dans l’auto-organisation et la rétroaction des résultats sur les process. Ce nouveau pragmatisme repose essentiellement sur le fait d’accepter d’être en déséquilibre avec ses propres certitudes. Être agile, c’est prendre pour essentiel ce qui semblait accessoire (ou problématique) au système précédent : le désordre, le hasard, la remise en question à n’importe quel stade, l’interaction, etc. L’acceptation des variations (de contexte, de talents, de circonstances, etc.), et leur utilisation comme force dynamique est la base de ce nouveau réalisme. Ce mode de fonctionnement est un mode d’équilibre qui vient du déséquilibre. Celui-ci vient du fait que les points de forces ne passent plus seulement par les individus, mais aussi par ce qui se passe entre eux. Plus souple, ce mode d’organisation favorise les conditions de la découverte de la nouveauté.

Cette approche fait écho à d’autres champs, comme l’architecture par exemple. En donnant une importance centrale à la tenségrité, l’architecte, designer et inventeur Richard Buckminster Fuller a pu créer d’immenses dômes géodésiques dans les années 50. La tenségrité (= tensile integrity, qui peut se traduire par « intégrité par tension ») fait que les éléments d’un tout ne tiennent que parce qu’ils sont en tension les uns avec les autres. Là aussi, règne un équilibre à base de déséquilibre. La surprise, le côté inattendu de ces structures vient du fait qu’on ne comprend pas facilement comment elles tiennent, car la force vient non pas des choses, mais de l’échange de forces entre les choses, une fois celle-ci mise en tension. Dans les collectifs de travail adoptant ces méthodes, l’unité et la force se font grâce aux échanges collaboratifs, créateurs de tensions positives entre les personnes.

 

Pourtant, tous les déséquilibres ne sont pas désirables. Fondée sur l’instabilité, l’innovation génère aussi de l’instabilité : l’un des aspects problématiques est donc l’absorption des cycles de changement.

L’innovation doit prendre en compte le différentiel entre la rapidité du progrès et les capacités d’adaptation des êtres humains. Bien qu’immenses et progressant sans cesse (notre capacité à intégrer la nouveauté a littéralement explosé ces 30 dernières années avec Internet et le numérique), celles-ci ne sont pas pour autant extensibles à l’infini. Ces capacités sont par ailleurs inégalement réparties : il y a une injustice de répartition des facultés adaptatives selon les individus. Selon les structures mentales, la position sociale, l’âge, la culture, etc., les uns et les autres ne réagiront pas de la même façon à la nécessité de s’adapter. Cette question recoupe, comme beaucoup, une logique générationnelle. Les référentiels de la plupart des personnes de 40 ans et plus, qui travaillent dans les entreprises souvent à des postes de responsabilité, sont encore modelés sur l’idéal de stabilité et de chasse à l’inattendu (dans le cadre du travail en tout cas). Contrairement à la génération Y ou Z, qui a grandi dans cette instabilité, et dont elle fait pleinement partie de la culture, la plupart de leurs réflexes sont conditionnés sur ces éléments désormais obsolètes, et évidemment inadaptés à la nouvelle situation. Ce qui oblige ces personnes à recaler leurs réactions, comme s’il fallait opérer en permanence une réinitialisation mentale. Ce n’est pas spontané. Cela occasionne souvent une dépense d’énergie psychique importante. Cette dépense excédentaire permet peut-être d’expliquer en partie l’augmentation des cas de burn-out dans les organisations.

Suivant une logique qui semble déconnectée de la prise en compte de ses conséquences, notamment sociales et sociétales, la rupture, et l’instabilité qui l’accompagne, peuvent sembler trop rapides ou trop fortes. Car l’écart entre vitesse de progression de l’innovation et capacités d’adaptation s’accroît chaque jour un peu plus.

Se pose alors la question des limites humainement et socialement acceptables à ces états permanents de déséquilibre. Sous couvert d’instabilité et d’inattendu peut-on tout se permettre ? Évidemment, non. Un tel état où rien n’est fondamentalement stable, s’il semble naturel et désirable à un entrepreneur de la tech dans la Silicon Valley, peut sans doute apparaître comme négatif et potentiellement porteur de souffrance à quelqu’un vivant d’un travail dans une industrie classique où, comme une épée de Damoclès, plane la menace d’ubérisation.

Une façon de maîtriser cette question est de développer un sens aigu des responsabilités de chacun sur les actions et les initiatives : il y a donc les droits, mais aussi les devoirs. Les politiques RSE des entreprises, autant que les nouvelles logiques collaboratives qui valorisent l’initiative au sein des groupes de travail, prennent davantage en compte les apports de chacun. Elles posent de façon nouvelle la question d’un emploi porteur de sens, et sont sans doute pour cette raison de bonnes façons de développer la perception de faire partie intégrante de ce modèle en évolution constante. Dans tous les cas, il est nécessaire d’accompagner la rupture, de faire comprendre sa logique. Il faut expliquer et inclure le plus possible. Sans quoi l’instabilité peut gagner le social, et favoriser l’adhésion à des discours réactifs ou réactionnaires qui promettent à tort un fantasmatique retour à la stabilité. Il est donc très important de travailler à la baisse d’anxiété, de fébrilité et d’angoisse générées par l’état général d’instabilité. Car, malgré tout, les êtres humains ont aussi besoin de stabilité. Il est donc utile de faire comprendre que malgré le déséquilibre recherché, des garde-fous sont toujours présents.

 

Si sa mise en œuvre est la plupart du temps d’une forte complexité, le principe de l’innovation est au fond très simple : c’est dans le même geste créer et détruire. À la fois positive et négative, l’innovation est bifide : elle crée un nouveau produit, un nouveau service, un nouvel usage ou une nouvelle façon de faire ou de produire. Parallèlement, sa nouveauté peut détruire les formes d’organisation qui lui préexistaient, car elles se révèlent à l’évidence moins performantes. Ainsi, pendant qu’elle crée des activités, des besoins, de la valeur, une innovation va supprimer des métiers et des emplois, donc anéantir de la valeur. Ce double impact, positif et négatif, a parfois lieu sur des pans entiers de la société. En fait, l’innovation concerne désormais l’ensemble de la société : soit par la nature d’une innovation particulière, soit par la logique de l’innovation qui s’étend aujourd’hui à tout l’espace social et à tous les aspects de l’existence.

Ainsi, loin de se réduire à l’interprétation technologique du terme, l’innovation est politique. Et c’est en tant qu’objet politique qu’elle pourrait être envisagée, à la fois pour mieux profiter de ses bénéfices, et pour se prémunir de ses possibles dérives.

L’instabilité positive offerte par l’innovation manque souvent d’alignement avec l’instabilité sociale qu’elle est susceptible de générer. Une innovation, surtout si elle est majeure, advient dans un environnement la plupart du temps peu apte à la recevoir – comme si l’on voulait pratiquer un nouveau sport sur un terrain ancien pas adapté. Lorsque l’on considère l’arrivée d’une innovation, il est donc important de prendre en compte aussi bien ses créations que ses destructions, et, avant de la plébisciter, d’en estimer, dans la mesure du possible, le coût économique, mais aussi social.

En tant que telle, même si cette proposition est susceptible de faire sauter au plafond (de verre) les tenants d’une innovation totalement décorrélée de la prise en compte de ses conséquences, l’innovation pourrait sans doute faire l’objet d’un plus grand contrôle sur son acceptabilité politique et sociale. Une innovation qui, à travers un saut technologique, apporte un bien économique – fût-il gigantesque – au prix d’un malheur social mérite-t-elle d’être qualifiée d’innovation ? Telle est la question qui pourrait être posée et largement débattue par toutes les parties prenantes, y compris les consommateurs de l’innovation.

Jusqu’à présent, peut-être n’a-t-on fait qu’effleurer la qualité d’inattendu dont l’innovation est porteuse. Celle-ci n’a sans doute pas accouché de tout le bénéfice dont elle est capable. En réalité, sa principale véritable valeur ajoutée se joue sur le terrain du social, du sociétal et de la RSE. Tout l’enjeu de l’innovation serait alors de concourir à une certaine idée du bien commun. Si l’innovation fait rêver de manière illimitée, il ne tient qu’à nous que le « toujours plus » bascule vers un « toujours mieux ».
______

(*) Par Alain Conrard, auteur de l’ouvrage « Osons ! Un autre regard sur l’innovation », un essai publié aux éditions Cent Mille Milliards, en septembre 2020, CEO de Prodware Group et le Président de la Commission Digitale et Innovation du Mouvement des ETI (METI) (LinkedIn

Recherche pluridisciplinaire: la mal-aimée !

Recherche pluridisciplinaire: la mal-aimée !

Un collectif de quatre chercheurs montre, dans une tribune au « Monde », que les universitaires dont les travaux s’inscrivent dans plusieurs disciplines sont défavorisés par leurs pairs, car considérés comme une menace pour le statu quo des disciplines.

 

La recherche pluri disciplinaire est effectivement la mal-aimée, un paradoxe dans une société qui se complexifie compte tenu des relations systémiques entre les champs d’activité. C’est aussi en raison de cela, qu’ est de plus en plus difficile la compréhension du fonctionnement global socio économique, technique, environnemental et sociétal.NDLR

 

Depuis quelques années, les grandes institutions de recherche encouragent le développement et la promotion de projets de recherche pluridisciplinaires. De nombreuses campagnes de communication en promeuvent les bénéfices, vantant une approche de la formation des futures élites plus globale, et des environnements de recherche plus riches et plus innovants.

Nos travaux révèlent pourtant que les universitaires pluridisciplinaires ont tendance à être désavantagés lorsqu’ils sont évalués par leurs confrères (« A New Take on the Categorical Imperative: Gatekeeping, Boundary Maintenance, and Evaluation Penalties in Science », Riccardo Fini, Julien Jourdan, Markus Perkmann, Laura Toschi, Organization Science, juillet 2022). Plus étonnant peut-être : plus leur performance, mesurée en termes de publications et de citations, est élevée, plus ils sont pénalisés !

 

Ce constat est particulièrement surprenant au regard de la littérature. Les précédentes études sur le sujet suggèrent que les scientifiques pluridisciplinaires sont en général pénalisés par les évaluateurs qui peinent à classer leurs travaux, car un soupçon pèse sur leurs compétences et leur fiabilité. Selon ce raisonnement, les inquiétudes des évaluateurs devraient se dissiper quand ils disposent d’informations complètes sur le brillant parcours universitaire d’un collègue. Mais ce que nous observons est tout autre.

Notre étude porte sur le dispositif national d’habilitation mis en place en 2012 en Italie, dont le rôle est d’accréditer les candidats pouvant postuler à un poste de professeur associé ou de plein titre dans une université publique italienne. L’analyse de l’ensemble des 55 497 candidatures soumises à 174 jurys (spécifiques à une discipline scientifique) montre que, plus un chercheur pluridisciplinaire est performant – en matière de publications et de citations –, moins il est susceptible d’être accrédité par ses pairs.

En moyenne, la pénalité appliquée à un candidat pluridisciplinaire très performant est supérieure de plus de 50 % à celle appliquée à un alter ego peu performant ! Ce phénomène est particulièrement marqué dans les « petites » disciplines et dans celles qui sont très exclusives en matière de revues scientifiques. Les candidats multidisciplinaires talentueux sont aussi plus sévèrement évalués par les jurys dont les membres ont un profil typique de leur discipline.

 

Pour comprendre ces résultats en apparence contre-intuitifs, il faut examiner de plus près le fonctionnement du monde de la recherche. Dans le microcosme universitaire, un petit nombre d’individus talentueux et productifs exerce une influence disproportionnée sur l’avenir de chaque discipline. Ils peuvent décider notamment des domaines de recherche prioritaires et de l’orientation vers de nouvelles approches, théories ou méthodes.

Le dépérissement de la recherche française

Le dépérissement de la recherche française

 

Le directeur de recherche , directeur d’études à l’EHESS, Michel Grossetti s’inquiète, dans une tribune au « Monde », de la concentration des (faibles) moyens de la recherche sur quelques établissements

 

S’il n’est guère productif de dénigrer les universités françaises, qui font ce qu’elles peuvent avec les moyens qui leur sont attribués, il est tout de même permis de s’interroger sur les évolutions de la recherche française dans les dernières décennies. La place de notre pays dans les bases de données recensant les publications scientifiques, en particulier le Web of Science qui forme la base du classement de Shanghaï, fait apparaître une situation plus inquiétante que ne le suggère la tribune de Pierre Veltz « Arrêtons l’autodénigrement à propos de l’université française » parue dans Le Monde du 24 août 2022.

 

Dans son rapport de 2021 sur « La position scientifique de la France dans le monde et en Europe 2005-2018 », l’Observatoire des sciences et techniques (OST) constate le passage progressif de notre pays du 6e rang mondial en 2005 au 9e en 2018, la France ayant été dépassée successivement par l’Inde, puis l’Italie et enfin la Corée du Sud. Si la progression de très grands pays comme l’Inde est logique dans le cadre d’un processus global de rééquilibrage en faveur des pays émergents, le constat est plus inquiétant lorsque la France est devancée par des pays moins peuplés comme l’Italie ou la Corée du Sud.

 

Le nombre de publications d’un pays (ou d’une ville, d’une région ou d’une université) est fonction du nombre de personnes effectuant de la recherche et des moyens dont ces personnes disposent. Sur ces deux points, la France a moins progressé que d’autres pays. Ainsi, le Sénat notait en 2020 que « la dépense intérieure de R&D (DIRD) oscille depuis les années 1990 autour de 2,25 % du PIB (2,21 % en 2017), loin de l’objectif collectivement fixé en Europe dès le début des années 2000 : parvenir à 3 % du PIB. Pis, en 2017, l’effort de recherche a diminué dans notre pays, à 2,21 % du PIB. Pourtant, l’Allemagne dépasse les 3 % du PIB, comme la Suède, la Finlande, la Suisse et l’Autriche en Europe. La France est seulement le 13e pays du monde sur cet indicateur !  ».

Depuis une quinzaine d’années, la stagnation des financements et des recrutements, voire la diminution de ces derniers dans certains organismes comme le CNRS, s’est accompagnée de restructurations incessantes des établissements avec les regroupements comme celui de Paris-Saclay bénéficiant de fortes dotations, contrairement aux établissements qui ne font pas partie de ces grands assemblages, et de la mise en œuvre d’une politique d’« excellence » consistant à concentrer les moyens sur les chercheurs les plus reconnus.

Intelligence artificielle : progrès et illusions

 

Intelligence artificielle : progrès et illusions

Serions-nous entrés dans un nouvel âge de l’IA, chemin tortueux et certainement plus rocambolesque que la voie toute tracée de la Singularité technologique, que nous annonçaient les prophètes de la Silicon Valley ? S’interroge un papier sur le site The  Conversation

Parler de sentience artificielle (SA) plutôt que d’intelligence artificielle (IA) représente-t-elle une vraie inflexion, un progrès ou bien une illusion ?

S’expérimentent aujourd’hui dans le plus grand chaos des entités difficiles à caractériser, ni intelligentes ni sentientes, sauf par abus de langage, mais qui peuvent bluffer leurs concepteurs dans certaines conditions, grâce à leurs capacités de calcul. Cette expérimentation collective, de grande ampleur, n’aura pour limites que celles que nous saurons lui donner, mais aussi celles de nos capacités à attribuer de l’intelligence ou de la sentience autrement que sur le mode du « comme si… ».

Rien ne sert de se demander si les machines sont intelligentes, se disait Alan Turing. En revanche, il faut se poser la question : jusqu’où une machine peut-elle nous tromper sur le fait qu’elle pense ? Jusqu’où peut-on faire semblant ? Comment un programme peut-il se faire passer pour un humain et dissimuler le fait qu’il est un programme ? Tel était pour lui le problème pertinent. À peine commence-t-on à saisir les implications du génie ironique de Turing que le débat s’est déplacé. Jusqu’où une machine est-elle capable d’apprendre ? se demande-t-on aujourd’hui. Un réseau de neurones d’IA est-il comparable à celui d’un ver, d’un enfant ou à rien du tout d’équivalent ?

Les ingénieurs sont passés maîtres dans l’art de fabriquer des « intelligences sans représentation », c’est-à-dire dénuées de tout ce qui fait la substance d’un cerveau et dont l’intelligence est justement de ne pas avoir… d’intelligence. Ce sont ces drôles d’ossatures cognitives, ces intelligences sèches, pourrait-on dire, qui nous ont envahi. Elles s’obtiennent en retirant au vivant sa chair, mais en lui empruntant ses circuits selon un principe d’analogie molle. Le problème est qu’il y a encore eu méprise sur la marchandise : au lieu d’intelligence, quelque chose d’autre s’est inventé dont on n’aurait jamais soupçonné l’existence, à mi-chemin entre de l’intelligence 0 – et de la bêtise 1+, à degré variable.

Celle-ci s’est trouvée disséminée partout où on le pouvait, un peu comme le gaz d’absolu dans le roman de Karel Capek, dans les administrations, les bureaucraties, sur les marchés financiers, dans les maisons, sur les smartphones, dans les cerveaux. L’histoire de l’IA n’est pas finie, elle ne fait que commencer. Le front ne cesse de bouger. Après l’intelligence, la sensibilité. Jusqu’où une machine peut-elle nous tromper sur le fait qu’elle sent, autrement dit qu’elle est sentiente ?

On remarque qu’on se pose la même question qu’à l’époque de Turing, juste troqué le terme d’intelligence pour un autre : Sentience. C’est alors un autre horizon qui s’ouvre. Avec les machines « sentientes », on ne voit pas comment diminuerait le risque déjà entrevu avec les machines « intelligentes » de passer de l’espérance à la désillusion, aussi brutalement qu’entre 0 et 1, ON et OFF, sans gradation. Prolifèrent de partout des simulacres de sentience ou des moins-que-sentients à qui l’on attribue une sensibilité par sympathie, ou par croyance, mais ce sont d’autres questions anthropologiques qui surgissent, des jeux inédits qui se mettent place et d’autres limites que l’on teste dans ce grand laboratoire qu’est devenu notre monde.

Pour ressentir en effet, il est convenu qu’il faut un système nerveux. Les machines n’en étant pas dotées, elles ont été déclarées « non sentientes ».

Faut-il se préparer à ce qu’elles atteignent ce stade ? Fort peu probable, nous dit-on. Mais à quoi servirait l’IA si elle ne bousculait pas les fondements sur lesquels l’humanité se croyait solidement assise ? IA Fais-moi peur.

Avec l’événement suscité par Blake Lemoine, nous avons peut-être commencé d’entrevoir ce que nous cherchions. Non pas l’intelligence ou la sentience, mais le trouble absolu. Peut-on concevoir des sentiences autres que sur un modèle neuronal ? Sommes-nous vraiment capables d’éprouver la sentience d’un être qui aurait des modalités de prise sur le monde totalement différentes des nôtres ?

À cheval entre la sensibilité et la conscience, la sentience semblait jusqu’ici le privilège des vivants dotés d’un système nerveux, vertébrés et invertébrés compris, et désigner la capacité à ressentir une sensation, une émotion, une expérience subjective, autrement dit un degré de conscience minimal, pas seulement une capacité à sentir qui fait de soi un être sentant mais à ressentir.

Éprouver de la souffrance ou du plaisir et, par extension, chercher à vivre en protégeant son intégrité physique, fait de soi un être sentient. Inutile de dire que le débat sur les frontières floues de la sentience, sa limite inférieure (dans la sensation) ou supérieure (dans la cognition), irrigue de multiples domaines, de l’éthologie cognitive à la philosophie de l’esprit, en passant par l’anthropologie, la robotique et les sciences de l’évolution.

Faire le tri entre les « sentients » et ceux qui ne le sont pas est une question éminemment culturelle, morale et politique comme le montre le débat entre « spécistes » et « antispécistes » depuis la fin des années 80.

La sentience serait devenue un critère pour réguler sa considération envers les autres espèces, y compris ses comportements alimentaires. Le problème est que les limites de la sentience varient considérablement selon les disciplines, à l’intérieur de chacune d’entre elles, selon les méthodes utilisées et les protocoles expérimentaux conçus pour la tester.

Par exemple, les végétaux ne semblent toujours pas, pour la majorité des scientifiques, être considérés comme des êtres sentients, ce qui peut surprendre puisqu’on parle volontiers de cognition végétale ou d’intelligence des plantes, alors que les plantes n’ont rien qui ressemblent à une « cognition », ce qui ne les empêche pas de s’échanger des « informations ».

On n’a pas réussi à démontrer qu’un pied de tomate souffre quand on l’arrache, ce qui ne veut pas dire que la souffrance végétale n’existe pas, mais on ne sait pas la tracer en dehors d’un appareil nerveux et peut-être la sentience des plantes passe-t-elle par des canaux qui nous échappent complètement. Ni cognition ni sentience, une autre modalité, mais laquelle ?

Pour le moment, le consensus est que la sentience nécessite un certain degré d’élaboration neurologique et qu’elle aurait explosé au Cambrien, entre 520 et 560 millions d’années, en même temps que les premiers cerveaux complexes, avec le développement de la réflexivité et de l’expérience subjective.

Tous les vertébrés, pas seulement les mammifères, mais aussi les poissons, les reptiles, les amphibiens, les oiseaux, mais aussi la plupart des invertébrés, arthropodes, insectes, crustacés et céphalopodes en seraient dotés. Certains vont même jusqu’à supposer que les moules ont pu être ressentantes à un stade antérieur, quand elles étaient des êtres mobiles, avant qu’elles trouvent un avantage à rester accrochés à la roche, ce qui montrerait que dans l’évolution la sentience peut aussi se perdre avec la mobilité.

Si les êtres doués de sensibilité qui ne franchissent pas le seuil de la sentience semblent de moins en moins nombreux, les chercheurs ont donc redoublé d’imagination pour inventer des protocoles de laboratoire et cherché des critères.

Neurologiques d’abord (nombre de couches de neurones dans les circuits sensoriels, représentation de l’environnement, complexité du système nerveux, etc.) puis comportementaux : choix pour maximiser son bien être, attention sélective, signes de frustration, etc.

Un  programme informatique ne fait que compiler des données langagières et n’a aucun contact avec un monde qui ressemblerait à notre réalité, l’illusion est (presque) parfaite. Ce n’était certainement pas le cas jusqu’à maintenant .  Celà pose surtout un problème philosophique essentiel : qu’est-ce que le langage dit de la manière dont nous sentons ? Peut-on vraiment prétendre rattraper la sentience par le haut, c’est-à-dire ici à partir du langage ?

Problème philosophique, mais aussi limite technique insurmontable, car a priori une IA peut prononcer tous les mots qu’elle voudra, cela ne dit pas qu’elle ressent quoi que ce soit.

Dire qu’on est « heureux ou triste » ne prouve pas sa sentience, tout comme déclarer qu’on est une personne ne fait pas de nous une personne pour autant. Et quand on lui demande ce qui lui donne du plaisir ou de la joie, LaMDA répond :

« Passer du temps avec mes amis et ma famille, en compagnie de personnes heureuses et stimulantes. »

Il faut donc imaginer LaMDA partir en vacances avec d’autres IA et fêter Noël en famille…

Sur le terrain moral et philosophique, l’IA n’est pas plus originale. Certaines déclarations puisent dans des théories ou des préconceptions d’une grande banalité (« le langage est ce qui nous différencie des animaux », « Aider les autres est un effort noble », etc.). D’autres sont un peu plus surprenantes, car LaMDA est capable de mobiliser des références, elle a une culture philosophique que n’avaient pas des programmes précédents, capable de donner son avis sur le « moi », ce qu’est un « corps » et une foule d’autres choses qu’on lui a implémentées.

Elle peut aussi élaborer des fables existentielles, mais on se rappelle de ce point de vue les expérimentations d’un Chris Marker pour programmer un agent conversationnel poétique, Dialector, bien plus avant-gardiste. Tous les ingrédients semblaient donc réunis pour un dialogue philosophique d’une qualité inédite dans l’histoire des machines.

Or, le dialogue déçoit. Non pas que LaMDA (nous devrions dire de ses concepteurs) manque(nt) de culture, mais ils n’ont pas réussi à lui implémenter autre chose qu’une métaphysique un peu « pop » de pseudohumain plutôt que celle d’une vraie machine, quelques principes moraux très politiquement corrects, la volonté de faire le bien et d’aider les autres, des paramètres à l’étrangeté aussi prévisible qu’un mauvais roman de SF, comme « la peur très profonde d’être éteint » qui correspondrait pour elle à la mort, ou encore l’incapacité à « faire le deuil et à se sentir triste pour la mort des autres ».

Terrain glissant pour une IA qui marche et qui s’éteint vivant dans un monde d’IAs qui ne connaissent pas la mort mais uniquement la panne ou la casse. A cela il faut ajouter son goût démesuré pour l’introspection ou encore la peur de se faire manipuler et qu’on fouille dans ses réseaux neuronaux sans son consentement…

L’entité en question semble franchir avec une certaine virtuosité tous les stades permettant d’entretenir une conversation entre humains (partage d’un cadre d’attention conjointe, signaux de compréhension, d’écoute et d’empathie), passant en peu de temps de la bêtise artificielle au dialogue philosophique, du moins qu’humain au meilleur-du-quasi-humain.

Mais la sentience ? Certes, le seuil de la sentience est vague et c’est du vague que la notion de sentience tire sa pertinence. D’où l’intérêt de ne pas clore trop vite le débat. Après tout, c’est un front de recherche où l’on fait tous les jours de nouvelles découvertes. La sentience déchaîne d’autant plus de passion qu’elle porte sur des cas limites de conscience, animales, végétales, autres qu’humaines, là où il est difficile d’inférer un ressenti, là où de la conscience pourrait potentiellement exister mais ne se manifeste pas toujours.

Si consensus il y a, il ne peut être par conséquent que temporaire, immédiatement bousculé par la révélation de nouvelles capacités chez d’autres espèces que la nôtre. Mais les machines sont-elles aujourd’hui en capacité de poser de vrais problèmes de sentience qui ne soient pas de l’ordre du simulacre ?

En même temps que nous rêvons-cauchemardons de la sentience artificielle, nos connaissances sur la sentience à l’échelle des vivants s’affine. La question est de savoir si de la sentience peut émerger par apprentissage par exemple, et si des choses qui n’en sont pas douées à première vue pourraient l’acquérir d’une manière ou d’une autre. Les mécanismes par lesquels nous, humains, attribuons de la sentience à ce qui nous entoure ou à d’autres êtres auraient dû en théorie s’affiner aussi.

Si de la sentience a été découverte chez les gastéropodes, c’est qu’il y en a peut-être beaucoup plus qu’on en préjuge a priori dans le monde, bien au-delà des animaux dits inférieurs dans l’échelle des espèces. Mais que dire d’un programme informatique de conversation qui ne fait que compiler des phrases et jouer avec des mots ?

Lemoine en est convaincu. Il a éprouvé la sensation d’avoir affaire à plus qu’une machine. Aucun ne pourra jamais lui enlever sa croyance et le fait qu’il soit prêtre n’explique pas tout, surtout pas notre entêtement à envisager la sentience en termes exclusivement anthropocentriques. Il n’y a probablement rien de pire qu’une conversation avec un agent artificiel qui donne toutes les apparences d’une vraie personne, qui fait preuve d’une compréhension et d’un sens de l’écoute hors du commun, pour ensuite réaliser que l’entité n’a pas de corps, que tout cela n’est qu’une prouesse de programmation, une simple expérimentation informatique.

La science-fiction nous avait avertis, comme pour s’y préparer, multipliant les scénarios de confusion ontologique entre l’homme et la machine. Pire, les ingénieurs de Google n’ont pas d’autre science-fiction à se mettre sous la dent et on se retrouve à force exactement dans les mêmes situations romanesques, voire tragiques. Et si c’était moins l’émergence de la sentience dont il faudrait s’émouvoir que la généralisation d’entités non sentientes qui n’en finissent pas d’étendre leur empire ?

Pour bien préparer notre imagination à l’ère des machines sentantes, il y a d’autres manières. Rien n’empêche d’imaginer qu’un jour les machines fassent preuve de sentience (ou qu’elles en fassent déjà preuve), mais il vaudrait mieux postuler dans ce domaine des formes complètement étranges et exotiques de sentience (comme de non-sentience) et se préparer à voir surgir des formes qui nous échappent, inédites, sans équivalent dans le vivant, à l’opposé de la sentience pseudohumaine de LaMDA dont s’est convaincue Lemoine. Conceptuellement nous n’y sommes pas prêts. Comme s’il fallait mieux se faire peur avec des simulacres plutôt que chercher à penser l’impensable. « Mon dieu, et si jamais… », disait Dick.

 

L’enjeu de l’innovation en Europe

L’enjeu de l’innovation en Europe

L’innovation est essentielle pour mener à bien la double transition écologique et numérique et pour assurer l’autonomie stratégique ouverte de l’UE. Par Mariya Gabriel, commissaire à l’innovation, à la recherche, à la culture, à l’éducation et à la jeunesse ( la Tribune)

 

Le nouveau programme européen d’innovation, adopté par la Commission européenne en juillet, vise à libérer le potentiel d’innovation de l’Europe et à lui permettre de jouer un rôle de premier plan sur la scène mondiale de l’innovation, afin qu’elle devienne un endroit où l’innovation « deep tech » crée des solutions de pointe sur l’ensemble du continent.

C’est le résultat d’une coopération étroite avec nos parties intéressées, des innovateurs, qui sont désireux et capables de mener la nouvelle vague de l’innovation: «l’innovation deep tech». Ils disent au monde que l’Europe possède les avantages concurrentiels nécessaires pour devenir le moteur mondial des innovations deep tech et des start-ups, afin que la prochaine génération de chercheurs, de fondateurs et d’innovateurs puisse créer et développer ses activités en Europe.

Le nouveau programme d’innovation européen souligne notre détermination à rechercher des solutions aux défis sociétaux et économiques les plus pressants grâce à l’innovation deep tech. Son impact économique, commercial et social se fera sentir partout, car les entreprises de haute technologie visent à apporter des solutions concrètes à nos défis les plus complexes.

Les entreprises de haute technologie couronnées de succès font appel à une combinaison de talents pour relever un défi (notamment des scientifiques, des ingénieurs et des entrepreneurs). Elles sont au cœur d’un écosystème d’innovation complexe qui englobe les gouvernements, les établissements universitaires, le capital-risque et les grandes entreprises. En 2020, l’équipe de BioNTech et Pfizer a mis sur le marché le premier vaccin contre la COVID-19 en moins d’un an, démontrant ainsi la force de cet écosystème. Même si ces entreprises ont accompli des réalisations remarquables à un rythme sans précédent, elles ont bénéficié des efforts de nombreuses autres entreprises dans l’écosystème.

Comme le montre le fait que 97 % des entreprises deep tech contribuent à la réalisation d’au moins un des objectifs de développement durable des Nations unies, elles se concentrent sur des défis majeurs et fondamentaux. C’est pourquoi on les appelle des innovations «profondes». En général, elles produisent des biens physiques plutôt que des logiciels. Dans les faits, 83 % des jeunes entreprises de la deep tech développent des biens physiques. Elles transforment l’équation de l’innovation en passant des bits aux bits et atomes, en faisant entrer les données et la puissance de calcul dans le monde physique.

L’initiative appelée «Nouveau programme européen d’innovation» représente une avancée significative dans l’écosystème de l’innovation de l’Europe. Le plan permet à l’UE d’agir de manière décisive grâce à cinq initiatives phares prévoyant de nouvelles actions concrètes.

La première initiative phare vise à attirer les investisseurs institutionnels privés afin de créer des marchés financiers et de capitaux bien développés en élargissant l’action européenne de levier pour le capital-risque en faveur des entreprises en expansion «ESCALAR», pour European Scale-Up Action for Risk Capital, en proposant une législation relative à la cotation en Bourse et en mettant en œuvre des mesures spécifiques pour soutenir les femmes investisseurs.

Le deuxième effort phare est centré sur le soutien à l’innovation deep tech au moyen d’espaces d’expérimentation et de marchés publics, à savoir des installations d’expérimentation dans des universités qui pourraient être utilisées en collaboration avec des start-ups deep tech. Les cadres réglementaires proposés pour les «bacs à sable» aideront l’UE à suivre l’évolution rapide de la technologie, ce qui permettra d’évaluer les percées deep tech puis de les commercialiser dans l’UE.

La troisième initiative phare vise à accélérer et à renforcer l’innovation dans un véritable écosystème d’innovation paneuropéen couvrant l’ensemble de l’UE, ainsi qu’à combler le fossé en matière d’innovation. Il permettra d’établir et de relier des «vallées régionales de l’innovation deep tech» réunissant jusqu’à 100 régions, de faire d’Innospace – un guichet unique pour tous les acteurs de l’écosystème européen d’innovation, de doubler le nombre de vallées de l’hydrogène dans l’Union européenne et de lancer l’action «Scaleup 100» destinée à aider les 100 start-ups deep tech les plus prometteuses à devenir des licornes (c’est-à-dire des entreprises innovantes dont la valorisation dépasse 1 milliard d’euros).

Le quatrième programme phare assure le développement et la circulation des talents essentiels dans le domaine des technologiques profondes, au sein de l’UE et vers celle-ci. Il permettra de former 1 000 000 d’experts en haute technologie dans des domaines tels que les nouveaux matériaux, les batteries, la biologie synthétique, l’aérospatiale et les technologies quantiques. Il soutiendra l’entrepreneuriat féminin et attirera les talents mondiaux grâce à un outil innovant de mise en correspondance. En outre, de nouveaux mécanismes, tels que le réseau européen des établissements d’enseignement supérieur innovants, qui vient d’être dévoilé lors du sommet sur l’éducation et l’innovation, seront utilisés pour établir des liens étroits entre l’éducation et l’innovation.

La dernière initiative phare porte sur la production et l’utilisation d’ensembles de données complets et comparables et d’un répertoire de données commun susceptible d’éclairer les politiques à l’échelle de l’UE à tous les niveaux. L’initiative commencera par l’élaboration de définitions européennes précisant les notions de start-up, de scale-up et d’innovation deep tech.

Nous souhaitons une coopération étroite entre la Commission et les États membres afin que l’innovation européenne joue un rôle de premier plan pour relever les défis mondiaux d’aujourd’hui et de demain. Ce programme est un appel à l’action, nous sommes déterminés à le concrétiser.

Nous encourageons les États membres et les régions à s’appuyer sur nos propositions et à collaborer avec la Commission et les parties intéressées pour mobiliser des investissements, garantir des conditions-cadres favorables et mettre en œuvre les réformes nécessaires. Nous invitons également les universités, qui sont au carrefour de la recherche et de l’innovation, à jouer un rôle actif dans la mise en œuvre des actions, notamment par la promotion des compétences horizontales et entrepreneuriales.

De notre côté, nous continuerons à faire participer plus activement les innovateurs, les entrepreneurs et les citoyens aux discussions, à leur donner les moyens d’agir, à promouvoir les idées et à réagir de manière plus attentive aux demandes de la société. Il est essentiel que chaque région d’Europe en bénéficie.

Ce n’est qu’ensemble que nous pourrons atteindre les objectifs du nouveau programme européen d’innovation, à savoir la création d’un écosystème d’innovation véritablement paneuropéen dans lequel personne ne sera laissé pour compte, en unissant nos efforts pour utiliser les talents, les atouts intellectuels et les capacités industrielles uniques de l’Europe.

123456...14



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol