Archive pour la Catégorie 'sciences'

La fusée Boeing pour ramener les astronautes…. en panne !

La fusée Boeing pour ramener les astronautes???? en panne

 

Nouvelle déconvenue pour Boeing qui additionne les problèmes avec ses avions cette fois il s’agit de la capsule Boeing qui a transporté deux astronautes à bord de la station internationale mais qui ne peut les ramener. Les deux astronautes américains « bloqués » vont finalement être intégrés à la rotation d’équipage et ne rentreront qu’en 2025, à bord d’une capsule Dragon de SpaceX, après huit mois passés à bord, au lieu des huit jours prévus initialement !

Cet épilogue est un énorme revers pour Boeing, déjà empêtré depuis des mois dans une série noire avec ses avions de ligne. En dépit de tous leurs efforts, les ingénieurs de l’entreprise n’ont pas réussi à dissiper les doutes de la Nasa concernant la fiabilité du système de propulsion de leur capsule Starliner.

L’art de l’anticipation chez les sportifs

L’art de l’anticipation chez les sportifs

 

Les Jeux olympiques de Paris donnent un éclairage incomparable au sport de haut niveau. Les athlètes olympiques et paralympiques brillent par leurs exceptionnelles performances. Force, vitesse, endurance apparaissent en premier. Mais également l’intelligence des actions et des prises de décisions. Ou encore la capacité de réaliser des actions d’une extrême précision avec des contraintes temporelles très élevées. Une large part de ces prouesses est réalisée grâce à une capacité qui est caractéristique de certains animaux et qui a été développée de manière extrêmement sophistiquée par l’être humain. Cette capacité des plus remarquables qui a permis sa survie et son extraordinaire expansion est celle de l’anticipation. Elle permet de se projeter dans le futur, de prédire l’avenir et les conséquences des actions que l’on est en mesure de produire. Elle peut être impliquée dans des choix de vie à long terme mais aussi dans des décisions de très court terme. Dans le sport, elle est primordiale ! Pour mener une carrière de sportif de haut niveau ou préparer un événement aussi exceptionnel que les JO avec toutes les contraintes et l’adversité qu’il est possible de rencontrer. L’anticipation est aussi très présente dans la réalisation même des performances. Elle permet de faire face à des situations extrêmes marquées par de très fortes contraintes spatiales et temporelles. Par exemple, les joueurs de tennis ne disposent que de 600 à 700 ms pour retourner un service frappé à 200 km/h tandis que les gardiens de but en football ont moins de 500 ms pour arrêter un tir de penalty. Ceci est d’autant plus compliqué qu’un temps de réaction visuel (qui correspond au délai entre la réception de l’information et le début de l’action de réponse) est au minimum de 200 ms et que les temps de mouvement requis pour répondre peuvent approcher d’une seconde entière. Cela est aussi vrai dans les activités de pleine nature telles que le VTT ou le canoë-kayak dans lesquelles de multiples décisions et actions doivent être réalisées dans des délais très courts marqués par une grande incertitude. Dans ces situations comme dans beaucoup d’autres que l’on rencontre dans de nombreux sports, les athlètes ne peuvent donc pas attendre d’avoir une information complète s’ils veulent avoir le temps de réaliser une action efficace et l’anticipation est déterminante de la performance.

 

par 

Nicolas Benguigui
Professeur en sciences cognitives, sciences du sport et de la motricité, Université de Caen Normandie

Clément Libreau
Doctorant en sciences du sport, Université de Caen Normandie dans The Conversation 

Mais comment définir l’anticipation en sport ? Elle correspond à l’ensemble des processus psychologiques qui permettent de se préparer à agir, de réagir plus tôt ou même d’agir avant qu’un événement ne se produise ou qu’un obstacle n’apparaisse. C’est par exemple le joueur de rugby qui commence une course pour intercepter une passe bien avant qu’elle ne soit effectuée par l’adversaire ou encore le grimpeur qui prépare la saisie d’une prise particulièrement difficile dans l’enchaînement des prises qui précèdent.

L’anticipation repose principalement sur la perception, la mémoire et les représentations ou images mentales que le sportif est capable de former. Elle s’appuie aussi sur des mécanismes de couplage perception-action et des bases de connaissance qui ont été découvertes ou élaborées à travers les expériences antérieures.

Ces mécanismes vont permettre d’identifier des indices pertinents pour prédire le déroulement des événements et s’engager de manière précoce dans les actions les plus efficaces. Cela peut correspondre à des prises d’information sur un parcours en pleine nature qu’il est possible de reconnaître pour anticiper par exemple les enchaînements de virages en VTT ou encore sur le comportement de l’adversaire pour décoder et anticiper l’action adverse sur la base des mouvements préparatoires aussi subtils soient-ils.

Cela peut aussi reposer sur des probabilités d’apparition de certaines actions. Si dans une situation donnée, l’athlète sait que son adversaire réalise systématiquement ou très fréquemment la même action, il peut se préparer à agir pour faire face ou même initier sa réponse bien avant que l’action adverse ne débute.

Un autre registre où les probabilités guident l’anticipation est celui de l’occupation du terrain. C’est ce qui a été mis en évidence par notre équipe dans l’étude du replacement des joueurs de tennis. Il a en effet été possible de confirmer la théorie des angles qui avait été définie par Henri Cochet le célèbre Mousquetaire de l’équipe de France de Coupe Davis des années 1920-1930 dans un ouvrage de référence.

Cette théorie énonce que la meilleure position de replacement pour faire face à la frappe adverse se situe sur la bissectrice de l’angle formé par les possibilités d’action de l’adversaire (la demi-droite qui partage cet angle en deux angles égaux).

À partir de données collectées lors d’un tournoi de tennis professionnel avec le système Hawkeye qui permet la capture des déplacements de la balle et des joueurs, il a été possible de déterminer que les joueurs se positionnaient très précisément sur cette bissectrice traduisant ainsi leur capacité d’anticiper non pas l’action à venir de leur adversaire mais ses possibilités d’action dans une situation donnée.

Les anticipations peuvent être intuitives et implicites et n’appartenir qu’à l’athlète sans même qu’il ne soit en mesure de les décrire. Mais elles peuvent être aussi explicites et préparées à l’avance avec l’aide d’une équipe technique. Ainsi il n’est pas rare d’observer des athlètes et des entraîneurs prendre des notes sur les adversaires futurs, visionner les matches antérieurs pour se préparer.

Mais l’anticipation est toujours un pari. Un pari éclairé certes, mais avec une prise de risque. Elle apporte des bénéfices en permettant de se préparer plus tôt pour contrer l’action adverse, mais elle peut avoir aussi un coût et se traduire par des actions inappropriées. Un très bon exemple de ces erreurs d’anticipation est ce qu’on appelle le « contre-pied », c’est-à-dire partir du mauvais côté, ce qui est bien souvent fatal dans le sport de haut niveau. Cela est lié au caractère nécessairement incertain de l’anticipation qui repose sur des informations partielles et à des capacités prédictives nécessairement limitées.

Il faut être très clair. Si l’anticipation est une capacité fascinante, il ne faut pas la surestimer. Parce que l’anticipation est aussi une approximation ! De par l’utilisation d’informations partielles et incomplètes. Les limites des capacités d’anticipation et de prédiction sont par exemple bien démontrées par l’incapacité à prédire des trajectoires complexes telles que les trajectoires courbes des balles ou des ballons avec effets. Ainsi les gardiens de but, même du plus haut niveau, sont fréquemment trompés par ces trajectoires et il a été montré expérimentalement cette incapacité à prédire ce type de trajectoire qui ne peut être compensée que par la régulation en continu l’action avec l’approche du ballon.

Tout est donc question d’utilisation appropriée de cette formidable compétence tout en sachant ses limites. On ne peut reprocher au gardien de but face au tireur de penalty d’être pris à contre-pied dans la mesure où il n’a pas d’autre choix que d’anticiper s’il veut avoir une chance de stopper quelques tirs tant le temps dont il dispose est réduit. Mais si la situation n’est pas aussi critique, être pris à contre-pied pour le gardien de but ou le joueur de tennis est une erreur qui est moins pardonnable car cela se traduit par des buts encaissés ou des points perdus alors que d’autres réponses plus efficaces pouvaient être produites. Ces engagements dans des anticipations inappropriées expliquent d’ailleurs pourquoi les attaquants cherchent si souvent à produire des feintes.

Faire une feinte, c’est se jouer de la volonté adverse d’anticiper. C’est donné des indices pour engager son adversaire dans une anticipation erronée. C’est commencer la préparation d’une action pour en réaliser une autre (par exemple les feintes de corps dans les sports collectifs ou dans les sports de combat). Ces feintes seront d’autant plus efficaces si elles sont effectuées rapidement et dans le bon timing.

Pour éviter d’être pris par des feintes, les sportifs de haut niveau adoptent dans un grand nombre de situation des comportements dits « conservateurs » ou d’attente dynamique qui les conduisent à ne pas anticiper mais à se coordonner très précisément avec l’action adverse.

C’est par exemple ce que notre équipe a montré dans le comportement d’allègement reprise d’appui (« split-step » pour les Anglo-Saxons) chez les joueurs et joueuses de tennis de haut niveau. Ce comportement préparatoire va permettre de démarrer le déplacement vers la balle dans le meilleur timing et avec la plus grande vitesse possible. Ceci est réalisé grâce au sursaut et au rebond des appuis au sol qui s’ensuit pour obtenir le maximum d’efficacité neuromusculaire (principe de pliométrie qui permet d’obtenir un rendement musculaire plus important quand le muscle est mis en tension juste avant sa contraction). La reprise d’appuis est alors synchronisée avec le premier moment où l’information sur la direction du service sera disponible. C’est précisément ce que font les joueuses et joueurs de tennis de haut niveau avec une reprise d’appui précisément réalisé 200 ms après la frappe adverse, temps correspondant au traitement de cette information visuelle.
Dans cette figure, on peut observer le comportement du joueur de tennis au retour de service qui se coordonne très précisément à l’action du serveur pour réagir dans le meilleur timing (juste après la frappe) avec une action préparatoire d’allègement-reprise d’appui qui va permettre un gain de force musculaire et de vitesse dans la réaction au sol. Source, Fourni par l’auteur
En conclusion, si l’anticipation apparaît comme une capacité essentielle de la performance dans de nombreux sports olympiques, elle doit être utilisée avec discernement. Dans les situations hypercomplexes qui caractérisent le sport de haut niveau, elle apparait comme essentielle pour occuper le terrain de manière optimale.

Elle est aussi primordiale dans le codage-décodage de l’information entre deux adversaires dans des situations de duel, et c’est un véritable jeu de dupes qui peut alors s’installer. L’attaquant va chercher à masquer ces actions ou à donner des informations trompeuses pour feinter son adversaire. Il peut même attendre de voir l’anticipation adverse pour choisir son action comme le font certains tireurs de penalty. De l’autre côté, le défenseur va chercher à décoder ces informations ou attendre suffisamment pour avoir une assurance de ne pas être trompé. Un élément essentiel est ainsi de savoir bien identifier quelles sont les situations qui permettent ou nécessite d’anticiper.

Quand il n’y a que des bénéfices à obtenir quand il s’agit de prévoir un enchaînement par exemple un gymnaste qui prépare sa diagonale avec les différents éléments qui la composent. Ou bien quand l’anticipation erronée est sans conséquence. Ou encore dans les situations d’urgence qui ne laissent pas la possibilité d’avoir une information suffisamment complète pour agir et se donner au moins une chance de contrer l’action adverse.

C’est tout l’art ou toute la science des plus grands athlètes que de savoir utiliser ces formidables capacités d’anticipation quand cela est pertinent pour s’engager dans l’action au meilleur moment !

Sciences: Comment le cerveau a-t-il évolué ?

Sciences: Comment le cerveau a-t-il évolué ?

La nature singulière et les capacités exceptionnelles du cerveau humain ne cessent de nous surprendre. Sa forme arrondie, son organisation complexe et sa longue maturation le distinguent du cerveau des autres primates actuels, et plus particulièrement des grands singes auxquels nous sommes directement apparentés. À quoi doit-on ses spécificités ? Puisque le cerveau ne fossilise pas, il faut chercher la réponse dans les os du crâne retrouvés sur les sites paléontologiques pour remonter le cours de l’histoire. La boîte crânienne renferme des empreintes du cerveau qui constituent de précieuses données sur les 7 millions d’années d’évolution de notre cerveau qui nous séparent de notre plus vieil ancêtre connu : Toumaï (Sahelanthropus tchadensis).

 

, Paléoanthropologue (CNRS), Université de Poitiers dans The Conversation 

Pendant la croissance, le cerveau et son contenant, le crâne, entretiennent un lien étroit et, par un processus de modelage et remodelage, l’os enregistre la position des sillons à la surface du cerveau qui délimitent les lobes et les aires cérébrales. À partir de ces empreintes, les paléoneurologues cherchent à reconstituer l’histoire évolutive de notre cerveau (par exemple, quand et comment les spécificités cérébrales humaines sont apparues ?), mais également à élaborer des hypothèses sur les capacités cognitives de nos ancêtres (par exemple, quand ont-il commencé à fabriquer des outils ?).

L’Afrique du Sud a joué un rôle central dans la recherche et la découverte d’indices sur les grandes étapes de l’évolution de notre cerveau. Les sites paléontologiques situés dans le « Berceau de l’Humanité », classé au patrimoine mondial par l’Unesco, sont particulièrement riches en fossiles piégés dans d’anciennes grottes dont les dépôts sont aujourd’hui exposés à la surface.

Parmi ces fossiles, on compte des spécimens emblématiques comme « l’enfant de Taung » (3-2,6 millions d’années), le tout premier fossile de la lignée humaine découvert sur le continent africain qui sera à l’origine du genre Australopithecus, ou « Little Foot » (3,7 millions d’années), le squelette le plus complet d’Australopithecus jamais mis au jour (50 % plus complet que celui de « Lucy » découvert en Éthiopie et daté à 3,2 millions d’années). Ces sites exceptionnels ont ainsi mené à la découverte de crânes relativement complets (par exemple « Mrs Ples » datée à 3,5-3,4 millions d’années), ainsi que de moulages internes naturels de crânes (par exemple celui de « l’enfant de Taung »), préservant des traces du cerveau de ces individus fossilisés qui ont été étudiés par des experts et ont servi de référence depuis des décennies.

Malgré la relative abondance et la préservation remarquable des spécimens fossiles sud-africains relativement aux sites contemporains est-africains, l’étude des empreintes cérébrales qu’ils conservent est limitée par la difficulté à déchiffrer et interpréter ces traces.

Devant ce constat, notre équipe constituée de paléontologues et de neuroscientifiques a cherché dans un premier temps à intégrer, dans l’étude des spécimens fossiles, les compétences techniques développées en imagerie et en informatique.

Nous avons alors mis en place le projet EndoMap, développé autour de la collaboration entre des équipes de recherche françaises et sud-africaines, dans le but de pousser plus loin l’exploration du cerveau en y associant des méthodes de visualisation et d’analyses virtuelles.

À partir de modèles numériques 3D de spécimens fossiles du « Berceau de l’Humanité » et d’un référentiel digital de crânes de primates actuels, nous avons développé et mis à disposition une base de données unique de cartographies pour localiser les principales différences et similitudes entre le cerveau de nos ancêtres et le nôtre. Ces cartographies reposent sur le principe d’atlas traditionnellement utilisé en neuroscience et ont permis à la fois une meilleure connaissance de la variabilité dans la distribution spatiale des sillons du cerveau humain actuel et l’identification des caractéristiques cérébrales chez les fossiles. En effet, certains désaccords scientifiques majeurs dans la discipline sont la conséquence de notre méconnaissance de la variation inter-individuelle, qui entraîne une surinterprétation des différences entre les spécimens fossiles.

Cependant, EndoMap fait face à un défi majeur dans l’étude des restes fossiles, comment analyser des spécimens incomplets ou pour lesquels certaines empreintes cérébrales sont absentes ou illisibles ? Ce problème de données manquantes, bien connu en informatique et commun à de nombreuses disciplines scientifiques, est un frein à la progression de notre recherche sur l’évolution du cerveau.

Le bond technologique réalisé récemment dans les domaines de l’intelligence artificielle permet d’entrevoir une solution. En particulier, devant le nombre limité de spécimens fossiles et leur caractère unique, les méthodes d’augmentation artificielle des échantillons pourront pallier le problème d’effectif réduit en paléontologie. Par ailleurs, le recours à l’apprentissage profond à l’aide d’échantillons actuels plus complets constitue une piste prometteuse pour la mise au point de modèles capables d’estimer les parties manquantes des spécimens incomplets.

Nous avons alors invité à Johannesburg en 2023 des paléontologues, géoarchéologues, neuroscientifiques et informaticiens de l’Université du Witwatersrand et de l’Université de Cape Town (Afrique du Sud), de l’Université de Cambridge (Royaume-Uni), de l’Université de Toulouse, du Muséum national d’histoire naturelle de Paris et de l’Université de Poitiers à alimenter notre réflexion sur le futur de notre discipline au sein du colloque « BrAIn Evolution : Palaeosciences, Neuroscience and Artificial Intelligence ».

Cette discussion est à l’origine du numéro spécial de la revue de l’IFAS-Recherche, Lesedi, qui vient de paraître en ligne et qui résume les résultats de ces échanges interdisciplinaires. À la suite de cette rencontre, le projet a reçu le soutien financier de la Mission pour les initiatives transverses et interdisciplinaires (MITI) du CNRS dans le cadre l’appel d’offres « Jumeaux numériques : nouvelles frontières et futurs développements » pour intégrer l’IA à la paléoneurologie.

IA: Apocalypse de l’emploi ?

Depuis la sortie de ChatGPT en novembre 2022, les spéculations vont bon train quant à l’impact économique de l’intelligence artificielle (IA). Les uns promettent un boom de productivité à venir, les autres une apocalypse sur le marché de l’emploi… En ouvrant son agent conversationnel au grand public, OpenAI a ravivé le vent de panique soulevé par les travaux de Carl Frey et Michael Osborne, chercheurs à Oxford, en 2013. Nous avions mené, sur le sujet, une étude pour la Commission européenne. Trois hypothèses essentielles et, semble-t-il, contestables, sous-tendent ces prédictions.

 

par 

Professeur d’économie et stratégie numériques, Université Libre de Bruxelles (ULB) dans The Conversation 

Une première hypothèse concerne le fait que les IA soient adoptées rapidement et massivement. Notre étude date certes de 2020, mais nous y observions, comme d’autres travaux plus récents aux États-Unis, que l’adoption de l’IA est en réalité très limitée. Quelle que soit la technologie d’IA considérée, elle ne concernait jamais plus de 13 % des entreprises.

Si les entreprises restent peu nombreuses à exploiter ces technologies si prometteuses, c’est avant tout en raison de la difficulté à dénicher les compétences nécessaires, et du coût de leur mise en œuvre. Viennent ensuite les barrières liées à la technologie elle-même : manque de fiabilité ou d’intelligibilité, infrastructure informatique insuffisante, ou manque de données exploitables.

ChatGPT et consorts peuvent paraître moins complexes à déployer en entreprise que d’autres systèmes d’information. Mais la facilité de prise en main des outils à l’échelle individuelle ne se retrouve par à l’échelle de l’organisation. Ils restent difficiles à mettre en œuvre dans des processus complexes et des risques liés à leur manque de fiabilité demeurent. Air Canada, contrainte par un tribunal d’honorer une politique tarifaire inventée de toutes pièces par son chatbot, en fit les frais récemment. Or, dans bien des domaines en entreprise, la marge d’erreur acceptable est très faible : qui serait prêt à monter à bord d’un avion dont le pilote automatique se tromperait une fois sur cent ?

La seconde hypothèse associe adoption de la technologie numérique et croissance de la productivité. La longévité de cette croyance peut étonner alors que le paradoxe de la productivité, énoncé par Robert Solow dès 1987 n’a toujours pas été démenti, excepté pour quelques-unes des dernières années du XXe siècle. Solow observait à l’époque que l’on voyait l’ordinateur partout sauf dans les statistiques de productivitéLes choses n’ont pas vraiment changé, y compris avec l’IA durant les années 2010.

Les tentatives d’explication du paradoxe de Solow, dont sa version actuelle, incluant l’IA, sont diverses. Un élément récurrent dans ces réflexions réside dans le fait que technologie numérique et capital organisationnel seraient complémentaires. Cela revient à dire que la technologie produit très peu d’effet sans les compétences et adaptations organisationnelles nécessaires à leur plein potentiel. Or peu d’entreprises parviennent à les acquérir.

 

Quelques études récentes ont malgré tout mis en évidence un effet très substantiel des agents conversationnels dans différents contextes : 40 % de productivité gagnée grâce à ChatGPT dans des tâches de rédaction14 % dans un centre d’appel, ou encore 25 % au sein d’un célèbre cabinet de conseil. Mais toutes ces études n’ont mesuré l’effet de l’IA que sur quelques tâches discrètes bien définies. Il n’existe, à l’heure actuelle, aucune preuve que ces effets ponctuels se traduiront par des gains de productivité à l’échelle de l’entreprise ou de l’économie dans son ensemble.

Il se pourrait même que la technologie fasse perdre d’un côté ce qu’elle permettrait de gagner de l’autre. Une autre étude récente démontre que la productivité des développeurs a augmenté quand l’Italie a décidé d’interdire ChatGPT dans le pays du jour au lendemain. Les auteurs de l’étude concluent que l’important gain de temps dans la production de code permise par l’IA avait été éclipsé par une explosion plus importante encore du temps nécessaire à sa vérification et à sa correction.

On peut ainsi spéculer que derrière le paradoxe de Solow se cache un phénomène sournois : le numérique permet souvent d’automatiser des tâches, mais en générant davantage de tâches de contrôle, de réconciliation ou d’encodage, bref, de bureaucratie.

Pour que la technologie détruise l’emploi, il faut encore, troisième hypothèse, que les gains de productivité qu’elle engendre viennent se substituer au travail humain. Là encore, les choses sont plus nuancées.

Il n’en reste pas moins que l’impact de l’IA dépendra de la manière dont elle est déployée. Erik Brynjolfsson, également professeur à Stanford, souligne à juste titre la différence fondamentale entre les applications de l’IA qui automatisent les tâches et peuvent donc substituer une partie de l’emploi, et celles qui augmentent les compétences humaines, c’est-à-dire qui permettent aux travailleurs humains d’accomplir plus que ce qui serait possible sans technologie.

À se focaliser uniquement sur les premières, il ne faudrait pas oublier que l’IA peut mettre à la portée de travailleurs moins qualifiés des tâches qui leur auraient été inaccessibles sans la technologie. L’automatisation des unes est souvent l’augmentation des autres. La banque en ligne ou les caisses automatiques des supermarchés reviennent, par exemple, à déplacer le travail de l’employé vers le client. De même, ChatGPT peut permettre à quiconque de rédiger un contrat dans un langage juridique impeccable ou de produire du code informatique.

Le risque principal découlant de la technologie n’est en somme pas la destruction de l’emploi mais la redistribution des rôles et de la valeur. Les différentes études de ChatGPT évoquées ci-dessus partagent une observation importante : les gains de productivité ont à chaque fois concerné les travailleurs les moins qualifiés ou performants alors que les plus expérimentés stagnaient, voire perdaient en efficacité en adoptant l’IA. Cette observation inspire un certain optimisme à David Autor qui en conclut que l’IA pourrait justement aider à restaurer la classe moyenne en démocratisant les emplois à valeur ajoutée et en lissant la prime aux plus hautes qualifications.

Ajoutons à ce tableau le vieillissement de la population, la diminution parallèle de la part des actifs dans la population et l’ampleur des défis auxquels nous faisons face : transition écologique, infrastructures vertes et numériques à construire, santé et soins aux aînés, formation, sécurité et défense… La question n’est alors pas de savoir s’il restera assez de travail pour tout le monde, mais si l’IA sera suffisamment puissante pour démultiplier la productivité du travail à la hauteur des besoins.

La technologie ne peut garantir à elle seule ni la croissance, ni le partage de la prospérité. Elle nous offre en revanche une opportunité unique de rebattre les cartes, à condition d’en faire bon usage.

Processus de la mémoire et des souvenirs

Processus de la mémoire et des souvenirs

 

La mémoire est une aptitude essentielle qui nous permet d’intégrer, de conserver et de restituer les informations auxquelles nous sommes confrontés. Cette fonction n’est pas assurée par une structure précise du cerveau, mais par un ensemble de neurones connectés en réseau et répartis dans différentes régions. La mémoire constitue le fondement de notre intelligence et de notre identité, en regroupant savoir-faire et souvenirs.

 

par , Doctorant en neurobiologie comportementale, Université Côte d’Azur et , MCF en Neuroscience, Université Côte d’Azur dans The Conversation 

Le processus de la mémoire débute par l’encodage, où les informations captées par les organes sensoriels sont transformées en traces de mémoire, appelées engrammes. Ces engrammes désignent un groupe spécifique de neurones activés en réponse à une information, tel qu’un texte que vous venez de lire, par exemple. Ensuite, lors de la consolidation, ces informations sont renforcées pour un stockage à long terme. Enfin, le rappel permet de solliciter à tout moment une information, permettant ainsi l’adaptation du comportement en fonction des expériences passées. L’oubli survient en cas d’absence d’accès à ces informations. Bien que la mémoire puisse prendre différentes formes, elle est souvent soutenue par un engramme présent dans diverses régions cérébrales. Dans cet article, nous allons revenir sur ces différentes étapes de la vie d’un souvenir dans le cerveau.

Les prémices de la compréhension de la mémoire en tant que modifications durables du cerveau remontent à Aristote et Platon, vers 350 avant notre ère. Le concept scientifique de ces altérations a été initié il y a plus de 100 ans par le biologiste allemand Richard Semon. C’est lui qui nomme et définit l’engramme comme la base neuronale du stockage et de la récupération des souvenirs.

Les fondements de la recherche moderne sur ce sujet remontent aux idées influentes de Ramón y Cajal, neurobiologiste espagnol lauréat du prix Nobel de physiologie en 1906, et soutenant que l’expérience modifie les connexions neuronales. On sait en effet depuis la moitié du XXe siècle que l’activation simultanée de cellules interconnectées renforce leurs connexions. La résurgence récente des études sur les engrammes est la conséquence des avancées techniques permettant désormais de cibler précisément les neurones, facilitant ainsi leur compréhension.

À la lumière de ces découvertes, nous avons maintenant pu affiner notre compréhension de ce qu’est un engramme. Fondamentalement, la création d’un engramme résulte du renforcement des connexions entre les groupes de neurones actifs en même temps pendant l’apprentissage. Les connexions entre les neurones se produisent au niveau d’une synapse, formée par la liaison entre deux extrémités neuronales. Ces connexions synaptiques résultent en la formation de groupes de neurones travaillant ensemble : c’est l’engramme proprement dit. Ainsi, lorsqu’une information est stockée dans le cerveau, elle est représentée par un réseau de neurones interconnectés entre eux, mais qui ne se situent pas forcément dans la même zone. Ces neurones ne sont d’ailleurs pas spécifiques à la mémoire, et en plus d’intégrer l’engramme, ils continuent d’interagir au sein de réseaux différents pour remplir d’autres fonctions.

Le stockage d’un souvenir sur une longue période entraîne des changements qui se manifestent à plusieurs niveaux. Ces ajustements se caractérisent par une augmentation du nombre de prolongements neuronaux, augmentant ainsi le nombre de synapses et donc la connexion entre neurones. Ce renforcement des connexions synaptiques augmente alors la probabilité qu’un schéma d’activité neuronale qui s’est produit pendant l’apprentissage soit reproduit ultérieurement lors du rappel, facilitant ainsi la récupération du souvenir. Pour illustrer ce concept de manière concrète, imaginez avoir passé un moment dans un champ de lavande. La vue de la couleur violette ou l’odeur de la lavande déclenchera l’activation du réseau de neurones qui était actif lors de votre promenade dans ce champ, ravivant ainsi votre souvenir.

Cet engramme peut adopter différents états, soit actif lorsque vous vous remémorez une information, soit dormant, jusqu’à ce que le souvenir refasse surface. Il peut aussi être indisponible, ce qui signifie qu’il existe mais qu’il ne peut plus être activé par un stimulus externe.

Pendant l’apprentissage, les informations qui sont répétées ou qui portent une forte charge émotionnelle sont plus susceptibles d’être mémorisées. Lors de leur intégration dans le cerveau, une compétition entre les neurones se met en place dans différentes régions cérébrales pour être recrutés dans la formation d’un engramme. Les neurones les plus actifs en lien avec les informations sensorielles du souvenir l’emportent et deviennent des cellules d’engramme. Cette coordination entre neurones actifs renforce les connexions synaptiques entre ces neurones, amorçant ainsi la formation du réseau constituant l’engramme.

Pendant la consolidation, l’engramme subit une transformation de son état initial instable et sensible aux perturbations vers un état plus durable et résistant. Cette transition est permise grâce à certaines protéines essentielles à l’activité des neurones et à leurs connexions. Ce processus intervient pendant le sommeil, où l’on observe une réactivation des neurones impliqués.

En présence dans notre environnement d’éléments similaires à ceux du souvenir, ce dernier peut alors ressurgir : c’est le rappel. Ce processus implique la réactivation de l’engramme. Pendant le rappel, les neurones qui étaient actifs lors de l’apprentissage se réactivent. Mais au moment de la récupération, le souvenir peut devenir temporairement instable, déstabilisant l’engramme qui la soutient. De nouvelles connexions peuvent se former tandis que d’autres peuvent se perdre. Par exemple, lorsque vous partagez un souvenir avec une autre personne, vous le décrivez avec votre subjectivité, ce qui peut entraîner des modifications de l’événement par rapport à comment il s’est réellement déroulé. Ces modifications peuvent être intégrées comme faisant partie du souvenir lui-même à force d’être racontées ou rappelées.

L’engramme n’est donc pas immuable. Un souvenir se modifie aussi avec le temps en fonction du degré d’émotion qu’on lui associe. On peut alors en perdre les détails pour ne garder qu’une sensation positive ou négative selon l’importance qu’a ce souvenir pour nous. Prenons l’exemple d’un ancien souvenir de vacances à la plage, où vous ne vous souvenez que de la sensation agréable de la chaleur, sans vous rappeler les détails précis tels que la date ou l’heure. Au niveau cérébral, cela se traduit par une modification du nombre de neurones et de connexions associés à ce souvenir.

Quant à l’oubli, c’est un phénomène généralement défini comme l’absence de manifestation comportementale d’un souvenir, même s’il aurait pu être rappelé avec succès auparavant. Par exemple, cet oubli peut se produire lorsqu’on vous demande la date de décès de Vercingétorix : vous avez appris à l’école qu’il s’agit de 46 av. J.-C., mais vous l’avez oubliée par la suite car elle n’avait peut-être plus d’utilité dans votre vie.

L’oubli peut aussi être pathologique, et associé à certaines maladies telles que la maladie d’Alzheimer. Même si les informations sont d’une importance émotionnelle réelle, comme le prénom de vos parents, la maladie peut vous empêcher d’y accéder. Selon cette perspective, l’oubli peut alors résulter soit d’une dégradation totale de l’engramme, entraînant une indisponibilité de la mémoire, soit d’un problème de rappel. Le cerveau étant un organe très plastique, il peut arriver qu’il y ait des modifications synaptiques au niveau d’un engramme, ce qui le déstabilise et augmente alors la probabilité d’oubli.

Cependant, ce remodelage ne conduit pas nécessairement à un effacement complet de la mémoire, mais plutôt à un silence de l’engramme. Des engrammes « silencieux » ont par exemple été observés chez des souris amnésiques, et la réactivation artificielle de ces engrammes permet une récupération de la mémoire, alors que les indices naturels dans l’environnement ne le peuvent pas. Ces résultats suggèrent que l’oubli est souvent dû à un échec de récupération de la mémoire, plutôt qu’à son effacement complet. Une des hypothèses avancées pour les maladies touchant la mémoire serait que les souvenirs peuvent être silencieux plutôt que perdus à proprement parler.

Notre étude, en cours de publication, utilise des outils chez la souris pour enregistrer l’activité directe des neurones formant l’engramme à différentes étapes de sa formation. Grâce à l’activité de ces neurones et aux outils développés en collaboration avec des mathématiciens, nous reconstruisons les cartes de connectivité fonctionnelle définissant l’engramme. Cette connectivité correspond au fait que l’on peut associer l’activité des neurones enregistrés avec les actions réalisées par la souris pendant cet enregistrement. Ainsi nous pouvons suivre l’engramme au cours des processus d’apprentissage, de consolidation, de rappel et d’oubli et étudier sa dynamique. À long terme, l’objectif serait d’exploiter ces résultats afin de mieux appréhender l’acquisition, le stockage et l’utilisation de l’information chez les humains, et ainsi de potentiellement faciliter le traitement des troubles de la mémoire et d’autres dysfonctionnements cognitifs.

Intelligence artificielle et chercheurs ?

Intelligence artificielle et  chercheurs  ?

Au début des années 2000, nos directeurs de thèse nous expliquaient la chance que nous avions de bénéficier, grâce à la révolution numérique, d’un accès instantané à l’intégralité des productions scientifiques via des bases de données.  Ils nous décrivaient « le monde d’avant », celui où se procurer un ouvrage supposait de se rendre jusqu’à une bibliothèque parfois éloignée et d’y passer de longues heures à faire des photocopies. Ces superviseurs voyaient ces tâches traditionnelles comme participant à la construction des jeunes chercheurs et se demandaient ce que deviendrait ce « tour de main » avec la révolution numérique.

 

Par Cylien Gibert et Audrey Rouzies (*) dans la Tribune

Le développement rapide de l’IA nous renvoie aujourd’hui à des questionnements similaires : les futurs chercheurs risquent-ils de ne plus avoir les compétences et les savoir-faire essentiels à l’exercice de leur métier ? Si les opportunités et menaces de l’IA sur les activités d’enseignement ont été immédiatement identifiées et mises au cœur des réflexions, cette avancée technologique pose également des défis significatifs pour la formation des futurs chercheurs qui n’ont pour leur part pas encore été pris en considération.

L’acquisition de méthodes de collecte et d’analyse de données complexes constitue aujourd’hui l’un des piliers de la formation des doctorants. Il s’agit par exemple de savoir coder une grande quantité de données narratives, de développer des designs d’expérimentation adaptés, ou d’utiliser des outils statistiques complexes. Or l’IA (par exemple ChatGPT et son module « data analyst ») automatise et accélère de façon drastique ce travail de traitement des données.

Les générations futures peuvent-elles se passer d’apprendre à réaliser ces collectes et à mener ces analyses en les sous-traitant à l’IA ? Cette dépendance technologique pourrait les rendre vulnérables dans des situations où l’IA s’avèrera inadaptée ou inaccessible. Plus grave encore, elle pourrait diminuer leurs capacités critiques avec une acceptation passive des résultats générés : le doctorant qui aurait systématiquement confié ses analyses à l’IA serait incapable d’en détecter les erreurs.

D’autre part, l’utilisation d’une IA formée sur des données existantes soulève des inquiétudes. Est-il possible que le recours à l’IA pousse à reproduire des erreurs et des biais déjà présents dans les données d’entraînement, créant ainsi un risque de récursivité ? En outre, l’utilisation généralisée de l’IA basée sur des données d’entraînement préexistantes pourrait-elle conduire à des résultats qui ne remettent pas en cause le statu quo, limitant ainsi la nouveauté des futures découvertes scientifiques?

Face à ces défis, une approche équilibrée s’impose. Il est nécessaire de valoriser les nouvelles compétences techniques permettant d’utiliser l’IA, en gardant une posture critique vis-à-vis du recours à cette technologie. Il s’agit par ailleurs de continuer à transmettre aux doctorants des compétences analytiques fondamentales afin qu’ils conservent leur autonomie intellectuelle.

Dans les écoles doctorales, le renforcement des cours dédiés au développement de la pensée critique, tels que l’épistémologie et les diverses approches méthodologiques, est une piste. L’intégration de modules d’éthique de la recherche et d’intégrité scientifique directement en lien avec l’utilisation de l’IA en est une autre. In fine, il s’agit d’inculquer aux futurs chercheurs la responsabilité de l’exactitude des résultats qu’ils produisent, y compris si ces derniers sont générés par l’IA.

L’objectif est de s’assurer que l’utilisation des outils d’IA ne détruise pas à terme ce qui fait la valeur de ce métier : rigueur de la démarche méthodologique, sens critique et réflexivité. Ouvrons le dialogue au sein des centres de recherche et des écoles doctorales afin de construire des solutions collectives qui permettront de faire perdurer la capacité à créer des connaissances nouvelles.

_______

(*) Audrey Rouzies est directrice de l’Ecole doctorale de gestion à l’Université Toulouse Capitole et Cylien Gibert est chercheur en sciences de gestion à Toulouse School of Management Research.

Le stockage des souvenirs dans notre cerveau ?

La mémoire est une aptitude essentielle qui nous permet d’intégrer, de conserver et de restituer les informations auxquelles nous sommes confrontés. Cette fonction n’est pas assurée par une structure précise du cerveau, mais par un ensemble de neurones connectés en réseau et répartis dans différentes régions. La mémoire constitue le fondement de notre intelligence et de notre identité, en regroupant savoir-faire et souvenirs.

 

par t, Doctorant en neurobiologie comportementale, Université Côte d’Azur dans The Conversation

 

Le processus de la mémoire débute par l’encodage, où les informations captées par les organes sensoriels sont transformées en traces de mémoire, appelées engrammes. Ces engrammes désignent un groupe spécifique de neurones activés en réponse à une information, tel qu’un texte que vous venez de lire, par exemple. Ensuite, lors de la consolidation, ces informations sont renforcées pour un stockage à long terme. Enfin, le rappel permet de solliciter à tout moment une information, permettant ainsi l’adaptation du comportement en fonction des expériences passées. L’oubli survient en cas d’absence d’accès à ces informations. Bien que la mémoire puisse prendre différentes formes, elle est souvent soutenue par un engramme présent dans diverses régions cérébrales. Dans cet article, nous allons revenir sur ces différentes étapes de la vie d’un souvenir dans le cerveau.

Les prémices de la compréhension de la mémoire en tant que modifications durables du cerveau remontent à Aristote et Platon, vers 350 avant notre ère. Le concept scientifique de ces altérations a été initié il y a plus de 100 ans par le biologiste allemand Richard Semon. C’est lui qui nomme et définit l’engramme comme la base neuronale du stockage et de la récupération des souvenirs.

Les fondements de la recherche moderne sur ce sujet remontent aux idées influentes de Ramón y Cajal, neurobiologiste espagnol lauréat du prix Nobel de physiologie en 1906, et soutenant que l’expérience modifie les connexions neuronales. On sait en effet depuis la moitié du XXe siècle que l’activation simultanée de cellules interconnectées renforce leurs connexions. La résurgence récente des études sur les engrammes est la conséquence des avancées techniques permettant désormais de cibler précisément les neurones, facilitant ainsi leur compréhension.

À la lumière de ces découvertes, nous avons maintenant pu affiner notre compréhension de ce qu’est un engramme. Fondamentalement, la création d’un engramme résulte du renforcement des connexions entre les groupes de neurones actifs en même temps pendant l’apprentissage. Les connexions entre les neurones se produisent au niveau d’une synapse, formée par la liaison entre deux extrémités neuronales. Ces connexions synaptiques résultent en la formation de groupes de neurones travaillant ensemble : c’est l’engramme proprement dit. Ainsi, lorsqu’une information est stockée dans le cerveau, elle est représentée par un réseau de neurones interconnectés entre eux, mais qui ne se situent pas forcément dans la même zone. Ces neurones ne sont d’ailleurs pas spécifiques à la mémoire, et en plus d’intégrer l’engramme, ils continuent d’interagir au sein de réseaux différents pour remplir d’autres fonctions.

Le stockage d’un souvenir sur une longue période entraîne des changements qui se manifestent à plusieurs niveaux. Ces ajustements se caractérisent par une augmentation du nombre de prolongements neuronaux, augmentant ainsi le nombre de synapses et donc la connexion entre neurones. Ce renforcement des connexions synaptiques augmente alors la probabilité qu’un schéma d’activité neuronale qui s’est produit pendant l’apprentissage soit reproduit ultérieurement lors du rappel, facilitant ainsi la récupération du souvenir. Pour illustrer ce concept de manière concrète, imaginez avoir passé un moment dans un champ de lavande. La vue de la couleur violette ou l’odeur de la lavande déclenchera l’activation du réseau de neurones qui était actif lors de votre promenade dans ce champ, ravivant ainsi votre souvenir.

Cet engramme peut adopter différents états, soit actif lorsque vous vous remémorez une information, soit dormant, jusqu’à ce que le souvenir refasse surface. Il peut aussi être indisponible, ce qui signifie qu’il existe mais qu’il ne peut plus être activé par un stimulus externe.

Pendant l’apprentissage, les informations qui sont répétées ou qui portent une forte charge émotionnelle sont plus susceptibles d’être mémorisées. Lors de leur intégration dans le cerveau, une compétition entre les neurones se met en place dans différentes régions cérébrales pour être recrutés dans la formation d’un engramme. Les neurones les plus actifs en lien avec les informations sensorielles du souvenir l’emportent et deviennent des cellules d’engramme. Cette coordination entre neurones actifs renforce les connexions synaptiques entre ces neurones, amorçant ainsi la formation du réseau constituant l’engramme.

Pendant la consolidation, l’engramme subit une transformation de son état initial instable et sensible aux perturbations vers un état plus durable et résistant. Cette transition est permise grâce à certaines protéines essentielles à l’activité des neurones et à leurs connexions. Ce processus intervient pendant le sommeil, où l’on observe une réactivation des neurones impliqués.

En présence dans notre environnement d’éléments similaires à ceux du souvenir, ce dernier peut alors ressurgir : c’est le rappel. Ce processus implique la réactivation de l’engramme. Pendant le rappel, les neurones qui étaient actifs lors de l’apprentissage se réactivent. Mais au moment de la récupération, le souvenir peut devenir temporairement instable, déstabilisant l’engramme qui la soutient. De nouvelles connexions peuvent se former tandis que d’autres peuvent se perdre. Par exemple, lorsque vous partagez un souvenir avec une autre personne, vous le décrivez avec votre subjectivité, ce qui peut entraîner des modifications de l’événement par rapport à comment il s’est réellement déroulé. Ces modifications peuvent être intégrées comme faisant partie du souvenir lui-même à force d’être racontées ou rappelées.

L’engramme n’est donc pas immuable. Un souvenir se modifie aussi avec le temps en fonction du degré d’émotion qu’on lui associe. On peut alors en perdre les détails pour ne garder qu’une sensation positive ou négative selon l’importance qu’a ce souvenir pour nous. Prenons l’exemple d’un ancien souvenir de vacances à la plage, où vous ne vous souvenez que de la sensation agréable de la chaleur, sans vous rappeler les détails précis tels que la date ou l’heure. Au niveau cérébral, cela se traduit par une modification du nombre de neurones et de connexions associés à ce souvenir.

Quant à l’oubli, c’est un phénomène généralement défini comme l’absence de manifestation comportementale d’un souvenir, même s’il aurait pu être rappelé avec succès auparavant. Par exemple, cet oubli peut se produire lorsqu’on vous demande la date de décès de Vercingétorix : vous avez appris à l’école qu’il s’agit de 46 av. J.-C., mais vous l’avez oubliée par la suite car elle n’avait peut-être plus d’utilité dans votre vie.

L’oubli peut aussi être pathologique, et associé à certaines maladies telles que la maladie d’Alzheimer. Même si les informations sont d’une importance émotionnelle réelle, comme le prénom de vos parents, la maladie peut vous empêcher d’y accéder. Selon cette perspective, l’oubli peut alors résulter soit d’une dégradation totale de l’engramme, entraînant une indisponibilité de la mémoire, soit d’un problème de rappel. Le cerveau étant un organe très plastique, il peut arriver qu’il y ait des modifications synaptiques au niveau d’un engramme, ce qui le déstabilise et augmente alors la probabilité d’oubli.

Cependant, ce remodelage ne conduit pas nécessairement à un effacement complet de la mémoire, mais plutôt à un silence de l’engramme. Des engrammes « silencieux » ont par exemple été observés chez des souris amnésiques, et la réactivation artificielle de ces engrammes permet une récupération de la mémoire, alors que les indices naturels dans l’environnement ne le peuvent pas. Ces résultats suggèrent que l’oubli est souvent dû à un échec de récupération de la mémoire, plutôt qu’à son effacement complet. Une des hypothèses avancées pour les maladies touchant la mémoire serait que les souvenirs peuvent être silencieux plutôt que perdus à proprement parler.

Notre étude, en cours de publication, utilise des outils chez la souris pour enregistrer l’activité directe des neurones formant l’engramme à différentes étapes de sa formation. Grâce à l’activité de ces neurones et aux outils développés en collaboration avec des mathématiciens, nous reconstruisons les cartes de connectivité fonctionnelle définissant l’engramme. Cette connectivité correspond au fait que l’on peut associer l’activité des neurones enregistrés avec les actions réalisées par la souris pendant cet enregistrement. Ainsi nous pouvons suivre l’engramme au cours des processus d’apprentissage, de consolidation, de rappel et d’oubli et étudier sa dynamique. À long terme, l’objectif serait d’exploiter ces résultats afin de mieux appréhender l’acquisition, le stockage et l’utilisation de l’information chez les humains, et ainsi de potentiellement faciliter le traitement des troubles de la mémoire et d’autres dysfonctionnements cognitifs.

Nouvelles technologies, processus cognitifs et comportements

 

Aujourd’hui, les écrans et les notifications dominent notre quotidien. Nous sommes tous familiers de ces distractions numériques qui nous tirent hors de nos pensées ou de notre activité. Entre le mail important d’un supérieur et l’appel de l’école qui oblige à partir du travail, remettant à plus tard la tâche en cours, les interruptions font partie intégrante de nos vies – et semblent destinées à s’imposer encore davantage avec la multiplication des objets connectés dans les futures « maisons intelligentes ». Cependant, elles ne sont pas sans conséquences sur notre capacité à mener à bien des tâches, sur notre confiance en nous, ou sur notre santé. Par exemple, les interruptions engendreraient une augmentation de 27 % du temps d’exécution de l’activité en cours. En tant que chercheuse en psychologie cognitive, j’étudie les coûts cognitifs de ces interruptions numériques : augmentation du niveau de stress, augmentation du sentiment d’épuisement moral et physique, niveau de fatigue, pouvant contribuer à l’émergence de risques psychosociaux voire du burn-out. Dans mes travaux, je me suis appuyée sur des théories sur le fonctionnement du système cognitif humain qui permettent de mieux comprendre ces coûts cognitifs et leurs répercussions sur notre comportement. Ce type d’études souligne qu’il devient crucial de trouver un équilibre entre nos usages des technologies et notre capacité à nous concentrer, pour notre propre bien.

 

par ,Docteur en Psychologie Cognitive et Postdoctorante projet HUT, Université de Montpellier et , Professeur, laboratoire MRM Université de Montpellier, Université de Montpellier dans The Conversation 

Pourquoi s’inquiéter des interruptions numériques ?
L’intégration d’objets connectés dans nos vies peut offrir un contrôle accru sur divers aspects de notre environnement, pour gérer nos emplois du temps, se rappeler les anniversaires ou gérer notre chauffage à distance par exemple. En 2021, les taux de pénétration des maisons connectées (c’est-à-dire, le nombre de foyers équipés d’au moins un dispositif domestique connecté, englobant également ceux qui possèdent uniquement une prise ou une ampoule connectée) étaient d’environ 13 % dans l’Union européenne et de 17 % en France (contre 10,7 % en 2018).
Si la facilité d’utilisation et l’utilité perçue des objets connectés ont un impact sur l’acceptabilité de ces objets pour une grande partie de la population, les interruptions numériques qui y sont souvent attachées entravent notre cognition, c’est-à-dire l’ensemble des processus liés à la perception, l’attention, la mémoire, la compréhension, etc.

L’impact des interruptions numériques peut s’observer aussi bien dans la sphère privée que dans la sphère professionnelle. En effet, une personne met en moyenne plus d’une minute pour reprendre son travail après avoir consulté sa boîte mail. Les études mettent ainsi en évidence que les employés passent régulièrement plus de 1 h 30 par jour à récupérer des interruptions liées aux e-mails. Cela entraîne une augmentation de la charge de travail perçue et du niveau de stress, ainsi qu’un sentiment de frustration, voire d’épuisement, associé à une sensation de perte de contrôle sur les événements.

On retrouve également des effets dans la sphère éducative. Ainsi, dans une étude de 2015 portant sur 349 étudiants, 60 % déclaraient que les sons émis par les téléphones portables (clics, bips, sons des boutons, etc.) les distrayaient. Ainsi, les interruptions numériques ont des conséquences bien plus profondes que ce que l’on pourrait penser.

Pour comprendre pourquoi les interruptions numériques perturbent tant le flux de nos pensées, il faut jeter un coup d’œil à la façon dont notre cerveau fonctionne. Lorsque nous réalisons une tâche, le cerveau réalise en permanence des prédictions sur ce qui va se produire. Cela permet d’adapter notre comportement et de réaliser l’action appropriée : le cerveau met en place des boucles prédictives et d’anticipation.

Ainsi, notre cerveau fonctionne comme une machine à prédire. Dans cette théorie, un concept très important pour comprendre les processus d’attention et de concentration émerge : celui de la fluence de traitement. Il s’agit de la facilité ou la difficulté avec laquelle nous traitons une information. Cette évaluation se fait inconsciemment et résulte en une expérience subjective et non consciente du déroulement du traitement de l’information.

Le concept de fluence formalise quelque chose que l’on comprend bien intuitivement : notre système cognitif fait tout pour que nos activités se déroulent au mieux, de la manière la plus fluide (fluent, en anglais) possible. Il est important de noter que notre cognition est « motivée » par une croyance qu’il formule a priori sur la facilité ou la difficulté d’une tâche et en la possibilité de réaliser de bonnes prédictions. Cela va lui permettre de s’adapter au mieux à son environnement et au bon déroulement de la tâche en cours.

Plus l’information semble facile à traiter, ou plus elle est évaluée comme telle par notre cerveau, plus elle attire notre attention. Par exemple, un mot facile à lire attire davantage notre regard qu’un mot difficile. Cette réaction est automatique, presque instinctive. Dans une expérience, des chercheurs ont mis en évidence que l’attention des individus pouvait être capturée involontairement par la présence de vrais mots par opposition à des pseudomots, des mots inventés par les scientifiques tels que HENSION, notamment lorsqu’on leur demandait de ne pas lire les mots présentés à l’écran.

Ainsi, une de nos études a montré que la fluence – la facilité perçue d’une tâche – guide l’attention des participants vers ce que leur cerveau prédit. L’étude consistait à comprendre comment la prévisibilité des mots allait influencer l’attention des participants. Les participants devaient lire des phrases incomplètes puis identifier un mot cible entre un mot cohérent et un mot incohérent avec la phrase. Les résultats ont mis en évidence que les mots cohérents, prédictibles, attiraient plus l’attention des participants que les mots incohérents.

Il semblerait qu’un événement cohérent avec la situation en cours attire plus l’attention et, potentiellement, favorise la concentration. Notre étude est, à notre connaissance, l’une des premières à montrer que la fluence de traitement a un effet sur l’attention. D’autres études sont nécessaires pour confirmer nos conclusions. Ce travail a été initié, mais n’a pas pu aboutir dans le contexte de la pandémie de Covid.

Comme nous l’avons vu, notre système cognitif réalise en permanence des prédictions sur les événements à venir. Si l’environnement n’est pas conforme à ce que notre cerveau avait prévu, nous devons d’une part adapter nos actions (souvent alors qu’on avait déjà tout mis en place pour agir conformément à notre prédiction), puis essayer de comprendre l’événement imprévu afin d’adapter notre modèle prédictif pour la prochaine fois.

Par exemple, imaginez que vous attrapiez votre tasse pour boire votre café. En la saisissant, vous vous attendez a priori à ce qu’elle soit rigide et peut-être un peu chaude. Votre cerveau fait donc une prédiction et ajuste vos actions en fonction (ouverture de la main, attraper la tasse plutôt vers le haut). Imaginez maintenant que lorsque vous la saisissiez, ce ne soit pas une tasse rigide, mais un gobelet en plastique plus fragile. Vous allez être surpris et tenter d’adapter vos mouvements pour ne pas que votre café vous glisse entre les mains. Le fait que le gobelet plie entre vos doigts a créé un écart entre ce que votre système cognitif avait prédit et votre expérience réelle : on dit qu’il y a une rupture de fluence.

Les interruptions, qu’elles soient numériques ou non, ne sont pas prévues, par nature. Ainsi, un appel téléphonique impromptu provoque une rupture de fluence, c’est-à-dire qu’elle contredit ce que le cerveau avait envisagé et préparé.

L’interruption a des conséquences au niveau comportemental et cognitif : arrêt de l’activité principale, augmentation du niveau de stress, temps pour reprendre la tâche en cours, démobilisation de la concentration, etc.

La rupture de fluence déclenche automatiquement la mise en place de stratégies d’adaptation. Nous déployons notre attention et, en fonction de la situation rencontrée, modifions notre action, mettons à jour nos connaissances, révisons nos croyances et ajustons notre prédiction.

La rupture de fluence remobilise l’attention et déclenche un processus de recherche de la cause de la rupture. Lors d’une interruption numérique, le caractère imprévisible de cette alerte ne permet pas au cerveau d’anticiper ni de minimiser le sentiment de surprise consécutif à la rupture de fluence : la (re)mobilisation attentionnelle est alors perturbée. On ne sait en effet pas d’où va provenir l’interruption (le téléphone dans sa poche ou la boîte mail sur l’ordinateur) ni ce que sera le contenu de l’information (l’école des enfants, un démarchage téléphonique…).

Trouver un équilibre entre les avantages de la technologie et notre capacité à maintenir notre concentration devient crucial. Il est possible de développer des stratégies afin de minimiser les interruptions numériques, d’utiliser les technologies de façon consciente, et de préserver notre capacité à rester engagés dans nos tâches.

Cela pourrait impliquer la création de zones de travail sans interruption (par exemple la réintroduction du bureau conventionnel individuel), la désactivation temporaire des notifications pendant une période de concentration intense (par exemple le mode silencieux du téléphone ou le mode « focus » de logiciels de traitement de texte), ou même l’adoption de technologies intelligentes qui favorisent activement la concentration en minimisent les distractions dans l’environnement.

En fin de compte, l’évolution vers un environnement de plus en plus intelligent, ou du moins connecté, nécessite une réflexion approfondie sur la manière dont nous interagissons avec la technologie et comment celle-ci affecte nos processus cognitifs et nos comportements. Le passage de la maison traditionnelle à la maison connectée relève des problématiques du projet HUT pour lequel j’ai travaillé dans le cadre de mon postdoctorat. De nombreux chercheurs (sciences de gestion, droit, architecture, sciences du mouvement, etc.) ont travaillé autour des questions de l’hyperconnexion des habitations, des usages et du bien-être, au sein d’un appartement-observatoire hyperconnecté. Cela nous a permis de déterminer ensemble les conditions idéales du logement du futur, mais aussi de déceler l’impact des technologies au sein d’un habitat connecté afin d’en prévenir les dérives.

Homo Sapiens et les autres espèces humaines

Homo Sapiens et les autres espèces humaines

Parler du « propre de l’homme », voilà un sujet épineux lorsqu’il s’agit d’évoquer la grande histoire de l’humanité ! Une bonne approche pour se simplifier la tâche est de s’entendre sur le vocabulaire, en tout cas d’expliciter de quoi nous parlons. C’est primordial de donner un sens aux mots, car la terminologie utilisée par divers scientifiques pour classifier nos ancêtres et proches cousins n’est pas toujours la même.

Par Antoine Balzeau
Paléoanthropologue, Muséum national d’histoire naturelle (MNHN) dans « the conversation »

Pour trouver le propre de l’humain (pour ne pas s’engager dans la problématique de la polysémie du mot homme ici) il faut à la fois rassembler des êtres actuels ou du passé dans un ensemble cohérent et reconnaître des particularités à ce groupe. Il s’agit donc de parler des différentes possibilités pour appeler un humain, humain, et de justifier pourquoi ! Remontons le temps et explorons la diversité des primates actuels à la recherche d’une définition qui fonctionnerait pour avancer sur la résolution de notre fameuse question.

Première évidence, nous faisons partie du groupe des primates, nous humains d’aujourd’hui, au côté des chimpanzés ou gorilles, mais aussi des tarsiers, singes hurleurs ou ouistitis. Notre plus nette caractéristique commune est d’avoir un pouce opposable aux autres doigts, le premier peut venir pincer la dernière phalange des 4 autres. C’est unique, nous ne verrez jamais une vache ou votre chat faire de même.

Pour une information toujours plus fiable face au brouhaha médiatique.
Pour la majorité des paléoanthropologues, le terme homininé réfère aux humains préhistoriques et actuels et aux chimpanzés, hominidé inclue en plus les autres grands singes actuels (gorilles et orangs-outans) et ancêtres communs à ce petit monde depuis une vingtaine de millions d’années. Les hominines comprennent le genre Homo, les Australopithèques, Paranthropes, Ardipithèques et autres Orrorin ou Sahelanthropus (des plus récents aux plus anciens, qui sont ainsi les tout premiers il y a 6 à 7 millions d’années).

Ces derniers partagent la bipédie et surtout tous les caractères anatomiques qui en découlent, crâne au-dessus de la colonne vertébrale, adaptation de cette dernière, etc. Pour une partie des chercheurs, le mot « humain » renvoie élégamment à ce dernier assemblage. L’adaptation à la bipédie serait un indicateur utile et plutôt clair de ce qui nous réunirait.

Cette approche fonctionne, c’est un intérêt non négligeable. Car d’autres niveaux de classification posent plus de problèmes. Le genre Homo est un peu le sparadrap dérangeant du paléoanthropologue. Au départ, il avait été défini pour justifier l’apparition du premier artisan, à qui on offrait aussi capacités de langage et raisonnement, Homo habilis.

Cette proposition au cœur des années 60, résiste mal à la multitude de découvertes effectuées depuis. D’un point de vue anatomique, les différences entre habilis et les espèces qui ont vécu avant lui ne sont pas flagrantes, alors que les espèces humaines qui lui succèdent sont par contre proportionnées comme les humains d’aujourd’hui. Homo habilis ressemble plus à un Australopithèque qu’à Homo erectus en somme.

Pour les capacités cognitives, rien de plus évident puisque nous savons maintenant que les plus anciens outils en pierre sont contemporains des Australopithèques. Ainsi, utiliser le mot humain pour parler de Homo nous met face à un problème. Ce genre est aujourd’hui mal défini anatomiquement, et pas vraiment justifié par des comportements particuliers.

Il serait impossible d’omettre dans cet inventaire Homo sapiens. Voici deux mots qui désignent des êtres vivants dont nous imaginons tout savoir, ou presque. Pas tout à fait en effet, car lorsqu’il s’agit de définir notre espèce, de décrire ce qui nous caractériserait, l’expérience est nettement plus ardue que prévu.

Homo sapiens est un animal, un mammifère, un primate, parmi d’autres ; un représentant du genre Homo aussi, tout en étant le dernier toujours existant, et, enfin, évidemment, le seul de l’espèce sapiens. Car, l’appellation Homo sapiens sapiens qui fut un temps utilisée ne doit plus l’être depuis que les Néandertaliens ont été classés comme une espèce différente, Homo neanderthalensis et non pas Homo sapiens neanderthalensis. ; le terme « Homme moderne » est aussi souvent employé bien qu’il n’ait pas de valeur scientifique. Très bien, mais qu’est ce qui nous définirait alors ?

Certains croient que nous sommes plus « intelligents », mais cela mérite largement discussion. Les outils ne sont pas notre apanage, aussi bien au cours de l’évolution, mais aussi puisque les grands singes actuels savent aussi utiliser ou fabriquer certains objets selon leurs besoins et ils connaissent les vertus médicinales des plantes qui les entourent.

Sommes-nous la seule espèce à avoir su parler ?
Homo sapiens, garant de la pensée et du savoir, n’a en fait probablement pas été le premier à mériter cette appellation. Depuis des centaines de milliers d’années, d’autres groupes fossiles parmi Homo erectus et neanderthalensis en particulier ont sélectionné des pierres pour leurs outils, parfois uniquement à des fins esthétiques. Ils conservaient aussi à l’occasion des curiosités de la nature, comme des fossiles ou de belles pierres, pour des raisons non utilitaires.

Si le langage articulé est un trait distinctif évident de l’humanité actuelle, son origine est difficile à dater, car ni le son ni les organes pour l’émettre ou le percevoir, comme la langue ou le cerveau, ne se fossilisent. Les indices à disposition, indirects, sont complexes à interpréter. Les ossements mis au jour, crâne, mandibule et os hyoïde (os situé au niveau de la gorge), sont utilisés pour reconstituer la forme et la position des de la gorge ou des organes internes de l’oreille.

Les humains préhistoriques depuis 2 millions d’années devaient avoir des capacités similaires aux nôtres d’après les reconstitutions 3D de ces parties anatomiques, au contraire des grands singes. Dans tous les cas, les données archéologiques suggèrent que nos prédécesseurs disposaient depuis longtemps d’un mode de communication complexe. Des activités telles que le façonnage d’outils élaborés, l’usage du feu et surtout les comportements symboliques impliquent des savoirs et des valeurs échangés et transmis.

Notre espèce n’a pas été non plus la seule à avoir établi des usages vis-à-vis des morts, puisque les Néandertaliens enterraient leurs défunts, signe de valeurs partagées, d’une marque de respect envers l’autre, peut-être de croyances dans l’au-delà. Ces exemples suffisent à montrer qu’Homo sapiens n’a pas été le seul à développer une conscience réfléchie. Ainsi, notre espèce ne se distingue que par quelques caractéristiques anatomiques (la plus marquante, et pourtant totalement inutile semble-t-il, est la présence d’un menton osseux sur la mandibule) et partage de nombreuses similarités physiques et comportementales avec d’autres êtres vivants et les autres espèces humaines préhistoriques. Bien qu’étant les derniers sur Terre, nous n’avons pas été uniques. Certains chercheurs emploient le mot humain pour référer uniquement à notre espèce, voire à ses représentants actuels. Cela ne nous facilite pas la tâche pour répondre à la question de départ et n’est pas justifié d’un point de vue scientifique.

En tant que paléoanthropologue, je suis convaincu que nous, humains d’aujourd’hui, ne sommes pas plus intelligents qu’un représentant de notre espèce qui vivait il y a 40 000 ans ou d’un de ses contemporains néandertaliens. Le niveau de capacité serait à mon avis du même ordre au regard des productions archéologiques et par comparaison avec ce que nous savons réellement faire individuellement. Notre impression de tant avoir de capacités est surtout lié à notre héritage. Écriture, imprimerie, Internet… sont autant d’étapes qui nous ont permis de constituer une base de connaissances toujours plus grande. Chacun d’entre nous n’est pas devenu plus malin, nous profitons du savoir de nos prédécesseurs et de nos contemporains. Cela nous amène d’ailleurs à identifier une particularité, celle d’être les premiers à étudier, à documenter, à chercher à comprendre tout ce qui nous entoure. Mais aussi à le détruire massivement, malheureusement.

Politique et Conseil présidentiel de la science : Encore un gadget pour déstabiliser les institutions du régime

Politique et Conseil présidentiel de la science : Encore un gadget pour déstabiliser les institutions du régime

Pour anodine que puisse paraître la mise en place d’un groupe de scientifiques destiné à éclairer le chef de l’Etat, cette initiative augmente le nombre des intermédiaires dans la prise de décision, en marge de la Constitution, relève, dans une tribune au « Monde », le juriste Thibaud Mulier.

Ce jeudi 7 décembre, le président de la République, Emmanuel Macron, a annoncé la création d’un conseil présidentiel de la science composé de douze membres qui ont été installés en dehors de la logique collégiale de nomination par les pairs caractéristique des milieux scientifiques. Un de plus. Conseil présidentiel pour l’Afrique, des villes, du développement… et pour finir, de la science. Il faut dire que le chef de l’Etat apprécie ces instances ad hoc à l’appareil gouvernemental, déclinées à l’envi et créées ex nihilo, pour l’« aider dans l’orientation, l’alerte et le suivi des décisions prises ».

Un autre choix aurait pu être fait pour gouverner avec les savoirs existants, comme celui de créer une autorité administrative indépendante en la matière, ou bien de nommer un conseiller scientifique auprès du gouvernement. Pour autant, quiconque s’intéresse à ces questions ne s’étonnera pas vraiment de ce choix. Depuis longtemps, nous sommes habitués à l’interventionnisme présidentiel tous azimuts. Les déclinaisons des conseils de défense écologique, sanitaire ou énergétique le rappellent sans ambages.

Pour le chercheur, ce choix nourrit, au mieux, un certain scepticisme devant une telle marque d’intérêt pour son activité, alors que le conseil stratégique de la recherche (créé en 2013 et placé auprès du premier ministre) n’a pas été réuni une seule fois depuis l’accession au pouvoir du président Macron ; au pire, de l’indifférence, tant la souffrance du milieu de l’enseignement supérieur et de la recherche est documentée de longue date. Pour le constitutionnaliste, en revanche, la création de cet énième conseil présidentiel a de quoi interpeller, pour ne pas dire inquiéter.

Elle interpelle dans la mesure où le président Macron poursuit la pratique du « gouvernement par conseil » qui s’inscrit dans le temps long de l’histoire. Sous la monarchie, il était question de polysynodie, souvent attachée à la période de régence, mais qui constituait aussi un système de gouvernement par conseil, la plupart du temps intermittent, doté d’attributions diverses en fonction de sa déclinaison. La politiste Delphine Dulong a mis en évidence que la pratique des « conseils restreints » a été privilégiée pendant les premières décennies de la Ve République, afin de faciliter, justement, l’immixtion du président de la République dans le travail gouvernemental.

Conseil présidentiel de la science : Encore un gadget pour déstabiliser les institutions du régime

Conseil présidentiel de la science : Encore un gadget pour déstabiliser les institutions du régime

Pour anodine que puisse paraître la mise en place d’un groupe de scientifiques destiné à éclairer le chef de l’Etat, cette initiative augmente le nombre des intermédiaires dans la prise de décision, en marge de la Constitution, relève, dans une tribune au « Monde », le juriste Thibaud Mulier.

Ce jeudi 7 décembre, le président de la République, Emmanuel Macron, a annoncé la création d’un conseil présidentiel de la science composé de douze membres qui ont été installés en dehors de la logique collégiale de nomination par les pairs caractéristique des milieux scientifiques. Un de plus. Conseil présidentiel pour l’Afrique, des villes, du développement… et pour finir, de la science. Il faut dire que le chef de l’Etat apprécie ces instances ad hoc à l’appareil gouvernemental, déclinées à l’envi et créées ex nihilo, pour l’« aider dans l’orientation, l’alerte et le suivi des décisions prises ».

Un autre choix aurait pu être fait pour gouverner avec les savoirs existants, comme celui de créer une autorité administrative indépendante en la matière, ou bien de nommer un conseiller scientifique auprès du gouvernement. Pour autant, quiconque s’intéresse à ces questions ne s’étonnera pas vraiment de ce choix. Depuis longtemps, nous sommes habitués à l’interventionnisme présidentiel tous azimuts. Les déclinaisons des conseils de défense écologique, sanitaire ou énergétique le rappellent sans ambages.

Pour le chercheur, ce choix nourrit, au mieux, un certain scepticisme devant une telle marque d’intérêt pour son activité, alors que le conseil stratégique de la recherche (créé en 2013 et placé auprès du premier ministre) n’a pas été réuni une seule fois depuis l’accession au pouvoir du président Macron ; au pire, de l’indifférence, tant la souffrance du milieu de l’enseignement supérieur et de la recherche est documentée de longue date. Pour le constitutionnaliste, en revanche, la création de cet énième conseil présidentiel a de quoi interpeller, pour ne pas dire inquiéter.

Elle interpelle dans la mesure où le président Macron poursuit la pratique du « gouvernement par conseil » qui s’inscrit dans le temps long de l’histoire. Sous la monarchie, il était question de polysynodie, souvent attachée à la période de régence, mais qui constituait aussi un système de gouvernement par conseil, la plupart du temps intermittent, doté d’attributions diverses en fonction de sa déclinaison. La politiste Delphine Dulong a mis en évidence que la pratique des « conseils restreints » a été privilégiée pendant les premières décennies de la Ve République, afin de faciliter, justement, l’immixtion du président de la République dans le travail gouvernemental.

Des cerveaux de plus en plus gourmands en énergie

Des cerveaux de plus en plus gourmands en énergie


C’est l’un des grands paradoxes de l’évolution. L’humain a démontré que le fait d’avoir un gros cerveau est la clé de son succès dans l’évolution, et pourtant ce type de cerveau est extrêmement rare chez les autres animaux. La plupart d’entre eux se débrouillent avec de petits cerveaux et ne semblent pas avoir besoin de plus de neurones. Pourquoi ? La réponse sur laquelle la plupart des biologistes se sont accordés est de dire que les gros cerveaux sont coûteux en termes d’énergie nécessaire à leur fonctionnement. Et, compte tenu du mode de fonctionnement de la sélection naturelle, les avantages ne dépasseraient tout simplement pas les coûts. Mais s’agit-il seulement d’une question de taille ? La façon dont nos cerveaux sont organisés affecte-t-elle leur coût énergétique ? Une nouvelle étude, publiée dans Science Advances, apporte des réponses intéressantes.

par Mirazon Lahr
Professor of Human Evolutionary Biology & Director of the Duckworth Collection, University of Cambridge dans The Conversation

Tous nos organes ont des coûts énergétiques de fonctionnement, mais certains sont peu élevés et d’autres très chers. Les os, par exemple,demandent assez peu d’énergie. Bien qu’ils représentent environ 15 % de notre poids, ils n’utilisent que 5 % de notre métabolisme. Les cerveaux sont à l’autre extrémité du spectre, et avec environ 2 % du poids du corps humain typique, leur fonctionnement utilise environ 20 % de notre consommation d’énergie totale. Et ce, sans aucune réflexion particulièrement intense – cela se produit même lorsque nous dormons.

Sur The Conversation, retrouvez des analyses, pas des invectives.
Pour la plupart des animaux, les avantages qu’apporterait un cerveau si énergivore n’en vaudraient tout simplement pas la peine. Mais pour une raison encore inconnue – peut-être la plus grande énigme de l’évolution humaine – les humains ont trouvé des moyens de surmonter les coûts d’un cerveau plus gros et d’en récolter les bénéfices.

Il est certain que les humains doivent supporter les coûts les plus élevés de leur cerveau, mais ces derniers sont-ils différents en raison de la nature particulière de notre cognition ? Le fait de penser, de parler, d’être conscient de soi ou de faire des additions coûte-t-il plus cher que les activités quotidiennes typiques des animaux ?

Il n’est pas facile de répondre à cette question, mais l’équipe à l’origine de cette nouvelle étude, dirigée par Valentin Riedl de l’université technique de Munich, en Allemagne, a relevé le défi.

Les auteurs disposaient d’un certain nombre d’éléments connus pour commencer. La structure de base des neurones est à peu près la même dans tout le cerveau et chez toutes les espèces. La densité neuronale est également la même chez l’homme et les autres primates, de sorte qu’il est peu probable que les neurones soient le moteur de l’intelligence. Si c’était le cas, certains animaux dotés d’un gros cerveau, comme les orques et les éléphants, seraient probablement plus « intelligents » que les humains.

Les éléphants ont de plus gros cerveaux que les humains.

Ils savaient également qu’au cours de l’évolution humaine, le néocortex – la plus grande partie de la couche externe du cerveau, connue sous le nom de cortex cérébral – s’est développé plus rapidement que les autres parties. Cette région, qui comprend le cortex préfrontal, est responsable des tâches impliquant l’attention, la pensée, la planification, la perception et la mémoire épisodique, toutes nécessaires aux fonctions cognitives supérieures.

Ces deux observations ont amené les chercheurs à se demander si les coûts énergétiques de fonctionnement varient d’une région à l’autre du cerveau.

L’équipe a scanné le cerveau de 30 personnes à l’aide d’une technique permettant de mesurer simultanément le métabolisme du glucose (une mesure de la consommation d’énergie) et la quantité d’échanges entre neurones dans le cortex. Ils ont ensuite pu examiner la corrélation entre ces deux éléments et voir si les différentes parties du cerveau utilisaient des niveaux d’énergie différents.

Les neurobiologistes ne manqueront pas d’analyser et d’explorer les moindres détails de ces résultats, mais d’un point de vue évolutif, ils donnent déjà matière à réflexion. Les chercheurs ont constaté que la différence de consommation d’énergie entre les différentes zones du cerveau est importante. Toutes les parties du cerveau ne sont pas égales, énergétiquement parlant.

Les parties du cerveau humain qui se sont le plus développées ont des coûts plus élevés que prévu. Le néocortex demande environ 67 % d’énergie en plus que les réseaux qui contrôlent nos mouvements.

Cela signifie qu’au cours de l’évolution humaine, non seulement les coûts métaboliques de nos cerveaux ont augmenté au fur et à mesure qu’ils grossissaient, mais qu’ils l’ont fait à un rythme accéléré, le néocortex se développant plus rapidement que le reste du cerveau.

Pourquoi en est-il ainsi ? Un neurone est un neurone, après tout. Le néocortex est directement lié aux fonctions cognitives supérieures.

Les signaux envoyés à travers cette zone sont médiés par des substances chimiques cérébrales telles que la sérotonine, la dopamine et la noradrénaline (neuromodulateurs), qui créent des circuits dans le cerveau pour aider à maintenir un niveau général d’excitation (au sens neurologique du terme, c’est-à-dire d’éveil). Ces circuits, qui régulent certaines zones du cerveau plus que d’autres, contrôlent et modifient la capacité des neurones à communiquer entre eux.

En d’autres termes, ils maintiennent le cerveau actif pour le stockage de la mémoire et la réflexion – un niveau d’activité cognitive généralement plus élevé. Il n’est peut-être pas surprenant que le niveau d’activité plus élevé impliqué dans notre cognition avancée s’accompagne d’un coût énergétique plus élevé.

En fin de compte, il semble que le cerveau humain ait évolué vers des niveaux de cognition aussi avancés non seulement parce que nous avons de gros cerveaux, ni seulement parce que certaines zones de notre cerveau se sont développées de manière disproportionnée, mais aussi parce que la connectivité s’est améliorée.

De nombreux animaux dotés d’un gros cerveau, comme les éléphants et les orques, sont très intelligents. Mais il semble qu’il soit possible d’avoir un gros cerveau sans développer les « bons » circuits pour une cognition de niveau humain.

Ces résultats nous aident à comprendre pourquoi les gros cerveaux sont si rares. Un cerveau de grande taille peut permettre l’évolution d’une cognition plus complexe. Cependant, il ne s’agit pas simplement d’augmenter la taille des cerveaux et l’énergie au même rythme, mais d’assumer des coûts supplémentaires.

Cela ne répond pas vraiment à la question ultime : comment l’homme est-il parvenu à franchir le plafond de l’énergie cérébrale ? Comme souvent dans l’évolution, la réponse se trouve dans l’écologie, la source ultime d’énergie. La croissance et le maintien d’un cerveau de grande taille – quelles que soient les activités sociales, culturelles, technologiques ou autres auxquelles il est destiné – nécessitent un régime alimentaire fiable et de qualité.

Pour en savoir plus, nous devons explorer le dernier million d’années, la période où le cerveau de nos ancêtres s’est réellement développé, afin d’étudier cette interface entre la dépense énergétique et la cognition.

Recherche: une révolution ou gadget

Recherche: une révolution utopique dans un tel délai

Le président du Collège des sociétés savantes académiques de France, Patrick Lemaire, juge durement la réforme de la recherche présentée le 7 décembre par Emmanuel Macron

Président du Collège des sociétés savantes académiques de France, le biologiste Patrick Lemaire réagit à la « Vision pour l’avenir de la recherche française » présentée jeudi 7 décembre par le président de la République.

Votre collège de sociétés savantes a formulé, dans une tribune au Monde, une proposition de conseil. Que pensez-vous de la formule retenue par Emmanuel Macron ?

Cela n’a simplement aucun rapport. Le fait que ce conseil n’interagisse qu’avec lui, mais pas avec les ministres ou avec quiconque, en fait simplement un gadget. Rien dans l’intervention du président de la République n’avait pour but d’améliorer la prise en compte des connaissances scientifiques par les politiques. C’est resté un angle mort complet de son discours.

Même lorsqu’il a souligné l’importance du grade de docteur, il a insisté sur leur entrée dans les entreprises, pas dans les ministères ou les administrations pour appliquer des politiques inspirées par les sciences. Au vu des incertitudes politiques pour la suite, on se dit que cela aurait pu être le moment d’instituer une autorité indépendante qu’on ne peut faire taire facilement. C’est un peu une occasion ratée.

La création de ce conseil n’était pas au centre de son allocution…

Il a balayé les sujets de manière très large, utilisant à plusieurs reprises le terme « révolution ». Mais penser révolutionner l’organisation de la recherche en dix-huit mois, tout le monde sait que c’est irréaliste. La simplification principale concerne le pilotage stratégique pour des recherches qui, je dirais, amènent à un retour sur investissement, très orientées public-privé. Même l’allusion aux sciences humaines et sociales dénotait une vision très utilitariste .

Sciences: Des ministres ignorants ?

Sciences: Des ministres ignorants ?

« Il faut encourager les ministres à agir dans le respect de l’état des savoirs scientifiques » ou dit de manière claire, les ministres sont trop ignorants de l’état d’avancée de la science. Alors qu’Emmanuel Macron doit annoncer, jeudi 7 décembre, la création d’un conseil scientifique auprès de la présidence, le Collège des sociétés savantes académiques de France estime, dans une tribune au « Monde », que la première mission d’un conseiller scientifique du gouvernement devrait être d’établir une relation de confiance.

La simultanéité des crises économiques, sociales, environnementales et sanitaires qui frappent le monde interpelle et force à la réflexion. Pas seulement sur notre impréparation, notre amnésie ou la lenteur de nos réponses collectives. Certainement pas en montrant du doigt les pilotes aux manettes pendant les périodes les plus compliquées.

Car ces crises se sont construites sur des décennies, malgré les alertes. Elles nous obligent à repenser les déterminants de l’action publique pour que le long terme cesse d’être sacrifié sur l’autel du court terme. Comprendre la succession des vagues de SARS-CoV-2, établir le rôle de l’humanité dans les dérèglements climatiques et l’effondrement de la biodiversité ou documenter le creusement des inégalités sociales, voilà quelques sujets sur lesquels les sciences humaines, sociales, expérimentales ou technologiques établissent des constats objectifs et donnent des outils pour l’avenir. Si la sphère scientifique n’a pas vocation à se substituer à la sphère politique, elle peut néanmoins fournir une lanterne lorsque la société avance à tâtons.

Encore faut-il pour cela que ces deux sphères, traditionnellement plus éloignées que les sphères politique et économique, se rencontrent. Les gouvernements de certains pays se sont ainsi dotés d’un « conseiller scientifique en chef », un ou une scientifique de haut niveau dont la mission à plein temps est d’établir une proximité quotidienne entre les milieux académique et politique, et de créer entre eux une relation de confiance exigeante.

Cette personnalité s’appuie sur la communauté académique pour définir un champ des actions possibles compatibles avec l’état des connaissances scientifiques et en expliquer la pertinence aux responsables politiques et au public. Pour garantir l’indépendance de sa parole, elle n’est pas intégrée à l’exécutif et ne prend pas part aux décisions, qui reviennent aux responsables politiques.

Faire fonctionner l’interface cerveau-machine

Faire fonctionner l’interface cerveau-machine


Un patient paralysé qui remarche en contrôlant un exosquelette robotique par la force de sa pensée. Ce n’est pas de la science-fiction, c’est ce que l’on appelle une interface cerveau-machine ; c’est-à-dire un système qui établit une connexion entre le cerveau et un système automatisé sans nécessiter le moindre mouvement de la part de l’utilisateur.

François Hug
Professeur en sciences du mouvement humain, Directeur adjoint du Laboratoire Motricité Humaine Expertise Sport Santé (LAMHESS), Université Côte d’Azur

Simon Avrillon
Post-doctorant en neuroscience, Imperial College London

Le principe consiste à enregistrer les signaux électriques du cerveau puis à les décoder, c’est-à-dire à les associer à des mouvements. Ainsi, en détectant les intentions de mouvement, ces interfaces permettent à des patients de communiquer ou de contrôler des prothèses robotiques. Cependant, mesurer l’activité électrique du cerveau n’est pas facile. On peut utiliser des électrodes posées à la surface du crâne et ainsi obtenir un électroencéphalogramme (EEG). Seulement ces signaux sont souvent difficiles à décoder. Une alternative consiste à implanter des électrodes directement au contact des aires motrices du cerveau, ce qui nécessite une intervention chirurgicale.

Bien que les bénéfices attendus surpassent les risques encourus par la chirurgie, des solutions complémentaires sont actuellement à l’étude. Et de manière surprenante, ces solutions s’intéressent à un organe bien différent du cerveau : le muscle. Ces approches ont l’avantage d’être non invasives et pourraient avoir des applications dans la compréhension des mécanismes cérébraux impliqués dans la production du mouvement ou de manière plus pratique à permettre le contrôle de prothèse chez des personnes en situation de handicap ou qui ont subi une amputation.

Notre cerveau contrôle la plupart de nos mouvements en envoyant à nos muscles des messages nerveux sous forme d’impulsions électriques. Ces messages nerveux transitent notamment via des neurones dits moteurs – ou motoneurones spinaux – qui relient la moelle épinière aux fibres musculaires. Chaque motoneurone est connecté à plusieurs fibres musculaires (jusqu’à plusieurs milliers) et lorsqu’une impulsion électrique se propage le long d’un motoneurone, il conduit nécessairement à la formation d’une impulsion électrique sur chacune des fibres musculaires innervées. Ainsi, en plus de recevoir l’information sur la commande nerveuse du mouvement, le muscle agit comme un amplificateur de cette commande puisque chaque impulsion électrique est démultipliée par le nombre de fibres musculaires sur lesquelles elle se propage.

Depuis bientôt deux décennies, nous sommes capables de décoder l’activité électrique d’un muscle en utilisant une technique appelée électromyographie (EMG) haute densité, qui consiste à placer des dizaines, voire des centaines d’électrodes à la surface de la peau.

Schéma du principe de l’électromyographie (EMG) haute densité. Fourni par l’auteur
Combinés à l’utilisation d’algorithmes d’intelligence artificielle, les signaux recueillis peuvent être décomposés afin d’isoler l’activité de plusieurs motoneurones, fournissant une information sur la commande émise par le cerveau et transitant par la moelle épinière. Ainsi, le motoneurone spinal est le seul neurone du corps humain dont l’activité électrique peut être mesurée de manière non invasive, c’est-à-dire sans franchir la barrière de la peau. De telles informations n’avaient été obtenues jusqu’alors qu’avec des électrodes implantées dans des muscles ou des nerfs.

En utilisant cette approche non invasive, une étude a récemment démontré qu’il est possible de décoder l’intention de mouvement d’un patient tétraplégique pour lui permettre de contrôler une main virtuelle. Malgré la lésion de la moelle épinière de ce patient qui altère fortement la transmission de l’information du cerveau vers les muscles de la main, ces chercheurs ont été capables de mesurer l’activité résiduelle de quelques motoneurones encore actifs. Bien qu’en nombre bien trop faible pour permettre un mouvement, ces motoneurones véhiculent toujours une commande nerveuse émanant principalement du cerveau, et donc une intention de mouvement. Ainsi, lorsque le patient essayait de fléchir son majeur, l’activité de quelques motoneurones était détectée par des électrodes posées sur son avant-bras, puis utilisée pour piloter une main virtuelle qui reproduisait une flexion du majeur. À terme, il devrait être envisageable de piloter des gants robotiques avec cette approche afin de retrouver en partie la fonction des mains.

Au-delà de permettre le développement d’interfaces cerveau-machine innovantes, la capacité à décoder l’activité de motoneurones permet de changer radicalement l’échelle à laquelle nous étudions le mouvement. L’approche classique considère que le mouvement est contrôlé à l’échelle du muscle. Par exemple, lorsque l’on souhaite réaliser une extension de la jambe, le cerveau spécifierait l’activité des muscles produisant cette action, notamment les quatre muscles qui composent le quadriceps (c.-à-d., les muscles situés sur le devant de la cuisse). Cette vision est remise en cause par les résultats d’une étude de notre équipe, impliquant des chercheurs de l’université Côte d’Azur et des chercheurs de l’Imperial College London.

Cette étude démontre que les commandes nerveuses sont distribuées à des groupes de motoneurones, et que ces groupes sont partiellement découplés des muscles. Ainsi, des motoneurones innervant deux muscles différents peuvent recevoir la même commande s’ils contribuent au même mouvement alors que deux motoneurones innervant le même muscle peuvent recevoir des commandes différentes s’ils contribuent à des actions différentes. En d’autres termes, notre cerveau spécifierait une commande pour des groupes de motoneurones, sans nécessairement se soucier des muscles. Cette organisation permettrait de simplifier le contrôle du mouvement (en transmettant la même commande à plusieurs motoneurones) tout en restant capable de réaliser un large répertoire de mouvements (en permettant notamment à certains muscles d’assurer plusieurs fonctions). Au delà de mieux décrire la production du mouvement, cette nouvelle théorie permet d’envisager l’augmentation des capacités humaines.

De la récupération à l’augmentation du mouvement, il n’y a qu’un bras
Bien que la capacité de décoder les intentions de mouvement offre des perspectives de restauration du mouvement pour de nombreux patients, elle permet également d’envisager l’augmentation du corps humain. Bien qu’effrayante et captivante à la fois, l’idée d’augmenter les capacités du corps humain avec des membres supplémentaires est au centre de plusieurs programmes de recherche.

Imaginez-vous en train d’écrire un mail tout en préparant un café grâce à un troisième bras. Bien que nous n’en soyons pas encore là, des chercheurs ont montré que nous sommes capables d’apprendre à utiliser un troisième pouce (robotique) en le contrôlant avec nos gros orteils. Mais attention, pour parler d’augmentation, il ne faut pas que l’utilisation d’un nouveau membre impacte les capacités de mouvement existantes. Par exemple, ce troisième pouce étant contrôlé par les mouvements des gros orteils, il est impossible de l’utiliser en marchant, et sans doute assez difficile de l’utiliser en étant debout.

Il est donc nécessaire de créer une nouvelle commande pour ce nouveau membre. C’est ici que la capacité d’identifier l’activité des motoneurones prend tout son sens. En effet, on pourrait imaginer qu’un individu puisse dissocier l’activité de motoneurones d’un même muscle du bras, de manière spontanée ou après avoir été entraîné à le faire. Ainsi, ces motoneurones transmettraient deux commandes différentes au lieu d’une seule : l’une pour le mouvement du bras et l’autre pour commander ce nouveau membre robotique.

En outre, des études récentes suggèrent que ces motoneurones transmettent bien plus d’information que nécessaire pour contrôler le mouvement ; ainsi des recherches en cours visent à exploiter ces informations non utilisées par nos muscles pour créer de nouvelles possibilités de commande.

Irons-nous jusqu’à nous représenter ce nouveau bras comme partie intégrante de notre corps ? Ou devrons-nous admettre que notre cerveau ne peut contrôler que deux bras et deux jambes ?

12345...14



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol