Archive pour la Catégorie 'sciences'

Sciences-IA: Moins c’est compris plus c’est apprécié !

Sciences-IA: Moins c’est compris plus c’est apprécié !

Les personnes les moins familiarisées avec les concepts derrière les systèmes d’IA considèrent souvent cette technologie comme « magique »… et fascinante. L’intelligence artificielle se répand, mais nombre de gens se demandent : qui est le plus susceptible d’adopter l’IA dans sa vie quotidienne ? Nombreux sont ceux qui pensent que ce sont les férus de technologies — qui comprennent le fonctionnement de l’intelligence artificielle — qui sont les plus désireux de l’adopter. Étonnamment, notre nouvelle étude, publiée dans le Journal of Marketing, révèle le contraire. Les personnes avec moins de connaissances sur l’IA sont en fait plus ouvertes à l’utilisation de cette technologie. Nous appelons cette différence d’appétence à adopter cette nouvelle technologie « faible niveau de littératie — forte réceptivité ».

 

par

Chiara Longoni
Associate Professor, Marketing and Social Science, Bocconi University

Gil Appel
Assistant Professor of Marketing, School of Business, George Washington University

Stephanie Tully
Associate Professor of Marketing, USC Marshall School of Business, University of Southern California

Ce lien se retrouve dans différents groupes, contextes et pays. Par exemple, les données de la société Ipsos, couvrant 27 pays, révèlent que les habitants des pays où le niveau moyen de connaissances en matière d’IA est plus faible sont plus réceptifs à l’adoption de l’IA, que ceux des pays où le niveau de connaissances est plus élevé.

De même, notre enquête auprès d’étudiants américains de premier cycle révèle que ceux qui ont une compréhension moindre de l’IA sont plus susceptibles d’indiquer qu’ils l’utiliseraient pour des tâches telles que des devoirs universitaires.

Nous pensons que ce lien contrintuitif entre niveau de littératie et appétence vient de la façon dont l’IA accomplit désormais des tâches que l’on pensait autrefois réservées aux humains : lorsque l’IA crée une œuvre d’art, écrit une réponse sincère ou joue d’un instrument de musique, cela peut sembler presque magique, comme si elle pénétrait en territoire humain.

Bien sûr, l’IA ne possède pas réellement ces qualités humaines. Un chatbot peut générer une réponse empathique, mais il ne ressent pas d’empathie. Les personnes ayant des connaissances plus techniques sur l’IA le comprennent.

Ils savent comment fonctionnent les algorithmes (ensembles de règles mathématiques utilisées par les ordinateurs pour effectuer des tâches particulières), les données d’apprentissage (utilisées pour améliorer le fonctionnement d’un système d’IA) et les modèles de calcul. Pour eux, la technologie est moins mystérieuse.

Pour ceux en revanche qui comprennent moins bien le fonctionnement des systèmes d’IA, elle peut apparaître comme quelque chose de magique et d’impressionnant. Nous pensons que c’est ce sentiment de magie qui rend ces utilisateurs plus ouverts à l’utilisation des outils d’IA.

De plus, nos études montrent que le lien entre faible niveau de connaissances et forte appétence est plus fort pour l’utilisation d’outils d’IA dans des domaines que les gens associent à des traits humains, comme le soutien émotionnel ou le conseil.

Au contraire, lorsqu’il s’agit de tâches qui n’évoquent pas ces qualités humaines – par exemple, analyser les résultats de tests – le schéma s’inverse : les personnes ayant un niveau de connaissances plus élevé en matière d’IA sont plus réceptives à ces utilisations car elles se concentrent sur l’efficacité de l’IA plutôt que sur ses qualités « magiques ».

Les chercheurs ont mené des enquêtes auprès de différents groupes, y compris des étudiants de premier cycle.
Notre rapport à l’IA n’est pas une question de capacité, de peur ou d’éthique
Il est intéressant de noter que, bien que les personnes ayant un faible niveau de littératie en IA soient plus susceptibles de considérer l’IA comme moins performante, moins éthique et même un peu effrayante, ce lien entre un faible niveau de littératie numérique et une plus grande réceptivité persiste. Leur appétence pour l’IA semble découler de leur émerveillement face à ces capacités, alors qu’ils en perçoivent bien les inconvénients.

Cette découverte offre de nouvelles perspectives sur les raisons pour lesquelles les gens réagissent si différemment aux technologies émergentes. En effet, certaines études suggèrent que certains consommateurs sont favorables aux nouvelles technologies, un phénomène appelé « appréciation des algorithmes », tandis que d’autres font état d’un scepticisme, ou « aversion pour les algorithmes ». Nos recherches indiquent que la perception de la « magie » de l’IA est un facteur clé qui façonne ces réactions.

Ces conclusions posent un défi aux décideurs politiques et aux éducateurs. Les efforts visant à améliorer la compréhension de l’IA pourraient – involontairement — freiner l’enthousiasme des gens à utiliser l’IA en la rendant moins magique. Cela crée un équilibre délicat entre aider les gens à comprendre l’IA et les garder ouverts à son adoption.

Pour tirer parti du potentiel de l’IA, les entreprises, les éducateurs et les décideurs politiques doivent trouver cet équilibre. En comprenant comment la perception de l’IA comme une technologie « magique » façonne l’appétence du grand public pour l’IA, nous pouvons contribuer à développer et déployer des nouveaux produits et services qui tiennent compte de la façon dont les gens perçoivent l’IA — et les aider à comprendre les avantages et les risques de l’IA.

Et idéalement, cela se fera sans entraîner une perte de l’émerveillement qui incite de nombreuses personnes à adopter cette nouvelle technologie

Fusion Nucléaire : expérience réussie pendant 22 minutes

Fusion Nucléaire : expérience réussie pendant 22 minutes

 

Des scientifiques ont franchi un «jalon» sur la voie de la fusion nucléaire en maintenant un plasma pendant plus de 22 minutes, un record, dans le réacteur opéré par le CEA à Cadarache (Bouches-du-Rhône), a annoncé l’organisme mardi. Promesse d’une énergie propre, sûre, peu coûteuse et quasi-inépuisable, la fusion nucléaire fait l’objet de recherches fondamentales depuis des décennies.

Elle consiste à reproduire les réactions qui se produisent au cœur des étoiles, en assemblant deux noyaux d’atomes dérivés de l’hydrogène. C’est le processus inverse de la fission, utilisée dans les centrales nucléaires actuelles, qui consiste à casser les liaisons de noyaux atomiques lourds. Provoquer cette fusion nécessite des températures d’au moins 100 millions de degrés Celsius afin de créer et confiner du plasma. Ce gaz chaud électriquement chargé a tendance à devenir instable, ce qui peut provoquer des pertes d’énergie et limiter l’efficacité de la réaction.

 

Les scientifiques doivent encore lever de nombreux «verrous technologiques» pour que la fusion thermonucléaire permette de «produire plus d’énergie qu’elle n’en consomme» ce qui n’est pas encore le cas, rappelle-t-elle.

L’objectif est de «préparer du mieux possible l’exploitation scientifique d’Iter», le projet de réacteur expérimental lancé en 1985 par l’Union européenne, la Chine, la Corée du Sud, les États-Unis, l’Inde, le Japon et la Russie, explique-t-elle. Initialement prévue pour 2025, la production du premier plasma d’Iter, confronté à des retards et surcoûts considérables, a été reportée cet été à au moins 2033.

Vers l’ère de la robotique ?

Vers l’ère de la robotique ?
par 

Jean Ponce

professeur d’informatique à l’Ecole normale supérieure – PSL

Isabelle Ryl

professeure d’informatique, en détachement à l’université PSL

Alors que s’ouvre l’ère des robots, la France, pas forcément leader sur tous les aspects du secteur, est en revanche très bien placée sur le logiciel, estiment Jean Ponce et Isabelle Ryl, dans leur Carte blanche au « Monde ».

La France va accueillir, début février, le Sommet pour l’action sur l’intelligence artificielle, qui réunira des experts venus du monde entier : la gouvernance internationale, l’éthique, l’inclusivité seront sans nul doute au premier rang des débats. Pour la recherche et l’innovation, l’IA générative et sa maîtrise par la France seront au cœur des discussions. Mais quid de la prochaine vague ? La prospective est toujours délicate mais la décennie qui s’ouvre pourrait être celle de la robotique !

Nous admirions déjà en 2023 les plateformes telles qu’Atlas, mais regrettions qu’en pratique, l’usage des robots reste majoritairement confiné à des tâches répétitives le long de lignes d’assemblage. Or, la situation évolue rapidement : après un apprentissage sur un jeu de données de plus de dix mille heures de vidéo, le robot π0 de la société Physical Intelligence plie aujourd’hui du linge (presque) aussi bien qu’une personne, ce qui a convaincu des géants de la tech comme Jeff Bezos et Open AI d’investir 400 millions de dollars.

Un facteur déterminant des progrès récents a été l’arrivée sur le marché d’une nouvelle génération de plateformes robotiques : les fameux robots Atlas et Spot de Boston Dynamics sont concurrencés depuis 2022 par les très impressionnants modèles low cost de Unitree, d’abord avec le quadrupède Go1 qui offre, pour 2 700 dollars, des performances comparables à celles de Spot pour un prix 25 fois inférieur, puis en 2024 avec le petit humanoïde (1,27 mètre, 47 kilos) ….

Espace : Succès pour la fusée de Jeff Bezos et échec de Musk

Espace : Succès pour la fusée de Jeff Bezos  et échec de Musk

Dans le cadre d’un essai, la fusée de Space X de Musk a perdu son deuxième étage là où  doivent se trouver les astronautes . Parallèlement par contre c’est un succès pour la fusée de Jeep Bezos.

L’entreprise SpaceX d’Elon Musk a perdu jeudi 16 janvier tout contact avec le second étage de sa mégafusée Starship lors d’un nouveau vol d’essai au cours duquel elle a toutefois réussi la complexe manœuvre de rattrapage du premier étage, une prouesse. Ce vol test devait être une démonstration de force pour SpaceX, quelques heures après le succès signé par Blue Origin, l’entreprise spatiale du fondateur d’Amazon Jeff Bezos, qui a mené son premier vol en orbite.

L’intelligence artificielle au niveau de l’humain pour l’instant ?

L’intelligence artificielle au niveau de l’humain pour l’instant  ?

Le 20 décembre 2024, le système o3 d’OpenAI a obtenu 85 % au test de référence ARC-AGI, ce qui est nettement supérieur au meilleur résultat obtenu par l’IA précédente (55 %) et équivalent aux résultats humains moyens. o3 a également obtenu de bons résultats à un test de mathématiques très difficile. Créer une intelligence artificielle « générale » est l’objectif déclaré de tous les grands laboratoires de recherche sur l’IA. L’annonce récente d’OpenAI semble indiquer que l’entreprise vient d’accomplir une prouesse dans cette direction. (ndlt : L’abréviation francophone d’« intelligence artificielle générale » est « IAG » mais ce sigle est parfois utilisé pour parler d’intelligence artificielle générative, qui est une famille particulière de systèmes d’intelligence artificielle, exploitant notamment l’apprentissage profond, et dont ChatGPT est le membre le plus médiatique.Même si un certain scepticisme est de mise, de nombreux chercheurs et développeurs en IA ont le sentiment que les lignes sont en train de bouger : la possibilité d’une intelligence artificielle générale semble plus tangible, plus actuelle qu’ils et elles ne le pensaient jusqu’à présent. Qu’en est-il ? Tentons de décrypter cette annonce.

 

par , PhD Student, School of Computing, Australian National University

 , Research Fellow, Stanford Center for Responsible Quantum Technology, Stanford University dans The Conversation 

Pour comprendre ce que signifie le résultat obtenu par o3 d’OpenAI, il faut se pencher sur la nature du test ARC-AGI qu’o3 a passé.

Il s’agit d’un test évaluant la « sample efficiency » d’un système d’IA (ndlt : parfois traduit par « efficacité en données »), c’est-à-dire sa capacité à s’adapter une situation nouvelle, ou, en termes plus techniques, la capacité d’un modèle de machine learning à obtenir des bonnes performances avec un apprentissage basé sur peu de données.

En effet, l’apprentissage de ces modèles est normalement basé sur de très grands ensembles de données, ce qui les rend coûteux à entraîner. Un système d’IA comme ChatGPT (GPT-4) n’est pas très « efficace en données » : il a été entraîné sur des millions d’exemples de textes humains, d’où il a tiré des règles probabilistes qui lui dictent les suites les plus probables de mots. Cette méthode est efficace pour générer des textes généralistes ou d’autres tâches « courantes » ; mais dans le cas de tâches peu courantes ou plus spécialisées, le système est moins performant car il dispose de peu de données pour chacune de ces tâches.

Les systèmes d’IA comme ChatGPT sont très efficaces pour des tâches généralistes, comme les recettes de cuisine, mais ne sont pas adaptés aux situations spécialisées, faute de données pour les entraîner suffisamment. Bianca De Marchi/AAP

Tant que les systèmes d’IA ne pourront pas apprendre à partir d’un petit nombre d’exemples (d’un petit ensemble de données) — c’est-à-dire démontrer une certaine « efficacité en données » —, ils ne pourront pas s’adapter aux situations plus rares, ils ne seront utilisés que pour les tâches très répétitives et celles pour lesquelles un échec occasionnel est tolérable.

La capacité à résoudre avec précision des problèmes inconnus ou nouveaux à partir de peu de données s’appelle la « capacité de généralisation ». Elle est considérée comme un élément nécessaire, voire fondamental, de l’intelligence.

C’est pour cela que le test de référence ARC-AGI, qui évalue l’intelligence « générale », utilise de petits problèmes de grilles comme celui présenté ci-dessous. À partir d’un nombre très restreint d’exemples, la personne ou l’IA testée doit trouver le modèle qui transforme la grille de gauche en la grille de droite. C’est bien l’« efficacité en données » qui est évaluée ici.

Chaque exercice commence par fournir trois exemples, desquels il faut extraire des règles, qui « généralisent » les trois exemples… et permettent de résoudre le quatrième.

Cela ressemble beaucoup à des tests de QI.

Nous ne savons pas exactement comment OpenAI a procédé, mais les résultats mêmes du test suggèrent que le modèle o3 est très adaptable : à partir de quelques exemples seulement, il a trouvé des règles généralisables qui lui ont permis de résoudre les exercices.

Pour s’attaquer à ce type d’exercice, il faut trouver les règles nécessaires et suffisantes pour résoudre l’exercice, mais ne pas s’infliger de règles supplémentaires, qui seraient à la fois inutiles et contraignantes. On peut démontrer mathématiquement que ces règles minimales sont la clef pour maximiser sa capacité d’adaptation à de nouvelles situations.

Qu’entendons-nous par « règles minimales » ? La définition technique est compliquée, mais les règles minimales sont généralement celles qui peuvent être décrites dans des énoncés plus simples.

Dans l’exemple ci-dessus, la règle pourrait être exprimée ainsi : « Toute forme comportant une ligne saillante se déplacera jusqu’à l’extrémité de cette ligne et recouvrira toutes les autres formes avec lesquelles elle se chevauchera dans sa nouvelle position ».

Bien que nous ne sachions pas encore comment OpenAI est parvenu à ce résultat, il semble peu probable que les ingénieurs aient délibérément optimisé le système o3 pour trouver des règles minimales — mais o3 a bien dû trouver ces règles.

Nous savons qu’OpenAI a commencé par leur version générique du modèle o3 (qui diffère de la plupart des autres grands modèles de langage, car il peut passer plus de temps à « réfléchir » à des questions difficiles) et l’a ensuite entraîné spécifiquement pour passer le test ARC-AGI.

Le chercheur français en IA François Chollet, qui a conçu le test de référence (ndlt : et qui travaillait chez Google jusqu’à récemment), estime qu’o3 recherche différentes « chaînes de pensée » décrivant les étapes à suivre pour résoudre la tâche. (ndlt : Une « chaîne de pensée » est une stratégie exploitée en IA, qui mimique une stratégie humaine consistant à décomposer un problème complexe en petites unités plus simples, amenant pas à pas à une solution globale.)

o3 choisirait ensuite la « meilleure » chaîne de pensée en fonction d’une règle définie de façon relativement pragmatique et vague, dans une approche « heuristique ».

Cette stratégie ne serait pas très différente de celle utilisée par le système AlphaGo de Google pour chercher différentes séquences de mouvements possibles à même de battre le champion du monde de go en 2016.

 

On peut considérer ces chaînes de pensée comme des programmes qui sont adaptés aux exemples et permettent de les résoudre. Bien sûr, si o3 exploite bien une méthode similaire à celle utilisée dans AlphaGo, il a fallu fournir à o3 une heuristique, ou règle souple, pour lui permettre de déterminer quel programme était le meilleur. Car des milliers de programmes différents, apparemment aussi valables les uns que les autres, pourraient être générés pour tenter de résoudre les trois exemples. On pourrait imaginer une heuristique qui « sélectionne le programme minimal » ou bien qui « sélectionne le programme le plus simple ».

Toutefois, s’il s’agit d’un mécanisme similaire à celui d’AlphaGo, il suffit de demander à une IA de créer une heuristique. C’est ce qui s’est passé pour AlphaGo : Google a entraîné un modèle à évaluer différentes séquences de mouvements comme étant meilleures ou pires que d’autres.

La question qui se pose donc est la suivante : est-on vraiment plus proche de l’intelligence artificielle générale ? Si o3 fonctionne comme on vient de le décrire, le modèle sous-jacent n’est peut-être pas beaucoup plus performant que les modèles précédents.

Les concepts que le modèle apprend de données textuelles (ou plus généralement du langage humain) ne permettent peut-être pas davantage de généralisation qu’auparavant. Au lieu de cela, nous pourrions simplement être en présence d’une « chaîne de pensée » plus généralisable, découverte grâce aux étapes supplémentaires d’entraînement d’une heuristique spécialisée pour le test en question aujourd’hui.

On y verra plus clair, comme toujours, avec davantage de recul et d’expérience autour de o3.

En effet, on ignore presque tout au sujet de ce système : OpenAI a fait des présentations aux médias assez limitées, et les premiers tests ont été réservés à une poignée de chercheurs, de laboratoires et d’institutions spécialisées dans la sécurité de l’IA.

Pour évaluer le véritable potentiel d’o3, il va falloir un travail approfondi, notamment pour déterminer à quelle fréquence il échoue et réussit.

C’est seulement quand o3 sera réellement rendu public que nous saurons s’il est à peu près aussi adaptable qu’un humain moyen.

Si c’est le cas, il pourrait avoir un impact économique énorme et révolutionnaire, et ouvrir la voie à une nouvelle ère d’intelligence artificielle, capable de s’améliorer d’elle-même. Nous aurons besoin de nouveaux critères pour évaluer l’intelligence artificielle générale elle-même, et d’une réflexion sérieuse sur la manière dont elle devrait être gouvernée.

Si ce n’est pas le cas, o3 et son résultat au test ARC-AGI resteront un résultat impressionnant, mais nos vies quotidiennes resteront sensiblement les mêmes.

Sciences et société : « L’IA va tuer l’école ! »

Sciences: « L’IA va tuer l’école ! »

 Bientôt, je serai un jeune juriste prêt à entrer dans un monde du travail radicalement transformé. Alors que je termine mes études, une question m’obsède : que restera-t-il à faire dans un monde où l’IA surpassera bientôt les meilleurs experts ?
Par Alexandre Tsicopoulos, étudiant en droit dans La Tribune

Elon Musk lui-même a prédit qu’en 2028, l’IA dépassera l’intelligence cumulée des 8 milliards d’humains. Dario Amodei, le créateur d’Anthropic et principal concurrent d’OpenAI, résume cette révolution : « L’IA sera prochainement plus intelligente que les prix Nobel. Nous aurons une nation de génie concentrée dans un data center. »  Les modèles comme GPT-4 ou Claude 3.5 surpassent les étudiants dans la plupart des tests académiques. Avec un QI de 120, GPT-4 est déjà plus intelligent que 90 % des Français et cette IA gagne chaque mois 2 points de QI. Pourtant, l’école s’obstine à former aux métiers d’hier, rendant les connaissances obsolètes avant même la remise des diplômes. La supériorité de GPT-4 sur les médecins est troublante. Une étude de l’université de Stanford montre que l’IA obtient 90 % de bons diagnostics médicaux, tandis que les médecins plafonnent à 74 %. L’arrivée au pouvoir du couple Donald Trump-Elon Musk va encore accélérer cette cavalcade technologique.

Face à la certitude d’un dépassement imminent de l’intelligence humaine par l’IA, l’école telle que je l’ai connue doit se réinventer. Mes compétences, que je pensais uniques, peuvent désormais être automatisées. Institution ancestrale, l’école peine à réduire les inégalités intellectuelles et à adapter la nouvelle génération à un monde dominé par l’IA. En effet, elle n’a pas d’impact significatif sur les capacités intellectuelles des élèves, qui restent hélas majoritairement déterminées par des facteurs génétiques. Dans une économie de la connaissance, où l’intelligence est la clé de tous les pouvoirs, les différences cognitives expliquent l’essentiel des disparités de réussite entre les individus.

À l’heure des cerveaux en silicium, l’urgence est d’éviter la dystopie décrite par Yuval Harari : un monde scindé entre des dieux maîtrisant l’IA et des inutiles laissés pour compte. Les résultats de l’étude sur le revenu universel financée par Sam Altman, le patron d’OpenAI, renforcent cette inquiétude. Cette expérimentation menée dans l’espoir de trouver une solution face à l’automatisation de nombreux métiers a donné des résultats angoissants : le revenu universel augmente quatre choses : la consommation d’antidépresseurs, d’hypnotiques, d’anxiolytiques et d’alcool. Cet échec cinglant nous oblige à explorer de nouvelles pistes. La seule issue résidera dans l’augmentation des capacités cognitives humaines.

De Gaulle écrivait en 1934 : « Derrière chaque victoire d’Alexandre le Grand, il y a toujours Aristote », pour souligner l’influence majeure du philosophe grec sur son illustre élève. Demain, chaque élève sera accompagné par un « Aristote numérique » capable de personnaliser l’éducation selon ses aptitudes neurobiologiques. Mais cela ne suffira pas. L’école du futur devra augmenter les cerveaux biologiques grâce aux NBIC (nanotechnologies, biotechnologies, informatique et sciences cognitives).
La neuroaugmentation est désormais incontournable pour rester compétitif dans un monde ultra complexe façonné par l’IA. Aux États-Unis, la start-up Heliospect Genomics propose des tests génétiques permettant aux parents de sélectionner leurs embryons les plus susceptibles de développer un haut quotient intellectuel. Une majorité des Chinois et 38 % des Américains souhaitent augmenter le QI de leurs bébés grâce à ces technologies. Avec les implants intracérébraux Neuralink, Elon Musk explore une autre voie pour augmenter l’intelligence humaine. Après la sortie de GPT-4, il s’était lamenté : « Que restera-t-il à faire pour nous, les humains ? Nous ferions mieux de passer à autre chose avec Neuralink ! » Elon Musk affirme qu’il implantera Neuralink dans le cerveau de ses propres enfants puisque « la révolution de l’IA rend le cerveau humain obsolète. »
L’homme le plus riche du monde a promis que les implants Neuralink coûteront bientôt le prix d’une Apple Watch et seront implantés par ses robots neurochirurgiens en 10 minutes. En tant que futur professionnel, je fais partie de l’une des dernières générations de « bébés-loterie », où nos capacités intellectuelles dépendent du hasard génétique. Dans un monde où certains choisiront d’améliorer leur intelligence, vais-je pouvoir rester compétitif ? Que deviendra un juriste qui refuse ces technologies, alors que d’autres embrassent cette révolution ? Cependant, une question reste centrale : serons-nous prêts à accepter cette transformation sans sacrifier l’humanité qui définit notre essence ?

La révolution éducative ne se limitera pas à la transmission des savoirs. L’éducation deviendra une institution médico-technologique, mobilisant neurosciences et bio-ingénierie pour optimiser l’apprentissage et remodeler les capacités cognitives. L’enjeu ne sera plus seulement de rivaliser avec les machines, mais de s’unir avec elles. Dans cette symbiose Homme-IA construite par la Silicon Valley, seuls les esprits augmentés pourront véritablement prospérer et s’épanouir.

Pour moi, jeune étudiant en droit, cette transition vers un monde où la fabrication de l’intelligence sera mécanisée n’est pas seulement un défi technologique ou professionnel. C’est une remise en question existentielle. Dans un monde où l’intelligence sera produite industriellement, il faudra redéfinir ce que signifie être humain. Ce sera peut-être la principale mission de l’école du futur.

Recherche : pour une démarche davantage interdisciplinaire

Recherche : pour une démarche davantage interdisciplinaire

Les disciplines que sont les sciences du vivant, la sociologie et l’économie développent chacune leur savoir-faire et leur efficacité sur une facette du monde. Leurs liens sont souvent teintés d’indifférence, voire envenimés, dans les milieux universitaires, par une compétition pour les ressources. Il en résulte que notre société apprend à loucher : le monde qui nous entoure est unique, mais nous en construisons des visions indépendantes et porteuses de prédictions parfois contradictoires… donc en partie fallacieuses.
Les chercheurs Bernard Lahire, Arnaud Orain et Marc-André Selosse proposent, dans une tribune au « Monde »,de  rendre les formations plus interdisciplinaires. 

 

De nombreux auteurs ont observé que nos sociétés avaient oublié qu’elles faisaient partie intégrante du vivant, ce qui explique les crises environnementales et sanitaires qu’elles traversent. Or, l’interdisciplinarité entre économie, sociologie et sciences du vivant offrirait une image beaucoup plus nette de ce que nous sommes et de notre avenir.

Les biologistes découvrent que l’information génétique se transmet entre organismes qui coexistent. On pensait qu’elle se transmettait surtout des parents aux enfants : voilà qu’on démontre que des fragments d’ADN passent, par des mécanismes divers, d’un être vivant à l’autre, y compris d’espèces différentes. Mais, si les biologistes s’étaient intéressés à l’information culturelle, une autre information portée par le vivant, qui vient des parents et circule aussi entre individus, cela aurait-il été aussi inattendu ? La biologie doit prendre en main l’humanité comme source d’inspiration.

Les économistes mainstream intègrent l’environnement dans leurs modèles par le biais des prix et des services que rendrait la nature à la production de richesses et au climat. En s’intéressant aux sciences du vivant, ils apprendraient qu’il est impossible de dissocier un prétendu service rendu par telle ou telle entité non humaine, car de leurs interactions naissent des résultats supérieurs à la somme de ce qu’on leur attribue individuellement. Exemple, il est impossible de séparer les effets pollinisateurs des abeilles de l’action d’innombrables insectes, vers et autres micro-organismes des sols.

Il en va de même pour les forêts.

Trous de mémoire: le mécanisme

Trous de mémoire: le mécanisme

 

On a tous connu cette situation : on discute avec quelqu’un, on cherche un mot, un nom, un titre, et… rien ! On sait qu’on le connaît, on peut presque le sentir, mais impossible de le sortir. C’est ce qu’on appelle avoir un mot « sur le bout de la langue ». C’est un moment à la fois intrigant et frustrant. Mais que se passe-t-il exactement dans notre cerveau quand cela arrive ? Des chercheurs se sont penchés sur cette question et ont fait des découvertes fascinantes.

 

par 

Maître de conférences en neuropsychologie, Université de Strasbourg dans The Conversation

 

Lorsqu’on a un mot sur le bout de la langue, plusieurs parties de notre cerveau se mettent à travailler pour essayer de retrouver ce mot perdu. Imaginez un groupe de personnes qui fouillent frénétiquement dans une bibliothèque à la recherche d’un livre bien précis. Le cerveau fait quelque chose de similaire, et des zones particulières prennent part à cette recherche. Parmi elles, trois jouent un rôle essentiel : le cortex cingulaire antérieur, le cortex préfrontal, et l’insula.

Le cortex cingulaire antérieur et le cortex préfrontal font partie d’un réseau impliqué dans le contrôle cognitif et jouent des rôles complémentaires au moment où l’on a un mot sur le bout de la langue. Le cortex cingulaire antérieur est comme un superviseur. Il nous aide à détecter et à gérer le « conflit » qui se produit quand on sait qu’on connaît un mot mais qu’on n’arrive pas à le retrouver.

C’est un peu comme une alerte qui dit : « Attention, je sais que je sais ce mot ! » De son côté, le cortex préfrontal joue un rôle important dans l’évaluation et la vérification des informations qui nous viennent à l’esprit pendant la recherche du mot. Il permet de s’assurer que les éléments récupérés sont bien ceux que nous cherchons. Enfin, l’insula est une partie plus cachée du cerveau impliquée notamment dans la récupération phonologique, c’est-à-dire dans la tentative d’accès aux combinaisons de sons qui composent les mots.

Les chercheurs ont utilisé des techniques comme l’imagerie par résonance magnétique fonctionnelle (IRMf) pour voir ce qui se passe dans le cerveau pendant ces moments. On peut imaginer que ces trois parties du cerveau collaborent pour essayer de retrouver le mot manquant, comme des collègues qui se soutiennent dans une enquête difficile.

Cependant, les chercheurs ont aussi observé que ce phénomène devient de plus en plus fréquent avec l’âge. Pourquoi ? Parce que certaines parties du cerveau, notamment le cortex cingulaire antérieur et l’insula, ont tendance à s’atrophier en vieillissant. Cela signifie qu’elles deviennent un peu moins efficaces. Comme si, avec le temps, la bibliothèque dans laquelle on cherche des livres devenait un peu plus désorganisée, avec des rayons moins bien rangés et des références qui se perdent. Du coup, retrouver le « livre » ou le « mot » devient plus difficile.

Les études ont également montré que chez les personnes âgées, l’insula est moins activée quand elles essaient de retrouver un mot. C’est un peu comme si cette partie du cerveau, qui devrait normalement rassembler les sons, n’arrivait plus à faire son travail aussi bien qu’avant. Cela explique pourquoi les « mots sur le bout de la langue » sont plus fréquents avec l’âge. Plus l’insula est affectée par le vieillissement, plus il devient difficile de récupérer ces mots que l’on connaît pourtant très bien.

Malgré la fréquence accrue des mots sur le bout de la langue en vieillissant, ce phénomène est tout à fait normal. C’est une partie intégrante de notre façon de fonctionner. Cela montre simplement que notre cerveau est très complexe, et que parfois, des processus qui semblent évidents, comme trouver un mot, sont en fait le résultat de l’action coordonnée de nombreuses régions du cerveau.

De plus, il faut savoir qu’il existe des leviers pour atténuer ces effets de l’âge, par exemple ce que l’on appelle la « réserve cognitive » (un facteur protecteur modulé par les activités intellectuelles et physiques ou les interactions sociales par exemple) qui permet d’optimiser son vieillissement cérébral et cognitif.

Alors, la prochaine fois que vous avez un mot sur le bout de la langue, rappelez-vous que votre cerveau est en pleine ébullition pour retrouver cette information. Si des informations partielles (certains sons, un mot associé, etc.) vous viennent à l’esprit, cela vous invite à poursuivre la recherche pour trouver ce mot qui vous échappe. Et si le mot tarde à venir, il ne faut pas hésiter à faire une pause pour refaire plus tard un essai « à tête reposée ». Tout ceci reflète la complexité et l’efficacité de notre cerveau !

Les mécanismes de la mémoire

Les mécanismes de la mémoire

Certains apprentissages, de la grammaire au vélo, nous suivent toute notre vie. D’autres notions, acquises pour un devoir sur table ou un examen, finissent par s’évaporer très vite, une fois l’échéance passée. Comment l’expliquer ? Et comment ancrer les savoirs dans nos mémoires ? Tata Noelia, j’ai une question : puisque mon corps se muscle si je fais beaucoup de sport, est-ce que mon cerveau grossira si j’étudie beaucoup ? Est-ce parce que je n’ai plus de place dans mon cerveau que j’oublie ce que j’apprends à l’école ? C’est le genre de question que peut poser un enfant, à l’instar de ma nièce qui a déjà l’intuition que la mémoire réside d’une manière ou d’une autre dans le cerveau. Qui ne s’est pas déjà demandé où et comment sont stockées les choses que l’on apprend ? Ou pourquoi on oublie l’essentiel de ce qu’on étudie ? Apprendre, mémoriser et se souvenir Apprendre consiste à acquérir une nouvelle information ou un nouveau savoir-faire par l’observation, la pratique ou l’enseignement. La mémorisation, qui désigne le stockage et l’utilisation de cette information ou expérience, s’obtient par la répétition. Se souvenir, c’est être capable d’accéder à l’information stockée et de la reconstruire.

 

par , Profesora de Fisiología, Universidad Francisco de Vitoria dans The Conversation 

On peut apprendre quelque chose de nouveau et le mémoriser de façon à s’en souvenir à jamais, comme faire du vélo ou mettre une majuscule au début des noms propres, mais on peut aussi apprendre quelque chose et l’oublier peu de temps après, comme le calcul d’une racine carrée ou les noms des capitales asiatiques.

Depuis quelques années, le rôle de la mémorisation, technique traditionnelle d’apprentissage, est au cœur des débats et de la recherche scientifique. Mais quand les professeurs que nous sommes parlent d’apprentissage profond, ce qui nous mobilise, en réalité, c’est l’acquisition d’une mémoire à long terme, par opposition à la mémoire à court terme, concernant ce qu’on oublie vite, comme le code que l’on ne retient que le temps de confirmer un virement via une appli, ou les réponses à un examen qu’on a révisé la veille.

La mémoire est un processus en quatre étapes : l’encodage, la consolidation, la récupération et l’oubli. Chacune de ces phases est marquée par des changements physiques dans des groupes de neurones que l’on appelle « engrammes ». On suppose que ce sont eux qui laissent des traces physiques de la mémoire dans notre cerveau.

Toute nouvelle expérience provoque une stimulation coordonnée de groupes de neurones précis (encodage). S’ils sont à nouveau stimulés, ces neurones génèrent des souvenirs ténus, très sensibles aux interférences, qui se perdent vite à moins d’être entretenus.

La deuxième phase de la mémoire est rendue possible par la plasticité neuronale. La transformation de ce souvenir fragile (à court terme) en souvenir persistant à long terme requiert des changements structuraux et des réorganisations dans les engrammes (consolidation). Ces changements culminent avec la formation de synapses supplémentaires (connexion chimique) entre les neurones coactivés au moment de l’apprentissage. C’est ce qui permet la survie de l’information en vue d’un futur rappel.

Le facteur dont dépend la réalisation de cette connexion synaptique, c’est la répétition. La répétition d’activités ou l’évocation de concepts provoque l’activation des engrammes le temps nécessaire au développement de nouvelles synapses.

Curieusement, les représentations répétées d’un événement d’apprentissage qui se produisent pendant le sommeil entraînent l’activation spontanée des engrammes. D’où l’idée que le sommeil renforce la mémoire.

Les nouvelles synapses qui forment la mémoire à long terme perdurent même lorsqu’elles ne sont plus utilisées. C’est ce phénomène qui rend possible la récupération du souvenir. Ce rappel est d’autant plus efficace que le contexte de récupération coïncide avec celui qui a provoqué l’encodage et la consolidation, car lors de cette phase le cerveau doit retrouver les mêmes schémas d’activité neuronale que ceux de l’apprentissage initial.

 

Quant à la dernière phase dans l’acquisition de la mémoire, il s’agit de… l’oubli. Le renforcement de certains engrammes au moment de la consolidation d’un souvenir implique nécessairement l’élimination d’autres souvenirs (pour « faire de la place » dans le cerveau). Cet oubli se produit grâce à l’affaiblissement de circuits existants, l’occupation de l’espace synaptique par les nouveaux processus de neurogenèse, et même l’élimination de synapses par des cellules spécialisées du cerveau.

Des expériences récentes ont montré que la plasticité inhibitrice (l’élimination de certains circuits pour en créer de nouveaux) lors de la consolidation du souvenir conditionne la sélectivité des circuits d’engrammes, qui « conservent » un souvenir concret.

Dans son livre ¿Cómo aprendemos ? Una aproximación científica al aprendizaje y la enseñanza (en français Comment apprenons-nous ? Une perspective scientifique sur l’apprentissage et l’enseignement), Héctor Ruiz nous donne quelques conseils.

Premièrement, il est plus facile d’engranger de nouvelles connaissances si on les relie à des connaissances stockées antérieurement (engrammes activés).

Deuxièmement, on mémorise mieux des informations qui font l’objet de raisonnements. Voir ou écouter une chose plusieurs fois ne signifie pas qu’on va s’en rappeler. Mais si on réfléchit à cette chose, notre capacité à la mémoriser augmente (consolidation des engrammes).

Troisièmement, il est important d’approfondir l’objet de l’apprentissage, c’est-à-dire de réfléchir à la même idée dans différents contextes, de manière à faciliter la récupération ultérieure.

Tout cela doit se traduire par un enseignement actif permettant aux étudiants d’appliquer, d’interpréter, d’évaluer ou d’expliquer la connaissance en question pour lui donner un sens, et donc de pratiquer la répétition, ce qui active les engrammes jusqu’à vingt fois plus que l’apprentissage initial.

À l’inverse, étudier juste avant un examen ne génère vraisemblablement aucune trace durable dans notre cerveau.


Traduit de l’espagnol par Métissa André for Fast ForWord

La fusée Boeing pour ramener les astronautes…. en panne !

La fusée Boeing pour ramener les astronautes???? en panne

 

Nouvelle déconvenue pour Boeing qui additionne les problèmes avec ses avions cette fois il s’agit de la capsule Boeing qui a transporté deux astronautes à bord de la station internationale mais qui ne peut les ramener. Les deux astronautes américains « bloqués » vont finalement être intégrés à la rotation d’équipage et ne rentreront qu’en 2025, à bord d’une capsule Dragon de SpaceX, après huit mois passés à bord, au lieu des huit jours prévus initialement !

Cet épilogue est un énorme revers pour Boeing, déjà empêtré depuis des mois dans une série noire avec ses avions de ligne. En dépit de tous leurs efforts, les ingénieurs de l’entreprise n’ont pas réussi à dissiper les doutes de la Nasa concernant la fiabilité du système de propulsion de leur capsule Starliner.

L’art de l’anticipation chez les sportifs

L’art de l’anticipation chez les sportifs

 

Les Jeux olympiques de Paris donnent un éclairage incomparable au sport de haut niveau. Les athlètes olympiques et paralympiques brillent par leurs exceptionnelles performances. Force, vitesse, endurance apparaissent en premier. Mais également l’intelligence des actions et des prises de décisions. Ou encore la capacité de réaliser des actions d’une extrême précision avec des contraintes temporelles très élevées. Une large part de ces prouesses est réalisée grâce à une capacité qui est caractéristique de certains animaux et qui a été développée de manière extrêmement sophistiquée par l’être humain. Cette capacité des plus remarquables qui a permis sa survie et son extraordinaire expansion est celle de l’anticipation. Elle permet de se projeter dans le futur, de prédire l’avenir et les conséquences des actions que l’on est en mesure de produire. Elle peut être impliquée dans des choix de vie à long terme mais aussi dans des décisions de très court terme. Dans le sport, elle est primordiale ! Pour mener une carrière de sportif de haut niveau ou préparer un événement aussi exceptionnel que les JO avec toutes les contraintes et l’adversité qu’il est possible de rencontrer. L’anticipation est aussi très présente dans la réalisation même des performances. Elle permet de faire face à des situations extrêmes marquées par de très fortes contraintes spatiales et temporelles. Par exemple, les joueurs de tennis ne disposent que de 600 à 700 ms pour retourner un service frappé à 200 km/h tandis que les gardiens de but en football ont moins de 500 ms pour arrêter un tir de penalty. Ceci est d’autant plus compliqué qu’un temps de réaction visuel (qui correspond au délai entre la réception de l’information et le début de l’action de réponse) est au minimum de 200 ms et que les temps de mouvement requis pour répondre peuvent approcher d’une seconde entière. Cela est aussi vrai dans les activités de pleine nature telles que le VTT ou le canoë-kayak dans lesquelles de multiples décisions et actions doivent être réalisées dans des délais très courts marqués par une grande incertitude. Dans ces situations comme dans beaucoup d’autres que l’on rencontre dans de nombreux sports, les athlètes ne peuvent donc pas attendre d’avoir une information complète s’ils veulent avoir le temps de réaliser une action efficace et l’anticipation est déterminante de la performance.

 

par 

Nicolas Benguigui
Professeur en sciences cognitives, sciences du sport et de la motricité, Université de Caen Normandie

Clément Libreau
Doctorant en sciences du sport, Université de Caen Normandie dans The Conversation 

Mais comment définir l’anticipation en sport ? Elle correspond à l’ensemble des processus psychologiques qui permettent de se préparer à agir, de réagir plus tôt ou même d’agir avant qu’un événement ne se produise ou qu’un obstacle n’apparaisse. C’est par exemple le joueur de rugby qui commence une course pour intercepter une passe bien avant qu’elle ne soit effectuée par l’adversaire ou encore le grimpeur qui prépare la saisie d’une prise particulièrement difficile dans l’enchaînement des prises qui précèdent.

L’anticipation repose principalement sur la perception, la mémoire et les représentations ou images mentales que le sportif est capable de former. Elle s’appuie aussi sur des mécanismes de couplage perception-action et des bases de connaissance qui ont été découvertes ou élaborées à travers les expériences antérieures.

Ces mécanismes vont permettre d’identifier des indices pertinents pour prédire le déroulement des événements et s’engager de manière précoce dans les actions les plus efficaces. Cela peut correspondre à des prises d’information sur un parcours en pleine nature qu’il est possible de reconnaître pour anticiper par exemple les enchaînements de virages en VTT ou encore sur le comportement de l’adversaire pour décoder et anticiper l’action adverse sur la base des mouvements préparatoires aussi subtils soient-ils.

Cela peut aussi reposer sur des probabilités d’apparition de certaines actions. Si dans une situation donnée, l’athlète sait que son adversaire réalise systématiquement ou très fréquemment la même action, il peut se préparer à agir pour faire face ou même initier sa réponse bien avant que l’action adverse ne débute.

Un autre registre où les probabilités guident l’anticipation est celui de l’occupation du terrain. C’est ce qui a été mis en évidence par notre équipe dans l’étude du replacement des joueurs de tennis. Il a en effet été possible de confirmer la théorie des angles qui avait été définie par Henri Cochet le célèbre Mousquetaire de l’équipe de France de Coupe Davis des années 1920-1930 dans un ouvrage de référence.

Cette théorie énonce que la meilleure position de replacement pour faire face à la frappe adverse se situe sur la bissectrice de l’angle formé par les possibilités d’action de l’adversaire (la demi-droite qui partage cet angle en deux angles égaux).

À partir de données collectées lors d’un tournoi de tennis professionnel avec le système Hawkeye qui permet la capture des déplacements de la balle et des joueurs, il a été possible de déterminer que les joueurs se positionnaient très précisément sur cette bissectrice traduisant ainsi leur capacité d’anticiper non pas l’action à venir de leur adversaire mais ses possibilités d’action dans une situation donnée.

Les anticipations peuvent être intuitives et implicites et n’appartenir qu’à l’athlète sans même qu’il ne soit en mesure de les décrire. Mais elles peuvent être aussi explicites et préparées à l’avance avec l’aide d’une équipe technique. Ainsi il n’est pas rare d’observer des athlètes et des entraîneurs prendre des notes sur les adversaires futurs, visionner les matches antérieurs pour se préparer.

Mais l’anticipation est toujours un pari. Un pari éclairé certes, mais avec une prise de risque. Elle apporte des bénéfices en permettant de se préparer plus tôt pour contrer l’action adverse, mais elle peut avoir aussi un coût et se traduire par des actions inappropriées. Un très bon exemple de ces erreurs d’anticipation est ce qu’on appelle le « contre-pied », c’est-à-dire partir du mauvais côté, ce qui est bien souvent fatal dans le sport de haut niveau. Cela est lié au caractère nécessairement incertain de l’anticipation qui repose sur des informations partielles et à des capacités prédictives nécessairement limitées.

Il faut être très clair. Si l’anticipation est une capacité fascinante, il ne faut pas la surestimer. Parce que l’anticipation est aussi une approximation ! De par l’utilisation d’informations partielles et incomplètes. Les limites des capacités d’anticipation et de prédiction sont par exemple bien démontrées par l’incapacité à prédire des trajectoires complexes telles que les trajectoires courbes des balles ou des ballons avec effets. Ainsi les gardiens de but, même du plus haut niveau, sont fréquemment trompés par ces trajectoires et il a été montré expérimentalement cette incapacité à prédire ce type de trajectoire qui ne peut être compensée que par la régulation en continu l’action avec l’approche du ballon.

Tout est donc question d’utilisation appropriée de cette formidable compétence tout en sachant ses limites. On ne peut reprocher au gardien de but face au tireur de penalty d’être pris à contre-pied dans la mesure où il n’a pas d’autre choix que d’anticiper s’il veut avoir une chance de stopper quelques tirs tant le temps dont il dispose est réduit. Mais si la situation n’est pas aussi critique, être pris à contre-pied pour le gardien de but ou le joueur de tennis est une erreur qui est moins pardonnable car cela se traduit par des buts encaissés ou des points perdus alors que d’autres réponses plus efficaces pouvaient être produites. Ces engagements dans des anticipations inappropriées expliquent d’ailleurs pourquoi les attaquants cherchent si souvent à produire des feintes.

Faire une feinte, c’est se jouer de la volonté adverse d’anticiper. C’est donné des indices pour engager son adversaire dans une anticipation erronée. C’est commencer la préparation d’une action pour en réaliser une autre (par exemple les feintes de corps dans les sports collectifs ou dans les sports de combat). Ces feintes seront d’autant plus efficaces si elles sont effectuées rapidement et dans le bon timing.

Pour éviter d’être pris par des feintes, les sportifs de haut niveau adoptent dans un grand nombre de situation des comportements dits « conservateurs » ou d’attente dynamique qui les conduisent à ne pas anticiper mais à se coordonner très précisément avec l’action adverse.

C’est par exemple ce que notre équipe a montré dans le comportement d’allègement reprise d’appui (« split-step » pour les Anglo-Saxons) chez les joueurs et joueuses de tennis de haut niveau. Ce comportement préparatoire va permettre de démarrer le déplacement vers la balle dans le meilleur timing et avec la plus grande vitesse possible. Ceci est réalisé grâce au sursaut et au rebond des appuis au sol qui s’ensuit pour obtenir le maximum d’efficacité neuromusculaire (principe de pliométrie qui permet d’obtenir un rendement musculaire plus important quand le muscle est mis en tension juste avant sa contraction). La reprise d’appuis est alors synchronisée avec le premier moment où l’information sur la direction du service sera disponible. C’est précisément ce que font les joueuses et joueurs de tennis de haut niveau avec une reprise d’appui précisément réalisé 200 ms après la frappe adverse, temps correspondant au traitement de cette information visuelle.
Dans cette figure, on peut observer le comportement du joueur de tennis au retour de service qui se coordonne très précisément à l’action du serveur pour réagir dans le meilleur timing (juste après la frappe) avec une action préparatoire d’allègement-reprise d’appui qui va permettre un gain de force musculaire et de vitesse dans la réaction au sol. Source, Fourni par l’auteur
En conclusion, si l’anticipation apparaît comme une capacité essentielle de la performance dans de nombreux sports olympiques, elle doit être utilisée avec discernement. Dans les situations hypercomplexes qui caractérisent le sport de haut niveau, elle apparait comme essentielle pour occuper le terrain de manière optimale.

Elle est aussi primordiale dans le codage-décodage de l’information entre deux adversaires dans des situations de duel, et c’est un véritable jeu de dupes qui peut alors s’installer. L’attaquant va chercher à masquer ces actions ou à donner des informations trompeuses pour feinter son adversaire. Il peut même attendre de voir l’anticipation adverse pour choisir son action comme le font certains tireurs de penalty. De l’autre côté, le défenseur va chercher à décoder ces informations ou attendre suffisamment pour avoir une assurance de ne pas être trompé. Un élément essentiel est ainsi de savoir bien identifier quelles sont les situations qui permettent ou nécessite d’anticiper.

Quand il n’y a que des bénéfices à obtenir quand il s’agit de prévoir un enchaînement par exemple un gymnaste qui prépare sa diagonale avec les différents éléments qui la composent. Ou bien quand l’anticipation erronée est sans conséquence. Ou encore dans les situations d’urgence qui ne laissent pas la possibilité d’avoir une information suffisamment complète pour agir et se donner au moins une chance de contrer l’action adverse.

C’est tout l’art ou toute la science des plus grands athlètes que de savoir utiliser ces formidables capacités d’anticipation quand cela est pertinent pour s’engager dans l’action au meilleur moment !

Sciences: Comment le cerveau a-t-il évolué ?

Sciences: Comment le cerveau a-t-il évolué ?

La nature singulière et les capacités exceptionnelles du cerveau humain ne cessent de nous surprendre. Sa forme arrondie, son organisation complexe et sa longue maturation le distinguent du cerveau des autres primates actuels, et plus particulièrement des grands singes auxquels nous sommes directement apparentés. À quoi doit-on ses spécificités ? Puisque le cerveau ne fossilise pas, il faut chercher la réponse dans les os du crâne retrouvés sur les sites paléontologiques pour remonter le cours de l’histoire. La boîte crânienne renferme des empreintes du cerveau qui constituent de précieuses données sur les 7 millions d’années d’évolution de notre cerveau qui nous séparent de notre plus vieil ancêtre connu : Toumaï (Sahelanthropus tchadensis).

 

, Paléoanthropologue (CNRS), Université de Poitiers dans The Conversation 

Pendant la croissance, le cerveau et son contenant, le crâne, entretiennent un lien étroit et, par un processus de modelage et remodelage, l’os enregistre la position des sillons à la surface du cerveau qui délimitent les lobes et les aires cérébrales. À partir de ces empreintes, les paléoneurologues cherchent à reconstituer l’histoire évolutive de notre cerveau (par exemple, quand et comment les spécificités cérébrales humaines sont apparues ?), mais également à élaborer des hypothèses sur les capacités cognitives de nos ancêtres (par exemple, quand ont-il commencé à fabriquer des outils ?).

L’Afrique du Sud a joué un rôle central dans la recherche et la découverte d’indices sur les grandes étapes de l’évolution de notre cerveau. Les sites paléontologiques situés dans le « Berceau de l’Humanité », classé au patrimoine mondial par l’Unesco, sont particulièrement riches en fossiles piégés dans d’anciennes grottes dont les dépôts sont aujourd’hui exposés à la surface.

Parmi ces fossiles, on compte des spécimens emblématiques comme « l’enfant de Taung » (3-2,6 millions d’années), le tout premier fossile de la lignée humaine découvert sur le continent africain qui sera à l’origine du genre Australopithecus, ou « Little Foot » (3,7 millions d’années), le squelette le plus complet d’Australopithecus jamais mis au jour (50 % plus complet que celui de « Lucy » découvert en Éthiopie et daté à 3,2 millions d’années). Ces sites exceptionnels ont ainsi mené à la découverte de crânes relativement complets (par exemple « Mrs Ples » datée à 3,5-3,4 millions d’années), ainsi que de moulages internes naturels de crânes (par exemple celui de « l’enfant de Taung »), préservant des traces du cerveau de ces individus fossilisés qui ont été étudiés par des experts et ont servi de référence depuis des décennies.

Malgré la relative abondance et la préservation remarquable des spécimens fossiles sud-africains relativement aux sites contemporains est-africains, l’étude des empreintes cérébrales qu’ils conservent est limitée par la difficulté à déchiffrer et interpréter ces traces.

Devant ce constat, notre équipe constituée de paléontologues et de neuroscientifiques a cherché dans un premier temps à intégrer, dans l’étude des spécimens fossiles, les compétences techniques développées en imagerie et en informatique.

Nous avons alors mis en place le projet EndoMap, développé autour de la collaboration entre des équipes de recherche françaises et sud-africaines, dans le but de pousser plus loin l’exploration du cerveau en y associant des méthodes de visualisation et d’analyses virtuelles.

À partir de modèles numériques 3D de spécimens fossiles du « Berceau de l’Humanité » et d’un référentiel digital de crânes de primates actuels, nous avons développé et mis à disposition une base de données unique de cartographies pour localiser les principales différences et similitudes entre le cerveau de nos ancêtres et le nôtre. Ces cartographies reposent sur le principe d’atlas traditionnellement utilisé en neuroscience et ont permis à la fois une meilleure connaissance de la variabilité dans la distribution spatiale des sillons du cerveau humain actuel et l’identification des caractéristiques cérébrales chez les fossiles. En effet, certains désaccords scientifiques majeurs dans la discipline sont la conséquence de notre méconnaissance de la variation inter-individuelle, qui entraîne une surinterprétation des différences entre les spécimens fossiles.

Cependant, EndoMap fait face à un défi majeur dans l’étude des restes fossiles, comment analyser des spécimens incomplets ou pour lesquels certaines empreintes cérébrales sont absentes ou illisibles ? Ce problème de données manquantes, bien connu en informatique et commun à de nombreuses disciplines scientifiques, est un frein à la progression de notre recherche sur l’évolution du cerveau.

Le bond technologique réalisé récemment dans les domaines de l’intelligence artificielle permet d’entrevoir une solution. En particulier, devant le nombre limité de spécimens fossiles et leur caractère unique, les méthodes d’augmentation artificielle des échantillons pourront pallier le problème d’effectif réduit en paléontologie. Par ailleurs, le recours à l’apprentissage profond à l’aide d’échantillons actuels plus complets constitue une piste prometteuse pour la mise au point de modèles capables d’estimer les parties manquantes des spécimens incomplets.

Nous avons alors invité à Johannesburg en 2023 des paléontologues, géoarchéologues, neuroscientifiques et informaticiens de l’Université du Witwatersrand et de l’Université de Cape Town (Afrique du Sud), de l’Université de Cambridge (Royaume-Uni), de l’Université de Toulouse, du Muséum national d’histoire naturelle de Paris et de l’Université de Poitiers à alimenter notre réflexion sur le futur de notre discipline au sein du colloque « BrAIn Evolution : Palaeosciences, Neuroscience and Artificial Intelligence ».

Cette discussion est à l’origine du numéro spécial de la revue de l’IFAS-Recherche, Lesedi, qui vient de paraître en ligne et qui résume les résultats de ces échanges interdisciplinaires. À la suite de cette rencontre, le projet a reçu le soutien financier de la Mission pour les initiatives transverses et interdisciplinaires (MITI) du CNRS dans le cadre l’appel d’offres « Jumeaux numériques : nouvelles frontières et futurs développements » pour intégrer l’IA à la paléoneurologie.

IA: Apocalypse de l’emploi ?

Depuis la sortie de ChatGPT en novembre 2022, les spéculations vont bon train quant à l’impact économique de l’intelligence artificielle (IA). Les uns promettent un boom de productivité à venir, les autres une apocalypse sur le marché de l’emploi… En ouvrant son agent conversationnel au grand public, OpenAI a ravivé le vent de panique soulevé par les travaux de Carl Frey et Michael Osborne, chercheurs à Oxford, en 2013. Nous avions mené, sur le sujet, une étude pour la Commission européenne. Trois hypothèses essentielles et, semble-t-il, contestables, sous-tendent ces prédictions.

 

par 

Professeur d’économie et stratégie numériques, Université Libre de Bruxelles (ULB) dans The Conversation 

Une première hypothèse concerne le fait que les IA soient adoptées rapidement et massivement. Notre étude date certes de 2020, mais nous y observions, comme d’autres travaux plus récents aux États-Unis, que l’adoption de l’IA est en réalité très limitée. Quelle que soit la technologie d’IA considérée, elle ne concernait jamais plus de 13 % des entreprises.

Si les entreprises restent peu nombreuses à exploiter ces technologies si prometteuses, c’est avant tout en raison de la difficulté à dénicher les compétences nécessaires, et du coût de leur mise en œuvre. Viennent ensuite les barrières liées à la technologie elle-même : manque de fiabilité ou d’intelligibilité, infrastructure informatique insuffisante, ou manque de données exploitables.

ChatGPT et consorts peuvent paraître moins complexes à déployer en entreprise que d’autres systèmes d’information. Mais la facilité de prise en main des outils à l’échelle individuelle ne se retrouve par à l’échelle de l’organisation. Ils restent difficiles à mettre en œuvre dans des processus complexes et des risques liés à leur manque de fiabilité demeurent. Air Canada, contrainte par un tribunal d’honorer une politique tarifaire inventée de toutes pièces par son chatbot, en fit les frais récemment. Or, dans bien des domaines en entreprise, la marge d’erreur acceptable est très faible : qui serait prêt à monter à bord d’un avion dont le pilote automatique se tromperait une fois sur cent ?

La seconde hypothèse associe adoption de la technologie numérique et croissance de la productivité. La longévité de cette croyance peut étonner alors que le paradoxe de la productivité, énoncé par Robert Solow dès 1987 n’a toujours pas été démenti, excepté pour quelques-unes des dernières années du XXe siècle. Solow observait à l’époque que l’on voyait l’ordinateur partout sauf dans les statistiques de productivitéLes choses n’ont pas vraiment changé, y compris avec l’IA durant les années 2010.

Les tentatives d’explication du paradoxe de Solow, dont sa version actuelle, incluant l’IA, sont diverses. Un élément récurrent dans ces réflexions réside dans le fait que technologie numérique et capital organisationnel seraient complémentaires. Cela revient à dire que la technologie produit très peu d’effet sans les compétences et adaptations organisationnelles nécessaires à leur plein potentiel. Or peu d’entreprises parviennent à les acquérir.

 

Quelques études récentes ont malgré tout mis en évidence un effet très substantiel des agents conversationnels dans différents contextes : 40 % de productivité gagnée grâce à ChatGPT dans des tâches de rédaction14 % dans un centre d’appel, ou encore 25 % au sein d’un célèbre cabinet de conseil. Mais toutes ces études n’ont mesuré l’effet de l’IA que sur quelques tâches discrètes bien définies. Il n’existe, à l’heure actuelle, aucune preuve que ces effets ponctuels se traduiront par des gains de productivité à l’échelle de l’entreprise ou de l’économie dans son ensemble.

Il se pourrait même que la technologie fasse perdre d’un côté ce qu’elle permettrait de gagner de l’autre. Une autre étude récente démontre que la productivité des développeurs a augmenté quand l’Italie a décidé d’interdire ChatGPT dans le pays du jour au lendemain. Les auteurs de l’étude concluent que l’important gain de temps dans la production de code permise par l’IA avait été éclipsé par une explosion plus importante encore du temps nécessaire à sa vérification et à sa correction.

On peut ainsi spéculer que derrière le paradoxe de Solow se cache un phénomène sournois : le numérique permet souvent d’automatiser des tâches, mais en générant davantage de tâches de contrôle, de réconciliation ou d’encodage, bref, de bureaucratie.

Pour que la technologie détruise l’emploi, il faut encore, troisième hypothèse, que les gains de productivité qu’elle engendre viennent se substituer au travail humain. Là encore, les choses sont plus nuancées.

Il n’en reste pas moins que l’impact de l’IA dépendra de la manière dont elle est déployée. Erik Brynjolfsson, également professeur à Stanford, souligne à juste titre la différence fondamentale entre les applications de l’IA qui automatisent les tâches et peuvent donc substituer une partie de l’emploi, et celles qui augmentent les compétences humaines, c’est-à-dire qui permettent aux travailleurs humains d’accomplir plus que ce qui serait possible sans technologie.

À se focaliser uniquement sur les premières, il ne faudrait pas oublier que l’IA peut mettre à la portée de travailleurs moins qualifiés des tâches qui leur auraient été inaccessibles sans la technologie. L’automatisation des unes est souvent l’augmentation des autres. La banque en ligne ou les caisses automatiques des supermarchés reviennent, par exemple, à déplacer le travail de l’employé vers le client. De même, ChatGPT peut permettre à quiconque de rédiger un contrat dans un langage juridique impeccable ou de produire du code informatique.

Le risque principal découlant de la technologie n’est en somme pas la destruction de l’emploi mais la redistribution des rôles et de la valeur. Les différentes études de ChatGPT évoquées ci-dessus partagent une observation importante : les gains de productivité ont à chaque fois concerné les travailleurs les moins qualifiés ou performants alors que les plus expérimentés stagnaient, voire perdaient en efficacité en adoptant l’IA. Cette observation inspire un certain optimisme à David Autor qui en conclut que l’IA pourrait justement aider à restaurer la classe moyenne en démocratisant les emplois à valeur ajoutée et en lissant la prime aux plus hautes qualifications.

Ajoutons à ce tableau le vieillissement de la population, la diminution parallèle de la part des actifs dans la population et l’ampleur des défis auxquels nous faisons face : transition écologique, infrastructures vertes et numériques à construire, santé et soins aux aînés, formation, sécurité et défense… La question n’est alors pas de savoir s’il restera assez de travail pour tout le monde, mais si l’IA sera suffisamment puissante pour démultiplier la productivité du travail à la hauteur des besoins.

La technologie ne peut garantir à elle seule ni la croissance, ni le partage de la prospérité. Elle nous offre en revanche une opportunité unique de rebattre les cartes, à condition d’en faire bon usage.

Processus de la mémoire et des souvenirs

Processus de la mémoire et des souvenirs

 

La mémoire est une aptitude essentielle qui nous permet d’intégrer, de conserver et de restituer les informations auxquelles nous sommes confrontés. Cette fonction n’est pas assurée par une structure précise du cerveau, mais par un ensemble de neurones connectés en réseau et répartis dans différentes régions. La mémoire constitue le fondement de notre intelligence et de notre identité, en regroupant savoir-faire et souvenirs.

 

par , Doctorant en neurobiologie comportementale, Université Côte d’Azur et , MCF en Neuroscience, Université Côte d’Azur dans The Conversation 

Le processus de la mémoire débute par l’encodage, où les informations captées par les organes sensoriels sont transformées en traces de mémoire, appelées engrammes. Ces engrammes désignent un groupe spécifique de neurones activés en réponse à une information, tel qu’un texte que vous venez de lire, par exemple. Ensuite, lors de la consolidation, ces informations sont renforcées pour un stockage à long terme. Enfin, le rappel permet de solliciter à tout moment une information, permettant ainsi l’adaptation du comportement en fonction des expériences passées. L’oubli survient en cas d’absence d’accès à ces informations. Bien que la mémoire puisse prendre différentes formes, elle est souvent soutenue par un engramme présent dans diverses régions cérébrales. Dans cet article, nous allons revenir sur ces différentes étapes de la vie d’un souvenir dans le cerveau.

Les prémices de la compréhension de la mémoire en tant que modifications durables du cerveau remontent à Aristote et Platon, vers 350 avant notre ère. Le concept scientifique de ces altérations a été initié il y a plus de 100 ans par le biologiste allemand Richard Semon. C’est lui qui nomme et définit l’engramme comme la base neuronale du stockage et de la récupération des souvenirs.

Les fondements de la recherche moderne sur ce sujet remontent aux idées influentes de Ramón y Cajal, neurobiologiste espagnol lauréat du prix Nobel de physiologie en 1906, et soutenant que l’expérience modifie les connexions neuronales. On sait en effet depuis la moitié du XXe siècle que l’activation simultanée de cellules interconnectées renforce leurs connexions. La résurgence récente des études sur les engrammes est la conséquence des avancées techniques permettant désormais de cibler précisément les neurones, facilitant ainsi leur compréhension.

À la lumière de ces découvertes, nous avons maintenant pu affiner notre compréhension de ce qu’est un engramme. Fondamentalement, la création d’un engramme résulte du renforcement des connexions entre les groupes de neurones actifs en même temps pendant l’apprentissage. Les connexions entre les neurones se produisent au niveau d’une synapse, formée par la liaison entre deux extrémités neuronales. Ces connexions synaptiques résultent en la formation de groupes de neurones travaillant ensemble : c’est l’engramme proprement dit. Ainsi, lorsqu’une information est stockée dans le cerveau, elle est représentée par un réseau de neurones interconnectés entre eux, mais qui ne se situent pas forcément dans la même zone. Ces neurones ne sont d’ailleurs pas spécifiques à la mémoire, et en plus d’intégrer l’engramme, ils continuent d’interagir au sein de réseaux différents pour remplir d’autres fonctions.

Le stockage d’un souvenir sur une longue période entraîne des changements qui se manifestent à plusieurs niveaux. Ces ajustements se caractérisent par une augmentation du nombre de prolongements neuronaux, augmentant ainsi le nombre de synapses et donc la connexion entre neurones. Ce renforcement des connexions synaptiques augmente alors la probabilité qu’un schéma d’activité neuronale qui s’est produit pendant l’apprentissage soit reproduit ultérieurement lors du rappel, facilitant ainsi la récupération du souvenir. Pour illustrer ce concept de manière concrète, imaginez avoir passé un moment dans un champ de lavande. La vue de la couleur violette ou l’odeur de la lavande déclenchera l’activation du réseau de neurones qui était actif lors de votre promenade dans ce champ, ravivant ainsi votre souvenir.

Cet engramme peut adopter différents états, soit actif lorsque vous vous remémorez une information, soit dormant, jusqu’à ce que le souvenir refasse surface. Il peut aussi être indisponible, ce qui signifie qu’il existe mais qu’il ne peut plus être activé par un stimulus externe.

Pendant l’apprentissage, les informations qui sont répétées ou qui portent une forte charge émotionnelle sont plus susceptibles d’être mémorisées. Lors de leur intégration dans le cerveau, une compétition entre les neurones se met en place dans différentes régions cérébrales pour être recrutés dans la formation d’un engramme. Les neurones les plus actifs en lien avec les informations sensorielles du souvenir l’emportent et deviennent des cellules d’engramme. Cette coordination entre neurones actifs renforce les connexions synaptiques entre ces neurones, amorçant ainsi la formation du réseau constituant l’engramme.

Pendant la consolidation, l’engramme subit une transformation de son état initial instable et sensible aux perturbations vers un état plus durable et résistant. Cette transition est permise grâce à certaines protéines essentielles à l’activité des neurones et à leurs connexions. Ce processus intervient pendant le sommeil, où l’on observe une réactivation des neurones impliqués.

En présence dans notre environnement d’éléments similaires à ceux du souvenir, ce dernier peut alors ressurgir : c’est le rappel. Ce processus implique la réactivation de l’engramme. Pendant le rappel, les neurones qui étaient actifs lors de l’apprentissage se réactivent. Mais au moment de la récupération, le souvenir peut devenir temporairement instable, déstabilisant l’engramme qui la soutient. De nouvelles connexions peuvent se former tandis que d’autres peuvent se perdre. Par exemple, lorsque vous partagez un souvenir avec une autre personne, vous le décrivez avec votre subjectivité, ce qui peut entraîner des modifications de l’événement par rapport à comment il s’est réellement déroulé. Ces modifications peuvent être intégrées comme faisant partie du souvenir lui-même à force d’être racontées ou rappelées.

L’engramme n’est donc pas immuable. Un souvenir se modifie aussi avec le temps en fonction du degré d’émotion qu’on lui associe. On peut alors en perdre les détails pour ne garder qu’une sensation positive ou négative selon l’importance qu’a ce souvenir pour nous. Prenons l’exemple d’un ancien souvenir de vacances à la plage, où vous ne vous souvenez que de la sensation agréable de la chaleur, sans vous rappeler les détails précis tels que la date ou l’heure. Au niveau cérébral, cela se traduit par une modification du nombre de neurones et de connexions associés à ce souvenir.

Quant à l’oubli, c’est un phénomène généralement défini comme l’absence de manifestation comportementale d’un souvenir, même s’il aurait pu être rappelé avec succès auparavant. Par exemple, cet oubli peut se produire lorsqu’on vous demande la date de décès de Vercingétorix : vous avez appris à l’école qu’il s’agit de 46 av. J.-C., mais vous l’avez oubliée par la suite car elle n’avait peut-être plus d’utilité dans votre vie.

L’oubli peut aussi être pathologique, et associé à certaines maladies telles que la maladie d’Alzheimer. Même si les informations sont d’une importance émotionnelle réelle, comme le prénom de vos parents, la maladie peut vous empêcher d’y accéder. Selon cette perspective, l’oubli peut alors résulter soit d’une dégradation totale de l’engramme, entraînant une indisponibilité de la mémoire, soit d’un problème de rappel. Le cerveau étant un organe très plastique, il peut arriver qu’il y ait des modifications synaptiques au niveau d’un engramme, ce qui le déstabilise et augmente alors la probabilité d’oubli.

Cependant, ce remodelage ne conduit pas nécessairement à un effacement complet de la mémoire, mais plutôt à un silence de l’engramme. Des engrammes « silencieux » ont par exemple été observés chez des souris amnésiques, et la réactivation artificielle de ces engrammes permet une récupération de la mémoire, alors que les indices naturels dans l’environnement ne le peuvent pas. Ces résultats suggèrent que l’oubli est souvent dû à un échec de récupération de la mémoire, plutôt qu’à son effacement complet. Une des hypothèses avancées pour les maladies touchant la mémoire serait que les souvenirs peuvent être silencieux plutôt que perdus à proprement parler.

Notre étude, en cours de publication, utilise des outils chez la souris pour enregistrer l’activité directe des neurones formant l’engramme à différentes étapes de sa formation. Grâce à l’activité de ces neurones et aux outils développés en collaboration avec des mathématiciens, nous reconstruisons les cartes de connectivité fonctionnelle définissant l’engramme. Cette connectivité correspond au fait que l’on peut associer l’activité des neurones enregistrés avec les actions réalisées par la souris pendant cet enregistrement. Ainsi nous pouvons suivre l’engramme au cours des processus d’apprentissage, de consolidation, de rappel et d’oubli et étudier sa dynamique. À long terme, l’objectif serait d’exploiter ces résultats afin de mieux appréhender l’acquisition, le stockage et l’utilisation de l’information chez les humains, et ainsi de potentiellement faciliter le traitement des troubles de la mémoire et d’autres dysfonctionnements cognitifs.

Intelligence artificielle et chercheurs ?

Intelligence artificielle et  chercheurs  ?

Au début des années 2000, nos directeurs de thèse nous expliquaient la chance que nous avions de bénéficier, grâce à la révolution numérique, d’un accès instantané à l’intégralité des productions scientifiques via des bases de données.  Ils nous décrivaient « le monde d’avant », celui où se procurer un ouvrage supposait de se rendre jusqu’à une bibliothèque parfois éloignée et d’y passer de longues heures à faire des photocopies. Ces superviseurs voyaient ces tâches traditionnelles comme participant à la construction des jeunes chercheurs et se demandaient ce que deviendrait ce « tour de main » avec la révolution numérique.

 

Par Cylien Gibert et Audrey Rouzies (*) dans la Tribune

Le développement rapide de l’IA nous renvoie aujourd’hui à des questionnements similaires : les futurs chercheurs risquent-ils de ne plus avoir les compétences et les savoir-faire essentiels à l’exercice de leur métier ? Si les opportunités et menaces de l’IA sur les activités d’enseignement ont été immédiatement identifiées et mises au cœur des réflexions, cette avancée technologique pose également des défis significatifs pour la formation des futurs chercheurs qui n’ont pour leur part pas encore été pris en considération.

L’acquisition de méthodes de collecte et d’analyse de données complexes constitue aujourd’hui l’un des piliers de la formation des doctorants. Il s’agit par exemple de savoir coder une grande quantité de données narratives, de développer des designs d’expérimentation adaptés, ou d’utiliser des outils statistiques complexes. Or l’IA (par exemple ChatGPT et son module « data analyst ») automatise et accélère de façon drastique ce travail de traitement des données.

Les générations futures peuvent-elles se passer d’apprendre à réaliser ces collectes et à mener ces analyses en les sous-traitant à l’IA ? Cette dépendance technologique pourrait les rendre vulnérables dans des situations où l’IA s’avèrera inadaptée ou inaccessible. Plus grave encore, elle pourrait diminuer leurs capacités critiques avec une acceptation passive des résultats générés : le doctorant qui aurait systématiquement confié ses analyses à l’IA serait incapable d’en détecter les erreurs.

D’autre part, l’utilisation d’une IA formée sur des données existantes soulève des inquiétudes. Est-il possible que le recours à l’IA pousse à reproduire des erreurs et des biais déjà présents dans les données d’entraînement, créant ainsi un risque de récursivité ? En outre, l’utilisation généralisée de l’IA basée sur des données d’entraînement préexistantes pourrait-elle conduire à des résultats qui ne remettent pas en cause le statu quo, limitant ainsi la nouveauté des futures découvertes scientifiques?

Face à ces défis, une approche équilibrée s’impose. Il est nécessaire de valoriser les nouvelles compétences techniques permettant d’utiliser l’IA, en gardant une posture critique vis-à-vis du recours à cette technologie. Il s’agit par ailleurs de continuer à transmettre aux doctorants des compétences analytiques fondamentales afin qu’ils conservent leur autonomie intellectuelle.

Dans les écoles doctorales, le renforcement des cours dédiés au développement de la pensée critique, tels que l’épistémologie et les diverses approches méthodologiques, est une piste. L’intégration de modules d’éthique de la recherche et d’intégrité scientifique directement en lien avec l’utilisation de l’IA en est une autre. In fine, il s’agit d’inculquer aux futurs chercheurs la responsabilité de l’exactitude des résultats qu’ils produisent, y compris si ces derniers sont générés par l’IA.

L’objectif est de s’assurer que l’utilisation des outils d’IA ne détruise pas à terme ce qui fait la valeur de ce métier : rigueur de la démarche méthodologique, sens critique et réflexivité. Ouvrons le dialogue au sein des centres de recherche et des écoles doctorales afin de construire des solutions collectives qui permettront de faire perdurer la capacité à créer des connaissances nouvelles.

_______

(*) Audrey Rouzies est directrice de l’Ecole doctorale de gestion à l’Université Toulouse Capitole et Cylien Gibert est chercheur en sciences de gestion à Toulouse School of Management Research.

12345...14



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol