Archive pour la Catégorie 'sciences'

Cerveau: des nouveaux neurones se forment aussi dans un cerveau adulte

Cerveau: des nouveaux neurones se forment aussi dans un cerveau adulte

Pendant longtemps on a cru que le cerveau humain possédait un stock de neurones qui déclinait irrémédiablement après l’adolescence. En fait, la formation de nouveaux neurones est possible plus tard dans la vie, et des chercheurs viennent d’en faire la démonstration.( info Courrier international)

Jonas Frisén et ses collègues de l’institut Karolinska, en Suède, dont les travaux viennent de paraître dans Science, ont réussi à prouver la présence de cellules précurseuses des neurones dans un cerveau humain adulte. Ces cellules dites progénitrices étaient le maillon manquant pour prouver que la production de nouveaux neurones pouvait en effet se faire dans un cerveau adulte. Ceci suffira-t-il à clore la controverse ?

“Jusqu’à la fin du XXe siècle, l’opinion dominante en neurosciences était que, passé l’enfance, les humains s’arrêtaient de produire des neurones. Après l’adolescence, tout ce qu’il pouvait se passer était la perte de cellules, au mieux une réorganisation”, rappelle Popular Science. Mais depuis quelques années, des neurobiologistes avancent que la neurogenèse, c’est-à-dire la production de nouveaux neurones, peut se faire chez les adultes, comme pour les enfants ou les souris et les macaques adultes.

La neurogenèse “engage des cellules souches qui ne cessent de donner naissance à des cellules progénitrices, lesquelles prolifèrent pour former des neurones immatures qui deviendront complètement fonctionnels par la suite”.

Bombe nucléaire et uranium

Bombe nucléaire et uranium

L’enrichissement de l’uranium est au cœur des tensions autour du programme nucléaire iranien. Cette technologie, indispensable pour produire de l’électricité, peut aussi permettre de fabriquer des armes atomiques si elle atteint des niveaux de concentration élevés. En fin de semaine dernière, Israël a ciblé trois des principales installations nucléaires de l’Iran – Natanz, Ispahan et Fordo – tuant plusieurs scientifiques nucléaires iraniens. Ces sites sont fortement fortifiés et en grande partie souterrains, et les rapports divergent quant aux dégâts réellement causés. Natanz et Fordo sont les centres d’enrichissement de l’uranium en Iran, tandis qu’Ispahan fournit les matières premières. Toute détérioration de ces installations pourrait donc limiter la capacité de l’Iran à produire des armes nucléaires. Mais qu’est-ce que l’enrichissement de l’uranium, et pourquoi cela suscite-t-il des inquiétudes ?
Pour comprendre ce que signifie « enrichir » de l’uranium, il faut d’abord connaître un peu les isotopes de l’uranium et le principe de la fission nucléaire.

par Kaitlin Cook
DECRA Fellow, Department of Nuclear Physics and Accelerator Applications, Australian National University dabs The Conversation

Qu’est-ce qu’un isotope ?
Toute matière est composée d’atomes, eux-mêmes constitués de protons, de neutrons et d’électrons. Le nombre de protons détermine les propriétés chimiques d’un atome et définit ainsi les différents éléments chimiques.

Les atomes comportent autant de protons que d’électrons. L’uranium, par exemple, possède 92 protons, tandis que le carbone en a six. Toutefois, un même élément peut présenter un nombre variable de neutrons, formant ainsi ce qu’on appelle des isotopes.

Notre modèle est sous pression. Votre soutien est important.
Faire un don
Cette différence importe peu dans les réactions chimiques, mais elle a un impact majeur dans les réactions nucléaires.

La différence entre l’uranium-238 et l’uranium-235
Quand on extrait de l’uranium du sol, il est constitué à 99,27 % d’uranium-238 (92 protons et 146 neutrons). Seul 0,72 % correspond à l’uranium-235, avec 92 protons et 143 neutrons (le

0,01 % restant correspond à un autre isotope, qui ne nous intéresse pas ici).

Pour les réacteurs nucléaires ou les armes, il faut modifier ces proportions isotopiques. Car parmi les deux principaux isotopes, seul l’uranium-235 peut soutenir une réaction en chaîne de fission nucléaire : un neutron provoque la fission d’un atome, libérant de l’énergie et d’autres neutrons, qui provoquent à leur tour d’autres fissions, et ainsi de suite.

Cette réaction en chaîne libère une quantité d’énergie énorme. Dans une arme nucléaire, cette réaction doit avoir lieu en une fraction de seconde pour provoquer une explosion. Tandis que dans une centrale nucléaire civile, cette réaction est contrôlée.

Aujourd’hui, les centrales produisent environ 9 % de l’électricité mondiale. Les réactions nucléaires ont aussi une importance vitale dans le domaine médical, via la production d’isotopes utilisés pour le diagnostic et le traitement de diverses maladies.

Qu’est-ce que l’enrichissement de l’uranium ?
« Enrichir » de l’uranium consiste à augmenter la proportion d’uranium-235 dans l’élément naturel, en le séparant progressivement de l’uranium-238.

Il existe plusieurs techniques pour cela (certaines récemment développées en Australie), mais l’enrichissement commercial est actuellement réalisé via centrifugation, notamment dans les installations iraniennes.

Les centrifugeuses exploitent le fait que l’uranium-238 est environ 1 % plus lourd que l’uranium-235. Elles prennent l’uranium sous forme gazeuse et le font tourner à des vitesses vertigineuses, entre 50 000 et 70 000 tours par minute, les parois extérieures atteignant une vitesse de 400 à 500 mètres par seconde. C’est un peu comme une essoreuse à salade : l’eau (ici, l’uranium-238 plus lourd) est projetée vers l’extérieur, tandis que les feuilles (l’uranium-235 plus léger) restent plus au centre. Ce procédé n’est que partiellement efficace, donc il faut répéter l’opération des centaines de fois pour augmenter progressivement la concentration d’uranium-235.

La plupart des réacteurs civils fonctionnent avec de l’uranium faiblement enrichi, entre 3 % et 5 % d’uranium-235, ce qui suffit à entretenir une réaction en chaîne et produire de l’électricité.

Quel niveau d’enrichissement est nécessaire pour une arme nucléaire ?
Pour obtenir une réaction explosive, il faut une concentration bien plus élevée d’uranium-235 que dans les réacteurs civils. Techniquement, il est possible de fabriquer une arme avec de l’uranium enrichi à 20 % (on parle alors d’uranium hautement enrichi), mais plus le taux est élevé, plus l’arme peut être compacte et légère. Les États disposant de l’arme nucléaire utilisent généralement de l’uranium enrichi à environ 90 %, dit « de qualité militaire ».

Selon l’Agence internationale de l’énergie atomique (AIEA), l’Iran a enrichi d’importantes quantités d’uranium à 60 %. Or, il est plus facile de passer de 60 % à 90 % que de passer de 0,7 % à 60 %, car il reste alors moins d’uranium-238 à éliminer.

C’est ce qui rend la situation iranienne particulièrement préoccupante pour ceux qui redoutent que le pays produise des armes nucléaires. Et c’est pour cela que la technologie des centrifugeuses utilisée pour l’enrichissement est gardée secrète. D’autant que les mêmes centrifugeuses peuvent servir à la fois à fabriquer du combustible civil et à produire de l’uranium de qualité militaire.

Des inspecteurs de l’AIEA surveillent les installations nucléaires dans le monde entier pour vérifier le respect du traité mondial de non-prolifération nucléaire. Bien que l’Iran affirme n’enrichir l’uranium que pour des fins pacifiques, l’AIEA a estimé la semaine dernière que l’Iran avait violé ses engagements au titre de ce traité.

Sciences- « Démythifier l’IA »

Sciences- « Démythifier l’IA »

Ni intelligente, ni créative, l’IA n’en reste pas moins un outil très puissant qui prend une place croissante dans nos vies. Il est urgent de comprendre les forces et les faiblesses de ces technologies. Par Philippe Boyer, directeur relations institutionnelles et innovation à Covivio. dans La Tribune

Les professeurs qui corrigeront des épreuves de philosophie qui se sont déroulées en début de semaine devraient se lancer un pari : estimer le nombre de fois où les termes « IA générative », « Chat GPT » et autres acronymes à consonnances technologiques (GenAI…) seront présents dans les copies des élèves de la filière générale qui auront choisi le sujet : « Notre avenir dépend-il de la technique ? ». Aux côtés de développements savants sur le fait que la technique nous a donné l’espoir de pouvoir mieux contrôler l’avenir (thèse), tout en insistant sur le fait que cette même technique menace par ailleurs d’échapper à notre contrôle (antithèse), on pourrait imaginer que la synthèse porte sur le fait de savoir si nous pouvons encore décider de ce qui sera développé demain…

Vaste sujet qui nécessite, pour y répondre, d’avoir les idées claires sur ces technologies et en particulier sur les IA génératives qui envahissent les discours. Là n’est pas le plus facile car entre propos apocalyptiques des uns et approximations des autres, fleurissent d’innombrables idées fausses, contrevérités et autres mensonges qui ne font que brouiller les cartes. Pour se recentrer, rien de vaut le regard précis et affuté d’un incontestable et légitime spécialiste du sujet, en l’occurrence celui d’un scientifique et ingénieur, inventeur de l’assistant vocal SIRI, excusez du peu… Dans « IA génératives, pas créatives », Luc Julia fait œuvre de salut public. Sa thèse ? Ni plus ni moins que de déconstruire les idées reçues les plus répandues, à commencer par celle selon laquelle les IA génératives seraient créatives.

Dès l’avant-propos, l’auteur n’y va pas par quatre chemins : « l’intelligence artificielle n’existe pas !» Sa formule est ensuite nuancée en rappelant trois choses : la première c’est que le terme « intelligence  » draine de nombreux fantasmes anthropomorphiques en faisant croire que ces systèmes penseraient comme des humains. Nous en sommes loin. La deuxième, c’est qu’en anglais, le terme « intelligence » présente plusieurs significations dont la notion « d’information », celle par exemple que l’on retrouve dans l’acronyme de l’agence étatsunienne « CIA ». Vu sous cet angle, dire qu’une technologie est « intelligente » signifie qu’elle sait certes mieux qu’un humain organiser de l’information – l’IA ne remplace pas l’humain, mais l’augmente – mais certainement pas de réfléchir comme peuvent le faire les humains, et encore moins être créatif. Et Luc Julia d’enfoncer le clou : « Quand les savants réunis à Dartmouth aux Etats-Unis en 1956 ont choisi le terme IA, ils pensaient à information mais, malgré eux, le public a retenu le sens smartness et les fantasmes ont commencé. » Enfin, et c’est le troisième aspect, il n’existe pas une seule mais plusieurs intelligences artificielles. Dès les premiers chapitres, le cadre est posé : Luc Julia assume et revendique ce rôle d’iconoclaste : au sens étymologique, il est ce briseur de miroirs.

Mythes à déconstruire
Parmi les milles morceaux de ce miroir, sept d’entre eux sont méthodiquement décortiqués par l’auteur, à commencer par le mythe (tenace) que ces machines seraient « créatives ». La réponse est cinglante : une IA n’est en rien créative et cela pour au moins 2 raisons : d’abord, car elle ne fait que «moyenner » des données qu’elle extraie de modèles et qu’ensuite, elle ne peut rien faire sans que nous, les humains, lui fournissions des instructions (prompt). Deuxième mythe : l’IA « comprendrait », voire saurait « raisonner ». Là encore, et par tentation anthropomorphique, nous nous plaisons à croire que la machine serait presque notre égal lorsqu’il s’agit de répondre à des problématiques complexes. Mais « réaliser des tâches complexes » n’a rien à voir avec le fait d’être « intelligent ». L’IA n’est pas « intelligente » car elle ne sait pas s’adapter. On se fait berner car on associe langage à intelligence humaine. Certes, l’IA « nous parle » via notre langage comme vecteur mais dans les faits, elle ne comprend rien à ce qu’elle « dit ».

L’IA, boîte noire inexplicable et imprévisible ?
Souvent entouré de mystère sur ce qui se cacherait vraiment « sous le capot » de ces IA du fait de la quantité de données et d’algorithmes à l’œuvre, Luc Julia prend un malin plaisir à déconstruire l’idée selon laquelle ces IA seraient des « boîtes noires », technologies totalement opaques et impénétrables. Là encore, et derrière ce terme volontairement inquiétant faisant clairement allusion à l’univers de la surveillance, voire à celui des catastrophes aériennes, l’auteur tord le cou à ce mythe en précisant qu’il n’y a ni boîte noire ni inexplicabilité ; tout au plus des concepteurs d’IA qui, en humains qu’ils sont, peuvent faire des erreurs de programmation. Et d’en conclure qu’il sera toujours possible de créer une IA pour contrôler les actions réalisées par une autre IA. Vision un brin fractale de cette technologie.

Route pavée d’obstacles
Au titre des autres mythes technologiques que ce livre s’emploie à remettre en perspective, figurent ceux qui attisent inutilement les peurs (« L’IA va tous nous tuer » ou « détruire tous les emplois ») ou s’appliquent à faire passer les humains pour une espèce déclassée (« L’IA peut tout apprendre » ou « L’IA est bienveillante »). Au final, ce deuxième ouvrage de Luc Julia sur ce sujet, après « L’intelligence artificielle n’existe pas » paru en 2019, fait œuvre de pédagogie en s’appliquant à rappeler que si cette technologie est assez extraordinaire pour transformer certains aspects de nos sociétés dont notre rapport à l’information, à la création et à l’énergie, il n’empêche que la route vers ce monde baignée d’IA est semée d’obstacles. Le premier d’entre eux c’est évidemment le fait que l’IA générative et ses data centers spécialisés demeurent des gouffres à eau et à électricité. Un seul exemple pour s’en convaincre : si Chat GPT devait avoir le même nombre de requêtes moyennes quotidiennes que celles de Google (8,5 milliards), sur une année, cela demanderait 1241 TWh. Dit autrement, cette puissance électrique requise nécessiterait de tripler la capacité actuelle des data centers. Certes l’IA nous permettra de plus en plus déléguer les tâches ingrates et rébarbatives et de nous concentrer sur des tâches plus intéressantes, mais à quel prix tout cela doit-il se faire ? On le comprend, la création de futures IA plus frugales est une priorité.

Quelles IA pour demain ?
A l’heure où la course aux IA bat son plein avec pour but ultime de créer une intelligence au moins aussi performante que celle des humains (sur ce sujet on se reportera aux dernières déclarations de Yann Le Cun, Chief AI Scientist de Meta, qui précise que le lancement de V-JEPA 2 permettra à une IA capable de comprendre le monde réel), les IA, et singulièrement les IA génératives, sont et restent une technologie à la fois fascinante mais inquiétante, une technologie à double tranchant, capable du meilleur comme du pire dès lors que ceux qui les conçoivent et les utilisent se prennent pour des démiurges. L’un des sujets du BAC philo de l’année prochaine est tout trouvé : « L’avenir de l’Hommes peut-il se construire avec ou sans IA ? ». Vous avez quatre heures !

_______

« IA génératives, pas créatives / L’intelligence artificielle n’existe (toujours) pas » par Luc Julia, mai 2025, Cherche Midi éditeur, 250 pages

Les nouvelles révolutions technologiques à venir

Les nouvelles révolutions technologiques à venir

Nous n’avons encore rien vu… Tout va s’accélérer. Que d’opportunités ! Par Xavier Dalloz, Président de XD Consulting (*)
Xavier Dalloz dans La Tribune

Les nouvelles zones de disruption technologique bousculent aujourd’hui les modèles établis et ouvrent la voie à une transformation profonde de notre économie et de notre quotidien. De l’intelligence artificielle à l’exploration spatiale, voici un panorama des leviers majeurs à surveiller et à maîtriser pour rester à la pointe de l’innovation.

En concentrant ses efforts sur ces domaines, la France pourra non seulement anticiper les ruptures à venir, mais aussi inventer de nouveaux services et industries, plaçant l’innovation au cœur de notre compétitivité et de notre qualité de vie.

Voici quelques exemples d’innovations majeures :

Agents intelligents
Un agent intelligent est un programme autonome capable de percevoir son environnement, d’interpréter l’intention de l’utilisateur et d’agir via IA et apprentissage automatique. Il adapte ses réponses au contexte (profil, historique, localisation) et automatise tâches pour guider l’utilisateur.

Internet des objets couplés à la 5G et à l’IA

Le déploiement massif de l’IoT, couplé à la connectivité 5G, permet de relier et de piloter des milliards d’objets en temps réel. Des capteurs de nouvelle génération et des dispositifs intelligents collectent et échangent des données en continu, ouvrant la porte à des applications allant des villes « smart » à la maintenance prédictive dans l’industrie.

Blockchain et registres distribués

Au-delà du Bitcoin, la blockchain et les technologies de registre distribué renforcent la sécurité et la transparence des transactions. Elles donnent naissance à des applications décentralisées (d’apps) pour la traçabilité des chaînes logistiques, la gestion de l’identité numérique ou encore la tokenisation d’actifs physiques.

Réalité virtuelle, réalité augmentée, métavers

La VR et l’AR se perfectionnent pour offrir des immersions hyperréalistes, utilisées en formation, en divertissement et en commerce. Parallèlement, le Web 3.0 et le métavers annoncent un internet plus immersif et décentralisé, où l’on crée de nouvelles communautés et économies digitales basées sur la propriété numérique.

Hyperpersonnalisation et big data

Grâce à l’analyse en temps réel de gigantesques volumes de données, couplée à l’IA, les services deviennent ultra-personnalisés. Les recommandations de contenus, produits ou parcours utilisateur s’ajustent en continu, tandis que le marketing cible ses audiences avec une précision inédite.

Robotique et automatisation avancée

Les robots collaboratifs (cobots) se font plus intelligents et sûrs pour travailler aux côtés de l’homme. Ils automatisent les tâches répétitives et parfois dangereuses dans la logistique, la santé ou la production, et redéfinissent les compétences nécessaires sur le marché du travail.

Bioinformatique et biotechnologies

Les avancées en séquençage génomique, en thérapies ciblées et en biologie synthétique donnent naissance à une médecine personnalisée, à de nouveaux diagnostics et à des traitements innovants. Les biotechnologies deviennent un levier majeur pour la santé de demain.

Énergies propres et durabilité

Le solaire et les batteries progressent rapidement : les coûts chutent, les rendements s’améliorent, et de nouveaux matériaux (silicium, pérovskites, films minces) émergent. L’objectif est de déployer à grande échelle une économie énergétique décarbonée et résiliente face aux changements climatiques.

Exploration spatiale et technologie quantique

Le spatial se démocratise, porté par de nouveaux acteurs et des technologies quantiques qui amélioreront la communication, la navigation et le calcul. De la mise en orbite de satellites à la recherche fondamentale, ces domaines repoussent les frontières du possible.

Lumière et nouveaux matériaux

Les applications innovantes de la lumière — lasers, biophotonique, imagerie térahertz — s’ajoutent aux matériaux révolutionnaires (graphène, nanotubes, métamatériaux, alliages à mémoire de forme) pour créer des dispositifs plus performants, plus légers et plus durables, de l’électronique à la construction.

Ère post-smartphone et intégration corporelle

La prochaine génération de terminaux se portera, s’intégrera au vêtement ou même au corps. On passe d’un monde centré sur le « pocket computing » à une ère où les interfaces naturelles (voix, gestes, haptique) et la réalité augmentée seront présentes en permanence.

Tokenisation et finance décentralisée

La blockchain permet de fractionner et d’échanger des actifs physiques (immobilier, œuvres d’art) grâce à des tokens. Cette « tokenisation » ouvre l’accès à de nouveaux investisseurs et crée des modèles de propriété partagée, tout en offrant des usages tels que les NFT utilitaires pour l’identité ou les titres d’accès inviolables.

Les nouvelles batteries

Les batteries au sodium, comme la Naxtra de CATL, offrent une alternative prometteuse aux batteries lithium-ion. Moins coûteuses et plus sûres, elles affichent une densité énergétique de 175 Wh/kg et conservent 90 % de leur capacité même à -40 °C. Idéales pour les véhicules électriques urbains, elles devraient être produites en série dès fin 2025.

________

(*) Xavier Dalloz dirige depuis plus de 30 ans le cabinet Xavier Dalloz Consulting (XDC), spécialisé dans le conseil stratégique sur l’intégration des nouvelles technologies dans les entreprises. Il enseigne également à l’ICN Business School, partageant son expertise avec les futurs leaders du numérique. Parmi ses engagements récents, il a co-organisé le World Electronics Forum (WEF) à Angers en 2017, Grenoble en 2022 et Rabat en 2024. Il a également introduit et animé le WEF lors du CES 2023 à Las Vegas, à la demande de la CTA.

Mémoire: Répéter pour bien apprendre

Mémoire: Répéter pour bien apprendre

Pour retenir des informations sur le long terme, on sait qu’il est important de tester ses connaissances et de les répéter. Mais quelle est la fréquence idéale de révisions pour éviter les trous de mémoire le jour de l’examen ? Les recherches en psychologie nous donnent quelques clés pour mieux s’organiser.

Par Emilie Gerbier
Maîtresse de Conférence en Psychologie, Université Côte d’Azur dans The Conversation

Le proverbe « C’est en forgeant que l’on devient forgeron » reflète l’importance de répéter la même activité afin d’en maitriser les savoir-faire. Ce principe vaut aussi pour le vocabulaire ou les leçons que nous devons assimiler. Pour contrer notre tendance naturelle à oublier des informations, il est essentiel de les réactiver en mémoire.

Mais, justement, à quelle fréquence organiser ces réactivations pour ancrer les connaissances dans nos mémoires le plus efficacement et durablement possible ?

Les recherches en psychologie cognitive apportent des éléments de réponses à cette question. Au-delà de recettes toutes faites, il est important de comprendre les principes qui sous-tendent un apprentissage durable afin de se les approprier et de pouvoir les mettre à profit de façon personnelle.

Miser sur l’« effet d’espacement » dans les révisions
Deux grands principes sont fondamentaux pour mémoriser des informations sur le long terme.

Le premier consiste à utiliser des tests pour apprendre et réviser : il est beaucoup plus efficace de s’autotester sur un contenu, par exemple à l’aide de cartes question-réponse, que de le relire. Et, après chaque tentative de récupération en mémoire, les informations non rappelées doivent être ré-étudiées.

Le second principe consiste à bien répartir dans le temps les réactivations. C’est « l’effet d’espacement » : si on ne peut consacrer que trois sessions seulement à un contenu, il vaut mieux les programmer à intervalles relativement longs (par exemple, tous les trois jours) plutôt que courts (tous les jours).

Si on ne peut consacrer que trois sessions de révisions seulement à un cours, il vaut mieux les programmer à intervalles relativement longs.

Les révisions espacées par des intervalles longs demanderont davantage d’efforts : il sera un peu plus difficile de récupérer les informations en mémoire après trois jours que le lendemain. Or, ce sont justement ces efforts qui renforceront les souvenirs, favorisant la rétention sur le long terme.

Dans le domaine de l’apprentissage, il faut se méfier de la facilité. Se souvenir aisément d’une leçon aujourd’hui n’est pas un bon indicateur de la probabilité de s’en souvenir dans un mois. Or, un tel sentiment de facilité peut nous inciter à considérer (à tort) comme inutile de la réviser.

Robert Bjork, de l’Université de Californie, a nommé « difficulté désirable » l’idée d’un niveau optimal de difficulté, situé entre deux extrêmes. Le premier extrême correspond à un apprentissage très facile (mais inefficace à long terme) tandis que l’autre extrême correspond à un apprentissage trop difficile (à la fois inefficace et décourageant).

Trouver le juste rythme d’études
Il y a donc une limite à l’espacement entre les réactivations : après un long délai (par exemple un an), une information apprise aura fortement décliné en mémoire et sera très difficile, voire impossible, à récupérer. En plus de générer une émotion négative, cette situation nous forcera, en quelque sorte, à recommencer l’apprentissage depuis le début et les efforts précédents auront été vains.

Il s’agit donc de trouver le juste intervalle entre les réactivations, ni trop long, ni trop court. Mais ce juste intervalle n’est pas une valeur universelle car, en réalité, il dépend de plusieurs facteurs (liés à l’individu, à l’information à apprendre et à l’historique de cet apprentissage). Certains logiciels d’apprentissage implémentent des algorithmes prenant en compte ces facteurs, ce qui leur permet de tester chaque information au moment « idéal ».

Des méthodes avec papier et crayon existent également. La plus simple consiste à suivre un programme « expansif », c’est-à-dire utilisant des intervalles de plus en plus longs entre les sessions successives. Cette technique est mise en œuvre dans la « méthode des J », connue de certains étudiants. Son efficacité réside dans le renforcement progressif de la mémoire.

Au début de l’apprentissage, un souvenir est fragile et nécessite une réactivation rapide afin de ne pas être oublié. À chaque nouvelle réactivation, le souvenir se renforce, ce qui permet de retarder la réactivation suivante, et ainsi de suite. L’autre conséquence est que chaque réactivation est alors moyennement difficile, et donc située au niveau « désirable » de difficulté.

Voici un exemple de programme expansif pour un contenu donné : J1, J2, J5, J15, J44, J145, J415, etc. Ici la durée de l’intervalle est triplée d’une session à la suivante (24 heures entre J1 et J2, puis 3 jours entre J2 et J3, etc.).

Intégrer peu à peu de nouvelles connaissances

Il n’y a pas de consensus scientifique sur la meilleure série d’intervalles. Il semble toutefois particulièrement bénéfique de réaliser la première réactivation le lendemain (J2) de l’apprentissage initial car le sommeil nocturne aura permis au cerveau de restructurer et/ou de renforcer les connaissances apprises la veille (J1). Les intervalles suivants peuvent être ajustés en fonction des contraintes de chacun.

Enfin, la méthode est souple : si besoin, on peut décaler une session de quelques jours avant ou après la date prévue sans impacter l’efficacité globale sur le long terme. L’important, c’est le principe de réactivation régulière.

Le programme expansif présente en outre un avantage pratique considérable : il permet d’intégrer progressivement de nouvelles informations. Par exemple, on peut faire commencer un nouveau contenu à J3 du programme ci-dessus, car ce jour-là ne contient pas de session. En ajoutant ainsi des contenus au fur et à mesure, il est possible de mémoriser de façon durable un très grand nombre d’informations sans décupler le temps passé à les étudier.

L’autre méthode est basée sur le principe des « boîtes de Leitner ». Cette fois, la durée de l’intervalle avant la prochaine réactivation n’est pas prévue à l’avance mais dépend du résultat de la recherche en mémoire. Si la réponse a été facilement récupérée, la prochaine réactivation sera dans une semaine. Si la réponse a été trouvée, mais difficilement, on attendra trois jours avant de se tester à nouveau. Si on n’est pas parvenu à trouver la réponse, le prochain test aura lieu dès le lendemain. Chacun, avec l’expérience, pourra ajuster ces intervalles et développer son propre système.

En somme, pour un apprentissage efficace et durable, il faut faire l’effort de récupérer l’information dans sa mémoire et répéter ce processus régulièrement, selon des intervalles adaptés permettant de contrer l’oubli.

Sciences-Humains, animaux, cellules, plantes : tous conscients ?

Sciences-Humains, animaux, cellules, plantes : tous conscients ?

Nous sommes des êtres doués de conscience mais qu’en est-il des autres animaux ? De nos plus proches cousins, les primates, jusqu’aux mollusques, où placer la limite de la (non-) conscience ? Certaines théories vont jusqu’à reconnaître cette capacité à toute forme de vie. Faisons le tour de la question.

par François Bouteau
Pr Biologie, Université Paris Cité

Etienne Grésillon
Géographe, Université Paris Cité

Lucia Sylvain Bonfanti
Doctorante interdisciplinaire en géographie et biologie, Université Paris Cité dans The Conversation

L’année 2024 a été riche en évènements autour de la question de la conscience. La « déclaration de New York sur la conscience animale », signée en avril par plus de 300 chercheurs, a proposé qu’une possibilité de conscience existe chez la plupart des animaux.

En juin, toujours à New York, a eu lieu la première présentation des résultats de la collaboration adversariale Cogitate, qui organise une collaboration entre des équipes qui s’opposent autour de deux théories de la conscience. Le but étant qu’ils définissent entre eux les expériences à mener pour prouver l’une ou l’autre des conceptions qu’ils défendent.

Cette confrontation regroupe des experts de neurosciences et des philosophes cherchant un consensus entre : la théorie de l’espace de travail global (GNWT), portée par Stanislas Dehaene, et la théorie de l’information intégrée (IIT), proposée par Giulio Tononi. La GNWT propose que l’interaction entre plusieurs régions et processus spécifiques du cerveau soit nécessaire à la conscience, celle-ci n’émergeant suite à un premier traitement automatique que si l’information est amplifiée par différents réseaux de neurones spécialisés. L’IIT propose que la conscience émerge d’un système qui génère et confronte des informations. Dans cette proposition la possibilité de conscience n’est pas réduite au cerveau.

Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !

La revue Neuron, une des revues scientifiques les plus influentes dans la communauté des neurosciences, a proposé en mai 2024 un numéro spécial sur la conscience. Les articles montrent que si les substrats neurobiologiques de la conscience ont suscité de nombreux efforts de recherche au cours des dernières décennies, il n’en demeure pas moins que les neuroscientifiques ne sont pas d’accord. Ils analysent cinq théories différentes de la conscience. Malgré l’absence de définition commune du terme « conscience », utilisé à la fois comme une « expérience », incluant les perceptions sensibles du monde extérieur (vision des couleurs), et comme une expérience subjective, qui se construit a posteriori en intégrant différentes sources d’informations, le groupe élabore des convergences entre ces théories concurrentes et apparemment contradictoires.

Des bases biologiques de la conscience toujours inconnues
Sans rentrer dans les détails et les arguments concernant ces différentes, les travaux montrent qu’il n’existe pas de théorie unifiée de la conscience et que nous ne connaissons toujours pas les bases biologiques de la conscience. Les anciennes questions autour du dualisme, qui distinguent monde physique et monde psychique et du monisme soutenant l’unicité des deux mondes ne semblent toujours pas prêtes d’être tranchées.

Cependant, même sans théorie unifiée, la possibilité d’une expérience consciente n’est plus l’apanage des humains. Elle se diffuse à travers l’arbre phylogénétique, étant désormais reconnue chez de nombreux groupes d’animaux, y compris les insectes. Le dénominateur commun entre toutes ces approches semble être la présence d’un cerveau, caractéristique partagée par la majorité des animaux, même si celui-ci est petit et de structure simple. Les éponges dépourvues de cerveau et de systèmes nerveux ne sont pas incluses dans la famille des êtres conscients. Mais qu’en est-il des bivalves (huîtres ou moules par exemple) qui ne sont pourvus que de ganglions regroupant leurs neurones, rejoindront-ils prochainement la famille des êtres conscients ?

Mais la conscience pourrait-elle exister en dehors de ce fameux système nerveux ? Cette idée radicale a été notamment proposée il y a déjà quelques années par Frantisek Baluska, biologiste cellulaire, professeur à l’Université de Bonn, et Arthur Reber, psychologue, professeur à l’Université British Columbia.

Une conscience dans chaque être vivant ?
Ils ont proposé que la conscience aurait émergée très tôt au cours de l’évolution chez les organismes unicellulaires, et serait même coïncidente avec l’apparition de la vie. La conscience serait donc une propriété intrinsèque de la vie. Cette proposition repose sur l’observation que toutes les cellules, qu’elles soient isolées ou intégrées dans un organisme multicellulaire, possèdent une capacité impressionnante à percevoir leur environnement, à traiter des informations leur permettant de prendre des décisions basiques en réponse à des stimuli externes. Certains organismes unicellulaires peuvent par exemple libérer des molécules pour se signaler les uns aux autres.

Ces processus pourraient être considérés comme une forme de conscience primitive. Et si cette proposition fait fi de la présence d’un système nerveux, elle s’appuie toutefois notamment sur l’excitabilité électrique des cellules. Le neurone et le cerveau sont considérés comme des systèmes hyperoptimisés dans l’une des parties du vivant, permettant la conscience humaine.

Cette théorie reste bien sûr très controversée, notamment en raison de l’absence de définition partagée de la conscience. De nombreux scientifiques considèrent que cette « conscience cellulaire » serait simplement une métaphore pour décrire des processus biochimiques et biophysiques complexes, sans qu’il soit nécessaire d’y inclure une notion de conscience. Ils critiquent cette théorie, en utilisant une définition traditionnellement de la conscience impliquant un système neurobiologique et une expérience subjective, peu probable ? En tout cas difficile à démontrer au niveau cellulaire.

Des plantes conscientes ?
Poursuivant leurs réflexions, Frantisek Baluska et d’autres collègues ont proposé la théorie de l’IIT développée par Giulio Tononi comme cadre possible pour explorer la question d’une forme de « proto-conscience » chez les plantes.

Appliquer l’IIT aux plantes implique d’examiner comment les plantes perçoivent, intègrent et répondent à l’information dans leur environnement sans posséder de système nerveux central. Les plantes pourraient agir de manière consciente suivant l’IIT. Elles reçoivent et intègrent des signaux de diverses sources et y répondent de manière coordonnée grâce à un réseau de communication interne constitué de connexions cellulaires, de faisceaux vasculaires connectant toutes les parties de la plante notamment par des signaux électriques. Ils considèrent que ces caractéristiques et ces réseaux de communication hautement interconnectés pourraient correspondre à l’exigence d’intégration d’informations de l’IIT permettant aux plantes une réponse unifiée malgré l’absence d’un système nerveux centralisé. Bien que les auteurs considèrent qu’il ne s’agisse que d’un niveau de conscience minimale, ces données ont bien sûr été immédiatement récusées.

Les principaux arguments opposés sont que les théories de la conscience sont basées sur l’existence de neurones et l’impossibilité de prouver que les plantes aient une expérience subjective de leur environnement. L’IIT autorisant de plus la conscience dans divers systèmes non vivants, elle ne serait pas suffisante pour prouver la conscience des plantes. Même si cette hypothèse reste spéculative et nécessite certainement davantage de recherche pour mieux comprendre la relation entre la complexité biologique et la conscience, l’idée que les plantes puissent être étudiées à l’aide de la théorie de l’IIT pourrait permettre d’explorer d’autres formes de traitement de l’information dans des systèmes biologiques, qu’ils soient ou non dotés de cerveaux. Il n’est par contre pas certain que ces approches aident les tenants de l’IIT, celle-ci ayant été récemment controversée, et qualifiée de « pseudoscience non testable » dans une lettre rédigée par 124 neuroscientifiques.

À notre connaissance aucune tentative de démonstration d’une autre théorie de la conscience n’a été tentée sur des organismes sans cerveau. Par contre, faisant suite aux travaux de Claude Bernard qui indiquait, dès 1878, « Ce qui est vivant doit sentir et peut être anesthésié, le reste est mort », différentes équipes dont la nôtre, se sont intéressées aux effets des anesthésiques, un des outils importants de l’étude de la neurobiologie de la conscience, sur des organismes sans cerveau.

La théorie de la conscience cellulaire, tout comme l’exploration de la théorie de l’IIT chez des organismes sans neurones peuvent apparaître provocantes, elles offrent cependant une perspective fascinante et ouvrent de nouvelles voies pour comprendre les fondements de la conscience et l’émergence des comportements dans le règne vivant. Tout comme l’attribution progressive d’une conscience à des groupes d’animaux de plus en plus éloignés des humains dans l’arbre phylogénétique, qui relancent et étendent une épineuse question philosophique et scientifique.

Ces réflexions ouvrent évidemment aussi de nombreux questionnements éthiques concernant les organismes non humains et, bien sûr, les machines connectées à des intelligences artificielles, qui pourraient s’inscrire dans un continuum de conscience. De nombreux outils et protocoles sont encore à développer pour tester ce qui reste des hypothèses et, pourquoi pas, envisager une collaboration adversariale sur la conscience sans cerveau.

Sciences-IA: Moins c’est compris plus c’est apprécié !

Sciences-IA: Moins c’est compris plus c’est apprécié !

Les personnes les moins familiarisées avec les concepts derrière les systèmes d’IA considèrent souvent cette technologie comme « magique »… et fascinante. L’intelligence artificielle se répand, mais nombre de gens se demandent : qui est le plus susceptible d’adopter l’IA dans sa vie quotidienne ? Nombreux sont ceux qui pensent que ce sont les férus de technologies — qui comprennent le fonctionnement de l’intelligence artificielle — qui sont les plus désireux de l’adopter. Étonnamment, notre nouvelle étude, publiée dans le Journal of Marketing, révèle le contraire. Les personnes avec moins de connaissances sur l’IA sont en fait plus ouvertes à l’utilisation de cette technologie. Nous appelons cette différence d’appétence à adopter cette nouvelle technologie « faible niveau de littératie — forte réceptivité ».

 

par

Chiara Longoni
Associate Professor, Marketing and Social Science, Bocconi University

Gil Appel
Assistant Professor of Marketing, School of Business, George Washington University

Stephanie Tully
Associate Professor of Marketing, USC Marshall School of Business, University of Southern California

Ce lien se retrouve dans différents groupes, contextes et pays. Par exemple, les données de la société Ipsos, couvrant 27 pays, révèlent que les habitants des pays où le niveau moyen de connaissances en matière d’IA est plus faible sont plus réceptifs à l’adoption de l’IA, que ceux des pays où le niveau de connaissances est plus élevé.

De même, notre enquête auprès d’étudiants américains de premier cycle révèle que ceux qui ont une compréhension moindre de l’IA sont plus susceptibles d’indiquer qu’ils l’utiliseraient pour des tâches telles que des devoirs universitaires.

Nous pensons que ce lien contrintuitif entre niveau de littératie et appétence vient de la façon dont l’IA accomplit désormais des tâches que l’on pensait autrefois réservées aux humains : lorsque l’IA crée une œuvre d’art, écrit une réponse sincère ou joue d’un instrument de musique, cela peut sembler presque magique, comme si elle pénétrait en territoire humain.

Bien sûr, l’IA ne possède pas réellement ces qualités humaines. Un chatbot peut générer une réponse empathique, mais il ne ressent pas d’empathie. Les personnes ayant des connaissances plus techniques sur l’IA le comprennent.

Ils savent comment fonctionnent les algorithmes (ensembles de règles mathématiques utilisées par les ordinateurs pour effectuer des tâches particulières), les données d’apprentissage (utilisées pour améliorer le fonctionnement d’un système d’IA) et les modèles de calcul. Pour eux, la technologie est moins mystérieuse.

Pour ceux en revanche qui comprennent moins bien le fonctionnement des systèmes d’IA, elle peut apparaître comme quelque chose de magique et d’impressionnant. Nous pensons que c’est ce sentiment de magie qui rend ces utilisateurs plus ouverts à l’utilisation des outils d’IA.

De plus, nos études montrent que le lien entre faible niveau de connaissances et forte appétence est plus fort pour l’utilisation d’outils d’IA dans des domaines que les gens associent à des traits humains, comme le soutien émotionnel ou le conseil.

Au contraire, lorsqu’il s’agit de tâches qui n’évoquent pas ces qualités humaines – par exemple, analyser les résultats de tests – le schéma s’inverse : les personnes ayant un niveau de connaissances plus élevé en matière d’IA sont plus réceptives à ces utilisations car elles se concentrent sur l’efficacité de l’IA plutôt que sur ses qualités « magiques ».

Les chercheurs ont mené des enquêtes auprès de différents groupes, y compris des étudiants de premier cycle.
Notre rapport à l’IA n’est pas une question de capacité, de peur ou d’éthique
Il est intéressant de noter que, bien que les personnes ayant un faible niveau de littératie en IA soient plus susceptibles de considérer l’IA comme moins performante, moins éthique et même un peu effrayante, ce lien entre un faible niveau de littératie numérique et une plus grande réceptivité persiste. Leur appétence pour l’IA semble découler de leur émerveillement face à ces capacités, alors qu’ils en perçoivent bien les inconvénients.

Cette découverte offre de nouvelles perspectives sur les raisons pour lesquelles les gens réagissent si différemment aux technologies émergentes. En effet, certaines études suggèrent que certains consommateurs sont favorables aux nouvelles technologies, un phénomène appelé « appréciation des algorithmes », tandis que d’autres font état d’un scepticisme, ou « aversion pour les algorithmes ». Nos recherches indiquent que la perception de la « magie » de l’IA est un facteur clé qui façonne ces réactions.

Ces conclusions posent un défi aux décideurs politiques et aux éducateurs. Les efforts visant à améliorer la compréhension de l’IA pourraient – involontairement — freiner l’enthousiasme des gens à utiliser l’IA en la rendant moins magique. Cela crée un équilibre délicat entre aider les gens à comprendre l’IA et les garder ouverts à son adoption.

Pour tirer parti du potentiel de l’IA, les entreprises, les éducateurs et les décideurs politiques doivent trouver cet équilibre. En comprenant comment la perception de l’IA comme une technologie « magique » façonne l’appétence du grand public pour l’IA, nous pouvons contribuer à développer et déployer des nouveaux produits et services qui tiennent compte de la façon dont les gens perçoivent l’IA — et les aider à comprendre les avantages et les risques de l’IA.

Et idéalement, cela se fera sans entraîner une perte de l’émerveillement qui incite de nombreuses personnes à adopter cette nouvelle technologie

Fusion Nucléaire : expérience réussie pendant 22 minutes

Fusion Nucléaire : expérience réussie pendant 22 minutes

 

Des scientifiques ont franchi un «jalon» sur la voie de la fusion nucléaire en maintenant un plasma pendant plus de 22 minutes, un record, dans le réacteur opéré par le CEA à Cadarache (Bouches-du-Rhône), a annoncé l’organisme mardi. Promesse d’une énergie propre, sûre, peu coûteuse et quasi-inépuisable, la fusion nucléaire fait l’objet de recherches fondamentales depuis des décennies.

Elle consiste à reproduire les réactions qui se produisent au cœur des étoiles, en assemblant deux noyaux d’atomes dérivés de l’hydrogène. C’est le processus inverse de la fission, utilisée dans les centrales nucléaires actuelles, qui consiste à casser les liaisons de noyaux atomiques lourds. Provoquer cette fusion nécessite des températures d’au moins 100 millions de degrés Celsius afin de créer et confiner du plasma. Ce gaz chaud électriquement chargé a tendance à devenir instable, ce qui peut provoquer des pertes d’énergie et limiter l’efficacité de la réaction.

 

Les scientifiques doivent encore lever de nombreux «verrous technologiques» pour que la fusion thermonucléaire permette de «produire plus d’énergie qu’elle n’en consomme» ce qui n’est pas encore le cas, rappelle-t-elle.

L’objectif est de «préparer du mieux possible l’exploitation scientifique d’Iter», le projet de réacteur expérimental lancé en 1985 par l’Union européenne, la Chine, la Corée du Sud, les États-Unis, l’Inde, le Japon et la Russie, explique-t-elle. Initialement prévue pour 2025, la production du premier plasma d’Iter, confronté à des retards et surcoûts considérables, a été reportée cet été à au moins 2033.

Vers l’ère de la robotique ?

Vers l’ère de la robotique ?
par 

Jean Ponce

professeur d’informatique à l’Ecole normale supérieure – PSL

Isabelle Ryl

professeure d’informatique, en détachement à l’université PSL

Alors que s’ouvre l’ère des robots, la France, pas forcément leader sur tous les aspects du secteur, est en revanche très bien placée sur le logiciel, estiment Jean Ponce et Isabelle Ryl, dans leur Carte blanche au « Monde ».

La France va accueillir, début février, le Sommet pour l’action sur l’intelligence artificielle, qui réunira des experts venus du monde entier : la gouvernance internationale, l’éthique, l’inclusivité seront sans nul doute au premier rang des débats. Pour la recherche et l’innovation, l’IA générative et sa maîtrise par la France seront au cœur des discussions. Mais quid de la prochaine vague ? La prospective est toujours délicate mais la décennie qui s’ouvre pourrait être celle de la robotique !

Nous admirions déjà en 2023 les plateformes telles qu’Atlas, mais regrettions qu’en pratique, l’usage des robots reste majoritairement confiné à des tâches répétitives le long de lignes d’assemblage. Or, la situation évolue rapidement : après un apprentissage sur un jeu de données de plus de dix mille heures de vidéo, le robot π0 de la société Physical Intelligence plie aujourd’hui du linge (presque) aussi bien qu’une personne, ce qui a convaincu des géants de la tech comme Jeff Bezos et Open AI d’investir 400 millions de dollars.

Un facteur déterminant des progrès récents a été l’arrivée sur le marché d’une nouvelle génération de plateformes robotiques : les fameux robots Atlas et Spot de Boston Dynamics sont concurrencés depuis 2022 par les très impressionnants modèles low cost de Unitree, d’abord avec le quadrupède Go1 qui offre, pour 2 700 dollars, des performances comparables à celles de Spot pour un prix 25 fois inférieur, puis en 2024 avec le petit humanoïde (1,27 mètre, 47 kilos) ….

Espace : Succès pour la fusée de Jeff Bezos et échec de Musk

Espace : Succès pour la fusée de Jeff Bezos  et échec de Musk

Dans le cadre d’un essai, la fusée de Space X de Musk a perdu son deuxième étage là où  doivent se trouver les astronautes . Parallèlement par contre c’est un succès pour la fusée de Jeep Bezos.

L’entreprise SpaceX d’Elon Musk a perdu jeudi 16 janvier tout contact avec le second étage de sa mégafusée Starship lors d’un nouveau vol d’essai au cours duquel elle a toutefois réussi la complexe manœuvre de rattrapage du premier étage, une prouesse. Ce vol test devait être une démonstration de force pour SpaceX, quelques heures après le succès signé par Blue Origin, l’entreprise spatiale du fondateur d’Amazon Jeff Bezos, qui a mené son premier vol en orbite.

L’intelligence artificielle au niveau de l’humain pour l’instant ?

L’intelligence artificielle au niveau de l’humain pour l’instant  ?

Le 20 décembre 2024, le système o3 d’OpenAI a obtenu 85 % au test de référence ARC-AGI, ce qui est nettement supérieur au meilleur résultat obtenu par l’IA précédente (55 %) et équivalent aux résultats humains moyens. o3 a également obtenu de bons résultats à un test de mathématiques très difficile. Créer une intelligence artificielle « générale » est l’objectif déclaré de tous les grands laboratoires de recherche sur l’IA. L’annonce récente d’OpenAI semble indiquer que l’entreprise vient d’accomplir une prouesse dans cette direction. (ndlt : L’abréviation francophone d’« intelligence artificielle générale » est « IAG » mais ce sigle est parfois utilisé pour parler d’intelligence artificielle générative, qui est une famille particulière de systèmes d’intelligence artificielle, exploitant notamment l’apprentissage profond, et dont ChatGPT est le membre le plus médiatique.Même si un certain scepticisme est de mise, de nombreux chercheurs et développeurs en IA ont le sentiment que les lignes sont en train de bouger : la possibilité d’une intelligence artificielle générale semble plus tangible, plus actuelle qu’ils et elles ne le pensaient jusqu’à présent. Qu’en est-il ? Tentons de décrypter cette annonce.

 

par , PhD Student, School of Computing, Australian National University

 , Research Fellow, Stanford Center for Responsible Quantum Technology, Stanford University dans The Conversation 

Pour comprendre ce que signifie le résultat obtenu par o3 d’OpenAI, il faut se pencher sur la nature du test ARC-AGI qu’o3 a passé.

Il s’agit d’un test évaluant la « sample efficiency » d’un système d’IA (ndlt : parfois traduit par « efficacité en données »), c’est-à-dire sa capacité à s’adapter une situation nouvelle, ou, en termes plus techniques, la capacité d’un modèle de machine learning à obtenir des bonnes performances avec un apprentissage basé sur peu de données.

En effet, l’apprentissage de ces modèles est normalement basé sur de très grands ensembles de données, ce qui les rend coûteux à entraîner. Un système d’IA comme ChatGPT (GPT-4) n’est pas très « efficace en données » : il a été entraîné sur des millions d’exemples de textes humains, d’où il a tiré des règles probabilistes qui lui dictent les suites les plus probables de mots. Cette méthode est efficace pour générer des textes généralistes ou d’autres tâches « courantes » ; mais dans le cas de tâches peu courantes ou plus spécialisées, le système est moins performant car il dispose de peu de données pour chacune de ces tâches.

Les systèmes d’IA comme ChatGPT sont très efficaces pour des tâches généralistes, comme les recettes de cuisine, mais ne sont pas adaptés aux situations spécialisées, faute de données pour les entraîner suffisamment. Bianca De Marchi/AAP

Tant que les systèmes d’IA ne pourront pas apprendre à partir d’un petit nombre d’exemples (d’un petit ensemble de données) — c’est-à-dire démontrer une certaine « efficacité en données » —, ils ne pourront pas s’adapter aux situations plus rares, ils ne seront utilisés que pour les tâches très répétitives et celles pour lesquelles un échec occasionnel est tolérable.

La capacité à résoudre avec précision des problèmes inconnus ou nouveaux à partir de peu de données s’appelle la « capacité de généralisation ». Elle est considérée comme un élément nécessaire, voire fondamental, de l’intelligence.

C’est pour cela que le test de référence ARC-AGI, qui évalue l’intelligence « générale », utilise de petits problèmes de grilles comme celui présenté ci-dessous. À partir d’un nombre très restreint d’exemples, la personne ou l’IA testée doit trouver le modèle qui transforme la grille de gauche en la grille de droite. C’est bien l’« efficacité en données » qui est évaluée ici.

Chaque exercice commence par fournir trois exemples, desquels il faut extraire des règles, qui « généralisent » les trois exemples… et permettent de résoudre le quatrième.

Cela ressemble beaucoup à des tests de QI.

Nous ne savons pas exactement comment OpenAI a procédé, mais les résultats mêmes du test suggèrent que le modèle o3 est très adaptable : à partir de quelques exemples seulement, il a trouvé des règles généralisables qui lui ont permis de résoudre les exercices.

Pour s’attaquer à ce type d’exercice, il faut trouver les règles nécessaires et suffisantes pour résoudre l’exercice, mais ne pas s’infliger de règles supplémentaires, qui seraient à la fois inutiles et contraignantes. On peut démontrer mathématiquement que ces règles minimales sont la clef pour maximiser sa capacité d’adaptation à de nouvelles situations.

Qu’entendons-nous par « règles minimales » ? La définition technique est compliquée, mais les règles minimales sont généralement celles qui peuvent être décrites dans des énoncés plus simples.

Dans l’exemple ci-dessus, la règle pourrait être exprimée ainsi : « Toute forme comportant une ligne saillante se déplacera jusqu’à l’extrémité de cette ligne et recouvrira toutes les autres formes avec lesquelles elle se chevauchera dans sa nouvelle position ».

Bien que nous ne sachions pas encore comment OpenAI est parvenu à ce résultat, il semble peu probable que les ingénieurs aient délibérément optimisé le système o3 pour trouver des règles minimales — mais o3 a bien dû trouver ces règles.

Nous savons qu’OpenAI a commencé par leur version générique du modèle o3 (qui diffère de la plupart des autres grands modèles de langage, car il peut passer plus de temps à « réfléchir » à des questions difficiles) et l’a ensuite entraîné spécifiquement pour passer le test ARC-AGI.

Le chercheur français en IA François Chollet, qui a conçu le test de référence (ndlt : et qui travaillait chez Google jusqu’à récemment), estime qu’o3 recherche différentes « chaînes de pensée » décrivant les étapes à suivre pour résoudre la tâche. (ndlt : Une « chaîne de pensée » est une stratégie exploitée en IA, qui mimique une stratégie humaine consistant à décomposer un problème complexe en petites unités plus simples, amenant pas à pas à une solution globale.)

o3 choisirait ensuite la « meilleure » chaîne de pensée en fonction d’une règle définie de façon relativement pragmatique et vague, dans une approche « heuristique ».

Cette stratégie ne serait pas très différente de celle utilisée par le système AlphaGo de Google pour chercher différentes séquences de mouvements possibles à même de battre le champion du monde de go en 2016.

 

On peut considérer ces chaînes de pensée comme des programmes qui sont adaptés aux exemples et permettent de les résoudre. Bien sûr, si o3 exploite bien une méthode similaire à celle utilisée dans AlphaGo, il a fallu fournir à o3 une heuristique, ou règle souple, pour lui permettre de déterminer quel programme était le meilleur. Car des milliers de programmes différents, apparemment aussi valables les uns que les autres, pourraient être générés pour tenter de résoudre les trois exemples. On pourrait imaginer une heuristique qui « sélectionne le programme minimal » ou bien qui « sélectionne le programme le plus simple ».

Toutefois, s’il s’agit d’un mécanisme similaire à celui d’AlphaGo, il suffit de demander à une IA de créer une heuristique. C’est ce qui s’est passé pour AlphaGo : Google a entraîné un modèle à évaluer différentes séquences de mouvements comme étant meilleures ou pires que d’autres.

La question qui se pose donc est la suivante : est-on vraiment plus proche de l’intelligence artificielle générale ? Si o3 fonctionne comme on vient de le décrire, le modèle sous-jacent n’est peut-être pas beaucoup plus performant que les modèles précédents.

Les concepts que le modèle apprend de données textuelles (ou plus généralement du langage humain) ne permettent peut-être pas davantage de généralisation qu’auparavant. Au lieu de cela, nous pourrions simplement être en présence d’une « chaîne de pensée » plus généralisable, découverte grâce aux étapes supplémentaires d’entraînement d’une heuristique spécialisée pour le test en question aujourd’hui.

On y verra plus clair, comme toujours, avec davantage de recul et d’expérience autour de o3.

En effet, on ignore presque tout au sujet de ce système : OpenAI a fait des présentations aux médias assez limitées, et les premiers tests ont été réservés à une poignée de chercheurs, de laboratoires et d’institutions spécialisées dans la sécurité de l’IA.

Pour évaluer le véritable potentiel d’o3, il va falloir un travail approfondi, notamment pour déterminer à quelle fréquence il échoue et réussit.

C’est seulement quand o3 sera réellement rendu public que nous saurons s’il est à peu près aussi adaptable qu’un humain moyen.

Si c’est le cas, il pourrait avoir un impact économique énorme et révolutionnaire, et ouvrir la voie à une nouvelle ère d’intelligence artificielle, capable de s’améliorer d’elle-même. Nous aurons besoin de nouveaux critères pour évaluer l’intelligence artificielle générale elle-même, et d’une réflexion sérieuse sur la manière dont elle devrait être gouvernée.

Si ce n’est pas le cas, o3 et son résultat au test ARC-AGI resteront un résultat impressionnant, mais nos vies quotidiennes resteront sensiblement les mêmes.

Sciences et société : « L’IA va tuer l’école ! »

Sciences: « L’IA va tuer l’école ! »

 Bientôt, je serai un jeune juriste prêt à entrer dans un monde du travail radicalement transformé. Alors que je termine mes études, une question m’obsède : que restera-t-il à faire dans un monde où l’IA surpassera bientôt les meilleurs experts ?
Par Alexandre Tsicopoulos, étudiant en droit dans La Tribune

Elon Musk lui-même a prédit qu’en 2028, l’IA dépassera l’intelligence cumulée des 8 milliards d’humains. Dario Amodei, le créateur d’Anthropic et principal concurrent d’OpenAI, résume cette révolution : « L’IA sera prochainement plus intelligente que les prix Nobel. Nous aurons une nation de génie concentrée dans un data center. »  Les modèles comme GPT-4 ou Claude 3.5 surpassent les étudiants dans la plupart des tests académiques. Avec un QI de 120, GPT-4 est déjà plus intelligent que 90 % des Français et cette IA gagne chaque mois 2 points de QI. Pourtant, l’école s’obstine à former aux métiers d’hier, rendant les connaissances obsolètes avant même la remise des diplômes. La supériorité de GPT-4 sur les médecins est troublante. Une étude de l’université de Stanford montre que l’IA obtient 90 % de bons diagnostics médicaux, tandis que les médecins plafonnent à 74 %. L’arrivée au pouvoir du couple Donald Trump-Elon Musk va encore accélérer cette cavalcade technologique.

Face à la certitude d’un dépassement imminent de l’intelligence humaine par l’IA, l’école telle que je l’ai connue doit se réinventer. Mes compétences, que je pensais uniques, peuvent désormais être automatisées. Institution ancestrale, l’école peine à réduire les inégalités intellectuelles et à adapter la nouvelle génération à un monde dominé par l’IA. En effet, elle n’a pas d’impact significatif sur les capacités intellectuelles des élèves, qui restent hélas majoritairement déterminées par des facteurs génétiques. Dans une économie de la connaissance, où l’intelligence est la clé de tous les pouvoirs, les différences cognitives expliquent l’essentiel des disparités de réussite entre les individus.

À l’heure des cerveaux en silicium, l’urgence est d’éviter la dystopie décrite par Yuval Harari : un monde scindé entre des dieux maîtrisant l’IA et des inutiles laissés pour compte. Les résultats de l’étude sur le revenu universel financée par Sam Altman, le patron d’OpenAI, renforcent cette inquiétude. Cette expérimentation menée dans l’espoir de trouver une solution face à l’automatisation de nombreux métiers a donné des résultats angoissants : le revenu universel augmente quatre choses : la consommation d’antidépresseurs, d’hypnotiques, d’anxiolytiques et d’alcool. Cet échec cinglant nous oblige à explorer de nouvelles pistes. La seule issue résidera dans l’augmentation des capacités cognitives humaines.

De Gaulle écrivait en 1934 : « Derrière chaque victoire d’Alexandre le Grand, il y a toujours Aristote », pour souligner l’influence majeure du philosophe grec sur son illustre élève. Demain, chaque élève sera accompagné par un « Aristote numérique » capable de personnaliser l’éducation selon ses aptitudes neurobiologiques. Mais cela ne suffira pas. L’école du futur devra augmenter les cerveaux biologiques grâce aux NBIC (nanotechnologies, biotechnologies, informatique et sciences cognitives).
La neuroaugmentation est désormais incontournable pour rester compétitif dans un monde ultra complexe façonné par l’IA. Aux États-Unis, la start-up Heliospect Genomics propose des tests génétiques permettant aux parents de sélectionner leurs embryons les plus susceptibles de développer un haut quotient intellectuel. Une majorité des Chinois et 38 % des Américains souhaitent augmenter le QI de leurs bébés grâce à ces technologies. Avec les implants intracérébraux Neuralink, Elon Musk explore une autre voie pour augmenter l’intelligence humaine. Après la sortie de GPT-4, il s’était lamenté : « Que restera-t-il à faire pour nous, les humains ? Nous ferions mieux de passer à autre chose avec Neuralink ! » Elon Musk affirme qu’il implantera Neuralink dans le cerveau de ses propres enfants puisque « la révolution de l’IA rend le cerveau humain obsolète. »
L’homme le plus riche du monde a promis que les implants Neuralink coûteront bientôt le prix d’une Apple Watch et seront implantés par ses robots neurochirurgiens en 10 minutes. En tant que futur professionnel, je fais partie de l’une des dernières générations de « bébés-loterie », où nos capacités intellectuelles dépendent du hasard génétique. Dans un monde où certains choisiront d’améliorer leur intelligence, vais-je pouvoir rester compétitif ? Que deviendra un juriste qui refuse ces technologies, alors que d’autres embrassent cette révolution ? Cependant, une question reste centrale : serons-nous prêts à accepter cette transformation sans sacrifier l’humanité qui définit notre essence ?

La révolution éducative ne se limitera pas à la transmission des savoirs. L’éducation deviendra une institution médico-technologique, mobilisant neurosciences et bio-ingénierie pour optimiser l’apprentissage et remodeler les capacités cognitives. L’enjeu ne sera plus seulement de rivaliser avec les machines, mais de s’unir avec elles. Dans cette symbiose Homme-IA construite par la Silicon Valley, seuls les esprits augmentés pourront véritablement prospérer et s’épanouir.

Pour moi, jeune étudiant en droit, cette transition vers un monde où la fabrication de l’intelligence sera mécanisée n’est pas seulement un défi technologique ou professionnel. C’est une remise en question existentielle. Dans un monde où l’intelligence sera produite industriellement, il faudra redéfinir ce que signifie être humain. Ce sera peut-être la principale mission de l’école du futur.

Recherche : pour une démarche davantage interdisciplinaire

Recherche : pour une démarche davantage interdisciplinaire

Les disciplines que sont les sciences du vivant, la sociologie et l’économie développent chacune leur savoir-faire et leur efficacité sur une facette du monde. Leurs liens sont souvent teintés d’indifférence, voire envenimés, dans les milieux universitaires, par une compétition pour les ressources. Il en résulte que notre société apprend à loucher : le monde qui nous entoure est unique, mais nous en construisons des visions indépendantes et porteuses de prédictions parfois contradictoires… donc en partie fallacieuses.
Les chercheurs Bernard Lahire, Arnaud Orain et Marc-André Selosse proposent, dans une tribune au « Monde »,de  rendre les formations plus interdisciplinaires. 

 

De nombreux auteurs ont observé que nos sociétés avaient oublié qu’elles faisaient partie intégrante du vivant, ce qui explique les crises environnementales et sanitaires qu’elles traversent. Or, l’interdisciplinarité entre économie, sociologie et sciences du vivant offrirait une image beaucoup plus nette de ce que nous sommes et de notre avenir.

Les biologistes découvrent que l’information génétique se transmet entre organismes qui coexistent. On pensait qu’elle se transmettait surtout des parents aux enfants : voilà qu’on démontre que des fragments d’ADN passent, par des mécanismes divers, d’un être vivant à l’autre, y compris d’espèces différentes. Mais, si les biologistes s’étaient intéressés à l’information culturelle, une autre information portée par le vivant, qui vient des parents et circule aussi entre individus, cela aurait-il été aussi inattendu ? La biologie doit prendre en main l’humanité comme source d’inspiration.

Les économistes mainstream intègrent l’environnement dans leurs modèles par le biais des prix et des services que rendrait la nature à la production de richesses et au climat. En s’intéressant aux sciences du vivant, ils apprendraient qu’il est impossible de dissocier un prétendu service rendu par telle ou telle entité non humaine, car de leurs interactions naissent des résultats supérieurs à la somme de ce qu’on leur attribue individuellement. Exemple, il est impossible de séparer les effets pollinisateurs des abeilles de l’action d’innombrables insectes, vers et autres micro-organismes des sols.

Il en va de même pour les forêts.

Trous de mémoire: le mécanisme

Trous de mémoire: le mécanisme

 

On a tous connu cette situation : on discute avec quelqu’un, on cherche un mot, un nom, un titre, et… rien ! On sait qu’on le connaît, on peut presque le sentir, mais impossible de le sortir. C’est ce qu’on appelle avoir un mot « sur le bout de la langue ». C’est un moment à la fois intrigant et frustrant. Mais que se passe-t-il exactement dans notre cerveau quand cela arrive ? Des chercheurs se sont penchés sur cette question et ont fait des découvertes fascinantes.

 

par 

Maître de conférences en neuropsychologie, Université de Strasbourg dans The Conversation

 

Lorsqu’on a un mot sur le bout de la langue, plusieurs parties de notre cerveau se mettent à travailler pour essayer de retrouver ce mot perdu. Imaginez un groupe de personnes qui fouillent frénétiquement dans une bibliothèque à la recherche d’un livre bien précis. Le cerveau fait quelque chose de similaire, et des zones particulières prennent part à cette recherche. Parmi elles, trois jouent un rôle essentiel : le cortex cingulaire antérieur, le cortex préfrontal, et l’insula.

Le cortex cingulaire antérieur et le cortex préfrontal font partie d’un réseau impliqué dans le contrôle cognitif et jouent des rôles complémentaires au moment où l’on a un mot sur le bout de la langue. Le cortex cingulaire antérieur est comme un superviseur. Il nous aide à détecter et à gérer le « conflit » qui se produit quand on sait qu’on connaît un mot mais qu’on n’arrive pas à le retrouver.

C’est un peu comme une alerte qui dit : « Attention, je sais que je sais ce mot ! » De son côté, le cortex préfrontal joue un rôle important dans l’évaluation et la vérification des informations qui nous viennent à l’esprit pendant la recherche du mot. Il permet de s’assurer que les éléments récupérés sont bien ceux que nous cherchons. Enfin, l’insula est une partie plus cachée du cerveau impliquée notamment dans la récupération phonologique, c’est-à-dire dans la tentative d’accès aux combinaisons de sons qui composent les mots.

Les chercheurs ont utilisé des techniques comme l’imagerie par résonance magnétique fonctionnelle (IRMf) pour voir ce qui se passe dans le cerveau pendant ces moments. On peut imaginer que ces trois parties du cerveau collaborent pour essayer de retrouver le mot manquant, comme des collègues qui se soutiennent dans une enquête difficile.

Cependant, les chercheurs ont aussi observé que ce phénomène devient de plus en plus fréquent avec l’âge. Pourquoi ? Parce que certaines parties du cerveau, notamment le cortex cingulaire antérieur et l’insula, ont tendance à s’atrophier en vieillissant. Cela signifie qu’elles deviennent un peu moins efficaces. Comme si, avec le temps, la bibliothèque dans laquelle on cherche des livres devenait un peu plus désorganisée, avec des rayons moins bien rangés et des références qui se perdent. Du coup, retrouver le « livre » ou le « mot » devient plus difficile.

Les études ont également montré que chez les personnes âgées, l’insula est moins activée quand elles essaient de retrouver un mot. C’est un peu comme si cette partie du cerveau, qui devrait normalement rassembler les sons, n’arrivait plus à faire son travail aussi bien qu’avant. Cela explique pourquoi les « mots sur le bout de la langue » sont plus fréquents avec l’âge. Plus l’insula est affectée par le vieillissement, plus il devient difficile de récupérer ces mots que l’on connaît pourtant très bien.

Malgré la fréquence accrue des mots sur le bout de la langue en vieillissant, ce phénomène est tout à fait normal. C’est une partie intégrante de notre façon de fonctionner. Cela montre simplement que notre cerveau est très complexe, et que parfois, des processus qui semblent évidents, comme trouver un mot, sont en fait le résultat de l’action coordonnée de nombreuses régions du cerveau.

De plus, il faut savoir qu’il existe des leviers pour atténuer ces effets de l’âge, par exemple ce que l’on appelle la « réserve cognitive » (un facteur protecteur modulé par les activités intellectuelles et physiques ou les interactions sociales par exemple) qui permet d’optimiser son vieillissement cérébral et cognitif.

Alors, la prochaine fois que vous avez un mot sur le bout de la langue, rappelez-vous que votre cerveau est en pleine ébullition pour retrouver cette information. Si des informations partielles (certains sons, un mot associé, etc.) vous viennent à l’esprit, cela vous invite à poursuivre la recherche pour trouver ce mot qui vous échappe. Et si le mot tarde à venir, il ne faut pas hésiter à faire une pause pour refaire plus tard un essai « à tête reposée ». Tout ceci reflète la complexité et l’efficacité de notre cerveau !

Les mécanismes de la mémoire

Les mécanismes de la mémoire

Certains apprentissages, de la grammaire au vélo, nous suivent toute notre vie. D’autres notions, acquises pour un devoir sur table ou un examen, finissent par s’évaporer très vite, une fois l’échéance passée. Comment l’expliquer ? Et comment ancrer les savoirs dans nos mémoires ? Tata Noelia, j’ai une question : puisque mon corps se muscle si je fais beaucoup de sport, est-ce que mon cerveau grossira si j’étudie beaucoup ? Est-ce parce que je n’ai plus de place dans mon cerveau que j’oublie ce que j’apprends à l’école ? C’est le genre de question que peut poser un enfant, à l’instar de ma nièce qui a déjà l’intuition que la mémoire réside d’une manière ou d’une autre dans le cerveau. Qui ne s’est pas déjà demandé où et comment sont stockées les choses que l’on apprend ? Ou pourquoi on oublie l’essentiel de ce qu’on étudie ? Apprendre, mémoriser et se souvenir Apprendre consiste à acquérir une nouvelle information ou un nouveau savoir-faire par l’observation, la pratique ou l’enseignement. La mémorisation, qui désigne le stockage et l’utilisation de cette information ou expérience, s’obtient par la répétition. Se souvenir, c’est être capable d’accéder à l’information stockée et de la reconstruire.

 

par , Profesora de Fisiología, Universidad Francisco de Vitoria dans The Conversation 

On peut apprendre quelque chose de nouveau et le mémoriser de façon à s’en souvenir à jamais, comme faire du vélo ou mettre une majuscule au début des noms propres, mais on peut aussi apprendre quelque chose et l’oublier peu de temps après, comme le calcul d’une racine carrée ou les noms des capitales asiatiques.

Depuis quelques années, le rôle de la mémorisation, technique traditionnelle d’apprentissage, est au cœur des débats et de la recherche scientifique. Mais quand les professeurs que nous sommes parlent d’apprentissage profond, ce qui nous mobilise, en réalité, c’est l’acquisition d’une mémoire à long terme, par opposition à la mémoire à court terme, concernant ce qu’on oublie vite, comme le code que l’on ne retient que le temps de confirmer un virement via une appli, ou les réponses à un examen qu’on a révisé la veille.

La mémoire est un processus en quatre étapes : l’encodage, la consolidation, la récupération et l’oubli. Chacune de ces phases est marquée par des changements physiques dans des groupes de neurones que l’on appelle « engrammes ». On suppose que ce sont eux qui laissent des traces physiques de la mémoire dans notre cerveau.

Toute nouvelle expérience provoque une stimulation coordonnée de groupes de neurones précis (encodage). S’ils sont à nouveau stimulés, ces neurones génèrent des souvenirs ténus, très sensibles aux interférences, qui se perdent vite à moins d’être entretenus.

La deuxième phase de la mémoire est rendue possible par la plasticité neuronale. La transformation de ce souvenir fragile (à court terme) en souvenir persistant à long terme requiert des changements structuraux et des réorganisations dans les engrammes (consolidation). Ces changements culminent avec la formation de synapses supplémentaires (connexion chimique) entre les neurones coactivés au moment de l’apprentissage. C’est ce qui permet la survie de l’information en vue d’un futur rappel.

Le facteur dont dépend la réalisation de cette connexion synaptique, c’est la répétition. La répétition d’activités ou l’évocation de concepts provoque l’activation des engrammes le temps nécessaire au développement de nouvelles synapses.

Curieusement, les représentations répétées d’un événement d’apprentissage qui se produisent pendant le sommeil entraînent l’activation spontanée des engrammes. D’où l’idée que le sommeil renforce la mémoire.

Les nouvelles synapses qui forment la mémoire à long terme perdurent même lorsqu’elles ne sont plus utilisées. C’est ce phénomène qui rend possible la récupération du souvenir. Ce rappel est d’autant plus efficace que le contexte de récupération coïncide avec celui qui a provoqué l’encodage et la consolidation, car lors de cette phase le cerveau doit retrouver les mêmes schémas d’activité neuronale que ceux de l’apprentissage initial.

 

Quant à la dernière phase dans l’acquisition de la mémoire, il s’agit de… l’oubli. Le renforcement de certains engrammes au moment de la consolidation d’un souvenir implique nécessairement l’élimination d’autres souvenirs (pour « faire de la place » dans le cerveau). Cet oubli se produit grâce à l’affaiblissement de circuits existants, l’occupation de l’espace synaptique par les nouveaux processus de neurogenèse, et même l’élimination de synapses par des cellules spécialisées du cerveau.

Des expériences récentes ont montré que la plasticité inhibitrice (l’élimination de certains circuits pour en créer de nouveaux) lors de la consolidation du souvenir conditionne la sélectivité des circuits d’engrammes, qui « conservent » un souvenir concret.

Dans son livre ¿Cómo aprendemos ? Una aproximación científica al aprendizaje y la enseñanza (en français Comment apprenons-nous ? Une perspective scientifique sur l’apprentissage et l’enseignement), Héctor Ruiz nous donne quelques conseils.

Premièrement, il est plus facile d’engranger de nouvelles connaissances si on les relie à des connaissances stockées antérieurement (engrammes activés).

Deuxièmement, on mémorise mieux des informations qui font l’objet de raisonnements. Voir ou écouter une chose plusieurs fois ne signifie pas qu’on va s’en rappeler. Mais si on réfléchit à cette chose, notre capacité à la mémoriser augmente (consolidation des engrammes).

Troisièmement, il est important d’approfondir l’objet de l’apprentissage, c’est-à-dire de réfléchir à la même idée dans différents contextes, de manière à faciliter la récupération ultérieure.

Tout cela doit se traduire par un enseignement actif permettant aux étudiants d’appliquer, d’interpréter, d’évaluer ou d’expliquer la connaissance en question pour lui donner un sens, et donc de pratiquer la répétition, ce qui active les engrammes jusqu’à vingt fois plus que l’apprentissage initial.

À l’inverse, étudier juste avant un examen ne génère vraisemblablement aucune trace durable dans notre cerveau.


Traduit de l’espagnol par Métissa André for Fast ForWord

12345...15



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol