Archive pour le Tag 'Sciences'

Sciences : Refonder un système de formation efficace

Sciences : Refonder un système de formation efficace

La réforme du lycée général a cinq ans. Elle a remplacé l’organisation du lycée en séries par un système « au choix » qui impose un tronc commun auquel s’ajoutent trois spécialités à choisir parmi treize en 1re, réduites à deux en terminale. La réforme a entraîné une baisse massive de l’accès aux parcours scientifiques, particulièrement importante pour les filles. Elle est assortie d’une perte de polyvalence qui réduit d’autant les possibilités d’études supérieures.
Le Groupe de réflexion sur la formation scientifique, le collectif Math & Sciences s’inquiète, dans une tribune au « Monde », du net recul des nouvelles inscriptions en cycles d’ingénieurs, alors qu’il n’y a jamais eu autant de besoins
Malgré les alertes répétées sur les conséquences délétères de cette organisation, aucune correction systémique n’a été proposée. Le déficit de formation scientifique perdure donc au lycée alors que les besoins s’accroissent, en particulier dans les métiers exigeant un haut niveau de compétences scientifiques et technologiques.

L’étude de l’effet de la réduction massive de l’accès aux sciences au lycée sur les études supérieures devient cruciale pour évaluer la capacité du pays à relever les enjeux sociaux, environnementaux, technologiques et économiques actuels.

L’ampleur de ce décrochage rend indispensable une analyse des principales causes possibles. Entre 2020 et 2023, trois bouleversements peuvent être identifiés : la réforme du lycée, qui a entraîné la chute des effectifs de bacheliers scientifiques diplômés à partir de 2021 ; la transformation des DUT en BUT, qui concerne pour la première fois les bacheliers 2021 ; et la crise sanitaire de mars 2020 à juillet 2021.

Sciences: Comment le cerveau a-t-il évolué ?

Sciences: Comment le cerveau a-t-il évolué ?

La nature singulière et les capacités exceptionnelles du cerveau humain ne cessent de nous surprendre. Sa forme arrondie, son organisation complexe et sa longue maturation le distinguent du cerveau des autres primates actuels, et plus particulièrement des grands singes auxquels nous sommes directement apparentés. À quoi doit-on ses spécificités ? Puisque le cerveau ne fossilise pas, il faut chercher la réponse dans les os du crâne retrouvés sur les sites paléontologiques pour remonter le cours de l’histoire. La boîte crânienne renferme des empreintes du cerveau qui constituent de précieuses données sur les 7 millions d’années d’évolution de notre cerveau qui nous séparent de notre plus vieil ancêtre connu : Toumaï (Sahelanthropus tchadensis).

 

, Paléoanthropologue (CNRS), Université de Poitiers dans The Conversation 

Pendant la croissance, le cerveau et son contenant, le crâne, entretiennent un lien étroit et, par un processus de modelage et remodelage, l’os enregistre la position des sillons à la surface du cerveau qui délimitent les lobes et les aires cérébrales. À partir de ces empreintes, les paléoneurologues cherchent à reconstituer l’histoire évolutive de notre cerveau (par exemple, quand et comment les spécificités cérébrales humaines sont apparues ?), mais également à élaborer des hypothèses sur les capacités cognitives de nos ancêtres (par exemple, quand ont-il commencé à fabriquer des outils ?).

L’Afrique du Sud a joué un rôle central dans la recherche et la découverte d’indices sur les grandes étapes de l’évolution de notre cerveau. Les sites paléontologiques situés dans le « Berceau de l’Humanité », classé au patrimoine mondial par l’Unesco, sont particulièrement riches en fossiles piégés dans d’anciennes grottes dont les dépôts sont aujourd’hui exposés à la surface.

Parmi ces fossiles, on compte des spécimens emblématiques comme « l’enfant de Taung » (3-2,6 millions d’années), le tout premier fossile de la lignée humaine découvert sur le continent africain qui sera à l’origine du genre Australopithecus, ou « Little Foot » (3,7 millions d’années), le squelette le plus complet d’Australopithecus jamais mis au jour (50 % plus complet que celui de « Lucy » découvert en Éthiopie et daté à 3,2 millions d’années). Ces sites exceptionnels ont ainsi mené à la découverte de crânes relativement complets (par exemple « Mrs Ples » datée à 3,5-3,4 millions d’années), ainsi que de moulages internes naturels de crânes (par exemple celui de « l’enfant de Taung »), préservant des traces du cerveau de ces individus fossilisés qui ont été étudiés par des experts et ont servi de référence depuis des décennies.

Malgré la relative abondance et la préservation remarquable des spécimens fossiles sud-africains relativement aux sites contemporains est-africains, l’étude des empreintes cérébrales qu’ils conservent est limitée par la difficulté à déchiffrer et interpréter ces traces.

Devant ce constat, notre équipe constituée de paléontologues et de neuroscientifiques a cherché dans un premier temps à intégrer, dans l’étude des spécimens fossiles, les compétences techniques développées en imagerie et en informatique.

Nous avons alors mis en place le projet EndoMap, développé autour de la collaboration entre des équipes de recherche françaises et sud-africaines, dans le but de pousser plus loin l’exploration du cerveau en y associant des méthodes de visualisation et d’analyses virtuelles.

À partir de modèles numériques 3D de spécimens fossiles du « Berceau de l’Humanité » et d’un référentiel digital de crânes de primates actuels, nous avons développé et mis à disposition une base de données unique de cartographies pour localiser les principales différences et similitudes entre le cerveau de nos ancêtres et le nôtre. Ces cartographies reposent sur le principe d’atlas traditionnellement utilisé en neuroscience et ont permis à la fois une meilleure connaissance de la variabilité dans la distribution spatiale des sillons du cerveau humain actuel et l’identification des caractéristiques cérébrales chez les fossiles. En effet, certains désaccords scientifiques majeurs dans la discipline sont la conséquence de notre méconnaissance de la variation inter-individuelle, qui entraîne une surinterprétation des différences entre les spécimens fossiles.

Cependant, EndoMap fait face à un défi majeur dans l’étude des restes fossiles, comment analyser des spécimens incomplets ou pour lesquels certaines empreintes cérébrales sont absentes ou illisibles ? Ce problème de données manquantes, bien connu en informatique et commun à de nombreuses disciplines scientifiques, est un frein à la progression de notre recherche sur l’évolution du cerveau.

Le bond technologique réalisé récemment dans les domaines de l’intelligence artificielle permet d’entrevoir une solution. En particulier, devant le nombre limité de spécimens fossiles et leur caractère unique, les méthodes d’augmentation artificielle des échantillons pourront pallier le problème d’effectif réduit en paléontologie. Par ailleurs, le recours à l’apprentissage profond à l’aide d’échantillons actuels plus complets constitue une piste prometteuse pour la mise au point de modèles capables d’estimer les parties manquantes des spécimens incomplets.

Nous avons alors invité à Johannesburg en 2023 des paléontologues, géoarchéologues, neuroscientifiques et informaticiens de l’Université du Witwatersrand et de l’Université de Cape Town (Afrique du Sud), de l’Université de Cambridge (Royaume-Uni), de l’Université de Toulouse, du Muséum national d’histoire naturelle de Paris et de l’Université de Poitiers à alimenter notre réflexion sur le futur de notre discipline au sein du colloque « BrAIn Evolution : Palaeosciences, Neuroscience and Artificial Intelligence ».

Cette discussion est à l’origine du numéro spécial de la revue de l’IFAS-Recherche, Lesedi, qui vient de paraître en ligne et qui résume les résultats de ces échanges interdisciplinaires. À la suite de cette rencontre, le projet a reçu le soutien financier de la Mission pour les initiatives transverses et interdisciplinaires (MITI) du CNRS dans le cadre l’appel d’offres « Jumeaux numériques : nouvelles frontières et futurs développements » pour intégrer l’IA à la paléoneurologie.

Sciences: Des ministres ignorants ?

Sciences: Des ministres ignorants ?

« Il faut encourager les ministres à agir dans le respect de l’état des savoirs scientifiques » ou dit de manière claire, les ministres sont trop ignorants de l’état d’avancée de la science. Alors qu’Emmanuel Macron doit annoncer, jeudi 7 décembre, la création d’un conseil scientifique auprès de la présidence, le Collège des sociétés savantes académiques de France estime, dans une tribune au « Monde », que la première mission d’un conseiller scientifique du gouvernement devrait être d’établir une relation de confiance.

La simultanéité des crises économiques, sociales, environnementales et sanitaires qui frappent le monde interpelle et force à la réflexion. Pas seulement sur notre impréparation, notre amnésie ou la lenteur de nos réponses collectives. Certainement pas en montrant du doigt les pilotes aux manettes pendant les périodes les plus compliquées.

Car ces crises se sont construites sur des décennies, malgré les alertes. Elles nous obligent à repenser les déterminants de l’action publique pour que le long terme cesse d’être sacrifié sur l’autel du court terme. Comprendre la succession des vagues de SARS-CoV-2, établir le rôle de l’humanité dans les dérèglements climatiques et l’effondrement de la biodiversité ou documenter le creusement des inégalités sociales, voilà quelques sujets sur lesquels les sciences humaines, sociales, expérimentales ou technologiques établissent des constats objectifs et donnent des outils pour l’avenir. Si la sphère scientifique n’a pas vocation à se substituer à la sphère politique, elle peut néanmoins fournir une lanterne lorsque la société avance à tâtons.

Encore faut-il pour cela que ces deux sphères, traditionnellement plus éloignées que les sphères politique et économique, se rencontrent. Les gouvernements de certains pays se sont ainsi dotés d’un « conseiller scientifique en chef », un ou une scientifique de haut niveau dont la mission à plein temps est d’établir une proximité quotidienne entre les milieux académique et politique, et de créer entre eux une relation de confiance exigeante.

Cette personnalité s’appuie sur la communauté académique pour définir un champ des actions possibles compatibles avec l’état des connaissances scientifiques et en expliquer la pertinence aux responsables politiques et au public. Pour garantir l’indépendance de sa parole, elle n’est pas intégrée à l’exécutif et ne prend pas part aux décisions, qui reviennent aux responsables politiques.

Sciences-Intelligence artificielle: La France parmi les leaders mondiaux !

Sciences-Intelligence artificielle: La France parmi les leaders mondiaux !

Xavier Niel, Free et Iliad, qui vient de lancer un fonds de recherche sur l’intelligence artificielle avec la CGM estime que la France seule peut figurer parmi les leaders mondiaux dans ce domaine. Une affirmation peut-être un peu présomptueuse si l’on prend l’exemple des grandes plates-formes dominées surtout par les Américains et les Chinois. Les plates-formes françaises sont complètement anecdotiques. Pire, les distributeurs des produits français utilisent le plus souvent les plates-formes étrangères comme Google pour vendre . L’initiative de Xavier Neil est intéressante mais il faut sans doute faire la part du marketing et de la recherche dans son interview à la « Tribune ». Enfin le montant de l’avertissement n’est peut-être pas à la hauteur de l’enjeu. Entre 2013 et 2022, les investissements des entreprises dans le secteur de l’intelligence artificielle ont fortement augmenté dans le monde, passant de 16 milliards de dollars en 2013 à plus de 175 milliards de dollars en 2022.

Iliad investit plus de 200 millions d’euros dans l’intelligence artificielle. Dans quel objectif ?

XAVIER NIEL- Quand éclate une révolution dans la tech, on souhaite naturellement en faire partie. Pour l’IA, deux éléments sont essentiels : la puissance de calcul et les chercheurs. Concernant le premier, Scaleway, le fournisseur de cloud et filiale du Groupe Iliad, a déjà acquis en septembre dernier auprès de NVIDIA, le champion mondial du calcul informatique, un supercalculateur : une plateforme spécifiquement dédiée aux applications de l’intelligence artificielle. C’est le cinquième plus grand au monde. Le plus puissant en dehors des États-Unis. Il est installé ici, à Paris. Sans volonté hégémonique. Simplement celle de faire émerger un écosystème.

Et du côté des chercheurs ?

Nous avons une chance inouïe en France. Celle de compter deux écoles – Polytechnique et l’ENS Paris-Saclay -, qui forment les meilleurs ingénieurs au monde dans ce domaine. Le revers de la médaille, c’est que ces talents exceptionnels quittent souvent leur pays pour aller ailleurs. Mon but consiste à les retenir ici. Ou à les inciter à revenir. Dans les deux cas, concevoir un écosystème complet était indispensable. Nous l’avons construit, en investissant massivement avec nos partenaires américains traditionnels, à hauteur de plusieurs dizaines de millions d’euros. Nous ne l’avions encore jamais fait. Ces investissements ont été réalisés dans des startups lancées par des Français. Mais aussi dans celles fondées par des entrepreneurs internationaux, qui choisissent la France précisément grâce à cet environnement que nous avons mis en place. La French Tech parvient désormais à boucler des levées de fonds sur des niveaux de valorisations inédits.

Sciences-Recherche académique : Trop soumise à la vulgarisation médiatique

Sciences-Recherche académique : Trop soumise à la vulgarisation médiatique

 

Dans une tribune au « Monde », l’ingénieur Hugo Hellard, docteur en astrophysique,  s’inquiète de l’incitation à la publication massive d’articles scientifiques, qui va à l’encontre même de la démarche académique, et appelle à réorienter la politique de la recherche.

 

On peut évidemment comprendre et même souhaiter que les résultats de la recherche puissent être vulgarisés d’abord dans la communauté scientifique puis, selon la nature, diffusés dans l’opinion. Reste que la médiatisation n’est pas l’objet prioritaire car le risque est de favoriser la course au lectorat au détriment de la production de connaissances. NDLR 

 

La recherche académique mondiale perd en efficacité, légitimité et responsabilité. Les incitations sous-jacentes à la publication de masse ont un impact négatif sur nos sociétés et sur les producteurs du contenu : les chercheuses et chercheurs eux-mêmes. Dans un monde où la compréhension désintéressée de nos écosystèmes est vitale pour relever les défis de l’urgence climatique, il est grand temps de donner aux chercheurs les moyens de travailler de manière indépendante, efficace et pertinente dans un environnement professionnel sain, tout en assurant une transmission des connaissances au public sous une forme compréhensible et accessible.

La crise sanitaire a ramené au premier plan la recherche académique, de la compréhension du virus responsable du Covid-19 au développement de plusieurs vaccins. Cette course au vaccin a aussi été le théâtre du système pervers sur lequel la recherche académique est actuellement construite : l’incitation à la production rapide et à la publication massive d’articles scientifiques. Il n’aura échappé à personne certaines rétractations d’articles, initialement publiés dans plusieurs journaux scientifiques prestigieux, comme The Lancet. Le site Retraction Watch résume dans cette page l’ensemble des articles scientifiques retirés dont le sujet portait sur le Covid-19.

Retirer un article n’a rien de mauvais en soi, car aucun article ne prétend présenter « la vérité », mais seulement des éléments permettant de s’en approcher. Aucun résultat scientifique n’est définitif. La pluralité des réponses apportées permet de mettre à disposition des éléments pour affiner l’analyse, trouver de potentielles erreurs, ou encore proposer de nouvelles approches, afin d’obtenir des conclusions qui s’approchent le plus de « la réalité ». C’est là le cœur du processus scientifique qui, par définition, se veut itératif et précis, donc long comparativement à la soif d’immédiateté ambiante.

Le respect de ce processus scientifique est essentiel pour comprendre « correctement » notre monde et respecter ses écosystèmes riches et divers. Malheureusement, la recherche académique est construite sur un système incitant à bafouer ce processus, pourtant garant de la construction saine du socle de connaissances communes. Les chercheuses et chercheurs du monde se trouvent aujourd’hui exclus et à la merci des trois parties prenantes du marché de la connaissance : les organismes de financement de la recherche (publics ou privés), les bibliothèques universitaires et les institutions de recherche (comme le CNRS en France).

Sciences-IA, illusion d’intelligence ?

Sciences-IA, illusion d’intelligence ?

Depuis l’apparition de Chat GPT, l’intelligence artificielle est devenue l’un des sujets les plus abordés. Entre admiration et peur, les utilisateurs ont souvent des idées reçues sur le mécanisme derrière cette nouvelle technologie. Professeure dans le domaine à Sorbonne Université, Laurence Devillers a décrypté ses capacités au micro d’Europe 1.

L’intelligence artificielle est au cœur de toutes les conversations depuis de nombreux mois. L’apparition du prototype conversationnel Chat GPT a eu l’effet d’une bombe dans le monde. Que ce soit pour faire la conversation ou demander un réel renseignement, des millions de personnes l’utilisent chaque jour dans le monde. Ses capacités, par leur puissance et leur précision, peuvent même inquiéter. Laurence Devillers, professeure en intelligence artificielle à Sorbonne Université, explique au micro d’Europe 1 que cette supposée supériorité est en fait une « illusion ».


Chat GPT, une « projection des capacités humaines »

L’intelligence artificielle a le pouvoir de maintenir une conversation comme un être humain, ce qui créé une « illusion d’intelligence » d’après la professeure. « Cette illusion d’intelligence va nous manipuler et c’est là où il faut faire très attention », poursuit-elle avant d’expliquer que la « machine ne fait que copier » et n’a « aucun sens sur ce qu’elle est en train de faire ». De ce fait, cette technologie ne possède pas d’émotions puisqu’il s’agit de « projections des capacités humaines ».

Ce sont ses capacités de langage qui incitent l’être humain à croire que cette dernière est plus intelligente et même plus émotive qu’elle ne l’est véritablement. Bien que Laurence Devillers avoue qu’il est difficile pour beaucoup de « faire la différence », elle confirme que le système même de l’intelligence artificielle n’a aucune forme de vie : « Il n’y a pas de conscience, il n’y a pas d’émotions, il n’y a pas d’intentions. »

La professeure en a profité pour ajouter que la manipulation déclenchée par diverses intelligences artificielles a déjà commencé, notamment via les réseaux sociaux avec les images modifiées. Dernièrement, de nombreuses photos fausses ont circulé sur internet, mettant en scène des personnalités publiques dans des situations incongrues. Une « coopération » avec les machines est donc nécessaire et passe notamment par « l’éducation » pour apprendre à mieux aborder cette nouvelle technologie.

Sciences-Innovation et intelligence artificielle : vigilance

Sciences-Innovation et intelligence artificielle : vigilance

Avec le développement exponentiel des capacités de l’Intelligence Artificielle, humains et machines sont-ils amenés à s’opposer, voire à se faire la guerre, comme le prédisent depuis longtemps certains auteurs de SF ? S’il est certain que le futur ne ressemblera en rien au présent, personne ne peut aujourd’hui sérieusement prétendre prévoir l’issue des fulgurants progrès de l’IA. Raison de plus pour être vigilants. Au quotidien. Ce devoir de vigilance concerne chaque jour chacun d’entre nous. Par Alain Conrard, CEO de Prodware Group et le Président de la Commission Digitale et Innovation du Mouvement des ETI (METI)​ dans la Tribune

(Crédits : DR)
En général, une chronique est l’expression d’un point de vue qui, lorsqu’il est bien mené, conduit à une conclusion, forte si possible. Autant vous prévenir tout de suite : cette chronique ne débouchera sur aucune conclusion. Tout simplement parce que son sujet est aujourd’hui si complexe et si ouvert – et surtout si indéterminé – qu’il semble impossible d’y apposer sérieusement une conclusion. Même pour un spécialiste et praticien au quotidien de l’innovation comme moi.

Son sujet ? Le développement exponentiel des capacités des IA est-il nécessairement bénéfique pour les humains et/ou, s’il n’est pas canalisé, contient-il un « risque existentiel » (pour reprendre le concept de Nick Bostrom, directeur du Future of Humanity Institute) pour l’humanité.

Soit dit en passant, et sans aucune spoiler alert, il peut d’ailleurs parfaitement être bénéfique un temps pour les humains (individuellement ou culturellement) et constituer à terme un risque existentiel pour l’humanité. Et, pour complexifier le tout, l’optimisme le plus béat et le pessimisme le plus sombre sur ce sujet cohabitent parfois chez les mêmes personnes.

Ce qui est certain, c’est qu’en raison du potentiel de nouveauté et de transformation dont elle est porteuse, à travers les nouvelles frontières qu’elle établit et fait évoluer en permanence, l’innovation génère toujours par définition des possibilités de risque. Le nucléaire, par exemple, a pris le dessus sur son créateur à certaines occasions (catastrophes de Three Mile Island, Tchernobyl ou encore Fukushima).

Plus on donne de place à la technologie, plus on expose l’humanité ou le plus grand nombre à l’éventualité de dérives. Malgré ses vertus, le nucléaire contient plus de risques que le charbon, les possibles dérives de l’IA peuvent-elles être à leur tour encore plus dangereuses ?

On sait que l’Intelligence Artificielle va plus vite, plus loin et plus longtemps. On sait que le machine learning peut, comme son nom l’indique, développer de façon autonome une algorithmique de plus en plus élitiste, de plus en plus fine, de plus en plus juste. En partant de ce constat, que peut-on dire ? Bien que conscients de la situation actuelle et de l’état des forces en présence, est-on pour autant capables d’anticiper avec pertinence leur évolution ? Dans sa totalité, je n’en suis pas sûr. Est-on capables de mesurer tous les impacts ? Je n’en suis pas sûr non plus. Cette incertitude dans la prévisibilité de l’évolution est la partie la plus inquiétante de cette problématique. Pourtant, nombreux sont ceux qui prennent aujourd’hui la parole pour raconter avec assurance de quoi le futur sera fait.

En fait les humains ne sont pas très doués pour prévoir les progressions exponentielles (« L’intuition humaine est mauvaise pour prévoir les courbes exponentielles » constate Sam Altman, le PDG d’OpenAI). Donc, les points de vue sur l’avenir de l’IA, et par conséquent sur le bon usage de l’innovation, restent conjecturaux pour une large part. En fait, ils ne sont généralement que la projection naïve dans le futur de nos aprioris. Selon que l’on est confiant dans la capacité des humains à vouloir le bien (le leur ou celui des autres) ; selon que l’on est optimiste ou pessimiste ; selon que l’on a confiance ou pas dans le politique pour prendre en charge et régler les problèmes de l’humanité ; selon que l’on a une foi sans réserve dans la capacité de la science à faire le bien ; selon que nos récits projectifs sont utopiques ou dystopiques ; etc.

Ainsi, les transhumanistes ou les long-termistes diront que l’hybridation entre les humains et les machines ne peut qu’augmenter positivement l’humanité ; les technophiles inconditionnels, que la technologie ne saurait être mauvaise ; les sceptiques, que rien de bon ne peut sortir d’un progrès aussi rapide ; les industriels de l’IA, que leurs machines sont la clé du bonheur de l’humanité ; les politiques, qu’il suffit de légiférer pour régler le problème ; les apprentis sorciers ou ceux qui aiment le goût du risque, qu’émettre des réserves ne fait que ralentir inutilement le mouvement, et qu’il sera toujours temps de réfléchir plus tard.

Quoi qu’il en soit, ce que l’on en dit (ou ce que l’on en pense) dépend largement des intérêts de pouvoir qui sont engagés.

Si l’IA est nouvelle, l’inquiétude générée par les machines ne l’est pas. Même si elles étaient moins concrètes qu’aujourd’hui, on se posait les mêmes questions dès les débuts de la robotique. On faisait déjà part des mêmes craintes : est-ce qu’en se développant, le robot allait inéluctablement dépasser l’être humain ? Est-ce que, tel un Frankenstein électronique doté de colossaux réseaux de neurones et de capacités de calcul démesurées, l’humanoïde allait détrôner l’humain qui l’a créé ? La philosophie avait aussi posé des ponts théoriques entre le vivant et l’univers machinique, permettant mentalement le passage de l’un à l’autre, notamment avec le concept d’animal-machine formulé par Descartes, puis, au siècle suivant, avec L’Homme-Machine de La Mettrie. Pourtant, l’hypothèse réelle, politique, culturelle, restait à l’époque encore très lointaine. L’IA nous confronte à un risque réel. La nature (ou tout du moins l’intensité) de l’inquiétude a changé.

La zone d’incertitude s’est elle-même modifiée : tout va changer, c’est certain, mais modalités et ampleur du changement restent incertaines. Le futur ne ressemblera en rien au présent, mais ni les zones ni l’ampleur des impacts sont pour l’instant vraiment prévisibles. Le grand changement, la grande bascule, est-ce que c’est maintenant, ou jamais, ou dans 10 ans ? Qui peut le dire avec certitude aujourd’hui ?

De « 1984 » au « Meilleur des mondes » en passant par « Bienvenue à Gattaca », la littérature ou le cinéma nous ont depuis longtemps mis en garde : les techno-utopies sont dangereuses lorsqu’on y adhère sans mesure.

Il ne suffit donc pas de dire « IA qu’à ». Cette question contient une telle épaisseur de complexité et d’indétermination qu’elle défie pour l’instant toute conclusion péremptoire.

« Que faire ? », demandait Lénine pour savoir quelle suite à donner à la révolution, et à quelle condition elle pouvait réussir. La question se pose pour tout mouvement de ce type, et le digital ou l’IA sont autant de révolutions, plus aptes encore à transformer le monde en profondeur que les modalités politiques qui les ont précédées. Il n’y a pas aujourd’hui de réponse générale à cette question.

Pour certains, l’arme de protection absolue contre l’emprise des machines tient en un mot : légiférer. Mais qui peut prétendre qu’une IA devenue hyper-intelligente et parfaitement autonome restreindra docilement son pouvoir parce qu’on lui dira que la loi l’interdit ?

On n’empêchera par ailleurs jamais personne de créer l’invention de trop, celle qu’il n’aurait jamais fallu concevoir, celle qui fait basculer l’ensemble d’une société dans une autre dimension porteuse de dangers. On n’évitera pas que, dotés de moyens importants, certains mettent en place des projets « toxiques ». Aujourd’hui, en effet, les dérives possibles sont alimentées en grande partie par les perspectives de profit. D’énormes masses d’argent sont en effet aimantées par ces secteurs. Une partie de ces gigantesques financements rencontrera nécessairement des projets hasardeux.

La bonté de la plupart des êtres humains ne s’exprime souvent que dans la limite de l’expression de leur intérêt. Un créateur saura-t-il résister à ce qu’il peut inventer, même si cela contrevient au bien commun ou aux exigences du citoyen ? Rien n’est moins sûr. Le plaisir de la création prévaut souvent sur tout. Le remords ne vient éventuellement qu’après, comme pour Oppenheimer, le père de la bombe atomique après l’expérience de Hiroshima, ou pour Alfred Nobel, l’inventeur de la dynamite. Les regrets viennent toujours trop tard. Les inventeurs de l’IA auront-ils les mêmes remords ? Certains d’entre eux émettent déjà de fortes réserves (Yoshua Bengio, l’un des pères de l’IA) ou des inquiétudes majeures (Geoffrey Hinton, pionnier de l’IA). En attendant, rien ne semble pouvoir arrêter son développement. Et il y a sans doute une bonne dose d’hypocrisie ou d’opportunisme pour quelqu’un comme Sam Altman de créer et développer Chat GPT tout en appelant en même temps à la régulation.

Il ne faut donc pas être naïf, et ne pas se laisser endormir par des discours lénifiants ou exagérément rassurants. Il faut accepter le progrès avec enthousiasme, tout en faisant preuve d’une extrême vigilance quant à ses conséquences.

Les artefacts sont toujours le reflet d’une époque, et disent toujours quelque chose sur elle. L’IA dit en même temps notre incroyable degré de sophistication technologique, notre dépendance au numérique et notre capacité à dénier les risques liés à ce que nous inventons.

En fait, les machines, c’est nous. Elles sont à notre image. Mieux : elles sont un miroir. Il peut être neutre ou grossissant ou déformant. Il peut aussi, comme dans certains contes, donner une image de l’avenir. C’est pour cette raison que le développement de l’IA concerne tout le monde.

Personne aujourd’hui ne peut prétendre détenir « la » solution pour la maîtrise de sa progression. Mais l’absence temporaire de solution ne doit pas pour autant conduire à la résignation.

Bien que cela soit difficile, il faut essayer d’éveiller le plus grand nombre à la certitude du risque lié à ces technologies surpuissantes. Certains ont d’autres urgences ou d’autres priorités quand d’autres ne se sentent pas impliqués ou ne voient pas comment ils pourraient agir. Le simple fait de se sentir intimement touché par ces phénomènes (car objectivement nous le sommes absolument tous) est déjà un début de réflexion.

Hormis une prise en compte systématique du risque, voire dans le meilleur des cas un devoir d’alerte, on n’a sans doute pas encore trouvé la solution pour éliminer ou minorer de potentiels dangers liés aux dérives de l’innovation. Pour l’instant, la seule piste est d’attirer l’attention du plus grand nombre sur tous les effets (aussi bien positifs que négatifs) de ces phénomènes. Et de regarder avec vigilance comment bâtir et utiliser des systèmes porteurs de la plus grande valeur ajoutée.

Une prise de conscience individuelle autant que collective est donc essentielle. Chacun d’entre nous est concerné, et devrait se poser cette question chaque jour, à chaque utilisation d’une innovation : est-ce bien ? Est-ce que la machine que j’utilise renforce le bien commun ? Est-ce que l’algorithme ou le dispositif que je suis en train d’inventer présente des risques ? Est-ce que la politique que je mène ou que je propose permet de guider les réflexions et de conscientiser

S’il n’y a aujourd’hui pas de grande réponse sérieuse, rien n’interdit en attendant à chacun d’apporter sa petite réponse.

_____

(*) Par Alain Conrard, auteur de l’ouvrage « Osons ! Un autre regard sur l’innovation », un essai publié aux éditions Cent Mille Milliards, en septembre 2020, CEO de Prodware Group et le Président de la Commission Digitale et Innovation du Mouvement des ETI (METI) (LinkedIn).

Sciences-Intelligence artificielle: BRUNO LE MAIRE fait des promesses de coiffeur

Sciences-Intelligence artificielle: BRUNO LE MAIRE fait des promesses de coiffeur


Le ministre ministre de l’économie englué à la fois dans une situation financière de la France de plus en plus grave et dans un contexte économique à la croissance ralentie se livre à des exercices de prospective douteux en affirmant que l’Europe aura bientôt son propre système d’intelligence artificielle pour relancer l’économie européenne.

Première observation, on voit mal comment en cinq ans l’Europe serait capable de mettre en place un système d’intelligence artificielle générative indépendant quand elle n’a jamais été capable de mettre en place une simple plate-forme d’échanges de messages type Facebook ou Twitter.

Seconde observation : d’abord il n’y aura sans doute pas un seul système d’intelligence artificielle et on ne peut résumer ce système au seul chatgpt. Le ministre de l’économie se laisse aller à la facilité en reprenant des propos de bistrot qui ne correspondent à aucune perspective de réalité. Ce qu’il a déjà fait régulièrement par exemple à propos de fiscalité internationale qui finit le plus souvent en eau de boudin.

Pour le ministre de l’économie, l’intelligence artificielle permettrait de relancer la productivité d’une économie européenne « languissante ». Le ministre français de l’Economie a estimé possible samedi pour l’Union européenne de bâtir « sous cinq ans » son propre système d’intelligence artificielle (IA) générative, qui contribuera, selon lui, à améliorer la productivité d’une économie « languissante ».

« L’intelligence artificielle générative va nous permettre, pour la première fois depuis plusieurs générations, de retrouver de la productivité, d’être plus efficace », a lancé Bruno Le Maire aux Rencontres économiques d’Aix-en-Provence, dans le sud de la France.

« Je plaide donc, avant de poser les bases de la régulation de l’intelligence artificielle, pour que nous fassions de l’innovation, que nous investissions et que nous nous fixions comme objectif d’avoir un OpenAI européen sous cinq ans, avec les calculateurs, les scientifiques et les algorithmes nécessaires. C’est possible », a-t-il ajouté.

C’est la science « qui nous permettra enfin de faire des gains de productivité dans une économie européenne un peu languissante », plus « tortillard » que « TGV », a-t-il insisté.

Sciences-La-baisse-du-nombre-de-doctorants-va-affecter la recherche

sciences-La-baisse-du-nombre-de-doctorants-va-affecter la recherche


Boris Gralak, secrétaire général du Syndicat national des chercheurs scientifiques, estime, dans une tribune au « Monde », que ceux-ci sont maltraités par l’Etat en ce qui concerne leur rémunération et leur carrière, et que les conséquences sont à terme dangereuses pour la recherche française.

Quels que soient les domaines du savoir, la recherche est indispensable pour repousser les limites de la connaissance. Et il va de soi que nos sociétés ont besoin plus que jamais d’apporter des réponses aux questions considérables que posent la démocratie, la santé, la transition socio-écologique, l’innovation responsable… Et pourtant, malgré leur rôle essentiel pour la société et surtout pour son avenir, la recherche publique et les scientifiques sont particulièrement maltraités par l’Etat, et ce depuis plus de vingt ans.

La France s’était engagée sur le plan européen à consacrer, dès 2010, au moins 1 % de son produit intérieur brut (PIB) à la recherche publique. Or, non seulement les gouvernements successifs n’ont pas tenu cet engagement, mais, pire encore, ils ont imposé toute une série de réformes à contresens qui auront particulièrement dégradé les conditions de travail des scientifiques.

La dernière d’entre elles, la loi de programmation de la recherche du 24 décembre 2020, promettait – encore une fois – le respect de cet engagement : prenant acte du décrochage de la recherche, le fameux « 1 % du PIB » pour la recherche publique était enfin « programmé » ! Cependant, dès l’examen du projet de loi de programmation de la recherche, le Syndicat national des chercheurs scientifiques (SNCS-FSU) et d’autres organisations avaient montré que cette programmation pluriannuelle du budget de la recherche était insincère. La preuve hélas est là.

Outre le handicap que représente pour la recherche publique la dégradation des moyens de travail des scientifiques – il s’agit des femmes et des hommes chercheurs, enseignants-chercheurs, ingénieurs et techniciens de recherche ou en soutien à la recherche, qu’ils soient fonctionnaires ou contractuels –, nous voulons noter ici un aspect rarement évoqué : à savoir le fait que le sous-investissement chronique dans la recherche publique se traduit aussi par des rémunérations et des carrières indignes au regard des responsabilités, formations et diplômes de ces scientifiques.

Sciences- Qu’est-ce qui est plus grand que l’infini ?

Sciences- Qu’est-ce qui est plus grand que l’infini ?
par
Julien Rouyer
Agrégé de mathématiques et doctorant en informatique., Université de Reims Champagne-Ardenne (URCA) dans The Conversation

Quel est le plus grand nombre que tu connais ? Quand on pose cette question à un tout jeune enfant, il répond souvent cent (100) ou mille (1 000), parfois un million (1 000 000). Mais, si on lui fait remarquer qu’il peut ajouter 1 à ce nombre et obtenir cent un (101) ou mille un (1 001) ou encore un million un (1 000 001), il réalise qu’il peut recommencer et obtenir à chaque fois un nombre encore plus grand. D’une certaine manière, mathématiquement, l’infini, c’est ça : pouvoir toujours ajouter 1 à n’importe quel nombre, aussi grand soit-il, et construire ainsi des nombres de plus en plus grands.

Votre avis compte ! Participez à notre grande enquête de lectorat
On en vient donc à la conclusion qu’il n’y a pas de nombre plus grand que tous les autres.

Cependant, en mathématiques, quand un objet n’existe pas, comme « le nombre qui serait plus grand que tous les autres nombres », on a toujours la liberté de l’inventer ! Il faut seulement que ce nouvel objet n’entraîne pas de graves paradoxes logiques, c’est-à-dire des résultats contradictoires.

On peut alors dire que l’infini est un nouveau nombre, différent de tous ceux qu’on peut construire en ajoutant 1 encore et encore : l’infini est ce qui est au bout de ce processus… qui ne s’arrête jamais ! On a donc décidé de créer cet objet, l’infini, qui représente un nombre plus grand que tous les autres, et on a choisi un symbole pour le représenter (comme le symbole 1 représente le nombre un, 2 le nombre deux, etc.). Ce symbole, c’est : ∞.

Mais alors, me diras-tu, Pénélope, qu’obtient-on si on ajoute 1 à l’infini ?

Un nombre plus grand que l’infini, lui-même plus grand que tous les nombres usuels ?

Puisque la place de « nombre plus grand que tous les autres » est déjà prise par ∞ et puisque ∞+1 est lui aussi un nombre plus grand que tous les autres, eh bien on n’a qu’à dire que « l’infini plus un », c’est encore l’infini et donc on peut écrire ∞+1=∞.

On déduit de cela que ∞+2=∞+1+1=∞+1=∞, et ainsi de suite ∞+3=∞, ∞+4=∞, etc.

Autrement dit, l’infini serait un nombre qui absorbe tous les autres, un peu comme un trou noir absorbe et fait « disparaître » toute la matière qui s’en approche…

C’est bien joli tout ça mais c’est drôlement abstrait. Concrètement, c’est quoi l’infini ? Voilà le problème : l’infini est une construction de l’esprit humain, un concept mathématique utile aux progrès de la science autant qu’un concept philosophique. L’infini est, par essence, quelque chose d’abstrait, et certainement une preuve de la puissance de l’intelligence humaine, capable de concevoir des objets qui n’existent pas dans la nature.

L’infini est une idée qui permet de représenter le fait d’aller très loin ou d’attendre très longtemps, quel que soit le contexte. Si on s’intéresse aux étoiles et aux planètes, l’infini, ce serait plutôt des milliards de milliards de kilomètres.

L’infini est une chimère : dans le monde physique dans lequel on vit, l’infini n’existe pas : le nombre d’atomes dans l’univers est fini (ils ne sont pas en quantité infinie). Les ressources en eau sur Terre ne sont pas infinies non plus. Selon les théories scientifiques qui ont émergé depuis les travaux d’Einstein il y a 100 ans, même l’univers lui-même est fini : il est en expansion, de plus en plus grand à chaque instant qui passe depuis sa naissance lors du Big Bang il y a 14 milliards d’années (l’âge de l’univers n’est pas infini) : il a un bord, une limite qui s’éloigne de plus en plus de nous. Qu’y a-t-il en dehors de l’univers, au-delà des limites de l’univers ? Mystère infini…

Finalement, pour répondre à cette épineuse question « qu’est-ce qui est plus grand que l’infini ? », je ne vois qu’une seule réponse : l’esprit humain.

« Sciences »": la retraite à 80 ans à l’horizon 2070 ?

« Sciences »": la retraite à 80 ans à l’horizon 2070 ?

Un curieux papier de la Tribune qui évoque la possibilité de pousser la retraite jusqu’à 72 ans voir 80 ans.

Un papier surtout fondé sur une approche comptable et qui fait abstraction de la problématique sociétale, une réflexion bâtie sur des fondements davantage scientistes que scientifiques. En effet, l’absence de maladie par exemple ne garantit pas forcément un état de bien-être physique, moral et social. NDLR

Alors que les débats font rage en France autour du relèvement de l’âge de départ à la retraite à 64 ans et sur l’allongement de la durée de cotisation, il existerait, du point de vue de la science, un tout autre scénario. « Si les recherches sur la lutte contre le vieillissement tiennent leurs promesses, en 2070, l’âge de départ à la retraite pourrait être porté à 72 ans », voire 80 ans pronostique ainsi dans une récente note le cabinet d’études Astérès. Celui-ci s’appuie sur les dernières recherches scientifiques qui anticipent un allongement de l’espérance de vie, jusqu’à +41%, suite à des tests menés sur des animaux en laboratoires. Ainsi, – selon une projection très optimiste du cabinet -, les maladies liées à la vieillesse (tumeurs, maladies endocriniennes, du système nerveux, cardio-vasculaires, ou de l’appareil digestif) disparaîtront ou, du moins, seront repoussées d’une trentaine d’années.

Dans ce scénario qui semble inspiré d’un film de science-fiction, il faudrait ainsi travailler jusqu’à 72 ans « pour que le ratio cotisants / retraités soit égal à celui anticipé par le scénario de référence », soit amené à 1,3, le ratio qui aurait été obtenu dans le scénario central de l’Insee avec un départ à la retraite à 64 ans, selon les calculs d’Asterès.

Cette hypothèse de la vieillesse tardive est d’autant plus incongrue qu’actuellement en France, à partir de 70 ans, l’employeur peut, s’il le souhaite, décider de mettre à la retraite d’office un salarié. Autre paradoxe, si partout en Europe la tendance est à l’allongement de la vie de salarié, en 2070, la moyenne européenne demeure toutefois à 67 ans, selon un rapport de la Commission européenne. Dans les deux cas, on est donc encore loin d’envisager 72 ans et plus.

Une certitude toutefois, l’Europe vieillit à vitesse grand V. En 1950, pour une personne âgée de 65 ans, il y avait 11,7 travailleurs actifs. Or, en 2022, ce ratio est tombé à 7 en moyenne dans le monde. Pire, des pays « super âgés » tels que l’Italie, le Japon, la Corée du Sud, vont connaître un fossé « dramatique », prévient une autre étude de McKinsey. Résultat, « le nombre de centenaires en 2070 serait multiplié par 10, déséquilibrant le régime des retraites (…) Pour conserver le ratio actuel, soit 1,722, il faudrait porter l’âge de départ à la retraite à 78 ans. Ce ratio serait amené à baisser à mesure que la population vieillit », justifie Asterès.

Mais la théorie du vivre longtemps est-elle toujours aussi crédible ? En France, en dehors des effets de la crise Covid, l’espérance de vie est en effet en pleine stagnation, selon l’Insee début 2023. Les hommes gagnent en effet seulement 0,1 an d’espérance de vie et celle des femmes ne progresse pas et baisse de 0,4 an par rapport à 2019, année de référence avec la pandémie.

Face à ces tensions sur l’équilibre des comptes des caisses de retraite, une solution émerge pour faire accepter potentiellement de travailler plus longtemps. Selon Asterès, la science prouve en effet qu’il sera possible de « réinitialiser » à multiples reprises l’âge du corps.

« Maladies cardio-neurovasculaires, cancers, maladies neurologiques, diabète de type 2 ou arthrose (…) certains scientifiques pensent pouvoir s’attaquer simultanément à toutes ces maladies et améliorer significativement l’espérance de vie en bonne santé », justifie le cabinet.

« Asterès fait l’hypothèse que ces expériences (menées sur des animaux) sont transposables aux êtres humains et qu’un traitement anti-vieillesse sûr sera disponible », assume ce cabinet privé qui a notamment indiqué avoir compilé plusieurs publications scientifiques d’un professeur de génétique de Harvard.

Mais si on estime que le nombre de seniors (âgés de 65 ans et plus) va doubler pour atteindre 1,6 milliard d’individus d’ici 2050, selon les Nations Unies, il n’est pour autant pas certain que tous le soit en parfaite santé. D’autres publications montrent en effet que la vie peut être certes allongée bien au-delà de 80 ans, mais pas forcément en bonne santé; note une étude du cabinet McKinsey de novembre 2022.

Aussi, seuls 9% des hommes nés aujourd’hui et 16% des femmes peuvent espérer atteindre l’âge de la retraite en bonne santé, selon un étude britannique de The Institute for Public Policy Research (IPPR) de 2022. Outre-Manche, l’âge de départ à la retraite a été repoussé à 67 ans en 2028.

En creux, se pose enfin la question de la pénibilité d’un emploi. En France le débat s’enflamme depuis que le gouvernement a refusé de réintégrer dans sa réforme les trois facteurs de pénibilité dits « ergonomiques » (ports de charges lourdes, postures pénibles, vibrations mécaniques) exclus du compte en 2017. Ces critères sont « extrêmement difficiles à mesurer individuellement », a fait valoir le ministre du Travail, Olivier Dussopt.

A cela s’ajoute en plus la catégorie dite des « carrières longues » caractérisées par un une entrée très précoce dans la vie active pour un salarié. Le gouvernement tente là aussi de prendre en compte un individu qui aurait sollicité ses capacités jeunes, plutôt qu’un autre qui aurait commencé plus tardivement. Là dessus, la science devra aussi répondre au cas par cas. Face au travail, la ligne de vie d’un actif en bonne santé semble encore aléatoire.

Les débats sur l’âge de départ à la retraite en Europe soulèvent de nouveaux débats autour du « bien vieillir ». Dans une étude publiée en novembre 2022, la branche santé du cabinet de conseil McKinsey (The McKinsey Health Institute) a identifié six changements pour « permettre aux gouvernements, aux entreprises de tous les secteurs, aux organismes sans but lucratif, aux intervenants en santé et en bien-être et aux particuliers d’améliorer le vieillissement en santé ».

D’abord, il faut « investir dans la promotion d’un vieillissement sain ». Par exemple, les pays européens investissent, en moyenne, 2,8 % de leur budget de santé dans la prévention. Si le chemin vers un vieillissement sain commence à l’âge adulte, il y a beaucoup à faire pour les personnes âgées. Il convient de concentrer davantage d’efforts de prévention sur les pathologies liées à l’âge, telles que la démence et les déficiences sensorielles, précise McKinsey. Les cinq autres leviers du bien vieillir sont :« améliorer les mesures de la santé et obtenir de meilleures données, étendre les interventions dont il est prouvé qu’elles favorisent le vieillissement en bonne santé, accélérer l’innovation dans l’écosystème du vieillissement en bonne santé, libérer le potentiel de toutes les industries pour favoriser le vieillissement en santé, et enfin, donner aux personnes âgées les moyens et la motivation nécessaires pour vivre pleinement leur potentiel. »

Sciences- évolutions cognitives et taille du cerveau

Sciences- évolutions cognitives et taille du cerveau

Tesla Monson, professeure d’anthropologie à l’Université Western Washington, explique depuis combien de temps les humains ont de si gros cerveaux. Un phénomène qui s’accompagne, selon elle, de nombreuses capacités cognitives.

Les fossiles nous racontent ce que les êtres humains et nos prédécesseurs faisaient il y a des centaines de milliers d’années. Mais certaines étapes importantes du cycle de la vie, comme la grossesse ou la gestation, ne laissent aucune trace dans les archives fossiles. Comment les étudier ? Une des caractéristiques de notre espèce est d’avoir des cerveaux de taille importante par rapport à la taille totale du corps, ce qui rend la grossesse particulièrement intéressante pour les paléoanthropologues. Mais alors que les crânes imposants d’Homo sapiens contribuent aux difficultés de l’accouchement, ce sont les cerveaux logés à l’intérieur qui ont permis à notre espèce de prendre son envol.

Mes collègues et moi voulons comprendre le développement du cerveau de nos ancêtres avant la naissance : était-il comparable à celui des fœtus aujourd’hui ? En étudiant quand la croissance prénatale et la grossesse sont devenues « humaines », on comprend mieux quand et comment le cerveau de nos ancêtres est devenu plus similaire au nôtre qu’à ceux de nos proches cousins les singes.

Nous avons étudié l’évolution des taux de croissance prénatale en regardant le développement in utero des dents, qui, elles, fossilisent. Grâce à un modèle mathématique des longueurs relatives des molaires, construit pour l’occasion, nous pouvons suivre les changements évolutifs des taux de croissance prénatale dans les archives fossiles.
D’après notre modèle, il semblerait que la grossesse et la croissance prénatale soient devenues plus proches de l’humain que du chimpanzé il y a près d’un million d’années.

La grossesse et la gestation sont des périodes importantes – elles guident la croissance ultérieure et orientent le cours biologique de la vie.
La suite après cette publicité

Mais la grossesse humaine, en particulier le travail et l’accouchement, coûte beaucoup d’énergie et est souvent dangereuse. Le cerveau du fœtus a besoin de beaucoup de nutriments pendant son développement et le taux de croissance de l’embryon pendant la gestation, également appelé « taux de croissance prénatale », impose un lourd tribut métabolique et physiologique au parent en gestation. De plus, le passage délicat de la tête et des épaules du nourrisson à travers le canal pelvien pendant l’accouchement peut entraîner la mort, tant de la mère que de l’enfant.

En contrepartie de ces inconvénients évolutifs, il faut une très bonne raison d’avoir une tête aussi grosse. Le gros cerveau caractéristique de l’espèce humaine s’accompagne de nombreuses capacités cognitives, et l’évolution du cerveau a contribué à la domination de notre espèce : elle est notamment associée à une utilisation accrue d’outils, à la création d’œuvres d’art et à la capacité de survivre dans des environnements variés. L’évolution de nos cerveaux est aussi entremêlée avec nos capacités à trouver et exploiter davantage de ressources, avec des outils et en coopérant par exemple.

Les changements dans la croissance prénatale nous renseignent également sur les façons dont les parents rassemblaient les ressources alimentaires et les distribuaient à leur progéniture. Ces ressources croissantes auraient contribué à l’évolution d’un cerveau encore plus gros. En comprenant mieux à quel moment la croissance prénatale et la grossesse sont devenues « humaines », on peut savoir quand et comment notre cerveau a évolué lui aussi.

L’homme a le taux de croissance prénatale le plus élevé de tous les primates vivant aujourd’hui, soit 11,58 grammes par jour. Les gorilles, par exemple, ont une taille adulte beaucoup plus grande que celle des humains, mais leur taux de croissance prénatale n’est que de 8,16 grammes par jour. Étant donné que plus d’un quart de la croissance du cerveau humain s’effectue pendant la gestation, le taux de croissance prénatale est directement lié à la taille du cerveau adulte. Quand et comment le taux de croissance prénatale de Homo sapiens a évolué est resté un mystère jusqu’à présent.
Ce que les dents révèlent de la croissance prénatale

Les chercheurs étudient depuis des siècles les restes de squelettes fossilisés, mais malheureusement, les cerveaux ne fossilisent pas – et encore moins la gestation et le taux de croissance prénatale.

Mes collègues et moi réfléchissons à la façon dont les dents se développent, très tôt dans l’utérus. Les dents permanentes commencent à se développer bien avant la naissance, vers 20 semaines de gestation. L’émail des dents est inorganique à plus de 95 %, et la majorité des fossiles de vertébrés est constituée de dents ou en possède. Partant de ce constat, nous avons décidé d’étudier la relation entre le taux de croissance prénatale, la taille du cerveau et la longueur des dents.

Nous avons mesuré les dents de 608 primates contemporains provenant de collections de squelettes du monde entier et les avons comparées aux taux de croissance prénatale calculés à partir de la durée moyenne de gestation et de la masse à la naissance pour chaque espèce. Comme indicateur de la taille du cerveau, nous utilisons le volume endocrânien (l’espace à l’intérieur du crâne). Nous avons constaté que le taux de croissance prénatale présente une corrélation significative avec la taille du cerveau adulte et la longueur relative des dents chez les singes et les grands singes.
Cette relation statistique a permis de générer une équation mathématique qui prédit le taux de croissance prénatale à partir de la taille des dents. Avec cette équation, nous pouvons prendre quelques dents molaires d’une espèce fossile éteinte et reconstituer exactement la vitesse de croissance de leur progéniture pendant la gestation.

En utilisant cette nouvelle méthode, nous avons pu reconstituer les taux de croissance prénatale pour treize espèces fossiles, construisant ainsi une chronologie des changements survenus au cours des six derniers millions d’années d’évolution des humains et des hominidés (le terme « hominidé » désigne toutes les espèces, Australopithecus entre autres, appartenant à la lignée « humaine » depuis sa séparation avec celle des chimpanzés, il y a environ 6 à 8 millions d’années). Grâce à ces recherches, nous savons maintenant que le taux de croissance prénatale a augmenté tout au long de l’évolution des hominidés, pour atteindre il y a moins d’un million d’années un taux semblable à celui des humains – qui dépasse celui observé chez tous les autres singes.
Un taux de croissance prénatale totalement similaire à celui des humains est apparu seulement avec l’évolution de notre espèce Homo sapiens, il y a 200 000 ans environ. Mais d’autres espèces d’hominidés vivant au cours des 200 000 dernières années, comme les Néandertaliens, avaient également des taux de croissance prénatale du même ordre de grandeur. Il reste à déterminer quels gènes ont été impliqués dans ces changements de taux de croissance.

Avec seulement quelques dents et une partie de la mâchoire, un expert chevronné peut en apprendre beaucoup sur un individu disparu : de quelle espèce il s’agissait, ce qu’il mangeait, s’il se battait pour obtenir des partenaires, à quel âge il est mort, s’il avait des problèmes de santé, et bien plus encore. Nous pouvons maintenant ajouter à cette liste le fait de savoir à quoi ressemblaient la grossesse et la gestation pour cette espèce. Les dents pourraient aussi refléter indirectement l’émergence de la conscience humaine, via l’évolution de la taille du cerveau.
Le modèle suggère que les taux de croissance prénatale ont commencé à augmenter bien avant l’émergence de notre espèce, Homo sapiens. On peut supposer qu’un taux de croissance prénatale rapide a été nécessaire à l’apparition d’un cerveau imposant et à l’évolution de la conscience et des capacités cognitives humaines. Voilà le genre de questions que nos recherches nous permettent dorénavant de formuler… à partir de quelques dents.

Cet article est republié à partir de The Conversation ..

Sciences et avenir- L’Intelligence artificielle (IA) présentes les activités économiques

Sciences et avenir- L’Intelligence artificielle (IA) présentes les activités économiques et humaines


L’objectif ultime de l’IA est de développer un système intelligent pour simuler la pensée et l’intelligence humaines, tandis que le Machine Learning (ML) permet à la machine d’apprendre à partir des données pour donner le résultat souhaité. Alors que l’IA vise à rendre les machines plus humaines, le ML aide à faire en sorte que les machines apprennent comme les humains. Par Xavier Dalloz, consultant spécialisé dans les nouvelles technologies.

Les principales applications de l’IA et du ML concernent l’intelligence prévisionnelle et l’aide à la prise de décision. Pour chaque application, le pouvoir ne vient pas des machines, mais des décideurs qui sont derrière les machines, guidant leur réaction aux prédictions.
Un scientifique de l’Institut Max Planck résume très bien le principal enjeu : « l’IA va changer la médecine. Cela va changer la recherche. Cela changera la bio-ingénierie. Cela va tout changer ».
Et pour Jack Solow, le messages est encore plus clair « en 2011, les logiciels dévoraient le monde ; en 2022, l’IA dévore les logiciels. » Toute entreprise sans stratégie d’IA viable sera marginalisée d’ici la fin de cette décennie ».

L’intelligence artificielle prendra la relève de nombreuses activités, telles que la recherche sur le net, obtenir des conseils de voyage, et surtout les assistants personnels et les chatbots. Avec de l’intelligence artificielle dans les objets, nous n’aurons plus besoin d’interagir avec eux puisqu’ils sont capables de devenir autonomes et d’apprendre à anticiper nos intentions. Plus concrètement, l’IA va nous libérer d’un certain nombre d’actes inutiles et chronophages.

Pour la Darpa, l’Intelligence artificielle se mesure en fonction de quatre capacités :
• Percevoir
o C’est-à-dire récupérer des informations de l’environnement externe et la capacité à inférer des choses sur le monde via des sons, des images et d’autres entrées sensorielles.
• Apprentissage
o C’est-à-dire améliorer de façon autonome les fonctions de base
• Abstraction
o C’est-à-dire adaptation autonome à de nouvelles situations et compréhension du contexte
• Raisonnement
o C’est-à-dire prendre des décisions correctes avec de meilleures réponses en fonction des connaissances disponibles

On peut résumer les étapes du déploiement de l’intelligence artificielle de la façon suivante ;
• Première étape – Connaissance artisanale
La première vague de systèmes d’IA repose sur des connaissances artisanales. Ces systèmes, construits par des experts du domaine, contiennent des règles qui décrivent les processus de base et les ensembles de connaissances de domaines spécifiques.
• Deuxième étape – Apprentissage statistique
Les systèmes d’IA de deuxième vague sont ceux construits en utilisant des techniques d’apprentissage automatique telles que les réseaux de neurones. Ces systèmes s’appuient sur des modèles statistiques qui caractérisent un domaine spécifique. Ils alimentent ensuite les algorithmes du Big data en affinant sa capacité à prédire correctement le résultat.
• Troisième étape – Adaptation contextuelle
La troisième vague d’IA est constitué des systèmes capables d’adaptation contextuelle. Ce sont des systèmes qui construisent des modèles explicatifs pour des classes de phénomènes du monde réel. Les systèmes de la troisième vague montrent une capacité à comprendre ce qu’ils font et pourquoi ils le font.
Les types d’intelligence artificielle peuvent être regroupées en cinq catégories:
• Raisonnement
La capacité de résoudre des problèmes par déduction logique .
• Connaissance
La capacité de présenter des connaissances sur le monde. Par exemple : la négociation sur les marchés financiers, la prévision des achats, la prévention de la fraude, la création de médicaments ou le diagnostic médical.
• Planification
La capacité de définir et d’atteindre des objectifs. Par exemple : la gestion des stocks, la prévision de la demande, la maintenance prédictive, l’optimisation des réseaux physique et numérique, etc.
• Communication
La capacité à comprendre le langage parlé et écrit. Par exemple : la traduction en temps réel des langues parlées et écrites, les assistants intelligents ou la commande vocale
• Explicabilité
Sans explications derrière les fonctionnalités internes d’un modèle d’IA et les décisions qu’il prend, il y a un risque que le modèle ne soit pas considéré comme digne de confiance ou légitime. XAI offre la compréhensibilité et la transparence nécessaires pour permettre une plus grande confiance envers les solutions basées sur l’IA.
• Les réseaux de neurones
Les réseaux de neurones fonctionnent sur les principes similaires à ceux des cellules neuronales humaines. Il s’agit d’une série d’algorithmes qui capturent la relation entre diverses variables sous-jacentes et enregistrent les données comme le fait un cerveau humain.
• Traitement du langage naturel (PNL)
Le PNL est une science de lecture, de compréhension, d’interprétation d’un langage par une machine. Une fois qu’une machine comprend ce que l’utilisateur a l’intention de communiquer, elle répond en conséquence.
• Vision par ordinateur
Utiliser la vision par ordinateur signifie que l’utilisateur entre une image dans le système et que ce qu’il reçoit en tant que sortie peut inclure des caractéristiques quantitatives et donc de décisions.

Voici quelques exemples d’applications de l’intelligence qui vont être au cœur de la réinvention de secteurs d’activités :

Exemples dans le domaine des services financiers
L’intelligence artificielle dans le secteur bancaire accélère la numérisation des processus bancaires et financiers de bout en bout. En mettant en œuvre la puissance de l’analyse de données, des algorithmes ML intelligents et des intégrations sécurisées dans les applications, les applications d’IA optimisent la qualité du service et aident les entreprises à identifier et à combattre les fausses transactions.
• Exemple des Chatbots IA
o Les chatbots IA du secteur bancaire peuvent assister les clients 24h/24 et 7j/7 et donner des réponses précises à leurs requêtes. Ces chatbots offrent une expérience personnalisée aux utilisateurs.
• Exemple de l’amélioration de l’expérience client
o Les applications mobiles intelligentes utilisant des algorithmes ML peuvent surveiller le comportement des utilisateurs et en tirer des informations précieuses basées sur les modèles de recherche des utilisateurs. Ces informations vont aider les fournisseurs de services à proposer des recommandations personnalisées aux utilisateurs finaux.

• Exemple de l’automatisation et rend le processus transparent
o Les applications d’IA peuvent réduire la charge de travail des banquiers et optimiser la qualité du travail.
• Exemple de la collecte et de l’analyse de données
o Les banques peuvent également prendre des décisions commerciales efficaces grâce aux informations tirées des données clients et leur proposer des recommandations de services personnalisées.
• Exemple de la gestion de portefeuille
o La gestion de patrimoine et de portefeuille peut être effectuée de manière plus puissante grâce à l’intelligence artificielle.
• Exemple de la gestion des risques
o L’IA va aider les banquiers à identifier les risques liés à l’octroi de prêts.
o En utilisant le processus d’évaluation des risques basé sur l’IA, les banquiers peuvent analyser le comportement de l’emprunteur et ainsi réduire la possibilité d’actes frauduleux.
• Exemple de la détection de la fraude
o Les applications bancaires d’intelligence artificielle détectent les risques et minimisent les actes frauduleux.

Exemples dans le domaine de la gestion des villes
• Exemple du contrôle de la pollution
o Prédire les niveaux de pollution pour les prochaines heures. Ce type de technologie permet aux autorités de prendre des décisions à l’avance pour réduire leur impact sur l’environnement.
• Exemple de la gestion des systèmes de stationnement
o La disponibilité des places peut être présentée aux utilisateurs en attente, certaines technologies plus avancées ont la capacité de recommander des places en fonction de la voiture.
• Exemple da la gestion des transports publics
o Permettre aux usagers des transports en commun de recevoir et d’accéder aux dates et suivis en temps réel, ce qui améliore le timing et la satisfaction des clients.
• Exemple de la gestion des déchets
o Permettre aux villes de suivre le recyclage et d’identifier ce qui peut être recyclé dans la région.
• Exemple de la gestion du trafic
o Prédire et réduire le trafic, en utilisant des algorithmes d’apprentissage en profondeur, ce qui peut également réduire la pollution créée par le trafic.
• Exemple du suivi de la consommation de l’énergie
o Analyser et suivre la consommation d’énergie des entreprises et des citoyens, avec ces données, il peut ensuite être décidé où impliquer des sources d’énergie renouvelables.
• Exemple de la gestion de l’environnement
o Permettre aux autorités et aux villes de prendre des décisions éclairées qui sont les meilleures pour l’environnement. Les villes intelligentes utilisent également l’IA pour détecter le CO2, ce qui peut ensuite conduire à des décisions en matière de transport.

Exemples dans le domaine du commerce de détail
Le potentiel pour stimuler les ventes avec de l’IA dans les magasins est considérable :
• La reconnaissance intelligente des produits et la facturation automatisée permettent des magasins sans caissier
• Les interfaces d’IA telles que les chatbots et les écrans interactifs prennent en charge le service client
• Une tarification intelligente permet de gérer la demande et de stimuler les ventes
• L’analyse prédictive aide à la prévision des prix en fonction de la demande et des tendances saisonnières
• La gestion intelligente de la chaîne d’approvisionnement et la logistique améliorent la disponibilité des produit.
• Les modèles d’apprentissage automatique catégorisent et regroupent automatiquement les produits
• Les cabines d’essayage virtuelles avec miroirs intelligents prennent en charge le libre-service au plus haut niveau
• Prédire le comportement des clients
• Améliorer l’aménagement de la surface de vente en fonction de l’analyse du comportement des clients

Exemples dans le domaine de la santé
Qu’il s’agisse de l’utiliser pour détecter des liens entre des codes génétiques, d’utiliser des robots chirurgicaux ou même de maximiser l’efficacité des hôpitaux.
Par exemple :
• Soutien aux décisions cliniques
• Amélioration aux soins primaires grâce aux chatbots
• Chirurgies robotiques
• Infirmières auxiliaires virtuelles
• Aide au diagnostic précis

Sciences et prospective- L’Intelligence artificielle (IA) au centre de toutes les activités économiques

Sciences et prospective- L’Intelligence artificielle (IA) au centre de toutes les activités économiques


L’objectif ultime de l’IA est de développer un système intelligent pour simuler la pensée et l’intelligence humaines, tandis que le Machine Learning (ML) permet à la machine d’apprendre à partir des données pour donner le résultat souhaité. Alors que l’IA vise à rendre les machines plus humaines, le ML aide à faire en sorte que les machines apprennent comme les humains. Par Xavier Dalloz, consultant spécialisé dans les nouvelles technologies.

Les principales applications de l’IA et du ML concernent l’intelligence prévisionnelle et l’aide à la prise de décision. Pour chaque application, le pouvoir ne vient pas des machines, mais des décideurs qui sont derrière les machines, guidant leur réaction aux prédictions.
Un scientifique de l’Institut Max Planck résume très bien le principal enjeu : « l’IA va changer la médecine. Cela va changer la recherche. Cela changera la bio-ingénierie. Cela va tout changer ».
Et pour Jack Solow, le messages est encore plus clair « en 2011, les logiciels dévoraient le monde ; en 2022, l’IA dévore les logiciels. » Toute entreprise sans stratégie d’IA viable sera marginalisée d’ici la fin de cette décennie ».

L’intelligence artificielle prendra la relève de nombreuses activités, telles que la recherche sur le net, obtenir des conseils de voyage, et surtout les assistants personnels et les chatbots. Avec de l’intelligence artificielle dans les objets, nous n’aurons plus besoin d’interagir avec eux puisqu’ils sont capables de devenir autonomes et d’apprendre à anticiper nos intentions. Plus concrètement, l’IA va nous libérer d’un certain nombre d’actes inutiles et chronophages.

Pour la Darpa, l’Intelligence artificielle se mesure en fonction de quatre capacités :
• Percevoir
o C’est-à-dire récupérer des informations de l’environnement externe et la capacité à inférer des choses sur le monde via des sons, des images et d’autres entrées sensorielles.
• Apprentissage
o C’est-à-dire améliorer de façon autonome les fonctions de base
• Abstraction
o C’est-à-dire adaptation autonome à de nouvelles situations et compréhension du contexte
• Raisonnement
o C’est-à-dire prendre des décisions correctes avec de meilleures réponses en fonction des connaissances disponibles

On peut résumer les étapes du déploiement de l’intelligence artificielle de la façon suivante ;
• Première étape – Connaissance artisanale
La première vague de systèmes d’IA repose sur des connaissances artisanales. Ces systèmes, construits par des experts du domaine, contiennent des règles qui décrivent les processus de base et les ensembles de connaissances de domaines spécifiques.
• Deuxième étape – Apprentissage statistique
Les systèmes d’IA de deuxième vague sont ceux construits en utilisant des techniques d’apprentissage automatique telles que les réseaux de neurones. Ces systèmes s’appuient sur des modèles statistiques qui caractérisent un domaine spécifique. Ils alimentent ensuite les algorithmes du Big data en affinant sa capacité à prédire correctement le résultat.
• Troisième étape – Adaptation contextuelle
La troisième vague d’IA est constitué des systèmes capables d’adaptation contextuelle. Ce sont des systèmes qui construisent des modèles explicatifs pour des classes de phénomènes du monde réel. Les systèmes de la troisième vague montrent une capacité à comprendre ce qu’ils font et pourquoi ils le font.
Les types d’intelligence artificielle peuvent être regroupées en cinq catégories:
• Raisonnement
La capacité de résoudre des problèmes par déduction logique .
• Connaissance
La capacité de présenter des connaissances sur le monde. Par exemple : la négociation sur les marchés financiers, la prévision des achats, la prévention de la fraude, la création de médicaments ou le diagnostic médical.
• Planification
La capacité de définir et d’atteindre des objectifs. Par exemple : la gestion des stocks, la prévision de la demande, la maintenance prédictive, l’optimisation des réseaux physique et numérique, etc.
• Communication
La capacité à comprendre le langage parlé et écrit. Par exemple : la traduction en temps réel des langues parlées et écrites, les assistants intelligents ou la commande vocale
• Explicabilité
Sans explications derrière les fonctionnalités internes d’un modèle d’IA et les décisions qu’il prend, il y a un risque que le modèle ne soit pas considéré comme digne de confiance ou légitime. XAI offre la compréhensibilité et la transparence nécessaires pour permettre une plus grande confiance envers les solutions basées sur l’IA.
• Les réseaux de neurones
Les réseaux de neurones fonctionnent sur les principes similaires à ceux des cellules neuronales humaines. Il s’agit d’une série d’algorithmes qui capturent la relation entre diverses variables sous-jacentes et enregistrent les données comme le fait un cerveau humain.
• Traitement du langage naturel (PNL)
Le PNL est une science de lecture, de compréhension, d’interprétation d’un langage par une machine. Une fois qu’une machine comprend ce que l’utilisateur a l’intention de communiquer, elle répond en conséquence.
• Vision par ordinateur
Utiliser la vision par ordinateur signifie que l’utilisateur entre une image dans le système et que ce qu’il reçoit en tant que sortie peut inclure des caractéristiques quantitatives et donc de décisions.

Voici quelques exemples d’applications de l’intelligence qui vont être au cœur de la réinvention de secteurs d’activités :

Exemples dans le domaine des services financiers
L’intelligence artificielle dans le secteur bancaire accélère la numérisation des processus bancaires et financiers de bout en bout. En mettant en œuvre la puissance de l’analyse de données, des algorithmes ML intelligents et des intégrations sécurisées dans les applications, les applications d’IA optimisent la qualité du service et aident les entreprises à identifier et à combattre les fausses transactions.
• Exemple des Chatbots IA
o Les chatbots IA du secteur bancaire peuvent assister les clients 24h/24 et 7j/7 et donner des réponses précises à leurs requêtes. Ces chatbots offrent une expérience personnalisée aux utilisateurs.
• Exemple de l’amélioration de l’expérience client
o Les applications mobiles intelligentes utilisant des algorithmes ML peuvent surveiller le comportement des utilisateurs et en tirer des informations précieuses basées sur les modèles de recherche des utilisateurs. Ces informations vont aider les fournisseurs de services à proposer des recommandations personnalisées aux utilisateurs finaux.

• Exemple de l’automatisation et rend le processus transparent
o Les applications d’IA peuvent réduire la charge de travail des banquiers et optimiser la qualité du travail.
• Exemple de la collecte et de l’analyse de données
o Les banques peuvent également prendre des décisions commerciales efficaces grâce aux informations tirées des données clients et leur proposer des recommandations de services personnalisées.
• Exemple de la gestion de portefeuille
o La gestion de patrimoine et de portefeuille peut être effectuée de manière plus puissante grâce à l’intelligence artificielle.
• Exemple de la gestion des risques
o L’IA va aider les banquiers à identifier les risques liés à l’octroi de prêts.
o En utilisant le processus d’évaluation des risques basé sur l’IA, les banquiers peuvent analyser le comportement de l’emprunteur et ainsi réduire la possibilité d’actes frauduleux.
• Exemple de la détection de la fraude
o Les applications bancaires d’intelligence artificielle détectent les risques et minimisent les actes frauduleux.

Exemples dans le domaine de la gestion des villes
• Exemple du contrôle de la pollution
o Prédire les niveaux de pollution pour les prochaines heures. Ce type de technologie permet aux autorités de prendre des décisions à l’avance pour réduire leur impact sur l’environnement.
• Exemple de la gestion des systèmes de stationnement
o La disponibilité des places peut être présentée aux utilisateurs en attente, certaines technologies plus avancées ont la capacité de recommander des places en fonction de la voiture.
• Exemple da la gestion des transports publics
o Permettre aux usagers des transports en commun de recevoir et d’accéder aux dates et suivis en temps réel, ce qui améliore le timing et la satisfaction des clients.
• Exemple de la gestion des déchets
o Permettre aux villes de suivre le recyclage et d’identifier ce qui peut être recyclé dans la région.
• Exemple de la gestion du trafic
o Prédire et réduire le trafic, en utilisant des algorithmes d’apprentissage en profondeur, ce qui peut également réduire la pollution créée par le trafic.
• Exemple du suivi de la consommation de l’énergie
o Analyser et suivre la consommation d’énergie des entreprises et des citoyens, avec ces données, il peut ensuite être décidé où impliquer des sources d’énergie renouvelables.
• Exemple de la gestion de l’environnement
o Permettre aux autorités et aux villes de prendre des décisions éclairées qui sont les meilleures pour l’environnement. Les villes intelligentes utilisent également l’IA pour détecter le CO2, ce qui peut ensuite conduire à des décisions en matière de transport.

Exemples dans le domaine du commerce de détail
Le potentiel pour stimuler les ventes avec de l’IA dans les magasins est considérable :
• La reconnaissance intelligente des produits et la facturation automatisée permettent des magasins sans caissier
• Les interfaces d’IA telles que les chatbots et les écrans interactifs prennent en charge le service client
• Une tarification intelligente permet de gérer la demande et de stimuler les ventes
• L’analyse prédictive aide à la prévision des prix en fonction de la demande et des tendances saisonnières
• La gestion intelligente de la chaîne d’approvisionnement et la logistique améliorent la disponibilité des produit.
• Les modèles d’apprentissage automatique catégorisent et regroupent automatiquement les produits
• Les cabines d’essayage virtuelles avec miroirs intelligents prennent en charge le libre-service au plus haut niveau
• Prédire le comportement des clients
• Améliorer l’aménagement de la surface de vente en fonction de l’analyse du comportement des clients

Exemples dans le domaine de la santé
Qu’il s’agisse de l’utiliser pour détecter des liens entre des codes génétiques, d’utiliser des robots chirurgicaux ou même de maximiser l’efficacité des hôpitaux.
Par exemple :
• Soutien aux décisions cliniques
• Amélioration aux soins primaires grâce aux chatbots
• Chirurgies robotiques
• Infirmières auxiliaires virtuelles
• Aide au diagnostic précis

Sciences-Taille du cerveau et évolutions cognitives

Sciences- Taille du cerveau humain et évolutions cognitives

Tesla Monson, professeure d’anthropologie à l’Université Western Washington, explique depuis combien de temps les humains ont de si gros cerveaux. Un phénomène qui s’accompagne, selon elle, de nombreuses capacités cognitives.

Les fossiles nous racontent ce que les êtres humains et nos prédécesseurs faisaient il y a des centaines de milliers d’années. Mais certaines étapes importantes du cycle de la vie, comme la grossesse ou la gestation, ne laissent aucune trace dans les archives fossiles. Comment les étudier ? Une des caractéristiques de notre espèce est d’avoir des cerveaux de taille importante par rapport à la taille totale du corps, ce qui rend la grossesse particulièrement intéressante pour les paléoanthropologues. Mais alors que les crânes imposants d’Homo sapiens contribuent aux difficultés de l’accouchement, ce sont les cerveaux logés à l’intérieur qui ont permis à notre espèce de prendre son envol.

Mes collègues et moi voulons comprendre le développement du cerveau de nos ancêtres avant la naissance : était-il comparable à celui des fœtus aujourd’hui ? En étudiant quand la croissance prénatale et la grossesse sont devenues « humaines », on comprend mieux quand et comment le cerveau de nos ancêtres est devenu plus similaire au nôtre qu’à ceux de nos proches cousins les singes.

Nous avons étudié l’évolution des taux de croissance prénatale en regardant le développement in utero des dents, qui, elles, fossilisent. Grâce à un modèle mathématique des longueurs relatives des molaires, construit pour l’occasion, nous pouvons suivre les changements évolutifs des taux de croissance prénatale dans les archives fossiles.
D’après notre modèle, il semblerait que la grossesse et la croissance prénatale soient devenues plus proches de l’humain que du chimpanzé il y a près d’un million d’années.

La grossesse et la gestation sont des périodes importantes – elles guident la croissance ultérieure et orientent le cours biologique de la vie.
La suite après cette publicité

Mais la grossesse humaine, en particulier le travail et l’accouchement, coûte beaucoup d’énergie et est souvent dangereuse. Le cerveau du fœtus a besoin de beaucoup de nutriments pendant son développement et le taux de croissance de l’embryon pendant la gestation, également appelé « taux de croissance prénatale », impose un lourd tribut métabolique et physiologique au parent en gestation. De plus, le passage délicat de la tête et des épaules du nourrisson à travers le canal pelvien pendant l’accouchement peut entraîner la mort, tant de la mère que de l’enfant.

En contrepartie de ces inconvénients évolutifs, il faut une très bonne raison d’avoir une tête aussi grosse. Le gros cerveau caractéristique de l’espèce humaine s’accompagne de nombreuses capacités cognitives, et l’évolution du cerveau a contribué à la domination de notre espèce : elle est notamment associée à une utilisation accrue d’outils, à la création d’œuvres d’art et à la capacité de survivre dans des environnements variés. L’évolution de nos cerveaux est aussi entremêlée avec nos capacités à trouver et exploiter davantage de ressources, avec des outils et en coopérant par exemple.

Les changements dans la croissance prénatale nous renseignent également sur les façons dont les parents rassemblaient les ressources alimentaires et les distribuaient à leur progéniture. Ces ressources croissantes auraient contribué à l’évolution d’un cerveau encore plus gros. En comprenant mieux à quel moment la croissance prénatale et la grossesse sont devenues « humaines », on peut savoir quand et comment notre cerveau a évolué lui aussi.

L’homme a le taux de croissance prénatale le plus élevé de tous les primates vivant aujourd’hui, soit 11,58 grammes par jour. Les gorilles, par exemple, ont une taille adulte beaucoup plus grande que celle des humains, mais leur taux de croissance prénatale n’est que de 8,16 grammes par jour. Étant donné que plus d’un quart de la croissance du cerveau humain s’effectue pendant la gestation, le taux de croissance prénatale est directement lié à la taille du cerveau adulte. Quand et comment le taux de croissance prénatale de Homo sapiens a évolué est resté un mystère jusqu’à présent.
Ce que les dents révèlent de la croissance prénatale

Les chercheurs étudient depuis des siècles les restes de squelettes fossilisés, mais malheureusement, les cerveaux ne fossilisent pas – et encore moins la gestation et le taux de croissance prénatale.

Mes collègues et moi réfléchissons à la façon dont les dents se développent, très tôt dans l’utérus. Les dents permanentes commencent à se développer bien avant la naissance, vers 20 semaines de gestation. L’émail des dents est inorganique à plus de 95 %, et la majorité des fossiles de vertébrés est constituée de dents ou en possède. Partant de ce constat, nous avons décidé d’étudier la relation entre le taux de croissance prénatale, la taille du cerveau et la longueur des dents.

Nous avons mesuré les dents de 608 primates contemporains provenant de collections de squelettes du monde entier et les avons comparées aux taux de croissance prénatale calculés à partir de la durée moyenne de gestation et de la masse à la naissance pour chaque espèce. Comme indicateur de la taille du cerveau, nous utilisons le volume endocrânien (l’espace à l’intérieur du crâne). Nous avons constaté que le taux de croissance prénatale présente une corrélation significative avec la taille du cerveau adulte et la longueur relative des dents chez les singes et les grands singes.
Cette relation statistique a permis de générer une équation mathématique qui prédit le taux de croissance prénatale à partir de la taille des dents. Avec cette équation, nous pouvons prendre quelques dents molaires d’une espèce fossile éteinte et reconstituer exactement la vitesse de croissance de leur progéniture pendant la gestation.

En utilisant cette nouvelle méthode, nous avons pu reconstituer les taux de croissance prénatale pour treize espèces fossiles, construisant ainsi une chronologie des changements survenus au cours des six derniers millions d’années d’évolution des humains et des hominidés (le terme « hominidé » désigne toutes les espèces, Australopithecus entre autres, appartenant à la lignée « humaine » depuis sa séparation avec celle des chimpanzés, il y a environ 6 à 8 millions d’années). Grâce à ces recherches, nous savons maintenant que le taux de croissance prénatale a augmenté tout au long de l’évolution des hominidés, pour atteindre il y a moins d’un million d’années un taux semblable à celui des humains – qui dépasse celui observé chez tous les autres singes.
Un taux de croissance prénatale totalement similaire à celui des humains est apparu seulement avec l’évolution de notre espèce Homo sapiens, il y a 200 000 ans environ. Mais d’autres espèces d’hominidés vivant au cours des 200 000 dernières années, comme les Néandertaliens, avaient également des taux de croissance prénatale du même ordre de grandeur. Il reste à déterminer quels gènes ont été impliqués dans ces changements de taux de croissance.

Avec seulement quelques dents et une partie de la mâchoire, un expert chevronné peut en apprendre beaucoup sur un individu disparu : de quelle espèce il s’agissait, ce qu’il mangeait, s’il se battait pour obtenir des partenaires, à quel âge il est mort, s’il avait des problèmes de santé, et bien plus encore. Nous pouvons maintenant ajouter à cette liste le fait de savoir à quoi ressemblaient la grossesse et la gestation pour cette espèce. Les dents pourraient aussi refléter indirectement l’émergence de la conscience humaine, via l’évolution de la taille du cerveau.
Le modèle suggère que les taux de croissance prénatale ont commencé à augmenter bien avant l’émergence de notre espèce, Homo sapiens. On peut supposer qu’un taux de croissance prénatale rapide a été nécessaire à l’apparition d’un cerveau imposant et à l’évolution de la conscience et des capacités cognitives humaines. Voilà le genre de questions que nos recherches nous permettent dorénavant de formuler… à partir de quelques dents.

Cet article est republié à partir de The Conversation ..

123



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol