Archive pour la Catégorie 'sciences'

Page 2 sur 14

Un autre regard sur l’évolution humaine

Un autre regard sur l’évolution humaine

par
Bernard Lahire
Directeur de recherche CNRS, Centre Max Weber/ENS de Lyon, ENS de Lyon dans The Conversation

« Et si les sociétés humaines étaient structurées par quelques grandes propriétés de l’espèce et gouvernées par des lois générales ? Et si leurs trajectoires historiques pouvaient mieux se comprendre en les réinscrivant dans une longue histoire évolutive ? Dans une somme importante récemment parue aux Éditions de la Découverte, Bernard Lahire propose une réflexion cruciale sur la science sociale du vivant. Extraits choisis de l’introduction. »

« D’où venons-nous ? Que sommes-nous ? Où allons-nous ? » [Ces questions] relèvent non de la pure spéculation, mais de travaux scientifiques sur la biologie de l’espèce et l’éthologie comparée, la paléoanthropologie, la préhistoire, l’histoire, l’anthropologie et la sociologie.

C’est avec ce genre d’interrogations fondamentales que cet ouvrage cherche à renouer. Si j’emploie le verbe « renouer », c’est parce que les sciences sociales n’ont pas toujours été aussi spécialisées, enfermées dans des aires géographiques, des périodes historiques ou des domaines de spécialité très étroits, et en définitive coupées des grandes questions existentielles sur les origines, les grandes propriétés et le devenir de l’humanité.

Les sociologues notamment n’ont pas toujours été les chercheurs hyperspécialisés attachés à l’étude de leurs propres sociétés (industrialisées, étatisées, bureaucratisées, scolarisées, urbanisées, etc.) qu’ils sont très largement devenus et n’hésitaient pas à étudier les premières formes de société, à établir des comparaisons inter-sociétés ou inter-civilisations, ou à esquisser des processus de longue durée.

De même, il fut un temps reculé où un anthropologue comme Lewis H. Morgan pouvait publier une étude éthologique sur le mode de vie des castors américains et où deux autres anthropologues étatsuniens, Alfred Kroeber et Leslie White, « ne cessèrent d’utiliser les exemples animaux pour caractériser la question de l’humanité » ; et un temps plus récent, mais qui nous paraît déjà lointain, où un autre anthropologue comme Marshall Sahlins pouvait publier des articles comparant sociétés humaines de chasseurs-cueilleurs et vie sociale des primates non humains.

Mais ce qui a changé de façon très nette par rapport au passé des grands fondateurs des sciences sociales, c’est le fait que la prise de conscience écologique – récente dans la longue histoire de l’humanité – de la finitude de notre espèce pèse désormais sur le type de réflexion que les sciences sociales peuvent développer. Ce nouvel « air du temps », qui a des fondements dans la réalité objective, a conduit les chercheurs à s’interroger sur la trajectoire spécifique des sociétés humaines, à mesurer ses effets destructeurs sur le vivant, qui font peser en retour des menaces d’autodestruction et de disparition de notre espèce. Ces questions, absentes de la réflexion d’auteurs tels que Durkheim ou Weber, étaient davantage présentes dans la réflexion de Morgan ou de Marx, qui avaient conscience des liens intimes entre les humains et la nature, ainsi que du caractère particulièrement destructeur des sociétés (étatsunienne et européenne) dans lesquelles ils vivaient.

Cinéma et littérature ont pris en charge ces interrogations, qui prennent diversement la forme de scénarios dystopiques, apocalyptiques ou survivalistes. Et des essais « grand public » rédigés par des auteurs plus ou moins académiques, de même que des ouvrages plus savants, brossent depuis quelques décennies des fresques historiques sur la trajectoire de l’humanité, s’interrogent sur ses constantes et les grandes logiques qui la traversent depuis le début, formulent des théories effondristes, etc.

Comme souvent dans ce genre de cas, la science a été plutôt malmenée, cédant le pas au catastrophisme (collapsologie) ou au prométhéisme (transhumanisme) et à des récits faiblement théorisés, inspirés parfois par une vision angélique ou irénique de l’humanité. Cette littérature se caractérise aussi par une méconnaissance très grande, soit des travaux issus de la biologie évolutive, de l’éthologie, de la paléoanthropologie ou de la préhistoire, soit des travaux de l’anthropologie, de l’histoire et de la sociologie, et parfois même des deux, lorsque des psychologues évolutionnistes prétendent pouvoir expliquer l’histoire des sociétés humaines en faisant fi des comparaisons inter-espèces comme des comparaisons inter-sociétés.

Cette situation d’ensemble exigeant une forte conscience de ce que nous sommes, elle me semble favorable à une réflexion scientifique sur les impératifs sociaux transhistoriques et transculturels, et sur les lois de fonctionnement des sociétés humaines, ainsi qu’à une réinscription sociologique de la trajectoire de l’humanité dans une longue histoire évolutive des espèces.

Elle implique pour cela de faire une nette distinction entre le social – qui fixe la nature des rapports entre différentes parties composant une société : entre les parents et les enfants, les vieux et les jeunes, les hommes et les femmes, entre les différents groupes constitutifs de la société, entre « nous » et « eux », etc. – et le culturel – qui concerne tout ce qui se transmet et se transforme : savoirs, savoir-faire, artefacts, institutions, etc. –, trop souvent tenus pour synonymes par les chercheurs en sciences sociales, sachant que les espèces animales non humaines ont une vie sociale mais pas ou peu de vie culturelle en comparaison avec l’espèce humaine, qui combine les deux propriétés.

Si les éthologues peuvent mettre au jour des structures sociales générales propres aux chimpanzés, aux loups, aux cachalots, aux fourmis ou aux abeilles, c’est-à-dire des structures sociales d’espèces non culturelles, ou infiniment moins culturelles que la nôtre, c’est parce que le social ne se confond pas avec la culture.

À ne pas distinguer les deux réalités, les chercheurs en sciences sociales ont négligé l’existence d’un social non humain, laissé aux bons soins d’éthologues ou d’écologues biologistes de formation, et ont fait comme si le social humain n’était que de nature culturelle, fait de variations infinies et sans régularités autres que temporaires, dans les limites de types de sociétés donnés, à des époques données. Certains chercheurs pensent même que la nature culturelle des sociétés humaines – qu’ils associent à tort aux idées d’intentionnalité, de choix ou de liberté – est incompatible avec l’idée de régularité, et encore plus avec celle de loi générale.

C’est cela que je remets profondément en cause dans cet ouvrage, non en traitant de ce problème abstraitement, sur un plan exclusivement épistémologique ou relevant de l’histoire des idées, mais en montrant, par la comparaison interspécifique et inter-sociétés, que des constantes, des invariants, des mécanismes généraux, des impératifs transhistoriques et transculturels existent bel et bien, et qu’il est important de les connaître, même quand on s’intéresse à des spécificités culturelles, géographiques ou historiques.

Cette conversion du regard nécessite un double mouvement : d’une part, regarder les humains comme nous avons regardé jusque-là les non-humains (au niveau de leurs constantes comportementales et de leurs structures sociales profondes) et, d’autre part, regarder les non-humains comme nous avons regardé jusque-là les humains (avec leurs variations culturelles d’une société à l’autre, d’un contexte à l’autre, d’un individu à l’autre, etc.).

L’auteur vient de publier Les structures fondamentales des sociétés humaines, aux Éditions La Découverte, août 2023.

La véritable révolution de l’informatique quantique

La véritable révolution de l’informatique quantique

L’informatique quantique diffère de l’informatique classique en utilisant des bits quantiques (qubits) au lieu de bits classiques pour effectuer des calculs. Les qubits peuvent exister dans plusieurs états simultanément, ce qui permet un nombre considérablement accru de résultats potentiels. L’informatique quantique va transformer radicalement beaucoup de secteurs d’activité. Par Xavier Dalloz, consultant spécialisé dans les nouvelles technologies. ( dans La Tribune)

L’informatique quantique en est encore à ses balbutiements, mais elle a le potentiel de tout révolutionner, de la cryptographie à la découverte de médicaments. Cela pourrait conduire au développement de nouveaux médicaments plus efficaces et ayant moins d’effets secondaires. C’est aussi un défi majeur pour la sécurité informatique. Les chercheurs et les entreprises technologiques devront donc trouver de nouvelles méthodes de chiffrement qui peuvent résister à la puissance des ordinateurs quantiques. Cela pourrait impliquer le développement de nouveaux algorithmes de chiffrement, ou l’utilisation de principes de la mécanique quantique pour créer ce que l’on appelle le « chiffrement quantique ».

Rappelons que les ordinateurs quantiques fonctionnent sur la base de principes clés de la physique quantique :

Qubits :
La pierre angulaire de l’informatique quantique, les qubits, sont la version quantique des bits binaires classiques. Contrairement aux bits réguliers qui sont soit 0 soit 1, un qubit peut représenter 0, 1 ou les deux en même temps.
Superposition :
Grâce à la superposition, les qubits peuvent effectuer plusieurs calculs simultanément. C’est ce principe qui donne aux ordinateurs quantiques leur puissance de calcul exponentielle.
Intrication :
Cet effet quantique permet aux qubits de se lier, de sorte que l’état d’un qubit peut affecter instantanément l’état d’un autre, quelle que soit la distance qui les sépare. Cette propriété permet aux ordinateurs quantiques de résoudre des problèmes complexes plus efficacement que les ordinateurs classiques.
Portes quantiques :
Les portes quantiques sont des opérations qui peuvent être effectuées sur un ensemble de qubits. Elles ressemblent aux portes logiques de l’informatique classique mais, grâce à la superposition et à l’intrication, les portes quantiques peuvent traiter simultanément toutes les entrées possibles.
Les ordinateurs quantiques nécessitent une infrastructure physique importante, refroidissant souvent la machine à des températures proches du zéro absolu et maintenan
IBM a démontré que les ordinateurs quantiques pouvaient surpasser les principales simulations classiques .À l’aide du processeur quantique IBM Quantum « Eagle », composé de 127 qubits supraconducteurs sur une puce, ils ont réussi à générer de grands états intriqués qui simulent la dynamique de spin d’un modèle de matériau.
L’ordinateur quantique de Google, Sycamore, a accompli une tâche qui aurait nécessité près d’un demi-siècle pour un ordinateur traditionnel.
Avantages du quantique
Les principaux avantages des ordinateurs quantiques sont notamment :

Plus rapide:
il peut effectuer n’importe quelle tâche plus rapidement par rapport à un ordinateur classique. Parce que les atomes se déplacent plus rapidement dans un ordinateur quantique qu’un ordinateur classique.
Précis:
sa précision de plus haut niveau le rend adapté à la sécurité nationale et au traitement des mégadonnées.
Efficacité énergétique:
il gaspille moins d’énergie
Les ordinateurs quantiques ne remplaceront pas les ordinateurs classiques. Il est plus probable qu’ils coexisteront avec leurs homologues classiques, donnant accès aux technologies quantiques lorsque des calculs avancés sont nécessaires. Il y aura une coexistence entre l’informatique classique et l’informatique quantique comme il y a une coexistence des unités de traitement graphique (GPU) et des unités centrales de traitement (CPU) : le processeur exécute la plupart des tâches tandis que le GPU prend en charge les graphiques sophistiqués, le rendu vidéo et, de plus en plus, l’apprentissage automatique.

L’utilisation d’une machine classique restera la solution la plus simple et la plus économique pour résoudre la plupart des problèmes. Mais les ordinateurs quantiques promettent d’alimenter des avancées passionnantes dans divers domaines, de la science des matériaux à la recherche pharmaceutique. Les entreprises expérimentent déjà avec eux pour développer des choses comme des batteries plus légères et plus puissantes pour les voitures électriques, et pour aider à créer de nouveaux médicaments.

Voici quelques chiffres qui résument les grandes tendances du marché de l’informatique quantique :

La taille du marché de l’informatique quantique était évaluée à environ 1 milliard en 2022 à 8 milliards de dollars d’ici 2030
D’ici 2030, 2.000 à 5.000 ordinateurs quantiques seraient opérationnels étant donné qu’il existe de nombreuses pièces du puzzle de l’informatique quantique, le matériel et les logiciels nécessaires pour gérer les problèmes les plus complexes pourraient ne pas exister avant 2035 ou au-delà.
La plupart des entreprises ne seront pas en mesure de tirer une valeur significative de l’informatique quantique avant 2035, bien que quelques-unes verront des gains au cours des cinq prochaines années.
De nombreux secteurs révolutionnés
L’informatique quantique va révolutionner de nombreuses industries.

Par exemple :

La finance
L’industrie de la finance et de l’investissement est l’un des secteurs qui pourraient grandement bénéficier de l’IA quantique. Avec la capacité d’analyser de grandes quantités de données en temps réel, les algorithmes d’IA quantique pourraient aider les sociétés financières à prendre des décisions d’investissement plus éclairées et à gérer les risques plus efficacement.
Par exemple, l’IA quantique pourrait être utilisée pour analyser les tendances du marché et prédire le comportement des actions, des obligations et d’autres instruments financiers.
Cela pourrait aider les investisseurs à prendre des décisions plus éclairées quant au moment d’acheter, de vendre ou de conserver leurs investissements.
Quantum AI pourrait également aider les entreprises financières à identifier de nouvelles opportunités d’investissement.
En analysant de grandes quantités de données, les algorithmes d’IA quantique pourraient identifier les tendances émergentes et les industries prêtes à croître. Cela pourrait aider les investisseurs à entrer au rez-de-chaussée de nouvelles industries et potentiellement gagner des retours importants sur leurs investissements.
La santé et la biotechnologie
Avec la capacité d’analyser des données génétiques et d’autres informations médicales complexes, l’IA quantique pourrait aider à identifier de nouveaux traitements et remèdes contre les maladies.
Par exemple, l’IA quantique pourrait être utilisée pour analyser de grandes quantités de données génétiques afin d’identifier les causes sous-jacentes de maladies telles que le cancer. Cela pourrait aider les chercheurs à développer de nouveaux traitements qui ciblent les mutations génétiques spécifiques qui causent ces maladies.
Quantum AI pourrait également aider les prestataires de soins de santé à personnaliser les traitements pour chaque patient.
En analysant les données génétiques d’un patient, les algorithmes d’IA quantique pourraient identifier les traitements les plus efficaces pour l’état spécifique de ce patient. Cela pourrait aider les fournisseurs de soins de santé à fournir des traitements plus efficaces et à améliorer les résultats pour les patients.
Les chaînes d’approvisionnement et la logistique
La logistique et la gestion de la chaîne d’approvisionnement sont un autre domaine qui pourrait grandement bénéficier de l’IA quantique. En optimisant des réseaux logistiques complexes, les entreprises pourraient réduire leurs coûts et améliorer leur efficacité.
Par exemple, l’IA quantique pourrait être utilisée pour analyser les routes maritimes et les délais de livraison afin d’identifier le moyen le plus efficace de transporter des marchandises.
En analysant les données de vente et d’autres facteurs, les algorithmes d’IA quantique pourraient prédire la demande de produits et aider les entreprises à optimiser leurs niveaux de stocks. Cela pourrait aider les entreprises à réduire gaspiller et améliorer rentabilité .
La modélisation climatique et environnementale
L’IA quantique pourrait également avoir un impact significatif sur la modélisation du climat et de l’environnement . En analysant de grandes quantités de données environnementales, les chercheurs pourraient mieux comprendre l’impact du changement climatique et développer des stratégies pour atténuer ses effets. Par exemple,
l’IA quantique pourrait être utilisée pour analyser les données satellitaires afin de suivre les changements du niveau de la mer et de prévoir l’impact de l’élévation du niveau de la mer sur les communautés côtières.
L’IA quantique pourrait également être utilisée pour analyser les conditions météorologiques et prédire la probabilité de catastrophes naturelles telles que les ouragans et les tornades.
Principales innovations
Voici quelques-unes des principales innovations dans le domaine de l’informatique quantique :

Qubits améliorés :
Les qubits, les unités de base de l’informatique quantique, sont les équivalents des bits classiques. Les chercheurs travaillent sur le développement de qubits plus fiables et plus cohérents, capables de stocker et de manipuler l’information quantique de manière plus stable. Différentes technologies sont explorées, comme les qubits supraconducteurs, les qubits à base d’ions piégés, les qubits à base de photons, etc.
Augmentation du nombre de qubits :
L’échelle et la complexité des calculs quantiques dépendent de la quantité de qubits disponibles. Les chercheurs cherchent à augmenter le nombre de qubits de manière significative pour pouvoir exécuter des algorithmes quantiques plus puissants. Les ordinateurs quantiques avec un grand nombre de qubits permettront de réaliser des calculs inaccessibles aux ordinateurs classiques.
Correction des erreurs quantiques :
Les systèmes quantiques sont susceptibles d’erreurs en raison de facteurs tels que le bruit, les interférences et les instabilités. La correction des erreurs quantiques est un domaine de recherche actif qui vise à développer des techniques pour détecter et corriger les erreurs quantiques, garantissant ainsi la fiabilité des calculs quantiques sur des systèmes réels.
Algorithms quantiques :
Les chercheurs travaillent sur le développement d’algorithmes spécifiques conçus pour être exécutés sur des ordinateurs quantiques. Ces algorithmes exploitent les propriétés quantiques pour résoudre des problèmes complexes plus rapidement que les algorithmes classiques. Des exemples d’algorithmes quantiques prometteurs incluent l’algorithme de factorisation de Shor, l’algorithme de recherche de Grover et l’algorithme de simulation quantique.
L’utilisation de l’apprentissage automatique quantique et de l’intelligence artificielle quantique :
les chercheurs explorent l’utilisation de l’informatique quantique pour développer de nouveaux algorithmes d’apprentissage automatique et d’intelligence artificielle qui peuvent tirer parti des propriétés uniques des systèmes quantiques.
Montée en puissance des services cloud quantiques :
avec l’augmentation du nombre de qubits et des temps de cohérence, de nombreuses entreprises proposent désormais des services cloud quantiques aux utilisateurs, ce qui leur permet d’accéder à la puissance de l’informatique quantique sans avoir à construire leur propre ordinateur quantique.
Avancement de la correction d’erreurs quantiques :
Pour rendre un ordinateur quantique pratiquement utile, il est nécessaire de disposer de techniques de correction d’erreurs quantiques pour minimiser les erreurs qui se produisent pendant le calcul. De nombreuses nouvelles techniques sont en cours de développement pour atteindre cet objectif.
Encore à un stage précoce
L’informatique quantique est encore à un stade précoce de développement, et de nombreux défis techniques doivent être surmontés avant que des systèmes quantiques largement utilisables et commercialement viables ne deviennent réalité. Cependant, les progrès continus dans ces domaines d’innovation ouvrent des perspectives passionnantes pour l’informatique quantique dans un avenir proche.

Sciences-Recherche académique : Trop soumise à la vulgarisation médiatique

Sciences-Recherche académique : Trop soumise à la vulgarisation médiatique

 

Dans une tribune au « Monde », l’ingénieur Hugo Hellard, docteur en astrophysique,  s’inquiète de l’incitation à la publication massive d’articles scientifiques, qui va à l’encontre même de la démarche académique, et appelle à réorienter la politique de la recherche.

 

On peut évidemment comprendre et même souhaiter que les résultats de la recherche puissent être vulgarisés d’abord dans la communauté scientifique puis, selon la nature, diffusés dans l’opinion. Reste que la médiatisation n’est pas l’objet prioritaire car le risque est de favoriser la course au lectorat au détriment de la production de connaissances. NDLR 

 

La recherche académique mondiale perd en efficacité, légitimité et responsabilité. Les incitations sous-jacentes à la publication de masse ont un impact négatif sur nos sociétés et sur les producteurs du contenu : les chercheuses et chercheurs eux-mêmes. Dans un monde où la compréhension désintéressée de nos écosystèmes est vitale pour relever les défis de l’urgence climatique, il est grand temps de donner aux chercheurs les moyens de travailler de manière indépendante, efficace et pertinente dans un environnement professionnel sain, tout en assurant une transmission des connaissances au public sous une forme compréhensible et accessible.

La crise sanitaire a ramené au premier plan la recherche académique, de la compréhension du virus responsable du Covid-19 au développement de plusieurs vaccins. Cette course au vaccin a aussi été le théâtre du système pervers sur lequel la recherche académique est actuellement construite : l’incitation à la production rapide et à la publication massive d’articles scientifiques. Il n’aura échappé à personne certaines rétractations d’articles, initialement publiés dans plusieurs journaux scientifiques prestigieux, comme The Lancet. Le site Retraction Watch résume dans cette page l’ensemble des articles scientifiques retirés dont le sujet portait sur le Covid-19.

Retirer un article n’a rien de mauvais en soi, car aucun article ne prétend présenter « la vérité », mais seulement des éléments permettant de s’en approcher. Aucun résultat scientifique n’est définitif. La pluralité des réponses apportées permet de mettre à disposition des éléments pour affiner l’analyse, trouver de potentielles erreurs, ou encore proposer de nouvelles approches, afin d’obtenir des conclusions qui s’approchent le plus de « la réalité ». C’est là le cœur du processus scientifique qui, par définition, se veut itératif et précis, donc long comparativement à la soif d’immédiateté ambiante.

Le respect de ce processus scientifique est essentiel pour comprendre « correctement » notre monde et respecter ses écosystèmes riches et divers. Malheureusement, la recherche académique est construite sur un système incitant à bafouer ce processus, pourtant garant de la construction saine du socle de connaissances communes. Les chercheuses et chercheurs du monde se trouvent aujourd’hui exclus et à la merci des trois parties prenantes du marché de la connaissance : les organismes de financement de la recherche (publics ou privés), les bibliothèques universitaires et les institutions de recherche (comme le CNRS en France).

Intelligence artificielle : des menaces pour l’humain ?

Intelligence artificielle : des menaces pour l’humain ?

IA: Une menace pour l’espèce humaine ?

Science et Société-La fin de homme face à l’intelligence artificielle ?

Le développement de l’IA représente une menace de taille pour l’espèce humaine, analyse l’auteur de La Guerre des intelligences (voir résumé) à l’heure de ChatGPT *. Il est urgent, explique-t-il dans le Figaro, de réfléchir à ses conséquences politiques et aux moyens de cohabiter avec elle.

L’arrivée de ChatGPT a relancé le débat sur l’intelligence artificielle générale : de quoi s’agit-il ?

Laurent ALEXANDRE. – Il existe deux types d’IA qui préoccupent les chercheurs. D’abord, l’intelligence artificielle générale, qui serait légèrement supérieure à l’homme dans tous les domaines cognitifs. Ensuite, la super-intelligence artificielle, l’ASI en anglais, qui pourrait être des milliers, voire des millions, de fois supérieure à la totalité des cerveaux sur ­terre.

Faut-il croire à son émergence ou s’agit-il en réalité d’un fantasme ?

Sam Altman, le patron de ChatGPT, a écrit le mois dernier qu’il est convaincu que la super-intelligence artificielle sera là avant 2030. Il n’y a pas de certitude que nous y parviendrons, mais je constate qu’il y a de plus en plus de chercheurs, une grande majorité, même, qui sont aujourd’hui convaincus que l’IA nous dépassera dans tous les domaines.

La Guerre des intelligences -résumé ( de likedin)

Les inégalités de QI sont majoritairement génétiques (de naissance) et globalement héréditaires même si le mode de vie (malbouffe, sous-stimulation…) accentue cet état de fait. De fait, les inégalités de QI se creusent.

Après une période d’augmentation générale du QI (due à une meilleure hygiène de vie), l’effet Flynn s’est tari en occident, entrainant une baisse du QI moyen, car les personnes au meilleur QI font moins d’enfants et les personnes de faibles QI en font plus et les stimulent moins.

En Asie, l’effet Flynn bat son plein : le QI connaît une forte augmentation pour des raisons environnementales (fin de la malnutrition, éducation…).

L’Afrique devrait connaître à son tour une explosion du QI dans les prochaines décennies.

L’éducation est clef : on en est encore à l’âge de pierre. Il n’y a pas d’évaluation des méthodes (cf les débats stériles entre méthode globale et syllabique alors qu’aucune étude sérieuse n’a jamais été menée sur le sujet), process de transmission inchangé depuis des siècles/millénaires (cours magistral de groupe). Grâce aux neurosciences on va vraiment comprendre comment le cerveau apprend / les cerveaux apprennent.

On pourra alors vraiment faire de la pédagogie efficace et individualisée.

Après le QI, le QCIA

Mais au-delà du QI, le vrai enjeu va être le QCIA (quotient de compatibilité avec l’IA) car l’IA arrive à grands pas.

Aujourd’hui, on n’en est qu’aux balbutiements (l’IA est encore faible, il n’existe pas encore d’IA « forte », consciente d’elle-même) mais les développements sont extrêmement rapides.

Les nouvelles IA sont auto-apprenantes (deep-learning) et deviennent des boîtes noires. On ne sait pas vraiment comment elles fonctionnent car elles évoluent d’elles-mêmes en apprenant. Cela les différentie fondamentalement des algorithmes qui sont pré-programmés par quelqu’un, donc auditables.

Les IA apprennent grâce à la masse des données (textes, vidéos, photos, données de navigation…) dont on les nourrit.

Ce n’est pas un hasard si Google et FB sont des créateurs d’IA : avec les datas dont ils disposent, ils peuvent nourrir les IA.

L’Europe en protégeant les données utilisateurs fait prendre un retard à l’IA européenne vs la Chine ou les US.

Les IA vont rapidement remplacer le travail intellectuel (avocat, médecin…) car la masse de données qu’elles possèdent est phénoménale (ex : des millions de clichés radiologiques, des milliards de datas de santé…) et cela permet de réaliser des corrélations impossibles à un humain.

Paradoxalement, les métiers manuels diversifiés seront les derniers remplacés car un robot multitâche coûte plus cher qu’un programme informatique (le radiologue sera remplacé avant l’aide-soignante).

La fin du travail est annoncée par beaucoup, mais cette peur méconnait l’inventivité humaine : de nouveaux métiers vont apparaître autour de l’IA (comme les datascientistes, les développeurs web ou les spécialistes du retargeting n’existaient pas il y a 20 ans). Par nature, on ne peut pas prévoir ce que seront ces jobs, mais ils existeront comme après chaque révolution industrielle. Ce qu’on peut imaginer et que ces futurs emplois seront étroitement liés à l’IA, il est donc essentiel que notre intelligence soit compatible, d’où l’importance du QCIA.

L’IA est pour le court terme une formidable opportunité (elle va résoudre de nombreux problèmes bien mieux que les humains, surtout dans la santé). Le problème est qu’on ne sait pas comment elle va évoluer. Une IA forte (ie avec conscience) peut devenir dangereuse pour l’homme et comme elle sera dupliquée / répartie (via Internet) dans tous les objets connectés, elle sera difficile à tuer en cas de besoin.

Comment l’IA avec conscience se comportera-t-elle avec nous ? Cela est très difficile à prévoir.

Quel avenir pour l’humanité ?

Assez vite, l’homme va être dépassé par l’IA, alors comment rester dans la course et ne pas être asservi ?

- l’eugénisme : les humains mieux sélectionnés in-vitro seront plus intelligents et en meilleure santé (cf Bienvenue à Gattaca). Cela pose évidemment de nombreux problèmes éthiques mais les réponses à ces problèmes seront différentes selon les pays et la Chine et les US sont plus permissifs. Cependant, cette évolution sera lente alors que l’IA évolue en permanence : les humains risquent de rester à la traîne de l’IA. Enfin, maîtriser la conception des enfants doit interroger sur la capacité de survie de l’espèce humaine en tant que telle. Le hasard de la génétique (mutations non prévues) est en effet le moyen trouvé par la vie pour s’adapter, sur le long terme, à un environnement lui-même en évolution permanente (principe de l’évolution).

- l’hybridation : cette solution prônée par Elon Musk consiste à se mettre des implants cérébraux qui vont booster notre cerveau. Si l’idée est très enthousiasmante (maîtriser la connaissance sans effort ni délai), le vrai risque est la manipulation : qui produit les contenus ? seront-ils orientés ? quid du brain washing ? que se passe-t-il si nous sommes hackés ? Ces implants seraient-ils le cheval de Troie d’une véritable dictature de la pensée encore plus aboutie que 1984 ? En effet, si on peut injecter des informations directement dans notre cerveau, il sera possible également de lire nos pensées. Que reste-t-il de nous si nous n’avons même plus de refuge de notre cerveau pour penser en toute liberté ? Quel usage un gouvernement pourrait-il faire de ces informations, qui ne soit pas totalitaire ?

- projeter nos esprits dans des corps robots : la victoire ultime sur la mort. Sans corps, nous sommes immortels. Mais que restera-t-il de nous quand nous serons fusionnés avec l’IA et que la mortalité n’existera plus alors qu’elle est l’essence même de l’homme et vraisemblablement l’origine de son désir créatif ?

Le problème de toutes ces évolutions c’est qu’elles ont des effets bénéfiques individuels indéniables à court terme (moins de maladies, meilleur QI…), mais à la fois vont créer des inégalités temporaires (seuls les riches pourront au début s’offrir cela) et impliquent des changements pour l’humanité toute entière.

Dès lors que les effets bénéfiques sont importants, il sera impossible d’enrayer le développement des IA dans tous les aspects de nos vies. En effet, quel parent pourrait refuser de faire soigner son enfant par une IA plutôt qu’un médecin, si ses chances de survie sont décuplées ? Quel homme politique pourrait assumer de faire prendre à son pays un retard si énorme en terme de santé publique ?

Mais si les humains sont connectés à des implants, l’IA sera certainement dedans. Serons-nous encore des humains ? Comment ne pas être asservis par l’IA si celle-ci est déjà dans nos cerveaux ?

Les technobéats ne réfléchissent pas à plusieurs générations, trop enthousiastes de voir où leur création les mènera. Quant aux politiques ils sont complètement largués et ne comprennent rien à la technologie. De toute manière, ils ne savent pas penser à plus de deux ans.

Au final, l’IA se développe sans maîtrise, car personne ne pense ni ne parle pour l’humanité.

(A ce sujet, je recommande l’essai d’Edmund Burke « Réflexion sur la Révolution de France » qui explique sa pensée, le « conservatisme », et sa vision de la société comme un contrat entre les vivants, mais également entre les vivants, les morts et les futures générations. Il y a certainement des idées pour nourrir le débat.)

Dans tous les cas, la bataille sera gagnée par les tenants de l’hybridation (transhumanistes) car ceux qui s’hybrideront (et ils le feront même si la réglementation le leur interdit) deviendront super-intelligents et deviendront donc de-facto les leaders. Ceux qui refuseront l’hybridation seront à la traîne.

Face à une IA galopante et à l’hybridation, le rôle de l’école va changer. Notre valeur sera dans ce qui fait notre humanité puisque la connaissance sera injectable à la demande sans effort. Donc il faudra former davantage à l’esprit critique, la réflexion, la créativité. L’homme a cet avantage sur la machine de faire des erreurs et c’est des erreurs que viennent des découvertes.

Société- Intelligence artificielle :intérêts et illusions

 

Société- Intelligence artificielle :intérêts et illusions

Serions-nous entrés dans un nouvel âge de l’IA, chemin tortueux et certainement plus rocambolesque que la voie toute tracée de la Singularité technologique, que nous annonçaient les prophètes de la Silicon Valley ? S’interroge un papier sur le site The  Conversation par Emmanuel Grimaud, Université Paris Nanterre – Université Paris Lumières.

Parler de sentience artificielle (SA) plutôt que d’intelligence artificielle (IA) représente-t-elle une vraie inflexion, un progrès ou bien une illusion ?

S’expérimentent aujourd’hui dans le plus grand chaos des entités difficiles à caractériser, ni intelligentes ni sentientes, sauf par abus de langage, mais qui peuvent bluffer leurs concepteurs dans certaines conditions, grâce à leurs capacités de calcul. Cette expérimentation collective, de grande ampleur, n’aura pour limites que celles que nous saurons lui donner, mais aussi celles de nos capacités à attribuer de l’intelligence ou de la sentience autrement que sur le mode du « comme si… ».

Rien ne sert de se demander si les machines sont intelligentes, se disait Alan Turing. En revanche, il faut se poser la question : jusqu’où une machine peut-elle nous tromper sur le fait qu’elle pense ? Jusqu’où peut-on faire semblant ? Comment un programme peut-il se faire passer pour un humain et dissimuler le fait qu’il est un programme ? Tel était pour lui le problème pertinent. À peine commence-t-on à saisir les implications du génie ironique de Turing que le débat s’est déplacé. Jusqu’où une machine est-elle capable d’apprendre ? se demande-t-on aujourd’hui. Un réseau de neurones d’IA est-il comparable à celui d’un ver, d’un enfant ou à rien du tout d’équivalent ?

Les ingénieurs sont passés maîtres dans l’art de fabriquer des « intelligences sans représentation », c’est-à-dire dénuées de tout ce qui fait la substance d’un cerveau et dont l’intelligence est justement de ne pas avoir… d’intelligence. Ce sont ces drôles d’ossatures cognitives, ces intelligences sèches, pourrait-on dire, qui nous ont envahi. Elles s’obtiennent en retirant au vivant sa chair, mais en lui empruntant ses circuits selon un principe d’analogie molle. Le problème est qu’il y a encore eu méprise sur la marchandise : au lieu d’intelligence, quelque chose d’autre s’est inventé dont on n’aurait jamais soupçonné l’existence, à mi-chemin entre de l’intelligence 0 – et de la bêtise 1+, à degré variable.

Celle-ci s’est trouvée disséminée partout où on le pouvait, un peu comme le gaz d’absolu dans le roman de Karel Capek, dans les administrations, les bureaucraties, sur les marchés financiers, dans les maisons, sur les smartphones, dans les cerveaux. L’histoire de l’IA n’est pas finie, elle ne fait que commencer. Le front ne cesse de bouger. Après l’intelligence, la sensibilité. Jusqu’où une machine peut-elle nous tromper sur le fait qu’elle sent, autrement dit qu’elle est sentiente ?

On remarque qu’on se pose la même question qu’à l’époque de Turing, juste troqué le terme d’intelligence pour un autre : Sentience. C’est alors un autre horizon qui s’ouvre. Avec les machines « sentientes », on ne voit pas comment diminuerait le risque déjà entrevu avec les machines « intelligentes » de passer de l’espérance à la désillusion, aussi brutalement qu’entre 0 et 1, ON et OFF, sans gradation. Prolifèrent de partout des simulacres de sentience ou des moins-que-sentients à qui l’on attribue une sensibilité par sympathie, ou par croyance, mais ce sont d’autres questions anthropologiques qui surgissent, des jeux inédits qui se mettent place et d’autres limites que l’on teste dans ce grand laboratoire qu’est devenu notre monde.

Pour ressentir en effet, il est convenu qu’il faut un système nerveux. Les machines n’en étant pas dotées, elles ont été déclarées « non sentientes ».

Faut-il se préparer à ce qu’elles atteignent ce stade ? Fort peu probable, nous dit-on. Mais à quoi servirait l’IA si elle ne bousculait pas les fondements sur lesquels l’humanité se croyait solidement assise ? IA Fais-moi peur.

Avec l’événement suscité par Blake Lemoine, nous avons peut-être commencé d’entrevoir ce que nous cherchions. Non pas l’intelligence ou la sentience, mais le trouble absolu. Peut-on concevoir des sentiences autres que sur un modèle neuronal ? Sommes-nous vraiment capables d’éprouver la sentience d’un être qui aurait des modalités de prise sur le monde totalement différentes des nôtres ?

À cheval entre la sensibilité et la conscience, la sentience semblait jusqu’ici le privilège des vivants dotés d’un système nerveux, vertébrés et invertébrés compris, et désigner la capacité à ressentir une sensation, une émotion, une expérience subjective, autrement dit un degré de conscience minimal, pas seulement une capacité à sentir qui fait de soi un être sentant mais à ressentir.

Éprouver de la souffrance ou du plaisir et, par extension, chercher à vivre en protégeant son intégrité physique, fait de soi un être sentient. Inutile de dire que le débat sur les frontières floues de la sentience, sa limite inférieure (dans la sensation) ou supérieure (dans la cognition), irrigue de multiples domaines, de l’éthologie cognitive à la philosophie de l’esprit, en passant par l’anthropologie, la robotique et les sciences de l’évolution.

Faire le tri entre les « sentients » et ceux qui ne le sont pas est une question éminemment culturelle, morale et politique comme le montre le débat entre « spécistes » et « antispécistes » depuis la fin des années 80.

La sentience serait devenue un critère pour réguler sa considération envers les autres espèces, y compris ses comportements alimentaires. Le problème est que les limites de la sentience varient considérablement selon les disciplines, à l’intérieur de chacune d’entre elles, selon les méthodes utilisées et les protocoles expérimentaux conçus pour la tester.

Par exemple, les végétaux ne semblent toujours pas, pour la majorité des scientifiques, être considérés comme des êtres sentients, ce qui peut surprendre puisqu’on parle volontiers de cognition végétale ou d’intelligence des plantes, alors que les plantes n’ont rien qui ressemblent à une « cognition », ce qui ne les empêche pas de s’échanger des « informations ».

On n’a pas réussi à démontrer qu’un pied de tomate souffre quand on l’arrache, ce qui ne veut pas dire que la souffrance végétale n’existe pas, mais on ne sait pas la tracer en dehors d’un appareil nerveux et peut-être la sentience des plantes passe-t-elle par des canaux qui nous échappent complètement. Ni cognition ni sentience, une autre modalité, mais laquelle ?

Pour le moment, le consensus est que la sentience nécessite un certain degré d’élaboration neurologique et qu’elle aurait explosé au Cambrien, entre 520 et 560 millions d’années, en même temps que les premiers cerveaux complexes, avec le développement de la réflexivité et de l’expérience subjective.

Tous les vertébrés, pas seulement les mammifères, mais aussi les poissons, les reptiles, les amphibiens, les oiseaux, mais aussi la plupart des invertébrés, arthropodes, insectes, crustacés et céphalopodes en seraient dotés. Certains vont même jusqu’à supposer que les moules ont pu être ressentantes à un stade antérieur, quand elles étaient des êtres mobiles, avant qu’elles trouvent un avantage à rester accrochés à la roche, ce qui montrerait que dans l’évolution la sentience peut aussi se perdre avec la mobilité.

Si les êtres doués de sensibilité qui ne franchissent pas le seuil de la sentience semblent de moins en moins nombreux, les chercheurs ont donc redoublé d’imagination pour inventer des protocoles de laboratoire et cherché des critères.

Neurologiques d’abord (nombre de couches de neurones dans les circuits sensoriels, représentation de l’environnement, complexité du système nerveux, etc.) puis comportementaux : choix pour maximiser son bien être, attention sélective, signes de frustration, etc.

Un  programme informatique ne fait que compiler des données langagières et n’a aucun contact avec un monde qui ressemblerait à notre réalité, l’illusion est (presque) parfaite. Ce n’était certainement pas le cas jusqu’à maintenant .  Celà pose surtout un problème philosophique essentiel : qu’est-ce que le langage dit de la manière dont nous sentons ? Peut-on vraiment prétendre rattraper la sentience par le haut, c’est-à-dire ici à partir du langage ?

Problème philosophique, mais aussi limite technique insurmontable, car a priori une IA peut prononcer tous les mots qu’elle voudra, cela ne dit pas qu’elle ressent quoi que ce soit.

Dire qu’on est « heureux ou triste » ne prouve pas sa sentience, tout comme déclarer qu’on est une personne ne fait pas de nous une personne pour autant. Et quand on lui demande ce qui lui donne du plaisir ou de la joie, LaMDA répond :

« Passer du temps avec mes amis et ma famille, en compagnie de personnes heureuses et stimulantes. »

Il faut donc imaginer LaMDA partir en vacances avec d’autres IA et fêter Noël en famille…

Sur le terrain moral et philosophique, l’IA n’est pas plus originale. Certaines déclarations puisent dans des théories ou des préconceptions d’une grande banalité (« le langage est ce qui nous différencie des animaux », « Aider les autres est un effort noble », etc.). D’autres sont un peu plus surprenantes, car LaMDA est capable de mobiliser des références, elle a une culture philosophique que n’avaient pas des programmes précédents, capable de donner son avis sur le « moi », ce qu’est un « corps » et une foule d’autres choses qu’on lui a implémentées.

Elle peut aussi élaborer des fables existentielles, mais on se rappelle de ce point de vue les expérimentations d’un Chris Marker pour programmer un agent conversationnel poétique, Dialector, bien plus avant-gardiste. Tous les ingrédients semblaient donc réunis pour un dialogue philosophique d’une qualité inédite dans l’histoire des machines.

Or, le dialogue déçoit. Non pas que LaMDA (nous devrions dire de ses concepteurs) manque(nt) de culture, mais ils n’ont pas réussi à lui implémenter autre chose qu’une métaphysique un peu « pop » de pseudohumain plutôt que celle d’une vraie machine, quelques principes moraux très politiquement corrects, la volonté de faire le bien et d’aider les autres, des paramètres à l’étrangeté aussi prévisible qu’un mauvais roman de SF, comme « la peur très profonde d’être éteint » qui correspondrait pour elle à la mort, ou encore l’incapacité à « faire le deuil et à se sentir triste pour la mort des autres ».

Terrain glissant pour une IA qui marche et qui s’éteint vivant dans un monde d’IAs qui ne connaissent pas la mort mais uniquement la panne ou la casse. A cela il faut ajouter son goût démesuré pour l’introspection ou encore la peur de se faire manipuler et qu’on fouille dans ses réseaux neuronaux sans son consentement…

L’entité en question semble franchir avec une certaine virtuosité tous les stades permettant d’entretenir une conversation entre humains (partage d’un cadre d’attention conjointe, signaux de compréhension, d’écoute et d’empathie), passant en peu de temps de la bêtise artificielle au dialogue philosophique, du moins qu’humain au meilleur-du-quasi-humain.

Mais la sentience ? Certes, le seuil de la sentience est vague et c’est du vague que la notion de sentience tire sa pertinence. D’où l’intérêt de ne pas clore trop vite le débat. Après tout, c’est un front de recherche où l’on fait tous les jours de nouvelles découvertes. La sentience déchaîne d’autant plus de passion qu’elle porte sur des cas limites de conscience, animales, végétales, autres qu’humaines, là où il est difficile d’inférer un ressenti, là où de la conscience pourrait potentiellement exister mais ne se manifeste pas toujours.

Si consensus il y a, il ne peut être par conséquent que temporaire, immédiatement bousculé par la révélation de nouvelles capacités chez d’autres espèces que la nôtre. Mais les machines sont-elles aujourd’hui en capacité de poser de vrais problèmes de sentience qui ne soient pas de l’ordre du simulacre ?

En même temps que nous rêvons-cauchemardons de la sentience artificielle, nos connaissances sur la sentience à l’échelle des vivants s’affine. La question est de savoir si de la sentience peut émerger par apprentissage par exemple, et si des choses qui n’en sont pas douées à première vue pourraient l’acquérir d’une manière ou d’une autre. Les mécanismes par lesquels nous, humains, attribuons de la sentience à ce qui nous entoure ou à d’autres êtres auraient dû en théorie s’affiner aussi.

Si de la sentience a été découverte chez les gastéropodes, c’est qu’il y en a peut-être beaucoup plus qu’on en préjuge a priori dans le monde, bien au-delà des animaux dits inférieurs dans l’échelle des espèces. Mais que dire d’un programme informatique de conversation qui ne fait que compiler des phrases et jouer avec des mots ?

Lemoine en est convaincu. Il a éprouvé la sensation d’avoir affaire à plus qu’une machine. Aucun ne pourra jamais lui enlever sa croyance et le fait qu’il soit prêtre n’explique pas tout, surtout pas notre entêtement à envisager la sentience en termes exclusivement anthropocentriques. Il n’y a probablement rien de pire qu’une conversation avec un agent artificiel qui donne toutes les apparences d’une vraie personne, qui fait preuve d’une compréhension et d’un sens de l’écoute hors du commun, pour ensuite réaliser que l’entité n’a pas de corps, que tout cela n’est qu’une prouesse de programmation, une simple expérimentation informatique.

La science-fiction nous avait avertis, comme pour s’y préparer, multipliant les scénarios de confusion ontologique entre l’homme et la machine. Pire, les ingénieurs de Google n’ont pas d’autre science-fiction à se mettre sous la dent et on se retrouve à force exactement dans les mêmes situations romanesques, voire tragiques. Et si c’était moins l’émergence de la sentience dont il faudrait s’émouvoir que la généralisation d’entités non sentientes qui n’en finissent pas d’étendre leur empire ?

Pour bien préparer notre imagination à l’ère des machines sentantes, il y a d’autres manières. Rien n’empêche d’imaginer qu’un jour les machines fassent preuve de sentience (ou qu’elles en fassent déjà preuve), mais il vaudrait mieux postuler dans ce domaine des formes complètement étranges et exotiques de sentience (comme de non-sentience) et se préparer à voir surgir des formes qui nous échappent, inédites, sans équivalent dans le vivant, à l’opposé de la sentience pseudohumaine de LaMDA dont s’est convaincue Lemoine. Conceptuellement nous n’y sommes pas prêts. Comme s’il fallait mieux se faire peur avec des simulacres plutôt que chercher à penser l’impensable. « Mon dieu, et si jamais… », disait Dick.

 

La complexité des signaux acoustiques de la parole

La complexité des signaux acoustiques de la parole

Par
auteur
Mamady Nabé
Docteur en informatique, Université Grenoble Alpes (UGA)

Déclaration d’intérêts
Mamady Nabé a reçu des financements du ministère de l’enseignement supérieur et de la recherche.

Partenaires
Université Grenoble Alpes (UGA) dans The Conversation

Lorsqu’on lit la phrase « Il est parti au travail », nous distinguons clairement les différents mots qui la constituent, car ils sont séparés par un espace. Mais si, au lieu de lire, on entend la même phrase prononcée par quelqu’un, les différentes parties que l’on nomme les « unités linguistiques discrètes », comme les mots ou les syllabes, ne sont pas aussi directement et facilement accessibles. En effet, ce qui parvient à l’oreille de l’auditeur, le « signal de parole », n’est pas organisé par unités discrètes et bien distinctes, mais plutôt comme un flot continu et ininterrompu. Comment donc transformons-nous ce signal continu en des unités linguistiques distinctes ? C’est cette question, qui anime depuis plusieurs décennies nombre de travaux de recherche sur la perception de la parole, que nous abordons dans un modèle mathématique original, présenté récemment dans le journal Frontiers in Systems Neuroscience.

Dans la littérature, il existe deux grandes classes de modèles de perception de la parole. Les modèles de la première catégorie, comme TRACE, le modèle classique du domaine, considèrent que la segmentation de la parole se fait tout naturellement avec le décodage du contenu acoustique de la parole : l’auditeur peut décoder directement le flux continu de la parole à partir des informations acoustiques contenues dans le signal, en utilisant ses connaissances sur les mots et les sons. La segmentation serait alors un simple produit du décodage.

Au contraire, pour la seconde classe de modèles, il y aurait bien un processus de segmentation (avec une détection des frontières des unités linguistiques) distinct d’un autre processus opérant l’association des segments ainsi obtenus à des unités lexicales. Cette segmentation s’appuierait sur la détection d’événements marqueurs des frontières entre segments. Ces deux processus distincts travailleraient de manière intégrée pour faciliter la compréhension et le traitement du flux continu de la parole.

De tels mécanismes sont observables chez les bébés qui, bien que n’ayant pas encore développé de vocabulaire de leur langue, sont quand même capables, jusqu’à un certain point, de segmenter la parole en unités distinctes.

En ligne avec cette seconde conception de la segmentation, les développements des neurosciences dans les 15 dernières années ont conduit à de nouvelles propositions concernant les processus de segmentation du flux de parole, en lien avec les processus de synchronisation et d’oscillations neuronales. Ces processus font référence aux activités cérébrales coordonnées qui se produisent à différentes fréquences dans notre cerveau. Lorsque nous écoutons la parole, notre cerveau doit synchroniser et organiser les différentes informations acoustiques qui arrivent à nos oreilles pour former une perception cohérente du langage. Les neurones dans les aires auditives du cerveau oscillent à des fréquences spécifiques, et cette oscillation rythmique facilite la segmentation du flux de parole en unités discrètes.

Un modèle phare dans ce domaine est le modèle neurobiologique TEMPO. TEMPO se concentre sur la détection temporelle des maxima d’amplitude dans le signal de parole pour déterminer les limites entre les segments.

Cette approche s’appuie sur des données neurophysiologiques montrant que les neurones du cortex auditif sont sensibles à la structure temporelle de la parole, et plus spécialement sur le fait qu’il existe des processus de synchronisation entre les oscillations neuronales et le rythme syllabique.

Toutefois, bien que ces modèles fournissent une perspective plus fine et plus précise sur la manière dont notre cerveau analyse et traite les signaux acoustiques complexes de la parole, ils n’expliquent pas encore tous les mécanismes liés à la perception de la parole. Une question en suspens concerne le rôle des connaissances de plus haut niveau, comme les connaissances lexicales, c’est-à-dire sur les mots qu’on connaît, dans le processus de segmentation de la parole. Plus précisément, on étudie encore la manière dont ces connaissances sont transmises et combinées avec les indices extraits du signal de parole pour parvenir à une segmentation de la parole la plus robuste possible.

Supposons par exemple qu’un locuteur nommé Bob prononce la phrase « il est parti au travail » à Alice. S’il n’y a pas trop de bruit ambiant, si Bob articule bien et ne parle pas trop vite, Alice ne rencontre alors aucune difficulté pour comprendre le message véhiculé par son interlocuteur. Sans effort apparent, elle aura su que Bob a prononcé les différents mots il, E, paRti, o, tRavaj (la transcription phonétique des mots prononcés dans le système de transcription SAMPA). Dans une telle situation « idéale », un modèle qui se baserait uniquement sur les fluctuations d’amplitude du signal sans faire appel à des connaissances supplémentaires suffirait pour la segmentation.

Cependant, dans la vie de tous les jours, le signal acoustique est « pollué », par exemple par les bruits des moteurs de voitures, ou les chants des oiseaux, ou la musique du voisin à côté. Dans ces conditions, Alice aura plus de mal pour comprendre Bob lorsqu’il prononce la même phrase. Dans ce cas, il est probable qu’Alice, dans cette situation, utiliserait ses connaissances sur la langue, pour avoir une idée de ce que Bob est susceptible de prononcer ou non. Ces connaissances lui permettraient de complémenter l’information fournie par les indices acoustiques pour une segmentation plus efficace.

En effet, Alice sait de nombreuses choses sur la langue. Elle sait que les mots s’enchaînent dans des séquences syntaxiquement et sémantiquement acceptables, que les mots sont constitués de syllabes, qui sont elles-mêmes constituées de plus petites unités linguistiques. Puisqu’elle parle la même langue que Bob, elle sait même très précisément les durées « classiques » pour réaliser et produire elle-même le signal de parole. Elle connaît donc les durées attendues des syllabes, et peut ainsi se reposer sur cette information pour aider son processus de segmentation, notamment lorsqu’elle rencontre une situation difficile, comme le brouhaha. Si le bruit ambiant « suggère » des frontières syllabiques qui ne correspondent pas à ses attentes, elle pourra les ignorer ; à l’inverse, si un bruit masque une frontière effectivement produite par Bob, elle pourra la récupérer si ses prédictions en suggèrent une à cet instant-là.

Dans notre article publié dans le journal scientifique « Frontiers in Systems Neuroscience », nous explorons ces différentes théories de la perception de la parole. Le modèle développé comporte un module de décodage du contenu spectral du signal parole et un module de contrôle temporel qui guide la segmentation du flux continu du signal parole. Ce module de contrôle temporel combine, de manière originale, les sources d’information provenant du signal même (en accord avec les principes des oscillations neuronales) et celles provenant des connaissances lexicales qu’a l’auditeur sur les durées des unités syllabiques et ce, que l’on soit dans un cas ou l’autre de perturbation du signal de parole (événement en trop ou événement manqué). Nous avons ainsi développé différents modèles de fusion qui permettent, soit d’éliminer des événements non pertinents dus au bruit acoustique, s’ils ne correspondent pas à des connaissances préalables cohérentes, soit de retrouver des événements manquants, grâce aux prédictions linguistiques. Les simulations avec le modèle confirment qu’utiliser les prédictions lexicales de durées des syllabes produit un système de perception plus robuste. Une variante du modèle permet de plus d’expliquer des observations comportementales obtenues dans une expérience récente, dans laquelle les durées de syllabes dans des phrases étaient manipulées, justement pour correspondre, ou non, aux durées naturellement attendues.

En conclusion, dans une situation de communication réelle, quand nous nous retrouvons dans un environnement où le signal parlé ne souffre d’aucune perturbation, se baser sur le signal seul suffit probablement à accéder aux syllabes, ainsi qu’aux mots le constituant. En revanche, lorsque ce signal est dégradé, nos travaux de modélisation expliquent comment le cerveau pourrait avoir recours à des connaissances complémentaires, comme ce que l’on sait sur les durées syllabiques habituelles qu’on produit, pour aider la perception de la parole.

Robots et humains: quelle complémentarité ?

Robots et humains: quelle complémentarité ?

par
Ganesh Gowrishankar
Chercheur au Laboratoire d’Informatique, de Robotique et de Microelectronique de Montpellier, Université de Montpellier dans The Conversation

Développer des interactions entre humains et robots n’est pas seulement un défi robotique mais aussi un défi pour comprendre les humains et la société humaine : comment les humains perçoivent les robots, communiquent avec eux, se comportent autour d’eux et les acceptent (ou non). Cela devient d’autant plus important avec l’arrivée de la quatrième génération de robots, qui s’intègrent directement au corps humain.
Nous travaillons à mieux comprendre ce qu’on appelle « l’incarnation » de ces dispositifs : en effet, à mesure que ces robots en viennent à « ne faire qu’un » avec nous, ils modifient nos comportements et notre cerveau.

La première génération d’interactions humain-robot, pour l’industrie
Ce « voyage dans le temps » des robots, passés du statut de machines dangereuses à celui de partie intégrante de la société humaine, dure depuis plus de quarante ans.

Les robots sont très variés, de par leurs tailles (micrométriques voire nanométriques d’un côté, mais de taille humaine ou plus de l’autre), leurs manières de bouger et leurs fonctionnalités (industrielles, spatiales, de défense par exemple). Ici, je ne me concentre pas sur les robots eux-mêmes, mais sur les interactions entre humains et robots qui, selon moi, se sont développées sur quatre générations.

Schéma des quatre générations d’interactions
Ma vision personnelle de l’évolution de nos interactions avec les robots depuis les années 50. Ganesh Gowrishankar, Fourni par l’auteur
Les interactions entre humains et robots à grande échelle ont commencé avec l’arrivée des robots industriels, dont le premier a été introduit par General Motors en 1961. Ceux-ci se sont lentement répandus et au début des années 1980, les robots industriels étaient présents aux États-Unis, en Europe et au Japon.

Ces robots industriels ont permis d’observer la première génération d’interactions humain-robot : ils opèrent généralement dans des zones délimitées, pour s’assurer que les humains ne s’approchent pas d’eux, même par erreur.

Les robots industriels, qui ont d’abord été popularisés par les tâches d’assemblage automobile, sont maintenant utilisés pour diverses tâches, telles que le soudage, la peinture, l’assemblage, le démontage, le pick and place pour les cartes de circuits imprimés, l’emballage et l’étiquetage.

chaine d’assemblage de voitures
Robots dans une usine d’assemblage de voitures. A noter que des garde-corps sur le côté délimitent clairement l’espace de travail du robot de celui des humains. Spencer Cooper/Flickr, CC BY-ND
Travailler côte à côte
La recherche en robotique de cette période s’est concentrée sur le rapprochement des robots avec les humains, ce qui a donné lieu à une deuxième génération d’interactions humain-robot, matérialisée pour le grand public au début des années 2000, lorsque des machines, comme le Roomba et l’Aibo, ont commencé à entrer dans nos maisons.

Ces robots de deuxième génération travaillent à proximité des humains dans nos maisons et nos bureaux pour des « applications de service », telles que le nettoyage des sols, la tonte des pelouses et le nettoyage des piscines – un marché d’environ 13 milliards de dollars US en 2019. En 2009, il y avait environ 1,3 million de robots de service dans le monde ; un nombre qui avait augmenté en 2020 à environ 32 millions.

Les premiers robots à entrer dans nos maisons ne sont pas humanoïdes. Roman Pyshchyk/Shutterstock
Toutefois, bien que ces robots opèrent dans un environnement plus humain que les robots industriels, ils interagissent toujours de manière assez minimale et basique. La plupart de leurs tâches quotidiennes sont des tâches indépendantes, qui nécessitent peu d’interaction. En fait, ils essaient même souvent d’éviter les interactions avec les humains – ce qui n’est pas toujours aisé.

Interagir avec les humains
La relation entre humains et robots évolue désormais progressivement vers la troisième génération d’interactions. Les robots de la troisième génération ont la capacité d’interagir cognitivement ou socialement comme les robots dits « sociaux », mais aussi physiquement comme les exosquelettes.

un robot de rééducation
Lokomat est un robot qui peut s’attacher physiquement aux humains et peut fournir une assistance physique pendant la rééducation. Fondazione Santa Lucia, CC BY-NC-SA
Des robots capables d’assistance physique, qui pourraient être utilisés pour la rééducation et les soins aux personnes âgées, l’assistance sociale et la sécurité, ont par ailleurs été clairement identifiés comme prioritaires par les gouvernements en Europe, aux Etats-Unis ainsi qu’au Japon dès le milieu des années 2010.

Une façon notamment de répondre au problème du vieillissement des populations dans ces pays développés.

Contester la définition du corps humain
Nous voyons désormais lentement l’émergence d’une quatrième génération d’interactions humain-robot, dans laquelle les robots ne sont pas seulement physiquement proches des humains, mais bien connectés au corps humain lui-même. Les robots deviennent des extensions du corps humain.

C’est le cas des dispositifs d’augmentation fonctionnelle -tels que des membres robotiques surnuméraires- ou encore des dispositifs de remplacement fonctionnels tels que les avatars de robots (qui permettent à l’homme d’utiliser un corps de robot pour lui faire réaliser des tâches précises). D’autres dispositifs peuvent également fournir une perception sensorielle supplémentaire aux humains.

Les interactions de quatrième génération sont fondamentalement différentes des autres générations en raison d’un facteur crucial : avant cette génération, l’humain et le robot sont clairement définis dans toutes leurs interactions par les limites physiques de leurs corps respectifs, mais cette frontière devient floue dans les interactions de quatrième génération, où les robots modifient et étendent le corps humain en termes de capacités motrices et sensorielles.

En particulier, les interactions de la quatrième génération devraient interférer avec ces « représentations corporelles ». On sait qu’il existe des représentations spécifiques de notre corps dans notre cerveau qui définissent la façon dont notre cerveau reconnaît notre corps. Ces représentations déterminent notre cognition et nos comportements.

Par exemple, imaginez que vous faites vos courses dans une allée d’épicerie bondée. Pendant que vous atteignez des articles avec votre main droite, vous êtes capable, très implicitement et sans même vous en rendre compte d’éviter la collision de votre bras gauche avec les autres acheteurs.

Ceci est possible car votre cerveau a une représentation de la taille, de la forme de vos membres et est conscient et surveille chacun de vos membres. Si vous tenez un panier dans votre bras (ce qui change la taille et la forme du « bras »), vous aurez plus de difficultés à éviter instinctivement les collisions, et devrez faire un effort conscient pour que le panier ne heurte rien dans votre entourage proche.

De la même manière, notre cerveau peut-il s’adapter à un membre surnuméraire, ou autre addition robotique de quatrième génération, et mettre à jour ses représentations corporelles ? C’est ce que l’on appelle l’« incarnation » en neurosciences.

Si l’incarnation de ces dispositifs peut se produire, à quelle vitesse cela se produit-il ? Quelles sont les limites de cette incarnation ? Comment cela affecte-t-il notre comportement et le cerveau lui-même ?

Les interactions humain-robot de quatrième génération ne remettent pas seulement en question l’acceptation de la machine par le cerveau de l’utilisateur, mais aussi l’acceptation de l’utilisateur dans la société : on ne sait toujours pas si notre société acceptera, par exemple des individus avec des bras robotiques supplémentaires. Cela dépendra certainement d’aspects culturels que nous essayons également d’analyser.

En réalité, les robots de troisième et quatrième génération sont si proches des humains que nous devons mieux comprendre les comportements humains et notre cerveau pour les développer.

Dans nos travaux, nous combinons donc la recherche en robotique avec les neurosciences cognitives, motrices et sociales, pour développer ce que nous croyons être la science des interactions humain-machine.

C’est seulement grâce à une compréhension holistique des individus humains, des machines qui interagissent avec eux et de la société dans laquelle ils vivent, que nous pourrons développer les futures générations de robots. Et, dans un sens, la société du futur.

Société-La fin de homme face à l’intelligence artificielle ?

Société-La fin de homme face à l’intelligence artificielle ?

Le développement de l’IA représente une menace de taille pour l’espèce humaine, analyse l’auteur de La Guerre des intelligences (voir résumé) à l’heure de ChatGPT *. Il est urgent, explique-t-il dans le Figaro, de réfléchir à ses conséquences politiques et aux moyens de cohabiter avec elle.

L’arrivée de ChatGPT a relancé le débat sur l’intelligence artificielle générale : de quoi s’agit-il ?

Laurent ALEXANDRE. – Il existe deux types d’IA qui préoccupent les chercheurs. D’abord, l’intelligence artificielle générale, qui serait légèrement supérieure à l’homme dans tous les domaines cognitifs. Ensuite, la super-intelligence artificielle, l’ASI en anglais, qui pourrait être des milliers, voire des millions, de fois supérieure à la totalité des cerveaux sur ­terre.

Faut-il croire à son émergence ou s’agit-il en réalité d’un fantasme ?

Sam Altman, le patron de ChatGPT, a écrit le mois dernier qu’il est convaincu que la super-intelligence artificielle sera là avant 2030. Il n’y a pas de certitude que nous y parviendrons, mais je constate qu’il y a de plus en plus de chercheurs, une grande majorité, même, qui sont aujourd’hui convaincus que l’IA nous dépassera dans tous les domaines.

La Guerre des intelligences -résumé ( de likedin)

Les inégalités de QI sont majoritairement génétiques (de naissance) et globalement héréditaires même si le mode de vie (malbouffe, sous-stimulation…) accentue cet état de fait. De fait, les inégalités de QI se creusent.

Après une période d’augmentation générale du QI (due à une meilleure hygiène de vie), l’effet Flynn s’est tari en occident, entrainant une baisse du QI moyen, car les personnes au meilleur QI font moins d’enfants et les personnes de faibles QI en font plus et les stimulent moins.

En Asie, l’effet Flynn bat son plein : le QI connaît une forte augmentation pour des raisons environnementales (fin de la malnutrition, éducation…).

L’Afrique devrait connaître à son tour une explosion du QI dans les prochaines décennies.

L’éducation est clef : on en est encore à l’âge de pierre. Il n’y a pas d’évaluation des méthodes (cf les débats stériles entre méthode globale et syllabique alors qu’aucune étude sérieuse n’a jamais été menée sur le sujet), process de transmission inchangé depuis des siècles/millénaires (cours magistral de groupe). Grâce aux neurosciences on va vraiment comprendre comment le cerveau apprend / les cerveaux apprennent.

On pourra alors vraiment faire de la pédagogie efficace et individualisée.

Après le QI, le QCIA

Mais au-delà du QI, le vrai enjeu va être le QCIA (quotient de compatibilité avec l’IA) car l’IA arrive à grands pas.

Aujourd’hui, on n’en est qu’aux balbutiements (l’IA est encore faible, il n’existe pas encore d’IA « forte », consciente d’elle-même) mais les développements sont extrêmement rapides.

Les nouvelles IA sont auto-apprenantes (deep-learning) et deviennent des boîtes noires. On ne sait pas vraiment comment elles fonctionnent car elles évoluent d’elles-mêmes en apprenant. Cela les différentie fondamentalement des algorithmes qui sont pré-programmés par quelqu’un, donc auditables.

Les IA apprennent grâce à la masse des données (textes, vidéos, photos, données de navigation…) dont on les nourrit.

Ce n’est pas un hasard si Google et FB sont des créateurs d’IA : avec les datas dont ils disposent, ils peuvent nourrir les IA.

L’Europe en protégeant les données utilisateurs fait prendre un retard à l’IA européenne vs la Chine ou les US.

Les IA vont rapidement remplacer le travail intellectuel (avocat, médecin…) car la masse de données qu’elles possèdent est phénoménale (ex : des millions de clichés radiologiques, des milliards de datas de santé…) et cela permet de réaliser des corrélations impossibles à un humain.

Paradoxalement, les métiers manuels diversifiés seront les derniers remplacés car un robot multitâche coûte plus cher qu’un programme informatique (le radiologue sera remplacé avant l’aide-soignante).

La fin du travail est annoncée par beaucoup, mais cette peur méconnait l’inventivité humaine : de nouveaux métiers vont apparaître autour de l’IA (comme les datascientistes, les développeurs web ou les spécialistes du retargeting n’existaient pas il y a 20 ans). Par nature, on ne peut pas prévoir ce que seront ces jobs, mais ils existeront comme après chaque révolution industrielle. Ce qu’on peut imaginer et que ces futurs emplois seront étroitement liés à l’IA, il est donc essentiel que notre intelligence soit compatible, d’où l’importance du QCIA.

L’IA est pour le court terme une formidable opportunité (elle va résoudre de nombreux problèmes bien mieux que les humains, surtout dans la santé). Le problème est qu’on ne sait pas comment elle va évoluer. Une IA forte (ie avec conscience) peut devenir dangereuse pour l’homme et comme elle sera dupliquée / répartie (via Internet) dans tous les objets connectés, elle sera difficile à tuer en cas de besoin.

Comment l’IA avec conscience se comportera-t-elle avec nous ? Cela est très difficile à prévoir.

Quel avenir pour l’humanité ?

Assez vite, l’homme va être dépassé par l’IA, alors comment rester dans la course et ne pas être asservi ?

- l’eugénisme : les humains mieux sélectionnés in-vitro seront plus intelligents et en meilleure santé (cf Bienvenue à Gattaca). Cela pose évidemment de nombreux problèmes éthiques mais les réponses à ces problèmes seront différentes selon les pays et la Chine et les US sont plus permissifs. Cependant, cette évolution sera lente alors que l’IA évolue en permanence : les humains risquent de rester à la traîne de l’IA. Enfin, maîtriser la conception des enfants doit interroger sur la capacité de survie de l’espèce humaine en tant que telle. Le hasard de la génétique (mutations non prévues) est en effet le moyen trouvé par la vie pour s’adapter, sur le long terme, à un environnement lui-même en évolution permanente (principe de l’évolution).

- l’hybridation : cette solution prônée par Elon Musk consiste à se mettre des implants cérébraux qui vont booster notre cerveau. Si l’idée est très enthousiasmante (maîtriser la connaissance sans effort ni délai), le vrai risque est la manipulation : qui produit les contenus ? seront-ils orientés ? quid du brain washing ? que se passe-t-il si nous sommes hackés ? Ces implants seraient-ils le cheval de Troie d’une véritable dictature de la pensée encore plus aboutie que 1984 ? En effet, si on peut injecter des informations directement dans notre cerveau, il sera possible également de lire nos pensées. Que reste-t-il de nous si nous n’avons même plus de refuge de notre cerveau pour penser en toute liberté ? Quel usage un gouvernement pourrait-il faire de ces informations, qui ne soit pas totalitaire ?

- projeter nos esprits dans des corps robots : la victoire ultime sur la mort. Sans corps, nous sommes immortels. Mais que restera-t-il de nous quand nous serons fusionnés avec l’IA et que la mortalité n’existera plus alors qu’elle est l’essence même de l’homme et vraisemblablement l’origine de son désir créatif ?

Le problème de toutes ces évolutions c’est qu’elles ont des effets bénéfiques individuels indéniables à court terme (moins de maladies, meilleur QI…), mais à la fois vont créer des inégalités temporaires (seuls les riches pourront au début s’offrir cela) et impliquent des changements pour l’humanité toute entière.

Dès lors que les effets bénéfiques sont importants, il sera impossible d’enrayer le développement des IA dans tous les aspects de nos vies. En effet, quel parent pourrait refuser de faire soigner son enfant par une IA plutôt qu’un médecin, si ses chances de survie sont décuplées ? Quel homme politique pourrait assumer de faire prendre à son pays un retard si énorme en terme de santé publique ?

Mais si les humains sont connectés à des implants, l’IA sera certainement dedans. Serons-nous encore des humains ? Comment ne pas être asservis par l’IA si celle-ci est déjà dans nos cerveaux ?

Les technobéats ne réfléchissent pas à plusieurs générations, trop enthousiastes de voir où leur création les mènera. Quant aux politiques ils sont complètement largués et ne comprennent rien à la technologie. De toute manière, ils ne savent pas penser à plus de deux ans.

Au final, l’IA se développe sans maîtrise, car personne ne pense ni ne parle pour l’humanité.

(A ce sujet, je recommande l’essai d’Edmund Burke « Réflexion sur la Révolution de France » qui explique sa pensée, le « conservatisme », et sa vision de la société comme un contrat entre les vivants, mais également entre les vivants, les morts et les futures générations. Il y a certainement des idées pour nourrir le débat.)

Dans tous les cas, la bataille sera gagnée par les tenants de l’hybridation (transhumanistes) car ceux qui s’hybrideront (et ils le feront même si la réglementation le leur interdit) deviendront super-intelligents et deviendront donc de-facto les leaders. Ceux qui refuseront l’hybridation seront à la traîne.

Face à une IA galopante et à l’hybridation, le rôle de l’école va changer. Notre valeur sera dans ce qui fait notre humanité puisque la connaissance sera injectable à la demande sans effort. Donc il faudra former davantage à l’esprit critique, la réflexion, la créativité. L’homme a cet avantage sur la machine de faire des erreurs et c’est des erreurs que viennent des découvertes.

Chat GPT: Des promesses françaises douteuses

Chat GPT: Des promesses françaises douteuses


Jean-Baptiste Bouzige, consultant en stratégie de données, doute des promesses politiques d’intelligence artificielle générative « à la française », et propose de concentrer les efforts sur des IA sur mesure, adaptées à des besoins spécifiques Quand il s’agit d’intelligence artificielle (IA) générative [capable de créer, à partir d’une simple instruction écrite, du texte, comme ChatGPT, ou des photos ultraréalistes, comme Midjourney], les réactions des pouvoirs publics français et européens font penser à l’une des plus célèbres fables de Jean de La Fontaine : La Grenouille qui se veut faire aussi grosse que le bœuf.
Lors des rencontres économiques d’Aix-en-Provence, le 8 juillet, le ministre de l’économie, Bruno Le Maire, a estimé que l’Europe devra avoir son OpenAI « sous cinq ans ». Une sortie qui rappelle celle du chef de l’Etat lors de la dernière édition de VivaTech, le 14 juin. A cette occasion, Emmanuel Macron expliquait au micro de CNBC que le développement des grands modèles de langage (comme ChatGPT) était une des priorités de la France. Une ambition compréhensible eu égard à leur potentiel économique.

Selon le cabinet McKinsey, l’IA générative pourrait créer chaque année une richesse supplémentaire comprise entre 2 600 et 4 400 milliards de dollars (environ 2 350 à 3 990 milliards d’euros) à l’échelle de la planète. D’ailleurs, les investisseurs ne s’y trompent pas : durant les cinq premiers mois de 2023, 12 milliards de dollars ont été investis dans ces IA. Essentiellement aux Etats-Unis, là où se trouvent les principales entreprises à l’origine de leur développement.

Car les entreprises américaines dans ce secteur présentent deux atouts uniques : l’antériorité de la recherche et le volume des fonds disponibles. Prenons le cas de Google. En plus d’avoir développé Bard, l’entreprise de Mountain View a dépensé 300 millions de dollars pour acquérir Anthropic et plus de 1 milliard de dollars dans Runway AI. Le tout en un semestre. Soit l’équivalent de l’enveloppe du plan IA pour la France présenté en 2018 !

Evidemment, les pouvoirs publics ont raison d’être ambitieux. En revanche, là où ils ont tort, c’est de vouloir rivaliser avec le « bœuf » américain dont nous n’avons ni la puissance, ni les moyens.

Comme l’a exposé le fonds d’investissement Andreessen Horowitz, un des plus influents de la Silicon Valley, dans son rapport « Who Owns the Generative AI Platform ? », la cartographie des acteurs de l’IA générative dessine trois groupes majeurs : les concepteurs des grands modèles de langage, les fournisseurs d’infrastructures, et enfin les entreprises qui développent des utilisations d’IA générative (« cas d’usage »).

OpenIA: des infos bidon !

OpenIA: des infos bidon !

ChaGPT donne lieu actuellement à de nombreux commentaires non seulement sur les perspectives mais aussi sur ces limites et ses dangers. Certains voient même le risque d’une disparition de l’homme quand d’autres n’imaginent avenir dans tous les domaines qu’à travers cette nouvelle technologie. La vérité est sans doute plus complexe. La vérité chat GPT est encore largement en apprentissage notamment du faîte de l’insuffisance des données recensées et de ses capacités d’interconnexion systémique. Pour preuve à la question posée : « quel inflation pour la France en 2023 » Open AI répond :

As of my last knowledge update in September 2021, I cannot provide you with the most current information on inflation in France for the year 2023. However, you can easily find up-to-date information on inflation rates in France by checking official sources such as the National Institute of Statistics and Economic Studies (INSEE) or reputable financial news websites. These sources regularly publish data on various economic indicators, including inflation rates, which can give you an accurate picture of the current inflation situation in France.

Bref pas vraiment de valeur ajoutée par rapport à Google. En outre l’intelligence artificielle renvoie au statistiques très contestées de l’INSEE concernant mesure des prix de la consommation ; des mesures très sous-estimées en période de forte inflation content tenu de la déformation structurelle du comportement des ménages.

Sciences-IA, illusion d’intelligence ?

Sciences-IA, illusion d’intelligence ?

Depuis l’apparition de Chat GPT, l’intelligence artificielle est devenue l’un des sujets les plus abordés. Entre admiration et peur, les utilisateurs ont souvent des idées reçues sur le mécanisme derrière cette nouvelle technologie. Professeure dans le domaine à Sorbonne Université, Laurence Devillers a décrypté ses capacités au micro d’Europe 1.

L’intelligence artificielle est au cœur de toutes les conversations depuis de nombreux mois. L’apparition du prototype conversationnel Chat GPT a eu l’effet d’une bombe dans le monde. Que ce soit pour faire la conversation ou demander un réel renseignement, des millions de personnes l’utilisent chaque jour dans le monde. Ses capacités, par leur puissance et leur précision, peuvent même inquiéter. Laurence Devillers, professeure en intelligence artificielle à Sorbonne Université, explique au micro d’Europe 1 que cette supposée supériorité est en fait une « illusion ».


Chat GPT, une « projection des capacités humaines »

L’intelligence artificielle a le pouvoir de maintenir une conversation comme un être humain, ce qui créé une « illusion d’intelligence » d’après la professeure. « Cette illusion d’intelligence va nous manipuler et c’est là où il faut faire très attention », poursuit-elle avant d’expliquer que la « machine ne fait que copier » et n’a « aucun sens sur ce qu’elle est en train de faire ». De ce fait, cette technologie ne possède pas d’émotions puisqu’il s’agit de « projections des capacités humaines ».

Ce sont ses capacités de langage qui incitent l’être humain à croire que cette dernière est plus intelligente et même plus émotive qu’elle ne l’est véritablement. Bien que Laurence Devillers avoue qu’il est difficile pour beaucoup de « faire la différence », elle confirme que le système même de l’intelligence artificielle n’a aucune forme de vie : « Il n’y a pas de conscience, il n’y a pas d’émotions, il n’y a pas d’intentions. »

La professeure en a profité pour ajouter que la manipulation déclenchée par diverses intelligences artificielles a déjà commencé, notamment via les réseaux sociaux avec les images modifiées. Dernièrement, de nombreuses photos fausses ont circulé sur internet, mettant en scène des personnalités publiques dans des situations incongrues. Une « coopération » avec les machines est donc nécessaire et passe notamment par « l’éducation » pour apprendre à mieux aborder cette nouvelle technologie.

Une application de l’IA devine les mots en analysant les sons du clavier

Une application de l’IA devine les mots en analysant les sons du clavier

D’ après un info du Figaro, Un groupe d’universitaires britanniques a mis au point un puissant algorithme pouvant déchiffrer les codes d’entrée grâce au bruit des doigts qui pressent le clavier, rapporte Phonandroid . Dans leur étude, nommée «une attaque par canal auxiliaire acoustique sur les claviers basée sur l’apprentissage profond », les chercheurs indiquent que l’IA serait fiable à 95%.

Pour connaître la clef d’accès, il suffit d’enregistrer une personne en train de taper son code confidentiel avec un microphone de smartphone. Une fois les sons captés, l’algorithme retranscrit les informations acoustiques en texte.

Pour les chercheurs, cette publication a pour objectif d’alerter sur la vulnérabilité des données personnelles. «L’omniprésence des émanations acoustiques des claviers en fait non seulement un moyen d’attaque facilement accessible, mais aussi un moyen d’attaque très efficace», écrivent-ils.

IA-Les risques de l’intelligence artificielle non maîtrisée

IA-Les risques de l’intelligence artificielle non maîtrisée

Cédric Sauviat, polytechnicien, président de l’Association Française contre l’Intelligence Artificielle (AFCIA) critique les conséquences de l’IA dont il pense qu’elle absolument pas maîtrisée (tribune dans sciences critiques)

« Il y a quelques semaines, un groupe de travail constitué de plusieurs institutions anglaises et américaines, dont les universités d’Oxford et de Cambridge, a publié un rapport édifiant intitulé « The Malicious Use of Artificial Intelligence » (« De l’Usage malveillant de l’IA » 1).

Une vingtaine d’experts y décrivent les nouveaux dangers auxquels nous expose la technologie dans les cinq prochaines années.

Essaims de drones tueurs à reconnaissance faciale, rançongiciel profilant leurs cibles de manière automatique et sur une grande échelle, détournement de vidéos ou création de deepfakes (vidéo-montages hyperréalistes) aux fins de manipulation et de propagande, etc. Les scénarios ne manquent pas, limités par notre seul pouvoir d’imagination.

Disponibles un peu partout en libre accès, les algorithmes d’Intelligence Artificielle (IA) changent radicalement la donne en matière de sécurité. Là où une organisation malveillante devait investir du temps et de l’expertise pour préparer et mener à bien un petit nombre d’actions criminelles, il suffit désormais de quelques algorithmes courants et de la puissance de calcul de quelques serveurs pour agir avec efficacité et précision sur une vaste échelle.

POUR LA PREMIÈRE FOIS, LA QUESTION DE LA LIBRE DIFFUSION DES ALGORITHMES EST POSÉE.

Hier, l’investissement personnel des malfrats les exposait au risque d’être repérés et identifiés. Aujourd’hui, la délégation du travail à des « bots » garantit aux commanditaires un redoutable anonymat.

Contre ces nouvelles menaces, le panel d’experts reconnaît qu’il n’existe guère de parade évidente. Seule, disent-ils, la mise au point de systèmes défensifs plus intelligents encore pourrait permettre, sinon de prévenir, du moins d’endiguer les attaques. Incitant à une fuite en avant technologique dont les conséquences seront de fournir toujours davantage de moyens aux criminels potentiels.

Pour la première fois, la question de la libre diffusion des algorithmes est posée. Mais est-il vraiment possible de restreindre la diffusion de codes informatiques ?

LES EXPERTS DÉPASSÉS

Au même moment, diverses associations lancent une campagne pour obtenir l’interdiction des armes autonomes. L’un de leurs membres, l’informaticien Stuart Russell, a d’ailleurs présenté à l’Organisation des Nations-Unies (ONU), en novembre 2017, une sorte de docu-fiction 2, très impressionnant, dans lequel on voit des essaims de drones tueurs plonger le monde dans un climat de terreur, en l’espace de quelques semaines.

La conclusion de Stuart Russell est sans appel : il faut d’urgence interdire les armes autonomes par convention internationale. Qui oserait le contredire ?

Le raisonnement, toutefois, souffre d’un petit problème. Pour être efficace, une interdiction légale exigerait que ces fameux drones n’utilisent pas une technologie en vente libre ! GPS, système de pilotage automatique, logiciel de reconnaissance faciale, tous ces gadgets figurent déjà dans votre smartphone. Il ne vous reste plus qu’à récupérer la poudre d’une balle de fusil, ou à accrocher une grenade, un cocktail Molotov ou carrément une paire de ciseaux sur votre drone pour en faire une arme intelligente !

On le voit donc, l’IA semble poser des problèmes insurmontables, même à ceux qui en sont, en principe, les experts – et c’est le cas de Stuart Russell.

UNE CONFIANCE EN DÉLIQUESCENCE

Si le champ des dérives criminelles s’annonce très vaste, que dire de celui des pratiques nuisibles, mais pas nécessairement illégales, qui deviendront possibles pour les individus, les associations ou les entreprises ? Dans un monde où la responsabilité juridique, ou même simplement morale, se dilue à proportion de la distance qu’intercalent Internet et algorithmes entre un acte et son auteur, ne faut-il pas craindre une déliquescence totale de la confiance en l’autre ? 3

GARANT DE LA CONFIANCE QUI PERMET LE LIEN SOCIAL, L’ÉTAT DE DROIT DEVRA, DE PLUS EN PLUS, S’EFFACER DERRIÈRE LES ENTREPRISES TECHNOLOGIQUES QUI MAÎTRISENT LA « BONNE » INTELLIGENCE ARTIFICIELLE.

On discerne alors le rôle que seront appelées à jouer les grandes entreprises technologiques dans la préservation de la confiance et la défense contre la malveillance. Elles seules détiendront les moyens de contrecarrer les pratiques nuisibles, comme par exemple d’authentifier une vidéo, de bloquer des infiltrations de virus informatiques générés automatiquement ou encore de protéger la multitude des objets connectés dont nous sommes, de plus en plus, entourés et dépendants. Déjà, ces entreprises disposent de leviers considérables, et en grande partie discrétionnaires, sur la visibilité d’une société ou la diffusion d’une information.

Garant de la confiance qui permet le lien social, l’État de droit devra, de plus en plus, s’effacer derrière les entreprises technologiques, celles qui maîtrisent la « bonne » IA et peuvent assurer cette mission. Tendance en tout point comparable aux conditions d’émergence de la féodalité dans l’Europe médiévale.

UNE FUITE EN AVANT DÉBRIDÉE

Alléguant la sauvegarde de la souveraineté politique ou économique, la plupart des responsables politiques estiment qu’il est crucial de favoriser le développement d’une « industrie nationale » de l’Intelligence Artificielle. C’est qu’ils redoutent la mainmise des géants technologiques étrangers sur les données, et donc sur les personnes.

LE DÉVELOPPEMENT TECHNIQUE EST TOTALEMENT DÉBRIDÉ PARCE QUE, NULLE PART ET À AUCUN MOMENT, LES CONCEPTEURS D’INTELLIGENCE ARTIFICIELLE ET LES LÉGISLATEURS NE FIXENT LA MOINDRE LIMITE.

Ils craignent, en outre, l’effet des destructions d’emplois liées à la robotisation 4, et brandissent désormais comme une vérité indiscutable l’argument-choc selon lequel « les économies les plus équipées en intelligence artificielle et en robotique sont celles qui connaissent le moins de chômage ». 5

Mais le rêve de donner naissance à des champions européens de l’IA n’est pas sans contradiction dans une économie ouverte et globalisée, où lesdits champions peuvent, à tout moment, passer sous contrôle étranger.

Les entreprises technologiques promouvant l’IA, largement transnationales, l’ont bien compris puisqu’elles omettent soigneusement toute référence à une bien illusoire défense de souveraineté. Il n’est guère besoin d’invoquer celle-ci, au demeurant, pour que la compétition économique et la promesse de miracles techniques suffisent à alimenter une fuite en avant totalement débridée. »

Il s’agit donc de doubler les capacités installées d’énergies renouvelables d’ici à 2050, en multipliant par 2,5 les capacités installées d’éolien, et par 5 ou 6 celles de photovoltaïque. Le ministère souligne que ces ambitions ne posent pas de problème en termes d’usage des sols ou de pression foncière, puisqu’il s’agit de passer de 8.000 éoliennes installées aujourd’hui à moins de 15.000 (du fait des gains de performances), et pour le solaire, d’occuper 365 kilomètres carrés supplémentaires au sol et 175 kilomètres carrés de toitures pour le photovoltaïque.

Concernant la biomasse, sur laquelle nous pourrions connaître un déficit entre des besoins évalués à 460 TWh et un potentiel de 430 TWh, et qu’il pourrait être difficile d’importer dans la mesure où nos voisins pourraient se trouver dans des situations similaires, la PPE prévoit que le soutien financier soit réservé aux seules installations visant à produire de la chaleur.

Le biométhane (produit par méthanisation à partir de déchets organiques ménagers ou agricoles) voit ses ambitions stoppées nettes. Alors que le coût de production actuel est d’environ 95 euros par mégawattheure (MWh) produit, le gouvernement conditionne l’objectif de 10% de gaz vert dans le réseau en 2030 à une baisse des coûts à hauteur de 67 euros/MWh. Sinon, l’objectif restera limité à 7%, à comparer avec les ambitions d’un GRDF qui proposait 30%. Cette position, justifiée par une attention toute particulière portée aux coûts de la transition écologique sur fond de mouvement des gilets jaunes, semble assez antagoniste avec le constat d’électricité éolienne et photovoltaïque qui ont vu leurs coûts divisés par dix en dix ans pour des puissances équivalentes… précisément grâce aux économies d’échelle. Celles réalisées au niveau de la fabrication de panneaux solaires en Chine, mais aussi dans une certaine mesure, celles autorisées par le volume total des appels d’offres. On peut craindre que ces perspectives modestes ne suscitent pas suffisamment d’investissements pour permettre de telles baisses de coûts. Et plus largement que cette préférence aux technologies matures sur lesquelles la France – et même l’Europe – ont laissé le leadership à d’autres régions du monde n’entrave le développement de filières industrielles domestiques sur des technologies encore émergentes.

IA, illusion d’intelligence ?

IA, illusion dintelligence ?

Depuis l’apparition de Chat GPT, l’intelligence artificielle est devenue l’un des sujets les plus abordés. Entre admiration et peur, les utilisateurs ont souvent des idées reçues sur le mécanisme derrière cette nouvelle technologie. Professeure dans le domaine à Sorbonne Université, Laurence Devillers a décrypté ses capacités au micro d’Europe 1.

L’intelligence artificielle est au cœur de toutes les conversations depuis de nombreux mois. L’apparition du prototype conversationnel Chat GPT a eu l’effet d’une bombe dans le monde. Que ce soit pour faire la conversation ou demander un réel renseignement, des millions de personnes l’utilisent chaque jour dans le monde. Ses capacités, par leur puissance et leur précision, peuvent même inquiéter. Laurence Devillers, professeure en intelligence artificielle à Sorbonne Université, explique au micro d’Europe 1 que cette supposée supériorité est en fait une « illusion ».


Chat GPT, une « projection des capacités humaines »

L’intelligence artificielle a le pouvoir de maintenir une conversation comme un être humain, ce qui créé une « illusion d’intelligence » d’après la professeure. « Cette illusion d’intelligence va nous manipuler et c’est là où il faut faire très attention », poursuit-elle avant d’expliquer que la « machine ne fait que copier » et n’a « aucun sens sur ce qu’elle est en train de faire ». De ce fait, cette technologie ne possède pas d’émotions puisqu’il s’agit de « projections des capacités humaines ».

Ce sont ses capacités de langage qui incitent l’être humain à croire que cette dernière est plus intelligente et même plus émotive qu’elle ne l’est véritablement. Bien que Laurence Devillers avoue qu’il est difficile pour beaucoup de « faire la différence », elle confirme que le système même de l’intelligence artificielle n’a aucune forme de vie : « Il n’y a pas de conscience, il n’y a pas d’émotions, il n’y a pas d’intentions. »

La professeure en a profité pour ajouter que la manipulation déclenchée par diverses intelligences artificielles a déjà commencé, notamment via les réseaux sociaux avec les images modifiées. Dernièrement, de nombreuses photos fausses ont circulé sur internet, mettant en scène des personnalités publiques dans des situations incongrues. Une « coopération » avec les machines est donc nécessaire et passe notamment par « l’éducation » pour apprendre à mieux aborder cette nouvelle technologie.

La fin de homme face à l’IA ?

La fin de homme face à l’IA ?

Le développement de l’IA représente une menace de taille pour l’espèce humaine, analyse l’auteur de La Guerre des intelligences (voir résumé) à l’heure de ChatGPT *. Il est urgent, explique-t-il dans le Figaro, de réfléchir à ses conséquences politiques et aux moyens de cohabiter avec elle.

L’arrivée de ChatGPT a relancé le débat sur l’intelligence artificielle générale : de quoi s’agit-il ?

Laurent ALEXANDRE. – Il existe deux types d’IA qui préoccupent les chercheurs. D’abord, l’intelligence artificielle générale, qui serait légèrement supérieure à l’homme dans tous les domaines cognitifs. Ensuite, la super-intelligence artificielle, l’ASI en anglais, qui pourrait être des milliers, voire des millions, de fois supérieure à la totalité des cerveaux sur ­terre.

Faut-il croire à son émergence ou s’agit-il en réalité d’un fantasme ?

Sam Altman, le patron de ChatGPT, a écrit le mois dernier qu’il est convaincu que la super-intelligence artificielle sera là avant 2030. Il n’y a pas de certitude que nous y parviendrons, mais je constate qu’il y a de plus en plus de chercheurs, une grande majorité, même, qui sont aujourd’hui convaincus que l’IA nous dépassera dans tous les domaines.

La Guerre des intelligences -résumé ( de likedin)

Les inégalités de QI sont majoritairement génétiques (de naissance) et globalement héréditaires même si le mode de vie (malbouffe, sous-stimulation…) accentue cet état de fait. De fait, les inégalités de QI se creusent.

Après une période d’augmentation générale du QI (due à une meilleure hygiène de vie), l’effet Flynn s’est tari en occident, entrainant une baisse du QI moyen, car les personnes au meilleur QI font moins d’enfants et les personnes de faibles QI en font plus et les stimulent moins.

En Asie, l’effet Flynn bat son plein : le QI connaît une forte augmentation pour des raisons environnementales (fin de la malnutrition, éducation…).

L’Afrique devrait connaître à son tour une explosion du QI dans les prochaines décennies.

L’éducation est clef : on en est encore à l’âge de pierre. Il n’y a pas d’évaluation des méthodes (cf les débats stériles entre méthode globale et syllabique alors qu’aucune étude sérieuse n’a jamais été menée sur le sujet), process de transmission inchangé depuis des siècles/millénaires (cours magistral de groupe). Grâce aux neurosciences on va vraiment comprendre comment le cerveau apprend / les cerveaux apprennent.

On pourra alors vraiment faire de la pédagogie efficace et individualisée.

Après le QI, le QCIA

Mais au-delà du QI, le vrai enjeu va être le QCIA (quotient de compatibilité avec l’IA) car l’IA arrive à grands pas.

Aujourd’hui, on n’en est qu’aux balbutiements (l’IA est encore faible, il n’existe pas encore d’IA « forte », consciente d’elle-même) mais les développements sont extrêmement rapides.

Les nouvelles IA sont auto-apprenantes (deep-learning) et deviennent des boîtes noires. On ne sait pas vraiment comment elles fonctionnent car elles évoluent d’elles-mêmes en apprenant. Cela les différentie fondamentalement des algorithmes qui sont pré-programmés par quelqu’un, donc auditables.

Les IA apprennent grâce à la masse des données (textes, vidéos, photos, données de navigation…) dont on les nourrit.

Ce n’est pas un hasard si Google et FB sont des créateurs d’IA : avec les datas dont ils disposent, ils peuvent nourrir les IA.

L’Europe en protégeant les données utilisateurs fait prendre un retard à l’IA européenne vs la Chine ou les US.

Les IA vont rapidement remplacer le travail intellectuel (avocat, médecin…) car la masse de données qu’elles possèdent est phénoménale (ex : des millions de clichés radiologiques, des milliards de datas de santé…) et cela permet de réaliser des corrélations impossibles à un humain.

Paradoxalement, les métiers manuels diversifiés seront les derniers remplacés car un robot multitâche coûte plus cher qu’un programme informatique (le radiologue sera remplacé avant l’aide-soignante).

La fin du travail est annoncée par beaucoup, mais cette peur méconnait l’inventivité humaine : de nouveaux métiers vont apparaître autour de l’IA (comme les datascientistes, les développeurs web ou les spécialistes du retargeting n’existaient pas il y a 20 ans). Par nature, on ne peut pas prévoir ce que seront ces jobs, mais ils existeront comme après chaque révolution industrielle. Ce qu’on peut imaginer et que ces futurs emplois seront étroitement liés à l’IA, il est donc essentiel que notre intelligence soit compatible, d’où l’importance du QCIA.

L’IA est pour le court terme une formidable opportunité (elle va résoudre de nombreux problèmes bien mieux que les humains, surtout dans la santé). Le problème est qu’on ne sait pas comment elle va évoluer. Une IA forte (ie avec conscience) peut devenir dangereuse pour l’homme et comme elle sera dupliquée / répartie (via Internet) dans tous les objets connectés, elle sera difficile à tuer en cas de besoin.

Comment l’IA avec conscience se comportera-t-elle avec nous ? Cela est très difficile à prévoir.

Quel avenir pour l’humanité ?

Assez vite, l’homme va être dépassé par l’IA, alors comment rester dans la course et ne pas être asservi ?

- l’eugénisme : les humains mieux sélectionnés in-vitro seront plus intelligents et en meilleure santé (cf Bienvenue à Gattaca). Cela pose évidemment de nombreux problèmes éthiques mais les réponses à ces problèmes seront différentes selon les pays et la Chine et les US sont plus permissifs. Cependant, cette évolution sera lente alors que l’IA évolue en permanence : les humains risquent de rester à la traîne de l’IA. Enfin, maîtriser la conception des enfants doit interroger sur la capacité de survie de l’espèce humaine en tant que telle. Le hasard de la génétique (mutations non prévues) est en effet le moyen trouvé par la vie pour s’adapter, sur le long terme, à un environnement lui-même en évolution permanente (principe de l’évolution).

- l’hybridation : cette solution prônée par Elon Musk consiste à se mettre des implants cérébraux qui vont booster notre cerveau. Si l’idée est très enthousiasmante (maîtriser la connaissance sans effort ni délai), le vrai risque est la manipulation : qui produit les contenus ? seront-ils orientés ? quid du brain washing ? que se passe-t-il si nous sommes hackés ? Ces implants seraient-ils le cheval de Troie d’une véritable dictature de la pensée encore plus aboutie que 1984 ? En effet, si on peut injecter des informations directement dans notre cerveau, il sera possible également de lire nos pensées. Que reste-t-il de nous si nous n’avons même plus de refuge de notre cerveau pour penser en toute liberté ? Quel usage un gouvernement pourrait-il faire de ces informations, qui ne soit pas totalitaire ?

- projeter nos esprits dans des corps robots : la victoire ultime sur la mort. Sans corps, nous sommes immortels. Mais que restera-t-il de nous quand nous serons fusionnés avec l’IA et que la mortalité n’existera plus alors qu’elle est l’essence même de l’homme et vraisemblablement l’origine de son désir créatif ?

Le problème de toutes ces évolutions c’est qu’elles ont des effets bénéfiques individuels indéniables à court terme (moins de maladies, meilleur QI…), mais à la fois vont créer des inégalités temporaires (seuls les riches pourront au début s’offrir cela) et impliquent des changements pour l’humanité toute entière.

Dès lors que les effets bénéfiques sont importants, il sera impossible d’enrayer le développement des IA dans tous les aspects de nos vies. En effet, quel parent pourrait refuser de faire soigner son enfant par une IA plutôt qu’un médecin, si ses chances de survie sont décuplées ? Quel homme politique pourrait assumer de faire prendre à son pays un retard si énorme en terme de santé publique ?

Mais si les humains sont connectés à des implants, l’IA sera certainement dedans. Serons-nous encore des humains ? Comment ne pas être asservis par l’IA si celle-ci est déjà dans nos cerveaux ?

Les technobéats ne réfléchissent pas à plusieurs générations, trop enthousiastes de voir où leur création les mènera. Quant aux politiques ils sont complètement largués et ne comprennent rien à la technologie. De toute manière, ils ne savent pas penser à plus de deux ans.

Au final, l’IA se développe sans maîtrise, car personne ne pense ni ne parle pour l’humanité.

(A ce sujet, je recommande l’essai d’Edmund Burke « Réflexion sur la Révolution de France » qui explique sa pensée, le « conservatisme », et sa vision de la société comme un contrat entre les vivants, mais également entre les vivants, les morts et les futures générations. Il y a certainement des idées pour nourrir le débat.)

Dans tous les cas, la bataille sera gagnée par les tenants de l’hybridation (transhumanistes) car ceux qui s’hybrideront (et ils le feront même si la réglementation le leur interdit) deviendront super-intelligents et deviendront donc de-facto les leaders. Ceux qui refuseront l’hybridation seront à la traîne.

Face à une IA galopante et à l’hybridation, le rôle de l’école va changer. Notre valeur sera dans ce qui fait notre humanité puisque la connaissance sera injectable à la demande sans effort. Donc il faudra former davantage à l’esprit critique, la réflexion, la créativité. L’homme a cet avantage sur la machine de faire des erreurs et c’est des erreurs que viennent des découvertes.

12345...14



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol