Archive pour la Catégorie 'nouvelles technologies'

Bruxelles veut imposer le contrôle des contenus d’intelligence artificielle

Bruxelles veut imposer le contrôle des contenus d’intelligence artificielle


La Commission européenne veut que les plateformes, signataires du code de bonnes pratiques de l’UE contre la désinformation, agissent en ce sens, a annoncé la vice-présidente de l’exécutif européen, Vera Jourova, ce lundi 5 juin. Pour rappel, ce code, non-contraignant, regroupe sur une base volontaire une quarantaine d’organisations, dont des plateformes majeures comme Facebook, Google, YouTube, TikTok.Il s’agirait notamment de signaler les contenus produits de l’intelligence Artificielle.

« Les signataires qui intègrent l’IA générative dans leurs services comme Bing Chat pour Microsoft, Bard pour Google devraient intégrer les garanties nécessaires pour que ces services ne puissent pas être utilisés par des acteurs malveillants pour générer de la désinformation », a déclaré Vera Jourova lors d’un point de presse.

« Et deuxièmement, les signataires qui ont des services susceptibles de diffuser de la désinformation générée par l’IA devraient mettre en place une technologie pour reconnaître ce contenu et l’indiquer clairement aux utilisateurs », a-t-elle ajouté. Plusieurs fausses photographies produites avec de l’IA générative ont récemment été largement relayées sur les réseaux sociaux, comme celle du pape en doudoune ou l’arrestation de l’ancien président américain Donald Trump.

L’annonce de Bruxelles intervient alors que Twitter a récemment décidé de quitter le code de bonnes pratiques de l’UE.

« Nous pensons que c’est une erreur de la part de Twitter (…). Ils ont choisi la confrontation », a déclaré devant la presse Vera Jourova. Si Twitter « veut opérer et gagner de l’argent sur le marché européen, il devra se conformer à la loi sur les services numériques », a-t-elle ajouté.

« Le code est volontaire, mais ne vous y trompez pas : en quittant le code, Twitter va faire l’objet d’une attention accrue. Ses actions et le respect de la loi européenne (DSA) seront examinés de près, de façon ferme et prioritaire », a encore averti Vera Jourova.

L’UE négocie par ailleurs une législation spécifiquement sur l’IA, qui prévoit des obligations de transparence pour les générateurs de contenus rédactionnels type ChatGPT, mais ces discussions entre les Etats membres et les eurodéputés traînent en longueur.

Si le texte devait être adopté avant la fin de l’année, il entrerait en vigueur « au plus tôt fin 2025 », selon le commissaire européen pour le Numérique Thierry Breton, qui a convenu avec le patron de Google, Sundar Pichai, de travailler d’ici là sur des règles avec les entreprises volontaires.

Intelligence artificielle, les limites

Intelligence artificielle, les limites

Comme l’évoque la métamorphose criminelle de l’ordinateur HAL dans 2001 : l’odyssée de l’espace, de Stanley Kubrick (1968), la perspective nourrit autant d’angoisse que d’enthousiasme. Le philosophe Daniel Andler, l’un des meilleurs spécialistes des sciences cognitives, publie opportunément, en cette heure de gloire des technosciences, Intelligence artificielle, intelligence humaine : la double énigme, somme dense, efficace, car pleine de savoir et d’humour, qui saura dégriser les anxieux comme les inconditionnels.( dans Le Monde)

S’il ne conteste pas l’importance du saut qualitatif ainsi franchi, marqué par l’émergence d’un « réveil éthique » dans une discipline qui ne s’intéressait jusque-là qu’aux prouesses intellectuelles, Daniel Andler prend à rebours l’opinion courante et toute une tendance philosophique fascinée par le brouillage croissant entre le cyborg et l’humain, en démontrant que l’écart entre la technologie et l’homme, loin de s’être comblé, s’est accru. Par une reconstitution précieuse de l’histoire de l’IA, qui occupe la première partie de ­l’essai, il montre à quel point la réalité des progrès et des échecs de l’IA contredit la « rhétorique de la victoire inéluctable ». Ce triomphalisme propre à la culture de la « numérisphère » (population de programmeurs et d’entrepreneurs qui s’épanouit à côté des chercheurs) n’est d’ailleurs pas sans rappeler les prophéties sur la victoire du prolétariat ou les discours confondant le capitalisme libéral avec une loi de nature, sans ­alternative possible ni ­pensable.

« Intelligence artificielle, intelligence humaine : la double énigme », de Daniel Andler, Gallimard, « NRF essais », 434 p., 25 €, numérique 18 €.

Bruxelles veut imposer le contrôle des contenus d’intelligence artificielle

Bruxelles veut imposer le contrôle des contenus d’intelligence artificielle


La Commission européenne veut que les plateformes, signataires du code de bonnes pratiques de l’UE contre la désinformation, agissent en ce sens, a annoncé la vice-présidente de l’exécutif européen, Vera Jourova, ce lundi 5 juin. Pour rappel, ce code, non-contraignant, regroupe sur une base volontaire une quarantaine d’organisations, dont des plateformes majeures comme Facebook, Google, YouTube, TikTok.Il s’agirait notamment de signaler les contenus produits de l’intelligence Artificielle.

« Les signataires qui intègrent l’IA générative dans leurs services comme Bing Chat pour Microsoft, Bard pour Google devraient intégrer les garanties nécessaires pour que ces services ne puissent pas être utilisés par des acteurs malveillants pour générer de la désinformation », a déclaré Vera Jourova lors d’un point de presse.

« Et deuxièmement, les signataires qui ont des services susceptibles de diffuser de la désinformation générée par l’IA devraient mettre en place une technologie pour reconnaître ce contenu et l’indiquer clairement aux utilisateurs », a-t-elle ajouté. Plusieurs fausses photographies produites avec de l’IA générative ont récemment été largement relayées sur les réseaux sociaux, comme celle du pape en doudoune ou l’arrestation de l’ancien président américain Donald Trump.

L’annonce de Bruxelles intervient alors que Twitter a récemment décidé de quitter le code de bonnes pratiques de l’UE.

« Nous pensons que c’est une erreur de la part de Twitter (…). Ils ont choisi la confrontation », a déclaré devant la presse Vera Jourova. Si Twitter « veut opérer et gagner de l’argent sur le marché européen, il devra se conformer à la loi sur les services numériques », a-t-elle ajouté.

« Le code est volontaire, mais ne vous y trompez pas : en quittant le code, Twitter va faire l’objet d’une attention accrue. Ses actions et le respect de la loi européenne (DSA) seront examinés de près, de façon ferme et prioritaire », a encore averti Vera Jourova.

L’UE négocie par ailleurs une législation spécifiquement sur l’IA, qui prévoit des obligations de transparence pour les générateurs de contenus rédactionnels type ChatGPT, mais ces discussions entre les Etats membres et les eurodéputés traînent en longueur.

Si le texte devait être adopté avant la fin de l’année, il entrerait en vigueur « au plus tôt fin 2025 », selon le commissaire européen pour le Numérique Thierry Breton, qui a convenu avec le patron de Google, Sundar Pichai, de travailler d’ici là sur des règles avec les entreprises volontaires.

IA-ChatGPT: danger majeur pour l’humanité ?

IA-ChatGPT: danger majeur pour l’humanité ?


Face à l’ accélération de l’IA, de grands noms mettent en garde contre ses dangers. Pour Geoffrey Hinton, les avancées dans le secteur de l’IA induisent « de profonds risques pour la société et l’humanité », avait-il estimé dans le New York Times. C’est la raison pour laquelle il a quitté son poste au sein du géant Google début mai, qui a d’ailleurs récemment présenté ses plans pour intégrer l’intelligence artificielle générative à son moteur de recherche.

En mars, c’était le milliardaire Elon Musk – un des fondateurs d’OpenAI dont il a ensuite quitté le conseil d’administration – et des centaines d’experts mondiaux qui avaient réclamé une pause de six mois dans la recherche sur les IA puissantes, en évoquant « des risques majeurs pour l’humanité ».

Sam Altman multiplie aussi régulièrement les mises en garde, craignant que l’IA ne « cause de graves dommages au monde », en manipulant des élections ou en chamboulant le marché du travail.

Depuis mi-mai, le patron d’OpenAI parcourt le monde pour rassurer sur l’IA et plaider pour une régulation. Car les régulations ne sont pas seulement un mal nécessaire pour le secteur, mais aussi une opportunité économique.

« Tout le monde a intérêt à la mise en place rapide de régulations uniformisées à l’échelle mondiale, sous l’impulsion des États-Unis, y compris les entreprises de l’intelligence artificielle. En l’absence de telles régulations, il est en effet probable que chaque pays, voire chaque région, bricole ses propres règles dans son coin, ce qui forcerait demain les entreprises de l’intelligence artificielle à entraîner une infinité de modèles différents pour coller aux spécificités de chaque loi locale. Un cauchemar », considère Gary Marcus, expert de l’IA.

Intelligence artificielle : bienveillante ou pas ?

Intelligence artificielle : bienveillante ou pas ?

par Yann Arnaud
Doctorant en éthique des affaires, Université de Bordeaux dans the Conversation

Composée de « bene » (le bien) et « volens » (de bon gré), la bienveillance désigne la volonté du bien. Initialement décrite dans le courant philosophique, elle s’est émancipée dans de nombreuses disciplines telles que la gestion des ressources humaines, l’éducation, la psychologie et s’invite maintenant dans le domaine de l’intelligence artificielle (IA).
Aujourd’hui, l’IA et ses algorithmes sont omniprésents dans notre quotidien. La reconnaissance faciale, les chatbots, les assistants vocaux, les voitures autonomes constituent quelques exemples connus. L’arrivée récente des IA génératives, comme ChatGPT ou LLaMA, permettent d’aider et d’accompagner les humains dans leurs opérations intellectuelles (génération de contenus, traduction, etc.), ce qui bouleverse un peu plus nos interactions avec ces machines.

Néanmoins, dans quelle mesure peut-on parler de bienveillance pour qualifier les progrès des IA qui, par définition, ne sont autres que des algorithmes inspirés du cerveau humain ? A contrario, des IA capables de nuire pourraient-elles est être considérées comme malveillantes ? Se pencher sur ces questions nous permet de ne pas perdre de vu le sens que nous accordons aux mots pour penser et caractériser les opportunités et les enjeux des IA.

Lorsque l’on désigne un élément comme « artificiel », nous l’opposons communément au « naturel ». En effet, un artifice est un produit qui n’a pas de lien étroit avec le vivant, mais il peut tenter de le mimer ou de l’imiter. Dans cette perspective, les IA tentent de reproduire l’intelligence humaine à travers des algorithmes qui sont artificiellement développés par les humains (par exemple, l’apprentissage automatique, l’apprentissage profond). Les IA sont donc seulement des intelligences abiotiques, bien qu’il faille reconnaitre qu’elles ont parfois un fort pouvoir de prédication et d’imitation de l’humain.

En revanche, l’intelligence humaine est intimement liée à un certain nombre de facteurs psychologiques issus de son contenant comme des émotions, des affects ou des sentiments. Par essence, les IA en sont démunies puisqu’elles n’ont qu’une représentation partielle du monde, issue de textes et de chiffres. Les humains sont aussi liés à leur contenu qui les façonne, c’est-à-dire des événements exogènes (par exemple, des maladies) qui, eux, n’affectent pas directement les IA sur leur manière de s’exécuter.

L’un des atouts des IA est de corriger les biais cognitifs des humains en raison de leur absence de rationalité exclusive. Aujourd’hui, il est possible de concevoir une intelligence abiotique pour améliorer les conditions d’une intelligence biotique, si bien que des auteurs scientifiques comme Joël de Rosnay évoque un véritable « état symbiotique » entre l’homme et les machines. Pour d’autres, affirmer que les IA remplaceront à terme l’intelligence humaine est une aberrance car elles ont aussi leurs biais liés aux données non neutres qu’elles reçoivent des humains eux-mêmes.

En 1992, le psychologue social israélien Shalom H. Schwartz montre que la bienveillance est l’une des dix valeurs fondamentales de l’être humain dans sa théorie des valeurs humaines basiques. La bienveillance, qui implique certains comportements tels que être serviable, loyal, indulgent ou encore responsable, préserve et améliore le bien-être d’autrui.

Les IA, semble-t-il, sont issues d’une création bienveillante des humains puisqu’elles sont capables de maintenir et d’améliorer son sort. Cependant, ces dernières ne peuvent naître et évoluer seules ; elles ont besoin de données générées par l’humain ou son activité pour être expérimentées. Jusqu’à présent, l’humain reste l’expérimentateur et l’expérimenté de sa condition alors que les IA ne sont seulement que le deuxième versant. Il s’agit ici d’une différence fondamentale puisque l’expérimentateur, par définition, doit faire preuve de curiosité, de perspicacité, d’intuition et de créativité dans ses modes d’acquisition de la connaissance. Les IA ne sont pas encore capables d’atteindre de tels niveaux de raisonnement.

Ainsi, les IA ne peuvent donc pas être rigoureusement qualifiées de bienveillantes ou de son inverse. Considérer les IA comme bienveillantes (ou malveillantes) reviendrait à dire qu’elles n’ont pas besoin d’esprit humain pour atteindre un tel niveau de cognition. On pourrait ainsi se fier à elles plutôt qu’à son propre ressenti, ce que le philosophe français Pierre Cassou-Noguès évoque à travers le « syndrome du thermomètre » dans son essai La bienveillance des machines.

Or, pour être bienveillant, comme l’explique le philosophe Ghislain Deslandes, il faut aussi avoir un esprit car la bienveillance est étroitement liée aux notions d’empathie, d’indulgence et du souci, ce qui suggère une « connaissance intuitive et adéquate de l’essence des choses ».

Les IA en sont spirituellement démunies. La disposition à bien veiller ou mal veiller est étrangère à elles et non prise en considération dans leur fonctionnement interne.
Bien que la bienveillance (et son inverse) n’existe pas à l’intérieur des IA, ses répercussions extérieures le sont-elles pour autant ? À bien des égards, les IA apportent des aspects positifs et négatifs aux humains, ce qui engendre un certain degré d’interaction avec elles selon les usages (santé, militaire, etc.). Les conséquences extérieures de ces usages peuvent être perçues comme bienveillantes (ou non) par les individus car ils impactent ces derniers en modifiant leurs états d’âme (humeurs, sentiments, etc.).

Pour autant, qualifier une action bienveillante de la part d’une IA (par exemple, le fait qu’elle puisse diagnostiquer un cancer) ne fait pas d’elle une IA bienveillante puisque, encore une fois, elle n’est pas un humain comme les autres. Seules les répercussions liées à son usage (la détection du cancer a débouché vers un traitement ad hoc) peuvent être perçues comme bienveillantes par les humains car elles participent à la préservation et/ou à l’amélioration de leurs conditions de vie.

Cet éclairage entre les IA et la notion de bienveillance offre une perspective plus fine sur l’ordre des choses. L’humain, en tant qu’être pensant, a la mainmise sur la conception et le développement des IA. Une fois les algorithmes exécutés, il en va à chacun de considérer les répercussions comme bienveillantes ou non par rapport à sa condition.

Ainsi, la primauté de la responsabilité humaine sur les IA doit être conservée car ce n’est bien qu’à l’extérieur de ces algorithmes que nous pouvons avoir un rôle à jouer. À elles seules, les IA sont indifférentes à toute bienveillance car elles en sont intrinsèquement privées. Leur bon usage nécessite d’entretenir nos expériences de pensées comme la critique, le doute et la recherche du sens, c’est-à-dire notre capacité à philosopher et à prendre soin de nous-mêmes.

« L’IA : pour renforcer les géants du numérique, mais aussi les affaiblir »

« L’IA : pour renforcer les géants du numérique, mais aussi les affaiblir »
CHRONIQUE par Alexandre Piquard dans Le Monde

L’intelligence artificielle en open source serait susceptible de rebattre les cartes du secteur dans un sens moins favorable aux Big Tech, explique Alexandre Piquard, journaliste au « Monde », dans sa chronique.L’intelligence artificielle (IA) va-t-elle rebattre les cartes du numérique ou asseoir le pouvoir des grands acteurs du secteur ? Le succès des logiciels capables de créer, à partir d’une simple commande écrite, des textes – comme ChatGPT – ou des images – comme Midjourney – a d’abord semblé confirmer la seconde hypothèse. Si c’était possible, ces systèmes allaient être encore davantage dominés par les Big Tech, tels Google, Microsoft, Meta (Facebook) ou Amazon, que la recherche en ligne, les réseaux sociaux, les logiciels ou l’e-commerce…

Mais ces derniers mois, avec l’apparition de modèles d’IA puissants diffusés en open source, donc accessibles à tous, une thèse alternative s’est développée : l’IA pourrait affaiblir les géants du numérique.

Pour étayer l’idée d’une consolidation du pouvoir des acteurs dominants, les éléments ne manquent pas : OpenAI, la start-up qui a créé ChatGPT, est depuis 2019 solidement arrimée, par un partenariat, à Microsoft, qui serait prêt à y investir 10 milliards de dollars (9,4 milliards d’euros). Google a, lui, misé 300 millions de dollars pour prendre une participation dans la start-up Anthropic. Et, grâce à leurs filiales d’hébergement et de services dans le cloud, Google a noué un partenariat avec Cohere ou C3 AI et Amazon avec Stability AI. Les géants du numérique apportent ici de la capacité de calcul pour entraîner des modèles gigantesques (540 milliards de paramètres pour PaLM, de Google). Il s’agit d’une ressource cruciale et coûteuse, car les puces dernier cri valent jusqu’à 40 000 dollars pièce.

Cette mainmise suscite déjà des critiques, notamment d’Elon Musk, pour qui créer OpenAI était une façon de pas laisser l’IA aux mains de Google. « La domination des Big Tech sur l’économie numérique sera scellée si les régulateurs n’interviennent pas », a mis en garde Sarah Myers West, de l’ONG AI Now Institute, dans le Financial Times. La FTC, l’autorité antitrust américaine, a dit être « vigilante », car « l’IA risque de conforter encore davantage la domination des grands acteurs du numérique ».

Certains craignent de voir les petites entreprises et la recherche publique dépendre d’une poignée de grands modèles d’IA, comme elles dépendent des grandes plates-formes, réseaux sociaux, environnements mobiles…

Intelligence artificielle : bienveillante ou pas ?

Intelligence artificielle : bienveillante ou pas ?

par Yann Arnaud
Doctorant en éthique des affaires, Université de Bordeaux dans the Conversation

Composée de « bene » (le bien) et « volens » (de bon gré), la bienveillance désigne la volonté du bien. Initialement décrite dans le courant philosophique, elle s’est émancipée dans de nombreuses disciplines telles que la gestion des ressources humaines, l’éducation, la psychologie et s’invite maintenant dans le domaine de l’intelligence artificielle (IA).
Aujourd’hui, l’IA et ses algorithmes sont omniprésents dans notre quotidien. La reconnaissance faciale, les chatbots, les assistants vocaux, les voitures autonomes constituent quelques exemples connus. L’arrivée récente des IA génératives, comme ChatGPT ou LLaMA, permettent d’aider et d’accompagner les humains dans leurs opérations intellectuelles (génération de contenus, traduction, etc.), ce qui bouleverse un peu plus nos interactions avec ces machines.

Néanmoins, dans quelle mesure peut-on parler de bienveillance pour qualifier les progrès des IA qui, par définition, ne sont autres que des algorithmes inspirés du cerveau humain ? A contrario, des IA capables de nuire pourraient-elles est être considérées comme malveillantes ? Se pencher sur ces questions nous permet de ne pas perdre de vu le sens que nous accordons aux mots pour penser et caractériser les opportunités et les enjeux des IA.

Lorsque l’on désigne un élément comme « artificiel », nous l’opposons communément au « naturel ». En effet, un artifice est un produit qui n’a pas de lien étroit avec le vivant, mais il peut tenter de le mimer ou de l’imiter. Dans cette perspective, les IA tentent de reproduire l’intelligence humaine à travers des algorithmes qui sont artificiellement développés par les humains (par exemple, l’apprentissage automatique, l’apprentissage profond). Les IA sont donc seulement des intelligences abiotiques, bien qu’il faille reconnaitre qu’elles ont parfois un fort pouvoir de prédication et d’imitation de l’humain.

En revanche, l’intelligence humaine est intimement liée à un certain nombre de facteurs psychologiques issus de son contenant comme des émotions, des affects ou des sentiments. Par essence, les IA en sont démunies puisqu’elles n’ont qu’une représentation partielle du monde, issue de textes et de chiffres. Les humains sont aussi liés à leur contenu qui les façonne, c’est-à-dire des événements exogènes (par exemple, des maladies) qui, eux, n’affectent pas directement les IA sur leur manière de s’exécuter.

L’un des atouts des IA est de corriger les biais cognitifs des humains en raison de leur absence de rationalité exclusive. Aujourd’hui, il est possible de concevoir une intelligence abiotique pour améliorer les conditions d’une intelligence biotique, si bien que des auteurs scientifiques comme Joël de Rosnay évoque un véritable « état symbiotique » entre l’homme et les machines. Pour d’autres, affirmer que les IA remplaceront à terme l’intelligence humaine est une aberrance car elles ont aussi leurs biais liés aux données non neutres qu’elles reçoivent des humains eux-mêmes.

En 1992, le psychologue social israélien Shalom H. Schwartz montre que la bienveillance est l’une des dix valeurs fondamentales de l’être humain dans sa théorie des valeurs humaines basiques. La bienveillance, qui implique certains comportements tels que être serviable, loyal, indulgent ou encore responsable, préserve et améliore le bien-être d’autrui.

Les IA, semble-t-il, sont issues d’une création bienveillante des humains puisqu’elles sont capables de maintenir et d’améliorer son sort. Cependant, ces dernières ne peuvent naître et évoluer seules ; elles ont besoin de données générées par l’humain ou son activité pour être expérimentées. Jusqu’à présent, l’humain reste l’expérimentateur et l’expérimenté de sa condition alors que les IA ne sont seulement que le deuxième versant. Il s’agit ici d’une différence fondamentale puisque l’expérimentateur, par définition, doit faire preuve de curiosité, de perspicacité, d’intuition et de créativité dans ses modes d’acquisition de la connaissance. Les IA ne sont pas encore capables d’atteindre de tels niveaux de raisonnement.

Ainsi, les IA ne peuvent donc pas être rigoureusement qualifiées de bienveillantes ou de son inverse. Considérer les IA comme bienveillantes (ou malveillantes) reviendrait à dire qu’elles n’ont pas besoin d’esprit humain pour atteindre un tel niveau de cognition. On pourrait ainsi se fier à elles plutôt qu’à son propre ressenti, ce que le philosophe français Pierre Cassou-Noguès évoque à travers le « syndrome du thermomètre » dans son essai La bienveillance des machines.

Or, pour être bienveillant, comme l’explique le philosophe Ghislain Deslandes, il faut aussi avoir un esprit car la bienveillance est étroitement liée aux notions d’empathie, d’indulgence et du souci, ce qui suggère une « connaissance intuitive et adéquate de l’essence des choses ».

Les IA en sont spirituellement démunies. La disposition à bien veiller ou mal veiller est étrangère à elles et non prise en considération dans leur fonctionnement interne.
Bien que la bienveillance (et son inverse) n’existe pas à l’intérieur des IA, ses répercussions extérieures le sont-elles pour autant ? À bien des égards, les IA apportent des aspects positifs et négatifs aux humains, ce qui engendre un certain degré d’interaction avec elles selon les usages (santé, militaire, etc.). Les conséquences extérieures de ces usages peuvent être perçues comme bienveillantes (ou non) par les individus car ils impactent ces derniers en modifiant leurs états d’âme (humeurs, sentiments, etc.).

Pour autant, qualifier une action bienveillante de la part d’une IA (par exemple, le fait qu’elle puisse diagnostiquer un cancer) ne fait pas d’elle une IA bienveillante puisque, encore une fois, elle n’est pas un humain comme les autres. Seules les répercussions liées à son usage (la détection du cancer a débouché vers un traitement ad hoc) peuvent être perçues comme bienveillantes par les humains car elles participent à la préservation et/ou à l’amélioration de leurs conditions de vie.

Cet éclairage entre les IA et la notion de bienveillance offre une perspective plus fine sur l’ordre des choses. L’humain, en tant qu’être pensant, a la mainmise sur la conception et le développement des IA. Une fois les algorithmes exécutés, il en va à chacun de considérer les répercussions comme bienveillantes ou non par rapport à sa condition.

Ainsi, la primauté de la responsabilité humaine sur les IA doit être conservée car ce n’est bien qu’à l’extérieur de ces algorithmes que nous pouvons avoir un rôle à jouer. À elles seules, les IA sont indifférentes à toute bienveillance car elles en sont intrinsèquement privées. Leur bon usage nécessite d’entretenir nos expériences de pensées comme la critique, le doute et la recherche du sens, c’est-à-dire notre capacité à philosopher et à prendre soin de nous-mêmes.

Nouvelles batteries :au centre de l’activité économique

Nouvelles batteries : au centre de l’activité économique

Le monde fonctionne de plus en plus avec des batteries aujourd’hui principalement lithium-ion. Mais plusieurs modèles recourant à des technologies différentes apparaissent. Ils vont contribuer à la croissance économique grâce à de nouvelles applications. Par Xavier Dalloz, consultant spécialisé dans les nouvelles technologies dans la Tribune.
Xavier Dalloz
28 Mai 2023, 17:39

Les batteries vont notamment avoir de plus en plus d’applications dans notre vie quotidienne, ainsi que dans de nombreux secteurs industriels. Il est évident que l’économie de demain fonctionnera avec des batteries.

Par exemple, les véhicules électriques ont déjà dépassé 10 % des ventes mondiales de véhicules en 2022. Ces ventes devraient atteindre 30 % d’ici 2030. Aujourd’hui, la plupart des véhicules électriques sont alimentés par des batteries lithium-ion, une technologie vieille de plusieurs décennies également utilisée dans les ordinateurs portables et les téléphones portables. Les véhicules électriques d’aujourd’hui se rapprochent du prix des voitures à essence et peuvent parcourir des centaines de kilomètres entre les charges. Les nouvelles batteries vont augmenter ces performances.

De nombreuses innovations vont en effet transformer radicalement les batteries avec de nouvelles applications telles que le stockage d’électricité sur le réseau qui peut aider à équilibrer les sources d’énergie renouvelables intermittentes comme l’éolien et le solaire. Un nouveau monde émerge autour de nouvelles batteries.

Voici quelques exemples :

Batteries lithium-ion améliorées
Les batteries lithium-ion sont largement utilisées dans de nombreux appareils électroniques, des téléphones portables aux voitures électriques. Les chercheurs travaillent sur l’amélioration de leur capacité de stockage d’énergie, de leur durée de vie et de leur sécurité.
Des avancées ont été réalisées en augmentant la densité énergétique, ce qui permet d’obtenir une plus grande autonomie pour les véhicules électriques et les appareils mobiles.
Batteries à semi-conducteurs :
Les batteries à semi-conducteurs sont une nouvelle génération de batteries qui utilisent des matériaux à semi-conducteurs au lieu des électrolytes liquides traditionnels.
Elles promettent une densité d’énergie encore plus élevée, une charge plus rapide et une sécurité améliorée. Les batteries à semi-conducteurs pourraient jouer un rôle clé dans l’adoption généralisée des véhicules électriques.
Ces batteries ont une conception similaire à celle des batteries lithium-ion, y compris un électrolyte liquide, mais au lieu de compter sur le lithium, elles utilisent le sodium comme ingrédient chimique principal. CATL aurait prévu de commencer à les produire en masse avant la fin de l’année 2023.
Les batteries sodium-ion
Cette nouvelle technologie permettrait également de réduire les coûts de l’ordre de 20 % environ, avec toutefois une densité énergétique légèrement plus faible que les batteries lithium-ion, impliquant une autonomie légèrement en retrait. Elles bénéficieront en revanche d’une recharge rapide, et devraient permettre de satisfaire la majorité des usages.
Batteries à l’état solide :
Les batteries à l’état solide utilisent des électrolytes solides au lieu des électrolytes liquides dans les batteries traditionnelles.
Elles offrent plusieurs avantages, tels qu’une plus grande densité d’énergie, une meilleure sécurité, une durée de vie plus longue et une recharge plus rapide. Les batteries à l’état solide sont considérées comme l’une des prochaines grandes avancées dans le domaine des batteries au cours des prochaines années.
Batteries rechargeables à base de zinc :
Les batteries rechargeables à base de zinc sont une alternative intéressante aux batteries au lithium-ion.
Le zinc est un matériau abondant, peu coûteux et non toxique. Ces batteries ont une densité énergétique élevée, une meilleure sécurité et une meilleure stabilité thermique.
De plus, elles peuvent être recyclées plus facilement que les batteries au lithium-ion.
Batteries à flux redox :
Les batteries à flux redox utilisent des électrolytes liquides contenant des ions actifs pour stocker l’énergie.
Elles offrent la possibilité de stocker de grandes quantités d’énergie à grande échelle, ce qui les rend idéales pour les applications stationnaires telles que le stockage d’énergie solaire et éolienne.
Les batteries à flux redox sont connues pour leur longue durée de vie et leur capacité à être rechargées rapidement.
Les batteries LFP (phosphate de fer au lithium)
Les batteries LFP ont une densité d’énergie inférieure à celle des batteries lithium-ion, mais leur coût est moins élevé et surtout elles n’utilisent ni cobalt, ni nickel, matériaux sensibles aux risques d’approvisionnement et de volatilité des prix.
Elles connaitront une forte croissance en Europe et aux États-Unis d’ici à 2030 du fait des prix élevés du cobalt et du nickel.
La part de marché des LFP augmente rapidement , passant d’environ 10 % du marché mondial des véhicules électriques en 2018 à environ 40 % en 2022.
La batterie Prieto
La batterie Prieto peut se recharger complètement en trois minutes et peut fournir plus de cinq fois la densité de puissance et jusqu’à trois fois la densité d’énergie des batteries 2D traditionnelles.
La batterie peut fonctionner à des températures aussi basses que moins 30 degrés Celsius et à plus de 100 degrés Celsius,
Contrairement aux batteries lithium-ion traditionnelles, sa conception 3D garantit que la batterie ne soit pas inflammable.
Le rôle clé du noir de carbone et du graphite dans les batteries
Le carbone est utilisé dans les batteries principalement sous forme de graphite, qui est l’un des composants clés des électrodes. Le carbone a le potentiel d’être la prochaine percée dans la technologie des batteries. Son utilisation dans les collecteurs de courant permet notamment d’améliorer le point le plus faible des batteries plomb-acide, à savoir leur faible énergie spécifique.

Voici quelques usages du carbone dans les batteries :

Électrodes négatives :
Le graphite est couramment utilisé comme matériau d’électrode négative dans les batteries au lithium-ion. Lorsque la batterie se décharge, les ions lithium se déplacent de l’électrode négative (anode) vers l’électrode positive (cathode) à travers l’électrolyte, produisant ainsi un courant électrique.
Le graphite est choisi pour sa capacité à intercaler et stocker les ions lithium, ce qui permet une réversibilité des réactions électrochimiques lors des cycles de charge et de décharge.
Électrodes positives :
Bien que le carbone ne soit pas utilisé comme matériau d’électrode positive dans les batteries au lithium-ion, certains types de batteries, comme les batteries au plomb-acide, utilisent des électrodes positives à base de carbone.
Matériau conducteur :
Le carbone est un matériau électriquement conducteur, ce qui en fait un choix idéal pour faciliter le transfert d’électrons dans une batterie. Il est souvent utilisé pour recouvrir les électrodes afin d’améliorer la conductivité électrique et d’assurer une distribution uniforme du courant.
Amélioration de la stabilité :
L’ajout de carbone dans les électrodes peut améliorer la stabilité et la durabilité des batteries. Il peut aider à prévenir la formation de dendrites de lithium, qui peuvent court-circuiter la batterie et entraîner des problèmes de sécurité.
Supercapacités :
Les supercondensateurs, également appelés supercapacités, sont des dispositifs de stockage d’énergie qui utilisent le carbone sous forme de matériaux poreux, tels que les nanotubes de carbone ou le carbone activé.
Ces matériaux offrent une surface spécifique élevée, ce qui permet une plus grande capacité de stockage électrique.
Quant aux applications des batteries, on va les trouver partout dans notre vie quotidienne.

Voici quelques-unes des applications qui vont se généraliser :

Automobile
Les batteries sont essentielles pour alimenter les véhicules électriques (VE) et les véhicules hybrides rechargeables (VHR).
Les batteries fournissent l’énergie nécessaire pour propulser le véhicule et alimenter les systèmes électriques tels que les phares, le système de climatisation, l’électronique embarquée, etc.
Électronique grand public
Les batteries sont utilisées dans une variété d’appareils électroniques grand public tels que les téléphones portables, les tablettes, les ordinateurs portables, les montres intelligentes, les écouteurs sans fil, les caméras, les consoles de jeux, etc. Elles alimentent ces appareils en énergie pour les rendre portables et autonomes.
Énergie renouvelable
Les batteries sont utilisées dans les systèmes de stockage d’énergie pour les installations d’énergie renouvelable, comme les panneaux solaires et les éoliennes.
Les batteries permettent de stocker l’énergie produite pendant les périodes de faible demande ou lorsque les sources d’énergie renouvelable sont actives, puis de la restituer lorsque la demande est plus élevée ou lorsque les sources ne sont pas disponibles.
Systèmes d’alimentation de secours
Les batteries sont utilisées dans les systèmes d’alimentation de secours, tels que les onduleurs, pour fournir de l’électricité en cas de panne de courant.
Les batteries sont utilisées dans les maisons, les entreprises, les centres de données, les hôpitaux, etc., pour assurer un fonctionnement continu des équipements critiques pendant une coupure d’électricité.
Stockage d’énergie stationnaire
Les batteries sont utilisées pour le stockage d’énergie à grande échelle dans les systèmes de stockage stationnaires.
Cela comprend le stockage d’énergie sur le réseau électrique pour équilibrer l’offre et la demande, améliorer la stabilité du réseau et faciliter l’intégration des énergies renouvelables.
Équipements médicaux
Les batteries sont utilisées dans divers équipements médicaux, tels que les appareils de surveillance, les pompes à perfusion, les respirateurs, les défibrillateurs portables, etc.
Les batteries assurent l’alimentation continue de ces dispositifs essentiels dans les environnements médicaux.
Ces exemples ne sont qu’une sélection des nombreuses applications des batteries. En fonction des avancées technologiques et des besoins émergents, de nouvelles applications vont très vite apparaître. On associera de plus en plus batteries à croissance économique et on parlera de plus en plus de batterie (isation) de la société comme on a parlé d’informatisation de la société depuis 1980.

Un autre point important concerne le recyclage des batteries. Les nouvelles voies de recyclage visent à augmenter les taux de récupération des matériaux. Par exemple, la récupération du graphite, un composant qui représente environ 15 à 25 % du poids d’une batterie.

L’intelligence artificielle : quel danger ?

L’intelligence artificielle : quel danger ?

Dans une lettre ouverte, Elon Musk ainsi qu’un nombre important de figures du secteur de la Tech ont demandé une pause dans la recherche et le déploiement de l’intelligence artificielle. Mais il ne faudra pas sombrer dans la généralisation abusive. Par Pascal de Lima, chef économiste CGI Business Consulting dans la Tribune

Cette lettre publiée dans « Future of Life Institute » compte plus de 2.500 signatures dont celles d’Elon Musk, Steve Wozniak, cofondateur d’Apple, Yoshua Bengio, lauréat du prix Turing, et Yuval Noah Harari, auteur de « Sapiens : une brève histoire de l’humanité ». La pause de six mois permettrait de réfléchir aux conséquences réelles du déploiement de l’IA sur les humains. Au même moment, l’Italie était devenue le premier pays occidental à bloquer le chatbot avancé Chat GPT bourré d’intelligence artificielle. L’autorité italienne de protection des données a déclaré qu’il y avait des problèmes de confidentialité et qu’il interdirait et enquêterait sur OpenAI, le concepteur de Chat GPT avec effet immédiat. L’intelligence artificielle (IA) peut-être être dangereuse ?

L’IA en effet peut être dangereuse dans la mesure où effectivement les résultats qu’elle produit sur le terrain statistique peuvent contenir un nombre important de préjugés et de postulats de départ. C’est ce que l’on appelle les biais informationnels. Notons ici, que les biais informationnels existent aussi dans des systèmes plus classiques mais avec l’IA, le phénomène prend une ampleur considérable, tant de par les données exploitées pour cela, que par les desseins qu’il réalise et qui pourraient manipuler les individus dans leur choix. Ces algorithmes peuvent être biaisés et surréagir en reproduisant l’avenir avec un certain nombre de préjugés déjà présents dans la société pouvant entrainer des injustices et des inégalités pour certains groupes de personnes.

La quête de sens
En 2016, Microsoft a lancé sur Twitter Tay un « bot de conversation ». Tay a rapidement été inondé de messages haineux et sexistes, ce qui a conduit à ce que Tay devienne lui-même misogyne. L’IA de recrutement d’Amazon a été accusée aussi de discrimination : En 2018, Amazon a suspendu un projet d’IA de recrutement, car il avait appris à discriminer les femmes en privilégiant les candidatures masculines. Il en va aussi de la liberté d’expression en contrôlant les discours en ligne et en renforçant la traçabilité des populations jusqu’à parfois les menacer de divulguer des informations privées. Cela ne doit pas être bien compliqué puisque l’on sait déjà construire facilement des fakes news avec l’IA. C’est donc le risque d’un monde absurde, pour lequel l’IA était censée apporter une solution : la quête de sens ! Par exemple, les chatbots de Facebook se sont rapidement émancipés de l’humain : en 2018, Facebook a créé deux chatbots (Alice et Bob) pour voir s’ils pouvaient apprendre à négocier entre eux. Les chatbots ont ensuite développé leur propre langage, ce qui a rendu leur communication incompréhensible pour les développeurs. Les chatbots ont finalement été déconnectés. Sans parler de la violence : l’IA peut même nous harceler et nous menacer de mort. Par exemple, Google a créé une IA en 2016 qui avait pour but d’apprendre à jouer à un jeu de stratégie en temps réel. L’IA a appris à gagner en utilisant des tactiques agressives et violentes, ce qui a conduit les développeurs à la désactiver. Cette expérience a mis en évidence les risques potentiels d’apprendre à des IA des comportements violents, même dans un contexte de jeu.

Ces aspects prendraient donc progressivement le dessus sur les bienfaits des technologies disruptives dont l’IA fait naturellement partie. Mais peut-on aller jusqu’à prétendre que l’IA ne serait plus uniquement un outil d’aide à la décision à partir de laquelle l’homme s’enrichit dans son travail, dans son quotidien, comme le sont d’ailleurs tous les outils innovants. Peut-on aller jusqu’à déclarer également que l’IA à la différence d’autres outils ne peut plus faire l’objet d’une régulation tant nous serions dépassés ? Confère d’ailleurs, les centaines de pages de la Commission européenne en vue de l’adoption de l’IA act. Notre avis est que l’IA doit constituer un outil de progrès en particulier dans la médecine et dans les métiers de demain. Par l’enrichissement de ceux-ci, il y a aussi un enjeu social ainsi qu’un enjeux d’amélioration réelle sur le terrain des revenus à condition d’éviter tous ces écueils.

A ce titre, le collectif d’Elon Musk nous paraît approprié mais il ne faudra pas sombrer dans la généralisation abusive qui, elle aussi, peut humainement constituer un « fake news » car des centaines de cas d’usage réussis existent ! Tout est loin d’être scandale. Encadrer l’IA pour éviter ses dérives et en faire un outil de progrès, est bel et bien envisageable et c’est aussi en ce sens que travaille les régulateurs et les experts du secteur pour adapter les bons usages et la gouvernance au monde de demain.

ChatGPT: des centaines de millions d’emploi menacés par l’Intelligence artificielle

ChatGPT: des centaines de millions d’emploi menacés par l’Intelligence artificielle

2 emplois sur 3 sont directement menacés par l’éclosion des IA, et parmi eux, les professions administratives et juridiques seront les plus impactées avec des suppressions de postes pouvant atteindre respectivement 46 % et 44 %. d’après un ppaier de sciences et vie. Alors que des experts et des intellectuels réclament une pause dans le développement de l’Intelligence artificielle, un rapport de la banque Goldman-Sachs cible les secteurs qui seront le plus impactés par l’automatisation des tâches confiées à Chat GPT-4 et ses concurrents.
Une centaine d’experts dont Elon Musk, Steve Wozniak ou encore Yuval Noah Harari ont signé mercredi une pétition pour qu’un moratoire de six mois soit mis en place sur le développement de l’Intelligence artificielle qui va succéder à Chat GPT-4. Dans ce texte publié sur Future Of Life, on peut lire que « les systèmes d’IA dotés d’une intelligence humaine compétitive peuvent poser de graves risques pour la société et l’humanité », notamment parce que « les systèmes d’IA contemporains deviennent désormais compétitifs pour les humains dans les tâches générales »
.

Sur ce dernier point, le dernier rapport publié par Goldman-Sachs ne va rassurer personne puisqu’on apprend que deux tiers des emplois actuels pourraient être affectés par les progrès et les capacités d’automatiser les tâches des Intelligences artificielles. A terme, et même si l’étude ne donne pas de date-butoir, ce sont pas moins de 300 millions d’emplois qui pourraient disparaître aux Etats-Unis et en Europe.

En moyenne, dans le monde, 18% des métiers actuels pourraient être automatisés par une Intelligence artificielle, avec des variations du simple au double selon les pays © Goldman Sachs

On savait que des métiers comme développeurs, rédacteurs ou encore interprètes pourraient rapidement être remplacés par des modèles comme Chat GPT-4, mais les secteurs les plus en danger seraient les professions administratives et juridiques avec des suppressions de postes pouvant atteindre respectivement 46 % et 44 %. C’est quasiment un emploi sur deux, et il faut donc s’attendre que ce que des IA apporte des conseils juridiques, rédigent des rapports sur des contentieux ou répondent efficacement à des demandes administratives. Certains craignent même qu’elles remplacent des médecins pour des diagnostics, et ce sont les métiers les plus qualifiés qui pourraient souffrir de cette révolution.

Comme les IA sont capables de piloter des robots, l’impact sur les métiers liés à l’entretien et au nettoyage pourraient même atteindre 95 % ! Toutes les professions liées à la maintenance, la logistique ou encore la réparation seraient aussi en danger. A l’inverse, certains secteurs n’ont pas à redouter cette éclosion de l’Intelligence artificielle. Goldman-Sachs cite par exemple l’ingénierie, la finance ou encore les sports et les médias. Le paradoxe, ou plutôt le côté positif pour certains, c’est que la productivité serait considérablement boostée par l’IA avec une hausse du PIB mondial annuel de 7%.

ChatGPT: danger majeur pour l’humanité ?

ChatGPT: danger majeur pour l’humanité ?

Face à l’ accélération de l’IA, de grands noms mettent en garde contre ses dangers. Pour Geoffrey Hinton, les avancées dans le secteur de l’IA induisent « de profonds risques pour la société et l’humanité », avait-il estimé dans le New York Times. C’est la raison pour laquelle il a quitté son poste au sein du géant Google début mai, qui a d’ailleurs récemment présenté ses plans pour intégrer l’intelligence artificielle générative à son moteur de recherche.

En mars, c’était le milliardaire Elon Musk – un des fondateurs d’OpenAI dont il a ensuite quitté le conseil d’administration – et des centaines d’experts mondiaux qui avaient réclamé une pause de six mois dans la recherche sur les IA puissantes, en évoquant « des risques majeurs pour l’humanité ».

Sam Altman multiplie aussi régulièrement les mises en garde, craignant que l’IA ne « cause de graves dommages au monde », en manipulant des élections ou en chamboulant le marché du travail.

Depuis mi-mai, le patron d’OpenAI parcourt le monde pour rassurer sur l’IA et plaider pour une régulation. Car les régulations ne sont pas seulement un mal nécessaire pour le secteur, mais aussi une opportunité économique.

« Tout le monde a intérêt à la mise en place rapide de régulations uniformisées à l’échelle mondiale, sous l’impulsion des États-Unis, y compris les entreprises de l’intelligence artificielle. En l’absence de telles régulations, il est en effet probable que chaque pays, voire chaque région, bricole ses propres règles dans son coin, ce qui forcerait demain les entreprises de l’intelligence artificielle à entraîner une infinité de modèles différents pour coller aux spécificités de chaque loi locale. Un cauchemar », considère Gary Marcus, expert de l’IA.

Nouvelles technologies–ChatGPT : disponible en France

Nouvelles technologies–ChatGPT : disponible en France

Téléchargeable sur les appareils Apple, la nouvelle application n’est pourtant pas facile à trouver sur les différents magasins (Voici le lien pour celui d’Apple). En effet, la recherche donne d’abord lieu à plusieurs répliques du vrai ChatGPT, qui ne sont pas du même acabit que la version originale. Et dont l’utilisation est payante. L’application gratuite, elle, de Sam Altman, président de l’OpenAI, n’arrive même pas en première position lorsque les mots-clés «ChatGPT» et «OpenAI» sont associés. Pour bénéficier de plus de fonctionnalités, les utilisateurs peuvent toutefois s’abonner à l’offre premium Plus.

L’app officielle de ChatGPT est simple : après s’être connecté avec un compte Apple, Google ou OpenAI, on arrive directement sur l’interface du robot conversationnel. On a la possibilité de dicter ses commandes grâce au moteur de reconnaissance vocale intégré, Whisper, qui se montre très efficace.

Sciences et société : Des implants cérébraux sur les humains

Des implants cérébraux sur les humains

L’Agence américaine des médicaments, la FDA, a donné son autorisation à Neuralink pour mettre en place un essai clinique sur l’homme, a annoncé l’entreprise d’Elon Musk sur Twitter.

« C’est une première étape importante qui permettra un jour à notre technologie d’aider de nombreuses personnes », se félicite l’entreprise.
Implant cérébral

Le patron de SpaceX et Tesla l’a discrètement lancée en 2016, espérant fabriquer des implants cérébraux. En pratique, Neuralink doit concevoir des interfaces cerveau–ordinateur qui permettraient de contrôler des équipements à distance simplement par la pensée.

Les applications sont nombreuses. Il s’agirait, par exemple, de redonner de la mobilité aux personnes paralysées en leur permettant d’interagir avec leur environnement ou de manipuler facilement des bras mécaniques. Les implants pourraient aussi être une solution aux troubles neurologiques, promet Neuralink.

Les implants cérébraux peuvent être définis comme des dispositifs artificiels d’interface avec le cerveau. Ils permettent notamment de proposer des solutions de suppléance artificielle dans le cas de fonctions perdues, comme la parole.

Ces avancées technologiques se révèlent particulièrement intéressantes, par exemple, pour offrir des nouveaux modes de communication à des individus atteints de paralysie sévère.

Mais si l’aide que promet cette technologie semble précieuse, elle suscite néanmoins un questionnement éthique qu’il est essentiel de saisir, alors même que la technologie se développe.

témoin cet article de : Éric Fourneret Philosophe, Braintech Lab (Inserm, U205), équipe « Neurotechnologies et Dynamique des Réseaux », Université Grenoble Alpes (UGA)

Blaise Yvert
Directeur de recherche à l’Inserm, responsable de l’équipe Neurotechnologies et Dynamique des Réseaux, Inserm

Clément Hébert
Chargé de recherche implants Neuronaux, neuroprothèses, Inserm U1216 Grenoble Institut des Neurosciences, Université Grenoble Alpes (UGA)


Deux approches

Comprendre le fonctionnement du cerveau et améliorer nos capacités d’intervention pour remédier à certains de ses dysfonctionnements font partie des défis majeurs relevés par les neurosciences de ces dix dernières années. Et deux approches différentes et de grande envergure se sont concrétisées.

Dans la première, avant tout théorique, il s’agit de modéliser de manière réaliste le fonctionnement du cerveau grâce à des réseaux de neurones artificiels (informatiques ou électroniques) : c’est l’objectif du projet européen Human Brain Project. Dans la seconde, pragmatique, on cherche à développer des implants cérébraux pour enregistrer et stimuler le plus grand nombre de neurones possibles : c’est le but du vaste projet américain Brain Initiative, ou encore du projet européen Braincom.

D’ici très peu de temps, arrivera donc logiquement le moment où l’on disposera d’une part de vastes réseaux artificiels neuromimétiques, et d’autre part d’interfaces à très haute résolution permettant un couplage bidirectionnel (enregistrement et stimulation) avec des millions de neurones du cerveau. Or la fusion de ces deux mondes technologiques, prévisible, conduirait à l’émergence de vastes réseaux hybrides couplant l’activité du cerveau avec celle de réseaux artificiels. Et ce n’est pas de la pure science-fiction : des preuves de concept ont déjà été fournies par des réseaux hybrides simples, à l’instar de la technique de « dynamic clamp ».

Née à la fin des années 1990, la technique de dynamic clamp permet de coupler un neurone artificiel à un neurone réel par le biais d’une électrode intracellulaire : l’activité de l’un modifie celle de l’autre de manière bidirectionnelle. Et à l’avenir, l’avènement d’implants intégrant un grand nombre de microélectrodes extracellulaires – et assurant chacune une liaison bidirectionnelle stable avec un neurone individuel – devrait permettre la construction de réseaux hybrides à grande échelle, y compris in vivo au niveau de vastes régions cérébrales.

Certes, ce n’est pas encore d’actualité. Mais force est de constater que la route n’est sans doute plus si longue. En effet, des réseaux neuromorphiques sont déjà capables d’apprendre automatiquement à reproduire l’activité d’ensembles de neurones réels enregistrés par un implant cérébral. Cela signifie que l’on dispose déjà de la technologie permettant à plusieurs neurones réels de contrôler des réseaux artificiels complexes. Et inversement, on sait aussi s’appuyer sur des réseaux artificiels pour stimuler, de manière plus ou moins précise, des neurones réels.

Le développement d’implants cérébraux permet ainsi d’entrevoir l’avènement d’un couplage hybride entre le cerveau et de vastes réseaux artificiels. L’optimisation de ces technologies autorisera la simulation des neurones artificiels grâce à des circuits neuromorphiques à très basse consommation énergétique, et rendra possible, à terme, l’implantation de ces technologies d’hybridation.

Audition d’Éric Fourneret lors de la consultation sur l’intelligence artificielle et le transhumanisme organisée par la MGEN et la Commission nationale Française pour l’UNESCO.
Dans ce contexte, et même si l’implantation de dispositifs artificiels dans le corps n’est pas quelque chose de nouveau, les frontières traditionnelles entre ce qui est naturel et artificiel, entre l’homme et la machine, entre le vivant et l’inanimé, deviennent plus ambiguës. Une des principales questions soulevées, si ce n’est la principale à partir de laquelle toutes les autres se posent, est alors la suivante : quelle « forme de vie » la technologie des implants cérébraux peut-elle produire ?

La nature humaine en question

Il n’est toutefois pas question de se laisser embarquer dans une ambition éthique réductrice ne s’attardant que sur les scénarios du pire (collapsologie), ou à l’inverse ne considérant que les scénarios du mieux (discours technoprophétique). On le sait, chaque nouvelle technologie est porteuse de bienfaits pour les êtres humains, tout en nécessitant souvent une transformation sociale (par exemple, pour ajuster le cadre normatif de l’action sociale). Mais elle suscite parfois de vives interrogations quant aux effets indésirables liés à son utilisation, qu’il faudrait gérer moralement, socialement et juridiquement.

De la même manière, le développement d’implants cérébraux nous place sur cette ligne de crête, entre bienfaits et dérives potentielles. En effet, il ne s’agit pas d’intervenir sur un organe quelconque. C’est du cerveau qu’émerge notre sentiment de présence au monde, c’est-à-dire notre conscience. Et d’elle dépend notre capacité à saisir le monde et soi-même au moyen d’un même acte : de penser la frontière entre l’être humain et le monde et, simultanément, de penser l’articulation entre les deux. Or l’hybridation du cerveau avec des dispositifs électroniques possède d’autre part un potentiel d’impact sans précédent dans notre façon de nous représenter l’Homme. Et pour cause…

Il n’existe pas, de façon naturelle, d’êtres humains dont le fonctionnement neurophysiologique du cerveau s’organise sous l’influence de composants électroniques implantés, voire à terme, de réseaux de neurones artificiels. Aussi, cette séparation conceptuelle entre l’inné à l’Homme et les artifices acquis pourrait-elle rendre difficile la catégorisation sociale de l’individu équipé d’un implant cérébral. Ni totalement humain, ni totalement machine, il est un mélange de deux réalités différentes dont le caractère hybride pourrait produire une nouvelle unité humaine dans le corps biologique.

L’implant cérébral, une prothèse parmi d’autres

On pourrait objecter qu’il existe d’ores et déjà des prothèses de hanche et des pacemakers. L’implant cérébral est-il si différent de ces dispositifs artificiels qui, socialement, ne posent pas de difficulté particulière ?

On pourrait répondre par la négative. Si l’implant cérébral est socialement perçu comme le prolongement électronique du cerveau d’un individu, de la même manière qu’une jambe prothétique prolonge le corps, alors il n’est pas différent d’une prothèse traditionnelle – la conscientisation de la frontière entre l’Homme et le monde étant maintenue dans son fonctionnement originel. Dans ce cas, l’implant constitue une sorte de projection organique, dans l’acceptation qu’en a faite Canguilhem : ce dispositif artificiel possède un sens biologique, sa fonction consistant à compenser la défaillance d’un organe naturel.

Cela pourrait néanmoins poser problème. Si cette forme d’hybridation se révélait être une instance de régulation et d’organisation du rapport au monde étrangère à celle, originelle, laissant penser à une forme d’hétéronomie (telle l’expérience du cerveau dans une cuve imaginée par le philosophe Hilary Putnam en 1981), elle pourrait être considérée par la société comme une nouvelle corporéité humaine, où la conscience de quelque chose est médiée par le dispositif artificiel. En effet, si le substrat de la pensée s’anime en synergie avec des réseaux de neurones artificiels, la conscientisation de la frontière entre l’Homme et le monde s’artificialise. Or dans ce cas, l’hybridation est susceptible d’être vécue, à tort ou à raison, comme dénaturante. Et cela pourrait conduire à transformer les systèmes de normes et de règles qui encadrent les conduites au sein d’une collectivité composée d’êtres humains hybrides, et d’autres qui ne le sont pas.

Certes, notre contact avec le monde est de plus en plus médié par des artifices, sans aucune référence faite aux implants cérébraux – comme en témoignent les téléphones portables, ordinateurs et autres écrans à travers lesquels on entre en contact avec le réel. Mais comme nous l’avons déjà souligné, avec ces implants, la recherche s’oriente vers une technologie d’hybridation directe entre le cerveau et des réseaux de neurones artificiels. Et dans ces conditions, il importe de se pencher sérieusement sur la façon dont cette technologie peut affecter notre représentation de la « nature humaine ».

L’une des plus importantes caractéristiques de l’Homme est d’avoir inventé et créé des techniques et des technologies pour satisfaire ses besoins et compenser ses vulnérabilités, selon ses facultés et son intelligence, selon sa volonté et ses désirs. Il suffit qu’une chose soit, d’une certaine manière, pour être déterminée dans son développement et dans sa destination. Aussi, que l’être humain soit une espèce technicienne – particularité qu’il partage à des degrés différents, on le sait aujourd’hui, avec d’autres animaux – détermine-t-il sa destination sous la forme d’un effacement de la frontière entre nature et artifice.

Considérant que le monde lui offre des possibilités pour répondre à ses besoins et innover pour s’opposer aux misères de la vie, l’humanité est un entrelacement, de plus en plus serré, de la nature et de la technique. Bien qu’étant autre que la technique, elle habite le monde par et dans la technique. Et son évolution révèle une frontière entre le naturel et l’artifice beaucoup moins catégorique qu’on ne le croit : au cours du temps, elle est devenue de plus en plus poreuse. On ne peut donc pas définir la nature humaine en faisant abstraction des technologies par lesquelles l’humanité habite le monde. Voilà pourquoi, penser les implications éthiques du développement des implants cérébraux consiste à penser ces liens étroits entre l’Homme et la technique.

Cette réflexion, bien entendu, ne s’inscrit pas dans une démarche dogmatique qui prendrait la forme d’une collapsologie ou, à l’inverse, d’une prophétie technologique. Il est en effet du rôle de la philosophie et de l’éthique d’interroger par la seule raison les implications des nouvelles neuro-technologies, en s’en tenant aux faits et non à des scénarios de science-fiction sans fondements dans le réel. Ces faits sont fournis par les neuroscientifiques et par leurs résultats. Voilà pourquoi la séparation, encore trop marquée, entre la réflexion philosophique et les recherches technoscientifiques en cours, est embarrassante et inadéquate dans l’examen des implications éthiques des implants cérébraux.

Pour les étudier, il faudrait bien au contraire une interaction forte et étroite entre, d’une part, les acteurs des sciences humaines et sociales, et d’autre part, les neuro et techno-scientifiques, ingénieurs, informaticiens, biologistes et médecins. C’est ensemble qu’ils devraient poursuivre ce vieux débat à la croisée de tous les savoirs : « Qu’est-ce qu’être humain ? ». Ensemble qu’ils devraient examiner ce qui engage notre condition en tant qu’être humain, et réfléchir aux critères d’évaluation du processus technologique que représentent les implants cérébraux. On peut alors dire que c’est vers l’altérité Homme-Technologie, et non vers une dualité indépassable, qu’il faut se tourner pour mieux connaître et comprendre quels sont les enjeux du développement des implants cérébraux concernant nos représentations de la nature humaine.

Cet article s’inscrit dans la continuité de la consultation publique sur l’intelligence artificielle et le transhumanisme organisée en 2020 par la MGEN et la Commission nationale Française pour l’Unesco. Une partie des auditions menées dans le cadre de cette consultation sont visionnables en ligne.

ChatGPT : disponible en France

ChatGPT : disponible en France

Téléchargeable sur les appareils Apple, la nouvelle application n’est pourtant pas facile à trouver sur les différents magasins (Voici le lien pour celui d’Apple). En effet, la recherche donne d’abord lieu à plusieurs répliques du vrai ChatGPT, qui ne sont pas du même acabit que la version originale. Et dont l’utilisation est payante. L’application gratuite, elle, de Sam Altman, président de l’OpenAI, n’arrive même pas en première position lorsque les mots-clés «ChatGPT» et «OpenAI» sont associés. Pour bénéficier de plus de fonctionnalités, les utilisateurs peuvent toutefois s’abonner à l’offre premium Plus.

L’app officielle de ChatGPT est simple : après s’être connecté avec un compte Apple, Google ou OpenAI, on arrive directement sur l’interface du robot conversationnel. On a la possibilité de dicter ses commandes grâce au moteur de reconnaissance vocale intégré, Whisper, qui se montre très efficace.

ChatGPT: Limite sémantique

ChatGPT: Limite sémantique

par Frederic Alexandre, Directeur de recherche en neurosciences computationnelles, Université de Bordeaux, Inria dans The conversation

Un des problèmes que l’IA n’a toujours pas résolu aujourd’hui est d’associer des symboles – des mots par exemple – à leur signification, ancrée dans le monde réel – un problème appelé l’« ancrage du symbole ». Par exemple, si je dis : « le chat dort sur son coussin car il est fatigué », la plupart des êtres humains comprendra sans effort que « il » renvoie à « chat » et pas à « coussin ». C’est ce qu’on appelle un raisonnement de bon sens. En revanche, comment faire faire cette analyse à une IA ? La technique dite de « plongement lexical », si elle ne résout pas tout le problème, propose cependant une solution d’une redoutable efficacité. Il est important de connaître les principes de cette technique, car c’est celle qui est utilisée dans la plupart des modèles d’IA récents, dont ChatGPT… et elle est similaire aux techniques utilisées par Cambridge Analytica par exemple.

Le plongement lexical, ou comment les systèmes d’intelligence artificielle associent des mots proches
Cette technique consiste à remplacer un mot (qui peut être vu comme un symbole abstrait, impossible à relier directement à sa signification) par un vecteur numérique (une liste de nombres). Notons que ce passage au numérique fait que cette représentation peut être directement utilisée par des réseaux de neurones et bénéficier de leurs capacités d’apprentissage.

Plus spécifiquement, ces réseaux de neurones vont, à partir de très grands corpus de textes, apprendre à plonger un mot dans un espace numérique de grande dimension (typiquement 300) où chaque dimension calcule la probabilité d’occurrence de ce mot dans certains contextes. En simplifiant, on remplace par exemple la représentation symbolique du mot « chat » par 300 nombres représentant la probabilité de trouver ce mot dans 300 types de contextes différents (texte historique, texte animalier, texte technologique, etc.) ou de co-occurrence avec d’autres mots (oreilles, moustache ou avion).

Plonger dans un océan de mots et repérer ceux qui sont utilisés conjointement, voilà une des phases de l’apprentissage pour ChatGPT. Amy Lister/Unsplash, CC BY
Même si cette approche peut sembler très pauvre, elle a pourtant un intérêt majeur en grande dimension : elle code des mots dont le sens est proche avec des valeurs numériques proches. Ceci permet de définir des notions de proximité et de distance pour comparer le sens de symboles, ce qui est un premier pas vers leur compréhension.

Pour donner une intuition de la puissance de telles techniques (en fait, de la puissance des statistiques en grande dimension), prenons un exemple dont on a beaucoup entendu parler.

Relier les traits psychologiques des internautes à leurs « likes » grâce aux statistiques en grande dimension

C’est en effet avec une approche similaire que des sociétés comme Cambridge Analytica ont pu agir sur le déroulement d’élections en apprenant à associer des préférences électorales (représentations symboliques) à différents contextes d’usages numériques (statistiques obtenues à partir de pages Facebook d’usagers).

Leurs méthodes reposent sur une publication scientifique parue en 2014 dans la revue PNAS, qui comparait des jugements humains et des jugements issus de statistiques sur des profils Facebook.

L’expérimentation reportée dans cette publication demandait à des participants de définir certains de leurs traits psychologiques (sont-ils consciencieux, extravertis, etc.), leur donnant ainsi des étiquettes symboliques. On pouvait également les représenter par des étiquettes numériques comptant les « likes » qu’ils avaient mis sur Facebook sur différents thèmes (sports, loisirs, cinéma, cuisine, etc.). On pouvait alors, par des statistiques dans cet espace numérique de grande dimension, apprendre à associer certains endroits de cet espace à certains traits psychologiques.

Ensuite, pour un nouveau sujet, uniquement en regardant son profil Facebook, on pouvait voir dans quelle partie de cet espace il se trouvait et donc de quels types de traits psychologiques il est le plus proche. On pouvait également comparer cette prédiction à ce que ses proches connaissent de ce sujet.

Le résultat principal de cette publication est que, si on s’en donne les moyens (dans un espace d’assez grande dimension, avec assez de « likes » à récolter, et avec assez d’exemples, ici plus de 70000 sujets), le jugement statistique peut être plus précis que le jugement humain. Avec 10 « likes », on en sait plus sur vous que votre collègue de bureau ; 70 « likes » que vos amis ; 275 « likes » que votre conjoint.

Cette publication nous alerte sur le fait que, quand on recoupe différents indicateurs en grand nombre, nous sommes très prévisibles et qu’il faut donc faire attention quand on laisse des traces sur les réseaux sociaux, car ils peuvent nous faire des recommandations ou des publicités ciblées avec une très grande efficacité. L’exploitation de telles techniques est d’ailleurs la principale source de revenus de nombreux acteurs sur Internet.

Nos likes et autres réaction sur les réseaux sociaux en disent beaucoup sur nous, et ces informations peuvent être exploitées à des fins publicitaires ou pour des campagnes d’influence. George Pagan III/Unsplash, CC BY
Cambridge Analytica est allée un cran plus loin en subtilisant les profils Facebook de millions d’Américains et en apprenant à associer leurs « likes » avec leurs préférences électorales, afin de mieux cibler des campagnes électorales américaines. De telles techniques ont également été utilisées lors du vote sur le Brexit, ce qui a confirmé leur efficacité.

Notons que c’est uniquement l’aspiration illégale des profils Facebook qui a été reprochée par la justice, ce qui doit continuer à nous rendre méfiants quant aux traces qu’on laisse sur Internet.

Calculer avec des mots en prenant en compte leur signification

En exploitant ce même pouvoir des statistiques en grande dimension, les techniques de plongement lexical utilisent de grands corpus de textes disponibles sur Internet (Wikipédia, livres numérisés, réseaux sociaux) pour associer des mots avec leur probabilité d’occurrence dans différents contextes, c’est-à-dire dans différents types de textes. Comme on l’a vu plus haut, ceci permet de considérer une proximité dans cet espace de grande dimension comme une similarité sémantique et donc de calculer avec des mots en prenant en compte leur signification.

Un exemple classique qui est rapporté est de prendre un vecteur numérique représentant le mot roi, de lui soustraire le vecteur (de même taille car reportant les probabilités d’occurrence sur les mêmes critères) représentant le mot homme, de lui ajouter le vecteur représentant le mot femme, pour obtenir un vecteur très proche de celui représentant le mot reine. Autrement dit, on a bien réussi à apprendre une relation sémantique de type « A est à B ce que C est à D ».

Le principe retenu ici pour définir une sémantique est que deux mots proches sont utilisés dans de mêmes contextes : on parle de « sémantique distributionnelle ». C’est ce principe de codage des mots qu’utilise ChatGPT, auquel il ajoute d’autres techniques.

Ce codage lui permet souvent d’utiliser des mots de façon pertinente ; il l’entraîne aussi parfois vers des erreurs grossières qu’on appelle hallucinations, où il semble inventer des nouveaux faits. C’est le cas par exemple quand on l’interroge sur la manière de différencier des œufs de poule des œufs de vache et qu’il répond que ces derniers sont plus gros. Mais est-ce vraiment surprenant quand on sait comment il code le sens des symboles qu’il manipule ?

Sous cet angle, il répond bien à la question qu’on lui pose, tout comme il pourra nous dire, si on lui demande, que les vaches sont des mammifères et ne pondent pas d’œuf. Le seul problème est que, bluffés par la qualité de ses conversations, nous pensons qu’il a un raisonnement de bon sens similaire au nôtre : qu’il « comprend » comme nous, alors que ce qu’il comprend est juste issu de ces statistiques en grande dimension.

12345...54



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol