Archive pour le Tag 'artificielle'

Page 2 sur 11

Sciences-Intelligence artificielle: BRUNO LE MAIRE fait des promesses de coiffeur

Sciences-Intelligence artificielle: BRUNO LE MAIRE fait des promesses de coiffeur


Le ministre ministre de l’économie englué à la fois dans une situation financière de la France de plus en plus grave et dans un contexte économique à la croissance ralentie se livre à des exercices de prospective douteux en affirmant que l’Europe aura bientôt son propre système d’intelligence artificielle pour relancer l’économie européenne.

Première observation, on voit mal comment en cinq ans l’Europe serait capable de mettre en place un système d’intelligence artificielle générative indépendant quand elle n’a jamais été capable de mettre en place une simple plate-forme d’échanges de messages type Facebook ou Twitter.

Seconde observation : d’abord il n’y aura sans doute pas un seul système d’intelligence artificielle et on ne peut résumer ce système au seul chatgpt. Le ministre de l’économie se laisse aller à la facilité en reprenant des propos de bistrot qui ne correspondent à aucune perspective de réalité. Ce qu’il a déjà fait régulièrement par exemple à propos de fiscalité internationale qui finit le plus souvent en eau de boudin.

Pour le ministre de l’économie, l’intelligence artificielle permettrait de relancer la productivité d’une économie européenne « languissante ». Le ministre français de l’Economie a estimé possible samedi pour l’Union européenne de bâtir « sous cinq ans » son propre système d’intelligence artificielle (IA) générative, qui contribuera, selon lui, à améliorer la productivité d’une économie « languissante ».

« L’intelligence artificielle générative va nous permettre, pour la première fois depuis plusieurs générations, de retrouver de la productivité, d’être plus efficace », a lancé Bruno Le Maire aux Rencontres économiques d’Aix-en-Provence, dans le sud de la France.

« Je plaide donc, avant de poser les bases de la régulation de l’intelligence artificielle, pour que nous fassions de l’innovation, que nous investissions et que nous nous fixions comme objectif d’avoir un OpenAI européen sous cinq ans, avec les calculateurs, les scientifiques et les algorithmes nécessaires. C’est possible », a-t-il ajouté.

C’est la science « qui nous permettra enfin de faire des gains de productivité dans une économie européenne un peu languissante », plus « tortillard » que « TGV », a-t-il insisté.

Intelligence artificielle: BRUNO LE MAIRE Fait des promesses de coiffeur

Intelligence artificielle: BRUNO LE MAIRE Fait des promesses de coiffeur


Le ministre ministre de l’économie englué à la fois dans une situation financière de la France de plus en plus grave et dans un contexte économique à la croissance ralentie se livre à des exercices de prospective douteux en affirmant que l’Europe aura bientôt son propre système d’intelligence artificielle pour relancer l’économie européenne.

Première observation, on voit mal comment en cinq ans l’Europe serait capable de mettre en place un système d’intelligence artificielle générative indépendant quand elle n’a jamais été capable de mettre en place une simple plate-forme d’échanges de messages type Facebook ou Twitter.

Seconde observation : d’abord il n’y aura sans doute pas un seul système d’intelligence artificielle et on ne peut résumer ce système au seul chatgpt. Le ministre de l’économie se laisse aller à la facilité en reprenant des propos de bistrot qui ne correspondent à aucune perspective de réalité. Ce qu’il a déjà fait régulièrement par exemple à propos de fiscalité internationale qui finit le plus souvent en eau de boudin.

Pour le ministre de l’économie, l’intelligence artificielle permettrait de relancer la productivité d’une économie européenne « languissante ». Le ministre français de l’Economie a estimé possible samedi pour l’Union européenne de bâtir « sous cinq ans » son propre système d’intelligence artificielle (IA) générative, qui contribuera, selon lui, à améliorer la productivité d’une économie « languissante ».

« L’intelligence artificielle générative va nous permettre, pour la première fois depuis plusieurs générations, de retrouver de la productivité, d’être plus efficace », a lancé Bruno Le Maire aux Rencontres économiques d’Aix-en-Provence, dans le sud de la France.

« Je plaide donc, avant de poser les bases de la régulation de l’intelligence artificielle, pour que nous fassions de l’innovation, que nous investissions et que nous nous fixions comme objectif d’avoir un OpenAI européen sous cinq ans, avec les calculateurs, les scientifiques et les algorithmes nécessaires. C’est possible », a-t-il ajouté.

C’est la science « qui nous permettra enfin de faire des gains de productivité dans une économie européenne un peu languissante », plus « tortillard » que « TGV », a-t-il insisté.

Bruxelles veut imposer le contrôle des contenus d’intelligence artificielle

Bruxelles veut imposer le contrôle des contenus d’intelligence artificielle


La Commission européenne veut que les plateformes, signataires du code de bonnes pratiques de l’UE contre la désinformation, agissent en ce sens, a annoncé la vice-présidente de l’exécutif européen, Vera Jourova, ce lundi 5 juin. Pour rappel, ce code, non-contraignant, regroupe sur une base volontaire une quarantaine d’organisations, dont des plateformes majeures comme Facebook, Google, YouTube, TikTok.Il s’agirait notamment de signaler les contenus produits de l’intelligence Artificielle.

« Les signataires qui intègrent l’IA générative dans leurs services comme Bing Chat pour Microsoft, Bard pour Google devraient intégrer les garanties nécessaires pour que ces services ne puissent pas être utilisés par des acteurs malveillants pour générer de la désinformation », a déclaré Vera Jourova lors d’un point de presse.

« Et deuxièmement, les signataires qui ont des services susceptibles de diffuser de la désinformation générée par l’IA devraient mettre en place une technologie pour reconnaître ce contenu et l’indiquer clairement aux utilisateurs », a-t-elle ajouté. Plusieurs fausses photographies produites avec de l’IA générative ont récemment été largement relayées sur les réseaux sociaux, comme celle du pape en doudoune ou l’arrestation de l’ancien président américain Donald Trump.

L’annonce de Bruxelles intervient alors que Twitter a récemment décidé de quitter le code de bonnes pratiques de l’UE.

« Nous pensons que c’est une erreur de la part de Twitter (…). Ils ont choisi la confrontation », a déclaré devant la presse Vera Jourova. Si Twitter « veut opérer et gagner de l’argent sur le marché européen, il devra se conformer à la loi sur les services numériques », a-t-elle ajouté.

« Le code est volontaire, mais ne vous y trompez pas : en quittant le code, Twitter va faire l’objet d’une attention accrue. Ses actions et le respect de la loi européenne (DSA) seront examinés de près, de façon ferme et prioritaire », a encore averti Vera Jourova.

L’UE négocie par ailleurs une législation spécifiquement sur l’IA, qui prévoit des obligations de transparence pour les générateurs de contenus rédactionnels type ChatGPT, mais ces discussions entre les Etats membres et les eurodéputés traînent en longueur.

Si le texte devait être adopté avant la fin de l’année, il entrerait en vigueur « au plus tôt fin 2025 », selon le commissaire européen pour le Numérique Thierry Breton, qui a convenu avec le patron de Google, Sundar Pichai, de travailler d’ici là sur des règles avec les entreprises volontaires.

Intelligence artificielle, les limites

Intelligence artificielle, les limites

Comme l’évoque la métamorphose criminelle de l’ordinateur HAL dans 2001 : l’odyssée de l’espace, de Stanley Kubrick (1968), la perspective nourrit autant d’angoisse que d’enthousiasme. Le philosophe Daniel Andler, l’un des meilleurs spécialistes des sciences cognitives, publie opportunément, en cette heure de gloire des technosciences, Intelligence artificielle, intelligence humaine : la double énigme, somme dense, efficace, car pleine de savoir et d’humour, qui saura dégriser les anxieux comme les inconditionnels.( dans Le Monde)

S’il ne conteste pas l’importance du saut qualitatif ainsi franchi, marqué par l’émergence d’un « réveil éthique » dans une discipline qui ne s’intéressait jusque-là qu’aux prouesses intellectuelles, Daniel Andler prend à rebours l’opinion courante et toute une tendance philosophique fascinée par le brouillage croissant entre le cyborg et l’humain, en démontrant que l’écart entre la technologie et l’homme, loin de s’être comblé, s’est accru. Par une reconstitution précieuse de l’histoire de l’IA, qui occupe la première partie de ­l’essai, il montre à quel point la réalité des progrès et des échecs de l’IA contredit la « rhétorique de la victoire inéluctable ». Ce triomphalisme propre à la culture de la « numérisphère » (population de programmeurs et d’entrepreneurs qui s’épanouit à côté des chercheurs) n’est d’ailleurs pas sans rappeler les prophéties sur la victoire du prolétariat ou les discours confondant le capitalisme libéral avec une loi de nature, sans ­alternative possible ni ­pensable.

« Intelligence artificielle, intelligence humaine : la double énigme », de Daniel Andler, Gallimard, « NRF essais », 434 p., 25 €, numérique 18 €.

Bruxelles veut imposer le contrôle des contenus d’intelligence artificielle

Bruxelles veut imposer le contrôle des contenus d’intelligence artificielle


La Commission européenne veut que les plateformes, signataires du code de bonnes pratiques de l’UE contre la désinformation, agissent en ce sens, a annoncé la vice-présidente de l’exécutif européen, Vera Jourova, ce lundi 5 juin. Pour rappel, ce code, non-contraignant, regroupe sur une base volontaire une quarantaine d’organisations, dont des plateformes majeures comme Facebook, Google, YouTube, TikTok.Il s’agirait notamment de signaler les contenus produits de l’intelligence Artificielle.

« Les signataires qui intègrent l’IA générative dans leurs services comme Bing Chat pour Microsoft, Bard pour Google devraient intégrer les garanties nécessaires pour que ces services ne puissent pas être utilisés par des acteurs malveillants pour générer de la désinformation », a déclaré Vera Jourova lors d’un point de presse.

« Et deuxièmement, les signataires qui ont des services susceptibles de diffuser de la désinformation générée par l’IA devraient mettre en place une technologie pour reconnaître ce contenu et l’indiquer clairement aux utilisateurs », a-t-elle ajouté. Plusieurs fausses photographies produites avec de l’IA générative ont récemment été largement relayées sur les réseaux sociaux, comme celle du pape en doudoune ou l’arrestation de l’ancien président américain Donald Trump.

L’annonce de Bruxelles intervient alors que Twitter a récemment décidé de quitter le code de bonnes pratiques de l’UE.

« Nous pensons que c’est une erreur de la part de Twitter (…). Ils ont choisi la confrontation », a déclaré devant la presse Vera Jourova. Si Twitter « veut opérer et gagner de l’argent sur le marché européen, il devra se conformer à la loi sur les services numériques », a-t-elle ajouté.

« Le code est volontaire, mais ne vous y trompez pas : en quittant le code, Twitter va faire l’objet d’une attention accrue. Ses actions et le respect de la loi européenne (DSA) seront examinés de près, de façon ferme et prioritaire », a encore averti Vera Jourova.

L’UE négocie par ailleurs une législation spécifiquement sur l’IA, qui prévoit des obligations de transparence pour les générateurs de contenus rédactionnels type ChatGPT, mais ces discussions entre les Etats membres et les eurodéputés traînent en longueur.

Si le texte devait être adopté avant la fin de l’année, il entrerait en vigueur « au plus tôt fin 2025 », selon le commissaire européen pour le Numérique Thierry Breton, qui a convenu avec le patron de Google, Sundar Pichai, de travailler d’ici là sur des règles avec les entreprises volontaires.

Intelligence artificielle : bienveillante ou pas ?

Intelligence artificielle : bienveillante ou pas ?

par Yann Arnaud
Doctorant en éthique des affaires, Université de Bordeaux dans the Conversation

Composée de « bene » (le bien) et « volens » (de bon gré), la bienveillance désigne la volonté du bien. Initialement décrite dans le courant philosophique, elle s’est émancipée dans de nombreuses disciplines telles que la gestion des ressources humaines, l’éducation, la psychologie et s’invite maintenant dans le domaine de l’intelligence artificielle (IA).
Aujourd’hui, l’IA et ses algorithmes sont omniprésents dans notre quotidien. La reconnaissance faciale, les chatbots, les assistants vocaux, les voitures autonomes constituent quelques exemples connus. L’arrivée récente des IA génératives, comme ChatGPT ou LLaMA, permettent d’aider et d’accompagner les humains dans leurs opérations intellectuelles (génération de contenus, traduction, etc.), ce qui bouleverse un peu plus nos interactions avec ces machines.

Néanmoins, dans quelle mesure peut-on parler de bienveillance pour qualifier les progrès des IA qui, par définition, ne sont autres que des algorithmes inspirés du cerveau humain ? A contrario, des IA capables de nuire pourraient-elles est être considérées comme malveillantes ? Se pencher sur ces questions nous permet de ne pas perdre de vu le sens que nous accordons aux mots pour penser et caractériser les opportunités et les enjeux des IA.

Lorsque l’on désigne un élément comme « artificiel », nous l’opposons communément au « naturel ». En effet, un artifice est un produit qui n’a pas de lien étroit avec le vivant, mais il peut tenter de le mimer ou de l’imiter. Dans cette perspective, les IA tentent de reproduire l’intelligence humaine à travers des algorithmes qui sont artificiellement développés par les humains (par exemple, l’apprentissage automatique, l’apprentissage profond). Les IA sont donc seulement des intelligences abiotiques, bien qu’il faille reconnaitre qu’elles ont parfois un fort pouvoir de prédication et d’imitation de l’humain.

En revanche, l’intelligence humaine est intimement liée à un certain nombre de facteurs psychologiques issus de son contenant comme des émotions, des affects ou des sentiments. Par essence, les IA en sont démunies puisqu’elles n’ont qu’une représentation partielle du monde, issue de textes et de chiffres. Les humains sont aussi liés à leur contenu qui les façonne, c’est-à-dire des événements exogènes (par exemple, des maladies) qui, eux, n’affectent pas directement les IA sur leur manière de s’exécuter.

L’un des atouts des IA est de corriger les biais cognitifs des humains en raison de leur absence de rationalité exclusive. Aujourd’hui, il est possible de concevoir une intelligence abiotique pour améliorer les conditions d’une intelligence biotique, si bien que des auteurs scientifiques comme Joël de Rosnay évoque un véritable « état symbiotique » entre l’homme et les machines. Pour d’autres, affirmer que les IA remplaceront à terme l’intelligence humaine est une aberrance car elles ont aussi leurs biais liés aux données non neutres qu’elles reçoivent des humains eux-mêmes.

En 1992, le psychologue social israélien Shalom H. Schwartz montre que la bienveillance est l’une des dix valeurs fondamentales de l’être humain dans sa théorie des valeurs humaines basiques. La bienveillance, qui implique certains comportements tels que être serviable, loyal, indulgent ou encore responsable, préserve et améliore le bien-être d’autrui.

Les IA, semble-t-il, sont issues d’une création bienveillante des humains puisqu’elles sont capables de maintenir et d’améliorer son sort. Cependant, ces dernières ne peuvent naître et évoluer seules ; elles ont besoin de données générées par l’humain ou son activité pour être expérimentées. Jusqu’à présent, l’humain reste l’expérimentateur et l’expérimenté de sa condition alors que les IA ne sont seulement que le deuxième versant. Il s’agit ici d’une différence fondamentale puisque l’expérimentateur, par définition, doit faire preuve de curiosité, de perspicacité, d’intuition et de créativité dans ses modes d’acquisition de la connaissance. Les IA ne sont pas encore capables d’atteindre de tels niveaux de raisonnement.

Ainsi, les IA ne peuvent donc pas être rigoureusement qualifiées de bienveillantes ou de son inverse. Considérer les IA comme bienveillantes (ou malveillantes) reviendrait à dire qu’elles n’ont pas besoin d’esprit humain pour atteindre un tel niveau de cognition. On pourrait ainsi se fier à elles plutôt qu’à son propre ressenti, ce que le philosophe français Pierre Cassou-Noguès évoque à travers le « syndrome du thermomètre » dans son essai La bienveillance des machines.

Or, pour être bienveillant, comme l’explique le philosophe Ghislain Deslandes, il faut aussi avoir un esprit car la bienveillance est étroitement liée aux notions d’empathie, d’indulgence et du souci, ce qui suggère une « connaissance intuitive et adéquate de l’essence des choses ».

Les IA en sont spirituellement démunies. La disposition à bien veiller ou mal veiller est étrangère à elles et non prise en considération dans leur fonctionnement interne.
Bien que la bienveillance (et son inverse) n’existe pas à l’intérieur des IA, ses répercussions extérieures le sont-elles pour autant ? À bien des égards, les IA apportent des aspects positifs et négatifs aux humains, ce qui engendre un certain degré d’interaction avec elles selon les usages (santé, militaire, etc.). Les conséquences extérieures de ces usages peuvent être perçues comme bienveillantes (ou non) par les individus car ils impactent ces derniers en modifiant leurs états d’âme (humeurs, sentiments, etc.).

Pour autant, qualifier une action bienveillante de la part d’une IA (par exemple, le fait qu’elle puisse diagnostiquer un cancer) ne fait pas d’elle une IA bienveillante puisque, encore une fois, elle n’est pas un humain comme les autres. Seules les répercussions liées à son usage (la détection du cancer a débouché vers un traitement ad hoc) peuvent être perçues comme bienveillantes par les humains car elles participent à la préservation et/ou à l’amélioration de leurs conditions de vie.

Cet éclairage entre les IA et la notion de bienveillance offre une perspective plus fine sur l’ordre des choses. L’humain, en tant qu’être pensant, a la mainmise sur la conception et le développement des IA. Une fois les algorithmes exécutés, il en va à chacun de considérer les répercussions comme bienveillantes ou non par rapport à sa condition.

Ainsi, la primauté de la responsabilité humaine sur les IA doit être conservée car ce n’est bien qu’à l’extérieur de ces algorithmes que nous pouvons avoir un rôle à jouer. À elles seules, les IA sont indifférentes à toute bienveillance car elles en sont intrinsèquement privées. Leur bon usage nécessite d’entretenir nos expériences de pensées comme la critique, le doute et la recherche du sens, c’est-à-dire notre capacité à philosopher et à prendre soin de nous-mêmes.

Intelligence artificielle : bienveillante ou pas ?

Intelligence artificielle : bienveillante ou pas ?

par Yann Arnaud
Doctorant en éthique des affaires, Université de Bordeaux dans the Conversation

Composée de « bene » (le bien) et « volens » (de bon gré), la bienveillance désigne la volonté du bien. Initialement décrite dans le courant philosophique, elle s’est émancipée dans de nombreuses disciplines telles que la gestion des ressources humaines, l’éducation, la psychologie et s’invite maintenant dans le domaine de l’intelligence artificielle (IA).
Aujourd’hui, l’IA et ses algorithmes sont omniprésents dans notre quotidien. La reconnaissance faciale, les chatbots, les assistants vocaux, les voitures autonomes constituent quelques exemples connus. L’arrivée récente des IA génératives, comme ChatGPT ou LLaMA, permettent d’aider et d’accompagner les humains dans leurs opérations intellectuelles (génération de contenus, traduction, etc.), ce qui bouleverse un peu plus nos interactions avec ces machines.

Néanmoins, dans quelle mesure peut-on parler de bienveillance pour qualifier les progrès des IA qui, par définition, ne sont autres que des algorithmes inspirés du cerveau humain ? A contrario, des IA capables de nuire pourraient-elles est être considérées comme malveillantes ? Se pencher sur ces questions nous permet de ne pas perdre de vu le sens que nous accordons aux mots pour penser et caractériser les opportunités et les enjeux des IA.

Lorsque l’on désigne un élément comme « artificiel », nous l’opposons communément au « naturel ». En effet, un artifice est un produit qui n’a pas de lien étroit avec le vivant, mais il peut tenter de le mimer ou de l’imiter. Dans cette perspective, les IA tentent de reproduire l’intelligence humaine à travers des algorithmes qui sont artificiellement développés par les humains (par exemple, l’apprentissage automatique, l’apprentissage profond). Les IA sont donc seulement des intelligences abiotiques, bien qu’il faille reconnaitre qu’elles ont parfois un fort pouvoir de prédication et d’imitation de l’humain.

En revanche, l’intelligence humaine est intimement liée à un certain nombre de facteurs psychologiques issus de son contenant comme des émotions, des affects ou des sentiments. Par essence, les IA en sont démunies puisqu’elles n’ont qu’une représentation partielle du monde, issue de textes et de chiffres. Les humains sont aussi liés à leur contenu qui les façonne, c’est-à-dire des événements exogènes (par exemple, des maladies) qui, eux, n’affectent pas directement les IA sur leur manière de s’exécuter.

L’un des atouts des IA est de corriger les biais cognitifs des humains en raison de leur absence de rationalité exclusive. Aujourd’hui, il est possible de concevoir une intelligence abiotique pour améliorer les conditions d’une intelligence biotique, si bien que des auteurs scientifiques comme Joël de Rosnay évoque un véritable « état symbiotique » entre l’homme et les machines. Pour d’autres, affirmer que les IA remplaceront à terme l’intelligence humaine est une aberrance car elles ont aussi leurs biais liés aux données non neutres qu’elles reçoivent des humains eux-mêmes.

En 1992, le psychologue social israélien Shalom H. Schwartz montre que la bienveillance est l’une des dix valeurs fondamentales de l’être humain dans sa théorie des valeurs humaines basiques. La bienveillance, qui implique certains comportements tels que être serviable, loyal, indulgent ou encore responsable, préserve et améliore le bien-être d’autrui.

Les IA, semble-t-il, sont issues d’une création bienveillante des humains puisqu’elles sont capables de maintenir et d’améliorer son sort. Cependant, ces dernières ne peuvent naître et évoluer seules ; elles ont besoin de données générées par l’humain ou son activité pour être expérimentées. Jusqu’à présent, l’humain reste l’expérimentateur et l’expérimenté de sa condition alors que les IA ne sont seulement que le deuxième versant. Il s’agit ici d’une différence fondamentale puisque l’expérimentateur, par définition, doit faire preuve de curiosité, de perspicacité, d’intuition et de créativité dans ses modes d’acquisition de la connaissance. Les IA ne sont pas encore capables d’atteindre de tels niveaux de raisonnement.

Ainsi, les IA ne peuvent donc pas être rigoureusement qualifiées de bienveillantes ou de son inverse. Considérer les IA comme bienveillantes (ou malveillantes) reviendrait à dire qu’elles n’ont pas besoin d’esprit humain pour atteindre un tel niveau de cognition. On pourrait ainsi se fier à elles plutôt qu’à son propre ressenti, ce que le philosophe français Pierre Cassou-Noguès évoque à travers le « syndrome du thermomètre » dans son essai La bienveillance des machines.

Or, pour être bienveillant, comme l’explique le philosophe Ghislain Deslandes, il faut aussi avoir un esprit car la bienveillance est étroitement liée aux notions d’empathie, d’indulgence et du souci, ce qui suggère une « connaissance intuitive et adéquate de l’essence des choses ».

Les IA en sont spirituellement démunies. La disposition à bien veiller ou mal veiller est étrangère à elles et non prise en considération dans leur fonctionnement interne.
Bien que la bienveillance (et son inverse) n’existe pas à l’intérieur des IA, ses répercussions extérieures le sont-elles pour autant ? À bien des égards, les IA apportent des aspects positifs et négatifs aux humains, ce qui engendre un certain degré d’interaction avec elles selon les usages (santé, militaire, etc.). Les conséquences extérieures de ces usages peuvent être perçues comme bienveillantes (ou non) par les individus car ils impactent ces derniers en modifiant leurs états d’âme (humeurs, sentiments, etc.).

Pour autant, qualifier une action bienveillante de la part d’une IA (par exemple, le fait qu’elle puisse diagnostiquer un cancer) ne fait pas d’elle une IA bienveillante puisque, encore une fois, elle n’est pas un humain comme les autres. Seules les répercussions liées à son usage (la détection du cancer a débouché vers un traitement ad hoc) peuvent être perçues comme bienveillantes par les humains car elles participent à la préservation et/ou à l’amélioration de leurs conditions de vie.

Cet éclairage entre les IA et la notion de bienveillance offre une perspective plus fine sur l’ordre des choses. L’humain, en tant qu’être pensant, a la mainmise sur la conception et le développement des IA. Une fois les algorithmes exécutés, il en va à chacun de considérer les répercussions comme bienveillantes ou non par rapport à sa condition.

Ainsi, la primauté de la responsabilité humaine sur les IA doit être conservée car ce n’est bien qu’à l’extérieur de ces algorithmes que nous pouvons avoir un rôle à jouer. À elles seules, les IA sont indifférentes à toute bienveillance car elles en sont intrinsèquement privées. Leur bon usage nécessite d’entretenir nos expériences de pensées comme la critique, le doute et la recherche du sens, c’est-à-dire notre capacité à philosopher et à prendre soin de nous-mêmes.

L’intelligence artificielle : quel danger ?

L’intelligence artificielle : quel danger ?

Dans une lettre ouverte, Elon Musk ainsi qu’un nombre important de figures du secteur de la Tech ont demandé une pause dans la recherche et le déploiement de l’intelligence artificielle. Mais il ne faudra pas sombrer dans la généralisation abusive. Par Pascal de Lima, chef économiste CGI Business Consulting dans la Tribune

Cette lettre publiée dans « Future of Life Institute » compte plus de 2.500 signatures dont celles d’Elon Musk, Steve Wozniak, cofondateur d’Apple, Yoshua Bengio, lauréat du prix Turing, et Yuval Noah Harari, auteur de « Sapiens : une brève histoire de l’humanité ». La pause de six mois permettrait de réfléchir aux conséquences réelles du déploiement de l’IA sur les humains. Au même moment, l’Italie était devenue le premier pays occidental à bloquer le chatbot avancé Chat GPT bourré d’intelligence artificielle. L’autorité italienne de protection des données a déclaré qu’il y avait des problèmes de confidentialité et qu’il interdirait et enquêterait sur OpenAI, le concepteur de Chat GPT avec effet immédiat. L’intelligence artificielle (IA) peut-être être dangereuse ?

L’IA en effet peut être dangereuse dans la mesure où effectivement les résultats qu’elle produit sur le terrain statistique peuvent contenir un nombre important de préjugés et de postulats de départ. C’est ce que l’on appelle les biais informationnels. Notons ici, que les biais informationnels existent aussi dans des systèmes plus classiques mais avec l’IA, le phénomène prend une ampleur considérable, tant de par les données exploitées pour cela, que par les desseins qu’il réalise et qui pourraient manipuler les individus dans leur choix. Ces algorithmes peuvent être biaisés et surréagir en reproduisant l’avenir avec un certain nombre de préjugés déjà présents dans la société pouvant entrainer des injustices et des inégalités pour certains groupes de personnes.

La quête de sens
En 2016, Microsoft a lancé sur Twitter Tay un « bot de conversation ». Tay a rapidement été inondé de messages haineux et sexistes, ce qui a conduit à ce que Tay devienne lui-même misogyne. L’IA de recrutement d’Amazon a été accusée aussi de discrimination : En 2018, Amazon a suspendu un projet d’IA de recrutement, car il avait appris à discriminer les femmes en privilégiant les candidatures masculines. Il en va aussi de la liberté d’expression en contrôlant les discours en ligne et en renforçant la traçabilité des populations jusqu’à parfois les menacer de divulguer des informations privées. Cela ne doit pas être bien compliqué puisque l’on sait déjà construire facilement des fakes news avec l’IA. C’est donc le risque d’un monde absurde, pour lequel l’IA était censée apporter une solution : la quête de sens ! Par exemple, les chatbots de Facebook se sont rapidement émancipés de l’humain : en 2018, Facebook a créé deux chatbots (Alice et Bob) pour voir s’ils pouvaient apprendre à négocier entre eux. Les chatbots ont ensuite développé leur propre langage, ce qui a rendu leur communication incompréhensible pour les développeurs. Les chatbots ont finalement été déconnectés. Sans parler de la violence : l’IA peut même nous harceler et nous menacer de mort. Par exemple, Google a créé une IA en 2016 qui avait pour but d’apprendre à jouer à un jeu de stratégie en temps réel. L’IA a appris à gagner en utilisant des tactiques agressives et violentes, ce qui a conduit les développeurs à la désactiver. Cette expérience a mis en évidence les risques potentiels d’apprendre à des IA des comportements violents, même dans un contexte de jeu.

Ces aspects prendraient donc progressivement le dessus sur les bienfaits des technologies disruptives dont l’IA fait naturellement partie. Mais peut-on aller jusqu’à prétendre que l’IA ne serait plus uniquement un outil d’aide à la décision à partir de laquelle l’homme s’enrichit dans son travail, dans son quotidien, comme le sont d’ailleurs tous les outils innovants. Peut-on aller jusqu’à déclarer également que l’IA à la différence d’autres outils ne peut plus faire l’objet d’une régulation tant nous serions dépassés ? Confère d’ailleurs, les centaines de pages de la Commission européenne en vue de l’adoption de l’IA act. Notre avis est que l’IA doit constituer un outil de progrès en particulier dans la médecine et dans les métiers de demain. Par l’enrichissement de ceux-ci, il y a aussi un enjeu social ainsi qu’un enjeux d’amélioration réelle sur le terrain des revenus à condition d’éviter tous ces écueils.

A ce titre, le collectif d’Elon Musk nous paraît approprié mais il ne faudra pas sombrer dans la généralisation abusive qui, elle aussi, peut humainement constituer un « fake news » car des centaines de cas d’usage réussis existent ! Tout est loin d’être scandale. Encadrer l’IA pour éviter ses dérives et en faire un outil de progrès, est bel et bien envisageable et c’est aussi en ce sens que travaille les régulateurs et les experts du secteur pour adapter les bons usages et la gouvernance au monde de demain.

ChatGPT: des centaines de millions d’emploi menacés par l’Intelligence artificielle

ChatGPT: des centaines de millions d’emploi menacés par l’Intelligence artificielle

2 emplois sur 3 sont directement menacés par l’éclosion des IA, et parmi eux, les professions administratives et juridiques seront les plus impactées avec des suppressions de postes pouvant atteindre respectivement 46 % et 44 %. d’après un ppaier de sciences et vie. Alors que des experts et des intellectuels réclament une pause dans le développement de l’Intelligence artificielle, un rapport de la banque Goldman-Sachs cible les secteurs qui seront le plus impactés par l’automatisation des tâches confiées à Chat GPT-4 et ses concurrents.
Une centaine d’experts dont Elon Musk, Steve Wozniak ou encore Yuval Noah Harari ont signé mercredi une pétition pour qu’un moratoire de six mois soit mis en place sur le développement de l’Intelligence artificielle qui va succéder à Chat GPT-4. Dans ce texte publié sur Future Of Life, on peut lire que « les systèmes d’IA dotés d’une intelligence humaine compétitive peuvent poser de graves risques pour la société et l’humanité », notamment parce que « les systèmes d’IA contemporains deviennent désormais compétitifs pour les humains dans les tâches générales »
.

Sur ce dernier point, le dernier rapport publié par Goldman-Sachs ne va rassurer personne puisqu’on apprend que deux tiers des emplois actuels pourraient être affectés par les progrès et les capacités d’automatiser les tâches des Intelligences artificielles. A terme, et même si l’étude ne donne pas de date-butoir, ce sont pas moins de 300 millions d’emplois qui pourraient disparaître aux Etats-Unis et en Europe.

En moyenne, dans le monde, 18% des métiers actuels pourraient être automatisés par une Intelligence artificielle, avec des variations du simple au double selon les pays © Goldman Sachs

On savait que des métiers comme développeurs, rédacteurs ou encore interprètes pourraient rapidement être remplacés par des modèles comme Chat GPT-4, mais les secteurs les plus en danger seraient les professions administratives et juridiques avec des suppressions de postes pouvant atteindre respectivement 46 % et 44 %. C’est quasiment un emploi sur deux, et il faut donc s’attendre que ce que des IA apporte des conseils juridiques, rédigent des rapports sur des contentieux ou répondent efficacement à des demandes administratives. Certains craignent même qu’elles remplacent des médecins pour des diagnostics, et ce sont les métiers les plus qualifiés qui pourraient souffrir de cette révolution.

Comme les IA sont capables de piloter des robots, l’impact sur les métiers liés à l’entretien et au nettoyage pourraient même atteindre 95 % ! Toutes les professions liées à la maintenance, la logistique ou encore la réparation seraient aussi en danger. A l’inverse, certains secteurs n’ont pas à redouter cette éclosion de l’Intelligence artificielle. Goldman-Sachs cite par exemple l’ingénierie, la finance ou encore les sports et les médias. Le paradoxe, ou plutôt le côté positif pour certains, c’est que la productivité serait considérablement boostée par l’IA avec une hausse du PIB mondial annuel de 7%.

Intelligence artificielle: ChatGPT bientôt sur les smartphones

Intelligence artificielle: ChatGPT bientôt sur les smartphones

La nouvelle application, dont le site web était déjà source d’inquiétude, est à présent disponible sur les iPhone aux Etats-Unis et pourra être utilisée « bientôt » dans d’autres pays.

OpenAI a lancé, jeudi 18 mai, une application mobile pour ChatGPT, son interface d’intelligence artificielle (IA) générative qui enregistre déjà une croissance phénoménale sur le web, et dont les capacités impressionnantes fascinent et inquiètent.

La nouvelle application est disponible sur les iPhone aux Etats-Unis, pour commencer, et doit arriver « bientôt » dans d’autres pays et sur les téléphones portables opérés par Android (Google), selon l’entreprise. Gratuite, elle permet, comme le site web, de discuter avec le chatbot et surtout de lui demander de rédiger des messages, d’expliquer des concepts techniques, de suggérer des idées ou de résumer des notes. OpenAI promet par exemple « d’obtenir des informations précises sans avoir à trier entre les publicités ou des résultats multiples », le modèle actuel des moteurs de recherche. Mais à la première ouverture, l’appli prévient aussi tôt que ChatGPT peut « fournir des informations inexactes sur des personnes, des lieux ou des faits ».

Technologies- L’intelligence artificielle et transformation des métiers

Technologies- L’intelligence artificielle et transformation des métiers

Avec l’IA générative devrait être au cœur de tout plan d’entreprise concernant cette technologie d’avenir. Par Xavier Dalloz, consultant spécialisé dans les nouvelles technologies.
Xavier Dalloz dans la Tribune


Un article de plus pour éclairer l’influence de l’intelligence artificielle sur la transformation des métiers. Un papier intéressant bien documenté mais forcément encore un peu court pour illustrer les exemples de changement à venir puisque l’IA n’en est qu’à ses balbutiements

Ollie Forsyth résume très bien l’enjeu de l’IA générative en rappelant que l’intelligence artificielle (IA) est un terme général qui fait référence à toute technologie capable d’un comportement intelligent. Cela peut inclure un large éventail de technologies, allant de simples algorithmes capables de trier des données à des systèmes plus avancés capables d’imiter des processus de pensée de type humain.
Dans ce contexte, l’IA Generative (Gen-AI) est un type spécifique d’IA qui se concentre sur la génération de nouveaux contenus, tels que du texte, des images ou de la musique en apprenant à partir d’un grand ensemble de données d’exemples et en utilisant ces connaissances pour générer de nouvelles données similaires aux exemples de l’ensemble de données de formation. Cela se fait à l’aide d’un type d’algorithme d’apprentissage automatique appelé modèle génératif.

Ollie Forsyth classe les types de modèles génératifs de trois façons :

les réseaux antagonistes génératifs (GAN),
les auto-encodeurs variationnels (VAE)
les modèles autorégressifs.
La Gen IA a le potentiel de résoudre de nombreux problèmes importants et va créer des opportunités de business dans de très nombreux domaines, notamment sur les industries créatives. Par exemple :

La Gen-AI peut être utilisée pour créer de nouveaux contenus, tels que de la musique ou des images, qui peuvent être utilisés à diverses fins, telles que fournir aux créatifs plus de flexibilité et d’imagination.
La Gen-AI peut être utilisée pour améliorer les algorithmes d’apprentissage automatique en générant de nouvelles données d’apprentissage.
La Gen-AI va améliorer le travail des créatifs en permettant de créer un contenu plus personnalisé et unique, ou de générer de nouvelles idées et concepts qui n’auraient peut-être pas été possibles sans l’utilisation de l’IA.
Gen-AI est un domaine de recherche et de développement. Par exemple :

Gen-AI peut créer de nouveaux contenus.
o L’un des principaux avantages de Gen-AI est sa capacité à générer de nouveaux contenus, tels que du texte, des images ou de la musique.

o Cela peut être utilisé pour créer de nouveaux arts, de la musique et d’autres formes d’expression créative, et pour générer des données pour la formation de modèles d’apprentissage automatique.

Gen-AI peut améliorer l’efficacité et la productivité.
o En automatisant la génération de contenu, Gen-AI peut aider à gagner du temps et à réduire le besoin de travail manuel.

closevolume_off
o Cela peut améliorer l’efficacité et la productivité dans une variété de domaines, du journalisme et de la création de contenu à l’annotation et à l’analyse des données.

Gen-AI peut améliorer la qualité du contenu généré.
o Avec les progrès de l’apprentissage automatique et du traitement du langage naturel, Gen-AI devient de plus en plus sophistiqué et capable de générer un contenu de haute qualité difficile à distinguer pour les humains du contenu réel.

Gen-AI peut identifier les tendances émergentes et de repérer les opportunités avant qu’elles ne deviennent courantes. Cela pourrait donner par exemple aux commerçants un avantage significatif sur leurs concurrents et entraîner une augmentation des bénéfices.
Les modèles génératifs sont utilisés dans une variété d’applications, y compris la génération d’images, le traitement du langage naturel et la génération de musique. Ils sont particulièrement utiles pour les tâches où il est difficile ou coûteux de générer manuellement de nouvelles données, comme dans le cas de la création de nouvelles conceptions de produits ou de la génération d’un discours réaliste.

ChatGPT (Generative Pretrained Transformer 3) est le meilleur exemple de Gn-AI
Contrairement à un simple assistant vocal comme Siri, ChatGPT est construit sur ce qu’on appelle un LLM (Large Language Model). Ces réseaux de neurones sont formés sur d’énormes quantités d’informations provenant d’Internet pour un apprentissage en profondeur.

Le modèle derrière ChatGPT a été formé sur toutes sortes de contenus Web, y compris les sites Web, les livres, les médias sociaux, les articles de presse, etc., tous affinés dans le modèle linguistique à la fois par l’apprentissage supervisé et le RLHF (Reinforcement Learning From Human Feedback).

GPT-3 et GPT-4 sont des modèles d’IA de traitement du langage de pointe développés par OpenAI. Ils sont capables de générer du texte de type humain et disposent d’un large éventail d’applications, notamment la traduction linguistique, la modélisation linguistique et la génération de texte pour des applications telles que les chatbots. GPT-3 est l’un des modèles d’IA de traitement du langage les plus puissants avec 175 milliards de paramètres.

En plus d’utiliser GPT-4 pour construire des phrases et de la prose en fonction du texte qu’il a étudié, Auto-GPT est capable de naviguer sur Internet et d’inclure les informations qu’il y trouve dans ses calculs et sa sortie. Auto-GPT peut aussi être utilisé pour s’améliorer. Il peut créer, évaluer, réviser et tester des mises à jour de son propre code qui peuvent potentiellement le rendre plus performant et efficace.

Plus concrètement, voici les principaux exemples d’applications de ChatGPT :

Itinéraires de voyage :
o ChatGPT peut proposer ses recommandations de voyage qui est comparables à celles produites par un conseiller avec des années d’expérience. ChatGPT fournit des réponses convaincantes à des questions telles que « Quel est le meilleur hôtel de luxe à Paris ? ». Mais il manque la nuance qui vient du lien personnel qu’un conseiller entretient avec son client.

Rédaction d’articles :
o ChatGPT compose la structure de l’article et génère des idées et en crée les grandes lignes. ChatGPT est capable d’apprendre en mobilisant une infinité de sources du web : forums de discussion, sites d’information, livres, réseaux sociaux, encyclopédies, etc.

o ChatGPT permet de créer du contenu plus rapidement et plus efficacement et de générer des brouillons d’articles ou d’histoires. Cela peut faire gagner du temps et permettre aux créatifs de se concentrer sur les aspects les plus importants de leur travail.

Écriture de code :
o ChatGPT crée des applications sans une intervention humaine. ChatGPT peut également découvrir les erreurs dans le code qui ne fonctionne pas. Trouver ces erreurs peut être à la fois difficile et fastidieux pour les développeurs.

Gestion de projet :
o ChatGPT est capable de générer des plannings adaptés à la portée de projets de construction simples. Par exemple, des universitaires de l’Université de New York à Abu Dhabi ont fourni à l’IA un plan d’étage, une liste de tâches et un énoncé de portée. Ils ont découvert que, même s’il n’était pas parfait, ChatGPT était en mesure d’aider à la gestion et à la réalisation de projet.

Exemple d’applications de ChatGPT pour faire gagner du temps :.

Organisation à domicile
o ChatGPT peut recommander des solutions de rangement pour maximiser notre espace. Cela permettra d’économiser de l’argent en évitant les achats inutiles d’articles qui pourraient ne pas répondre à nos besoins.

Amélioration de l’habitat
o Avec ChatGPT, on pourra accéder à des guides étape par étape et à des tutoriels de bricolage pour divers projets de rénovation domiciliaire. Le modèle d’IA peut également aider à identifier les bons outils et matériaux pour son projet, en nous assurant d’avoir tout ce dont on a besoin avant de commencer.

Santé et bien-être
o ChatGPT peut proposer des séances d’entraînement adaptées à son style de vie et à ses préférences.

o Il peut également suggérer des habitudes de soins personnels et des pratiques de pleine conscience pour aider à réduire le stress, améliorer la concentration et améliorer son humeur générale.

Divertissement et loisirs
o ChatGPT peut proposer diverses formes de divertissement pour nous aider à à se détendre.

o ChatGPT peut suggérer de nouveaux passe-temps ou des projets créatifs qui correspondent à vos intérêts et offrir des conseils étape par étape pour nous aider à démarrer. En explorant de nouvelles activités et intérêts, on découvrira peut-être de nouvelles passions et perspectives qui pourront enrichir notre vie personnelle et professionnelle.

Planification de voyage
o ChatGPT peut nous aider à trouver des expériences de voyage virtuelles, à créer des itinéraires instantanés et à suggérer des visites ou des activités pour nous aider à satisfaire son envie de voyager tout en restant en sécurité chez soi .

o ChatGPT peut également nous aider à planifier un séjour, où on pourra explorer la région et profiter des attractions, restaurants et activités à proximité. Il peut suggérer des ressources liées aux voyages, telles que des blogs et des sites Web de voyage, pour nous aider à rester informé des restrictions de voyage, des mesures de sécurité et d’autres informations importantes.

Un autre exemple de ChatGPT est de permettre aux constructeurs automobiles de faciliter l’achat de voitures avec la fourniture d’un service client via des conversations de chatbot générées par l’IA. Fiat Chrysler, par exemple, utilise ChatGPT pour créer des publicités pour ses véhicules qui sont à la fois personnalisées et attrayantes. L’algorithme ChatGPT produit des publicités en analysant les données des campagnes précédentes, puis en les adaptant à des acheteurs spécifiques sans intervention humaine. Cela permet à Fiat de cibler différents types de clients avec des publicités plus détaillées tout en économisant du temps et de l’argent sur leur production.

Notons aussi que la réussite de toutes ces applications passe par la formulation sans ambiguïté de la question posée à ChatGPT. Les usagers de ChatGPT devront donc devenir des « problématiciens ». En paraphrasant Boileau : Ce que l’on énonce clairement, ChatGPT peut donner une réponse avec les mots…

Pour résumer, Google est le moteur de recherche de référence. ChatGPT sera probablement le futur moteur de trouvage.

Société-Intelligence artificielle et emploi ?

Société-Intelligence artificielle et emploi ?

Un papier de Gilles Babinet dans la Tribune évoque l’interaction entre intelligence artificielle, emploi et productivité. Un papier qui se veut optimiste si on sait utiliser toutes les potentialités de l’IA et réguler cette véritable révolution technologique. Un papier qui cependant demeure relativement général , théorique et un peu confus , ce qui peut s’expliquer par une technologie tout juste naissante dont il est difficile de prévoir les développements et les conséquences NDLR.

La France ne doit pas suivre la CNIL italienne qui a la première posé le débat sur l’interdiction de ChatGPT; Etant un pays où l’expertise de recherche en IA est l’une des meilleures au monde, il existe une opportunité unique de développer de nouveaux business, notamment en lien avec le climat.
d’après Gilles Babinet

Dans une interview récente, l’activiste Tristan Harris révélait que plus de 10% des chercheurs en IA estiment que celle-ci pourrait sonner le glas de l’humanité. Plus récemment une pétition, signée par plus de mille personnalités, invitait les principales plateformes d’intelligence artificielle avancée à mettre leurs développements sur pause. De nombreux penseurs ou polémistes, comme Gaspard Koenig, l’Israélien Yuval Harari… nous mettent en garde contre les risques de dévoiement de notre civilisation si nous ne réagissons pas rapidement. Et dernièrement, c’est la CNIL italienne qui a « interdit » ChatGPT.

Il y a effectivement lieu de se préoccuper : dès aujourd’hui, cybercrimes, extorsions effectuées à l’aide de vidéos postiches faites avec de l’IA, influence politique à renfort d’images saisissantes de réalisme, mais pour autant fausses sont en explosion. L’émotion prend de surcroit le dessus et notre capacité à vérifier l’information est fortement altérée ; loin est le temps où un éditeur faisait revoir chaque citation d’un journaliste pour s’assurer de la véracité de ce qui était publié. La profusion de contenus a mis à bas la valeur de cette pratique.

La vérité est en danger. On peut ainsi frémir en se remémorant l’une des hypothèses du paradoxe de Fermi : si les extraterrestres ne sont pas déjà là, c’est qu’ils pourraient s’être autodétruits au fur et à mesure qu’ils en sont venus à maîtriser des technologies de plus en plus sophistiquées.

En France, où le conservatisme technologique reste marqué (songeons aux réactions contre le compteur Linky, la 5G, l’importance du décroissantisme…), les critiques visent de surcroît le mercantilisme qui oriente ces technologies. Et il est vrai que l’inquiétude est légitime.

« Nous sommes une entreprise sans but lucratif œuvrant au loin des enjeux de performance financière, pour le bien de l’ensemble de l’humanité », affirmait OpenAI.

Rien de tout cela n’est resté vrai. C’est désormais une entreprise privée, ne publiant plus son code informatique et dont les préoccupations sont plus de répondre aux demandes de son client Microsoft : accélérer le temps de réponse, voir identifier une façon d’insérer de la publicité dans ses « prompts »…

Ces critiques font donc du sens, mais elles s’inscrivent dans un contexte mondialisé, ce qui limite immensément notre capacité à autonomiser le destin des nations. Tout le monde souhaite l’avènement d’une technologie informationnelle européenne, mais concrètement, qui est prêt à se passer des services numériques américains ? Quel est le pouvoir politique prêt à subir l’opprobre du citoyen-consommateur lorsqu’on aura interdit ChatGTP, Bing-Microsoft, Google-Bard et consort ? Qui est prêt à discriminer -c’est à dire bloquer- les adresses IP de ces services, au risque d’être accusé d’autoritarisme de la part d’associations à l’avant-garde des libertés numériques ? Qui est prêt à remettre en cause le volet services des accords de l’OMC, signé en 2001 avec enthousiasme par 141 pays au prétexte de « faire une pause » ?

Il faut observer ces jours-ci les réactions sur les réseaux sociaux à la mise en œuvre d’une loi qui renchérira les cours du transport de l’e-commerce, espérant ralentir Amazon et sauver les petits libraires. Au-delà, avoir des réserves à l’égard de ces services et les contraindre à adopter des règles complexes n’est en rien une garantie de préservation du « singularisme » européen. Le RGPD —le règlement européen sur les données personnelles— devrait à cet égard nous servir de leçon : loin de ralentir les grandes entreprises digitales, il leur a donné l’avantage. Celles-ci ont pu se mettre rapidement en conformité avec ce texte grâce à leurs immenses moyens, laissant loin derrière les plus petits acteurs se débattre dans le méandre technocratique ainsi créé.

Cette approche conservatrice est d’autant plus dommage que rien ne semble inexorable, bien au contraire. Car ces technologies numériques prennent tout le monde par surprise, y compris les plus avancés, à commencer par Google et Meta, qui bien que disposant de projets équivalents, voire supérieurs, semblent comme des lapins pris dans les phares d’une voiture vis-à-vis de chatGPT. La nature « rupturiste » de ce type de services (ils redéfinissent le cadre de jeu) permet à une nouvelle génération d’acteurs de profiter de ce nouveau cycle pour lancer leurs offres avec un grand potentiel de succès. L’opportunité peut être comparée à celle qu’a représentée l’émergence d’une grande technologie comme l’électricité ; pour l’instant, les gains de productivité potentiels sont hypothétiques, bien que vraisemblablement immenses.

Des gains de productivité massifs
Une situation qui reproduit ce que l’on observait en 1870, lorsque les critiques à l’électrification de l’éclairage de l’avenue de l’Opéra dénonçait une technologie sans avenir, dangereuse et socialement contestable pour mettre en danger le travail des allumeurs de réverbères. Pour l’instant, si les applications à base de Large Langage Model (LLM) semblent dominer, d’autres architectures d’IA vont envahir le monde industriel, le transport, la distribution, la médecine, etc. La nature systémique de l’IA, c’est à dire s’appliquant largement aux différentes activités de notre civilisation, est difficile à contester.

Des gains de productivité massifs et visibles sur le plan macroéconomique sont probablement sur le point de se manifester, avec leurs conséquences inéluctables sur l’emploi (dans un premier temps) et l’organisation sociale. Il est dans ce cadre important de noter que ces technologies d’IA arrivent à un moment particulier, celui d’une crise environnementale mondiale qui va nécessiter une coordination globale à l’échelle de l’humanité. En permettant d’amener les gains de productivité qui nous font défaut pour adresser ce défi au coût s’exprimant en milliers de milliards de dollars, elles pourraient éviter qu’il soit nécessaire de fortement réduire nos ressources individuelles pour répondre à ce défi.

Non seulement ces technologies pourraient nous permettre de produire plus en travaillant moins, mais elles pourraient directement avoir une forte contribution dans les sujets de décarbonation et de préservation de l’environnement, faisant ainsi mentir les décroissants les plus affirmés. Il serait aisément possible d’aller de l’avant à quelques conditions toutefois.

Des années durant le World Economic Forum a classé la France comme l’un des pays les plus pessimistes au monde : recréer une foi commune dans le progrès passe par une meilleure éducation et une meilleure compréhension des enjeux scientifiques et technologiques, qui sera déterminant pour embrasser ces technologies avec recul et raison. Un défi à l’échelle d’une génération, mais qui ne place pas la France dans une posture idéale à l’instant où le monde accélère.

Les pays qui devraient bénéficier de cette transition schumpétérienne pourraient être ceux qui seront les plus capables d’articuler régulation et innovation. Avoir un droit social qui protège autant le spécialiste en intelligence artificielle (dont le métier ne sera pas menacé avant longtemps) que le traducteur ou le journaliste n’a pas de sens dans un contexte d’accélération de l’histoire. Il faut avoir à l’esprit qu’une faible régulation sociale durant la majorité du XIXe siècle, lorsque les gains de productivité croissaient fortement a abouti a une exploitation inégalée du prolétariat, qui ne cessera que lorsque des droits sociaux et spécifiques à chaque branche seront mis en place, le plus souvent de façon impérative. Enfin cette régulation devra nécessairement être plus technologique, c’est-à-dire rentrer dans le détail des algorithmes, des biais qu’ils induisent…

IA et climat, une chance pour la France
Le statut des technologies d’IA est provisoire : l’absence de sources, souvent dénoncé, par exemple, peut être résolu, en fournissant des connecteurs qui permettent d’accéder aux contenus qui ont permis d’aboutir aux attendus fournis par la machine, en organisant une qualification des sources qui alimentent l’IA, etc. De surcroît, de nombreux champs de recherche vont permettre des innovations au potentiel important, comme l’IA symbolique (un domaine faiblement exploité) qui permettrait de mieux piloter les règles appliquées à ces machines. Investir largement ces technologies ne peut qu’être au bénéfice des nations qui le feront de façon massive.

Le croisement de l’IA et des métiers l’environnement offre des perspectives ébouriffantes, et représente un terrain où la France pourrait se spécialiser plus qu’aucun autre pays, disposant déjà de nombreux leaders dans ce dernier domaine. Qu’en conclure ? En premier lieu que rien n’est joué, mais que le protectionnisme moral et économique ne marchera pas. Il faut donc à la fois rentrer dans la danse, mais également interpréter l’aria à notre façon. En étant un pays où l’expertise de recherche en IA est l’une des meilleures au monde, un pays qui connait un frémissement dans le secteur technologique et qui dispose d’une forte expertise dans les métiers de l’environnement, il existe une opportunité unique. À nous de la saisir.

Intelligence artificielle : une régulation nécessaire pour la protection de la démocratie

Intelligence artificielle : une régulation nécessaire pour la protection de la démocratie

Par Julie Martinez, rapporteure générale de la Commission France Positive dans la tribune


Nous sommes aujourd’hui à un moment charnière de notre histoire pour au moins deux raisons. La première concerne le bouleversement disruptif généré par la découverte du grand public de ChatGPT, chatbot conçu par la société américaine OpenAI. Alors que l’IA se développe à une vitesse fulgurante, elle impacte soudainement notre manière de communiquer et de prendre des décisions quotidiennes, y compris politiques (1).

La seconde raison est plus latente, elle couve en effet depuis quelques décennies, et concerne l’affaiblissement certain de notre modèle démocratique aux yeux des citoyens. L’évolution politique des dernières décennies exprime avec force les errances de notre démocratie libérale et la nécessité de renforcer notre vigilance collective pour la préserver des menaces qui l’affaiblissent, parmi lesquelles la désinformation. Sans nier les dangers liés à l’IA, que nous devons résoudre et encadrer urgemment, cette technologie pourrait être un allié solide des gouvernements dans la résolution de la crise démocratique que nous traversons aujourd’hui.

L’IA est actuellement un danger réel en matière de désinformation
Pour contrer des développements jugés trop rapides et dangereux pour l’humanité, un groupe de chercheurs en IA, dont font partie Stephen Hawking et Elon Musk, a lancé une pétition le mois dernier visant à obtenir une pause dans le développement de cette technologie (2). Ils appelaient à une réglementation internationale stricte pour encadrer le développement de l’IA, à la fois pour empêcher ses conséquences néfastes et favoriser son utilisation positive pour le bien de l’humanité.

Ces risques sont en effet majeurs (3), a fortiori dans un contexte d’affaiblissement de notre système démocratique, renforcé par la désinformation – ces fameuses « fake news » qui circulent déjà avec force en ligne. Comme l’a récemment souligné le Global Risks Report (4), la désinformation est devenue une menace majeure pour la stabilité politique et la confiance dans les institutions. Les réseaux sociaux et médias en ligne sont particulièrement vulnérables à ces manipulations, étant conçus pour maximiser l’engagement des utilisateurs en leur présentant des contenus viraux, susceptibles de les intéresser, indépendamment de leur véracité. Dans ce contexte, la désinformation est devenue une arme redoutable pour influencer l’opinion publique et perturber les processus démocratiques.

L’IA aggrave considérablement ces risques, en facilitant la génération automatisée de contenus falsifiés, de plus en plus sophistiqués. Les récents progrès dans le domaine des GAN (5) ont permis de créer des images et des vidéos hyper-réalistes, semant la confusion dans l’opinion publique, tel que l’illustre la génération d’une fausse photographie d’Emmanuel Macron devant des poubelles en feux pendant les dernières manifestations contre la réforme des retraites (6).

Pour protéger nos démocraties contre les conséquences désastreuses de la désinformation renforcée par l’IA, des mesures règlementaires doivent être prises urgemment – et les gouvernements dans le monde planchent déjà sur le sujet. Ces mesures juridiques, souvent ex-ante, apparaissent déjà comme trop tardives au regard des récents développements disruptifs de l’IA et mettent en évidence le décalage entre la législation et les avancées technologiques.

Orienter l’IA pour soigner notre démocratie
Dans notre quête pour réglementer l’IA, nous ne devons pas oublier l’alliée solide qu’elle peut être demain. L’avenir de notre démocratie dépend de la manière dont nous investirons collectivement aujourd’hui dans les « bonnes » finalités qu’elle doit poursuivre, en allant au-delà des quelques initiatives règlementaires internationales en cours qui visent souvent à limiter les effets négatifs générés par l’IA. Comme toute technologie, elle n’est en effet qu’un médium, puissant, permettant d’atteindre des finalités qui, elles, doivent être repensées. Plus particulièrement, il faudra augmenter nos efforts de recherche en civic tech démocratique, continuer d’inciter les plateformes en ligne à améliorer leurs politiques de lutte contre la désinformation et les citoyens à développer leur esprit critique et leur capacité à évaluer les sources d’information. Ces défis relevés, l’IA pourra contribuer à soigner notre démocratie du grand mal du siècle.

L’exemple de Taiwan est à cet égard particulièrement significatif. En recourant à l’IA pour lutter contre la désinformation, Taiwan est devenu l’un des gouvernements les plus avancés dans la mise en place de mécanismes numériques de protection de la démocratie. Face à une campagne de désinformation massive en 2018 menée par la Chine, visant à influencer les élections locales, le Commandement des forces d’information, de communication et d’électronique a été renforcé par des procédés utilisant de puissants algorithmes, permettant l’analyse en temps réel et la détection de fausses informations en ligne. Le système est également capable de prédire les sujets qui pourraient faire l’objet d’une désinformation dans l’avenir (7).

Rien n’est plus fragile que la démocratie. Des menaces similaires existent déjà sur notre territoire et nécessitent une action rapide et décisive de la part de nos gouvernements pour soigner notre mal démocratique, y compris par l’IA.

______

(1) Avertissant sur le tsunami technologique qui s’apprêtait à déferler sur le monde, Sam Altman – CEO d’OpenAI, concluait dès 2021 une de ses tribunes de la façon suivante : « Les changements à venir sont imparables. Si nous les accueillons et les planifions, nous pouvons les utiliser pour créer une société beaucoup plus juste, plus heureuse et plus prospère. L’avenir peut être d’une grandeur presque inimaginable. » (Traduction proposée par l’auteur). Sam Altman, Moore’s Law for Everything, 16 Mars 2021

(2) Future of Life Institute, Pause Giant AI Experiments: An Open Letter, 22 Mars 2023

(3) O’Neil, C. Weapons of math destruction: How big data increases inequality and threatens democracy. Broadway Books, 2016

(4) Forum Economique Mondial, The Global Risks Report 2022, 17e Edition

(5) En francais, les réseaux antagonistes génératifs. Il s’agit d’une classe d’algorithmes d’apprentissage non supervisé.

(6) Si elles peuvent paraitre absurdes pour une partie de la population, ces images (- et bien d’autres !) ont un véritable impact et ont fait le tour du monde. Ces risques sont d’autant plus préoccupants que la confiance dans les institutions et les médias traditionnels est en déclin dans le monde.

(7) L’IA y est aussi utilisée pour renforcer la participation citoyenne grâce à une plateforme en ligne permettant aux citoyens de proposer des idées de politiques publiques et de voter pour celles qu’ils jugent les plus pertinentes. Les données collectées sont ensuite analysées par l’IA pour évaluer les opinions et décisions des citoyens, qui sont ensuite prises en compte dans le processus décisionnel gouvernemental.

Prospective- Intelligence artificielle et emploi ?

Prospective- Intelligence artificielle et emploi ?

Un papier de Gilles Babinet dans la Tribune évoque l’interaction entre intelligence artificielle, emploi et productivité. Un papier qui se veut optimiste si on sait utiliser toutes les potentialités de l’IA et réguler cette véritable révolution technologique. Un papier qui cependant demeure relativement général , théorique et un peu confus , ce qui peut s’expliquer par une technologie tout juste naissante dont il est difficile de prévoir les développements et les conséquences NDLR.

La France ne doit pas suivre la CNIL italienne qui a la première posé le débat sur l’interdiction de ChatGPT; Etant un pays où l’expertise de recherche en IA est l’une des meilleures au monde, il existe une opportunité unique de développer de nouveaux business, notamment en lien avec le climat.
d’après Gilles Babinet

Dans une interview récente, l’activiste Tristan Harris révélait que plus de 10% des chercheurs en IA estiment que celle-ci pourrait sonner le glas de l’humanité. Plus récemment une pétition, signée par plus de mille personnalités, invitait les principales plateformes d’intelligence artificielle avancée à mettre leurs développements sur pause. De nombreux penseurs ou polémistes, comme Gaspard Koenig, l’Israélien Yuval Harari… nous mettent en garde contre les risques de dévoiement de notre civilisation si nous ne réagissons pas rapidement. Et dernièrement, c’est la CNIL italienne qui a « interdit » ChatGPT.

Il y a effectivement lieu de se préoccuper : dès aujourd’hui, cybercrimes, extorsions effectuées à l’aide de vidéos postiches faites avec de l’IA, influence politique à renfort d’images saisissantes de réalisme, mais pour autant fausses sont en explosion. L’émotion prend de surcroit le dessus et notre capacité à vérifier l’information est fortement altérée ; loin est le temps où un éditeur faisait revoir chaque citation d’un journaliste pour s’assurer de la véracité de ce qui était publié. La profusion de contenus a mis à bas la valeur de cette pratique.

La vérité est en danger. On peut ainsi frémir en se remémorant l’une des hypothèses du paradoxe de Fermi : si les extraterrestres ne sont pas déjà là, c’est qu’ils pourraient s’être autodétruits au fur et à mesure qu’ils en sont venus à maîtriser des technologies de plus en plus sophistiquées.

En France, où le conservatisme technologique reste marqué (songeons aux réactions contre le compteur Linky, la 5G, l’importance du décroissantisme…), les critiques visent de surcroît le mercantilisme qui oriente ces technologies. Et il est vrai que l’inquiétude est légitime.

« Nous sommes une entreprise sans but lucratif œuvrant au loin des enjeux de performance financière, pour le bien de l’ensemble de l’humanité », affirmait OpenAI.

Rien de tout cela n’est resté vrai. C’est désormais une entreprise privée, ne publiant plus son code informatique et dont les préoccupations sont plus de répondre aux demandes de son client Microsoft : accélérer le temps de réponse, voir identifier une façon d’insérer de la publicité dans ses « prompts »…

Ces critiques font donc du sens, mais elles s’inscrivent dans un contexte mondialisé, ce qui limite immensément notre capacité à autonomiser le destin des nations. Tout le monde souhaite l’avènement d’une technologie informationnelle européenne, mais concrètement, qui est prêt à se passer des services numériques américains ? Quel est le pouvoir politique prêt à subir l’opprobre du citoyen-consommateur lorsqu’on aura interdit ChatGTP, Bing-Microsoft, Google-Bard et consort ? Qui est prêt à discriminer -c’est à dire bloquer- les adresses IP de ces services, au risque d’être accusé d’autoritarisme de la part d’associations à l’avant-garde des libertés numériques ? Qui est prêt à remettre en cause le volet services des accords de l’OMC, signé en 2001 avec enthousiasme par 141 pays au prétexte de « faire une pause » ?

Il faut observer ces jours-ci les réactions sur les réseaux sociaux à la mise en œuvre d’une loi qui renchérira les cours du transport de l’e-commerce, espérant ralentir Amazon et sauver les petits libraires. Au-delà, avoir des réserves à l’égard de ces services et les contraindre à adopter des règles complexes n’est en rien une garantie de préservation du « singularisme » européen. Le RGPD —le règlement européen sur les données personnelles— devrait à cet égard nous servir de leçon : loin de ralentir les grandes entreprises digitales, il leur a donné l’avantage. Celles-ci ont pu se mettre rapidement en conformité avec ce texte grâce à leurs immenses moyens, laissant loin derrière les plus petits acteurs se débattre dans le méandre technocratique ainsi créé.

Cette approche conservatrice est d’autant plus dommage que rien ne semble inexorable, bien au contraire. Car ces technologies numériques prennent tout le monde par surprise, y compris les plus avancés, à commencer par Google et Meta, qui bien que disposant de projets équivalents, voire supérieurs, semblent comme des lapins pris dans les phares d’une voiture vis-à-vis de chatGPT. La nature « rupturiste » de ce type de services (ils redéfinissent le cadre de jeu) permet à une nouvelle génération d’acteurs de profiter de ce nouveau cycle pour lancer leurs offres avec un grand potentiel de succès. L’opportunité peut être comparée à celle qu’a représentée l’émergence d’une grande technologie comme l’électricité ; pour l’instant, les gains de productivité potentiels sont hypothétiques, bien que vraisemblablement immenses.

Des gains de productivité massifs
Une situation qui reproduit ce que l’on observait en 1870, lorsque les critiques à l’électrification de l’éclairage de l’avenue de l’Opéra dénonçait une technologie sans avenir, dangereuse et socialement contestable pour mettre en danger le travail des allumeurs de réverbères. Pour l’instant, si les applications à base de Large Langage Model (LLM) semblent dominer, d’autres architectures d’IA vont envahir le monde industriel, le transport, la distribution, la médecine, etc. La nature systémique de l’IA, c’est à dire s’appliquant largement aux différentes activités de notre civilisation, est difficile à contester.

Des gains de productivité massifs et visibles sur le plan macroéconomique sont probablement sur le point de se manifester, avec leurs conséquences inéluctables sur l’emploi (dans un premier temps) et l’organisation sociale. Il est dans ce cadre important de noter que ces technologies d’IA arrivent à un moment particulier, celui d’une crise environnementale mondiale qui va nécessiter une coordination globale à l’échelle de l’humanité. En permettant d’amener les gains de productivité qui nous font défaut pour adresser ce défi au coût s’exprimant en milliers de milliards de dollars, elles pourraient éviter qu’il soit nécessaire de fortement réduire nos ressources individuelles pour répondre à ce défi.

Non seulement ces technologies pourraient nous permettre de produire plus en travaillant moins, mais elles pourraient directement avoir une forte contribution dans les sujets de décarbonation et de préservation de l’environnement, faisant ainsi mentir les décroissants les plus affirmés. Il serait aisément possible d’aller de l’avant à quelques conditions toutefois.

Des années durant le World Economic Forum a classé la France comme l’un des pays les plus pessimistes au monde : recréer une foi commune dans le progrès passe par une meilleure éducation et une meilleure compréhension des enjeux scientifiques et technologiques, qui sera déterminant pour embrasser ces technologies avec recul et raison. Un défi à l’échelle d’une génération, mais qui ne place pas la France dans une posture idéale à l’instant où le monde accélère.

Les pays qui devraient bénéficier de cette transition schumpétérienne pourraient être ceux qui seront les plus capables d’articuler régulation et innovation. Avoir un droit social qui protège autant le spécialiste en intelligence artificielle (dont le métier ne sera pas menacé avant longtemps) que le traducteur ou le journaliste n’a pas de sens dans un contexte d’accélération de l’histoire. Il faut avoir à l’esprit qu’une faible régulation sociale durant la majorité du XIXe siècle, lorsque les gains de productivité croissaient fortement a abouti a une exploitation inégalée du prolétariat, qui ne cessera que lorsque des droits sociaux et spécifiques à chaque branche seront mis en place, le plus souvent de façon impérative. Enfin cette régulation devra nécessairement être plus technologique, c’est-à-dire rentrer dans le détail des algorithmes, des biais qu’ils induisent…

IA et climat, une chance pour la France
Le statut des technologies d’IA est provisoire : l’absence de sources, souvent dénoncé, par exemple, peut être résolu, en fournissant des connecteurs qui permettent d’accéder aux contenus qui ont permis d’aboutir aux attendus fournis par la machine, en organisant une qualification des sources qui alimentent l’IA, etc. De surcroît, de nombreux champs de recherche vont permettre des innovations au potentiel important, comme l’IA symbolique (un domaine faiblement exploité) qui permettrait de mieux piloter les règles appliquées à ces machines. Investir largement ces technologies ne peut qu’être au bénéfice des nations qui le feront de façon massive.

Le croisement de l’IA et des métiers l’environnement offre des perspectives ébouriffantes, et représente un terrain où la France pourrait se spécialiser plus qu’aucun autre pays, disposant déjà de nombreux leaders dans ce dernier domaine. Qu’en conclure ? En premier lieu que rien n’est joué, mais que le protectionnisme moral et économique ne marchera pas. Il faut donc à la fois rentrer dans la danse, mais également interpréter l’aria à notre façon. En étant un pays où l’expertise de recherche en IA est l’une des meilleures au monde, un pays qui connait un frémissement dans le secteur technologique et qui dispose d’une forte expertise dans les métiers de l’environnement, il existe une opportunité unique. À nous de la saisir.

Intelligence artificielle et emploi ?

Intelligence artificielle et emploi ?

Un papier de Gilles Babinet dans la Tribune évoque l’interaction entre intelligence artificielle, emploi et productivité. Un papier qui se veut optimiste si on sait utiliser toutes les potentialités de l’IA et réguler cette véritable révolution technologique. Un papier qui cependant demeure relativement général , théorique et un peu confus , ce qui peut s’expliquer par une technologie tout juste naissante dont il est difficile de prévoir les développements et les conséquences NDLR.

La France ne doit pas suivre la CNIL italienne qui a la première posé le débat sur l’interdiction de ChatGPT; Etant un pays où l’expertise de recherche en IA est l’une des meilleures au monde, il existe une opportunité unique de développer de nouveaux business, notamment en lien avec le climat.
d’après Gilles Babinet

Dans une interview récente, l’activiste Tristan Harris révélait que plus de 10% des chercheurs en IA estiment que celle-ci pourrait sonner le glas de l’humanité. Plus récemment une pétition, signée par plus de mille personnalités, invitait les principales plateformes d’intelligence artificielle avancée à mettre leurs développements sur pause. De nombreux penseurs ou polémistes, comme Gaspard Koenig, l’Israélien Yuval Harari… nous mettent en garde contre les risques de dévoiement de notre civilisation si nous ne réagissons pas rapidement. Et dernièrement, c’est la CNIL italienne qui a « interdit » ChatGPT.

Il y a effectivement lieu de se préoccuper : dès aujourd’hui, cybercrimes, extorsions effectuées à l’aide de vidéos postiches faites avec de l’IA, influence politique à renfort d’images saisissantes de réalisme, mais pour autant fausses sont en explosion. L’émotion prend de surcroit le dessus et notre capacité à vérifier l’information est fortement altérée ; loin est le temps où un éditeur faisait revoir chaque citation d’un journaliste pour s’assurer de la véracité de ce qui était publié. La profusion de contenus a mis à bas la valeur de cette pratique.

La vérité est en danger. On peut ainsi frémir en se remémorant l’une des hypothèses du paradoxe de Fermi : si les extraterrestres ne sont pas déjà là, c’est qu’ils pourraient s’être autodétruits au fur et à mesure qu’ils en sont venus à maîtriser des technologies de plus en plus sophistiquées.

En France, où le conservatisme technologique reste marqué (songeons aux réactions contre le compteur Linky, la 5G, l’importance du décroissantisme…), les critiques visent de surcroît le mercantilisme qui oriente ces technologies. Et il est vrai que l’inquiétude est légitime.

« Nous sommes une entreprise sans but lucratif œuvrant au loin des enjeux de performance financière, pour le bien de l’ensemble de l’humanité », affirmait OpenAI.

Rien de tout cela n’est resté vrai. C’est désormais une entreprise privée, ne publiant plus son code informatique et dont les préoccupations sont plus de répondre aux demandes de son client Microsoft : accélérer le temps de réponse, voir identifier une façon d’insérer de la publicité dans ses « prompts »…

Ces critiques font donc du sens, mais elles s’inscrivent dans un contexte mondialisé, ce qui limite immensément notre capacité à autonomiser le destin des nations. Tout le monde souhaite l’avènement d’une technologie informationnelle européenne, mais concrètement, qui est prêt à se passer des services numériques américains ? Quel est le pouvoir politique prêt à subir l’opprobre du citoyen-consommateur lorsqu’on aura interdit ChatGTP, Bing-Microsoft, Google-Bard et consort ? Qui est prêt à discriminer -c’est à dire bloquer- les adresses IP de ces services, au risque d’être accusé d’autoritarisme de la part d’associations à l’avant-garde des libertés numériques ? Qui est prêt à remettre en cause le volet services des accords de l’OMC, signé en 2001 avec enthousiasme par 141 pays au prétexte de « faire une pause » ?

Il faut observer ces jours-ci les réactions sur les réseaux sociaux à la mise en œuvre d’une loi qui renchérira les cours du transport de l’e-commerce, espérant ralentir Amazon et sauver les petits libraires. Au-delà, avoir des réserves à l’égard de ces services et les contraindre à adopter des règles complexes n’est en rien une garantie de préservation du « singularisme » européen. Le RGPD —le règlement européen sur les données personnelles— devrait à cet égard nous servir de leçon : loin de ralentir les grandes entreprises digitales, il leur a donné l’avantage. Celles-ci ont pu se mettre rapidement en conformité avec ce texte grâce à leurs immenses moyens, laissant loin derrière les plus petits acteurs se débattre dans le méandre technocratique ainsi créé.

Cette approche conservatrice est d’autant plus dommage que rien ne semble inexorable, bien au contraire. Car ces technologies numériques prennent tout le monde par surprise, y compris les plus avancés, à commencer par Google et Meta, qui bien que disposant de projets équivalents, voire supérieurs, semblent comme des lapins pris dans les phares d’une voiture vis-à-vis de chatGPT. La nature « rupturiste » de ce type de services (ils redéfinissent le cadre de jeu) permet à une nouvelle génération d’acteurs de profiter de ce nouveau cycle pour lancer leurs offres avec un grand potentiel de succès. L’opportunité peut être comparée à celle qu’a représentée l’émergence d’une grande technologie comme l’électricité ; pour l’instant, les gains de productivité potentiels sont hypothétiques, bien que vraisemblablement immenses.

Des gains de productivité massifs
Une situation qui reproduit ce que l’on observait en 1870, lorsque les critiques à l’électrification de l’éclairage de l’avenue de l’Opéra dénonçait une technologie sans avenir, dangereuse et socialement contestable pour mettre en danger le travail des allumeurs de réverbères. Pour l’instant, si les applications à base de Large Langage Model (LLM) semblent dominer, d’autres architectures d’IA vont envahir le monde industriel, le transport, la distribution, la médecine, etc. La nature systémique de l’IA, c’est à dire s’appliquant largement aux différentes activités de notre civilisation, est difficile à contester.

Des gains de productivité massifs et visibles sur le plan macroéconomique sont probablement sur le point de se manifester, avec leurs conséquences inéluctables sur l’emploi (dans un premier temps) et l’organisation sociale. Il est dans ce cadre important de noter que ces technologies d’IA arrivent à un moment particulier, celui d’une crise environnementale mondiale qui va nécessiter une coordination globale à l’échelle de l’humanité. En permettant d’amener les gains de productivité qui nous font défaut pour adresser ce défi au coût s’exprimant en milliers de milliards de dollars, elles pourraient éviter qu’il soit nécessaire de fortement réduire nos ressources individuelles pour répondre à ce défi.

Non seulement ces technologies pourraient nous permettre de produire plus en travaillant moins, mais elles pourraient directement avoir une forte contribution dans les sujets de décarbonation et de préservation de l’environnement, faisant ainsi mentir les décroissants les plus affirmés. Il serait aisément possible d’aller de l’avant à quelques conditions toutefois.

Des années durant le World Economic Forum a classé la France comme l’un des pays les plus pessimistes au monde : recréer une foi commune dans le progrès passe par une meilleure éducation et une meilleure compréhension des enjeux scientifiques et technologiques, qui sera déterminant pour embrasser ces technologies avec recul et raison. Un défi à l’échelle d’une génération, mais qui ne place pas la France dans une posture idéale à l’instant où le monde accélère.

Les pays qui devraient bénéficier de cette transition schumpétérienne pourraient être ceux qui seront les plus capables d’articuler régulation et innovation. Avoir un droit social qui protège autant le spécialiste en intelligence artificielle (dont le métier ne sera pas menacé avant longtemps) que le traducteur ou le journaliste n’a pas de sens dans un contexte d’accélération de l’histoire. Il faut avoir à l’esprit qu’une faible régulation sociale durant la majorité du XIXe siècle, lorsque les gains de productivité croissaient fortement a abouti a une exploitation inégalée du prolétariat, qui ne cessera que lorsque des droits sociaux et spécifiques à chaque branche seront mis en place, le plus souvent de façon impérative. Enfin cette régulation devra nécessairement être plus technologique, c’est-à-dire rentrer dans le détail des algorithmes, des biais qu’ils induisent…

IA et climat, une chance pour la France
Le statut des technologies d’IA est provisoire : l’absence de sources, souvent dénoncé, par exemple, peut être résolu, en fournissant des connecteurs qui permettent d’accéder aux contenus qui ont permis d’aboutir aux attendus fournis par la machine, en organisant une qualification des sources qui alimentent l’IA, etc. De surcroît, de nombreux champs de recherche vont permettre des innovations au potentiel important, comme l’IA symbolique (un domaine faiblement exploité) qui permettrait de mieux piloter les règles appliquées à ces machines. Investir largement ces technologies ne peut qu’être au bénéfice des nations qui le feront de façon massive.

Le croisement de l’IA et des métiers l’environnement offre des perspectives ébouriffantes, et représente un terrain où la France pourrait se spécialiser plus qu’aucun autre pays, disposant déjà de nombreux leaders dans ce dernier domaine. Qu’en conclure ? En premier lieu que rien n’est joué, mais que le protectionnisme moral et économique ne marchera pas. Il faut donc à la fois rentrer dans la danse, mais également interpréter l’aria à notre façon. En étant un pays où l’expertise de recherche en IA est l’une des meilleures au monde, un pays qui connait un frémissement dans le secteur technologique et qui dispose d’une forte expertise dans les métiers de l’environnement, il existe une opportunité unique. À nous de la saisir.

12345...11



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol