Archive pour le Tag 'générative'

IA générative de Google dans Apple

IA générative de Google dans Apple

Apple envisage un accord avec Google pour intégrer sur ses smartphones le puissant système d’intelligence artificielle interactive de ce dernier, Gemini AI, a rapporté lundi Bloomberg News.

 

Apple cherche à s’associer à Google pour la mise à jour de la nouvelle version de son système d’exploitation iOS, qui sera probablement présent sur son prochain iPhone, attendu plus tard cette année.

Apple et Google sont déjà engagés dans un partenariat sur un moteur de recherche. Aux termes de cet accord, Google paye des milliards de dollars chaque année à Apple pour donner au moteur de recherche une place de choix sur l’iPhone.

 

IA générative : positive pour la croissance ?

IA générative :  positive  pour la croissance ?

Une annonce tout à fait hypothétique : la quantification de l’effet positif de l’intelligence artificielle sur l’économie. D’après un rapport officiel diffusé par l’Elysée, l’intelligence artificielle pourrait générer des gains de croissance de 10 à 15 % d’ici une vingtaine d’années. Des chiffres très discutables. La première raison, c’est qu’on mélange l’intelligence artificielle générative des autres formes d’intelligence artificielle qui déjà automatise les processus de production et de distribution. D’une certaine manière, l’intelligence artificielle est mise à toutes les sauces sans doute par effet de mode. Ce qui est sûr, c’est que l’intelligence artificielle tout court va continuer de se développer et est déjà largement à l’œuvre. Il faudra toutefois faire le moment venu un bilan pertinent des pertes et des créations d’emplois notamment dans les services qui seront largement affectés.
Essayer de quantifier les effets de l’intelligence artificielle sur la croissance relève de la recherche dans le marc de café. On pourrait tout aussi bien annoncer que l’intelligence artificielle va détruire 100 milliards  ou au contraire augmenter de à 600 milliards le PIB.Ce qu’on peut dire avec une certaine certitude c’est que l’intelligence artificielle va continuer de pénétrer l’économie et qu’il faut continuer de s’y préparer avec la formation et les investissements. Tout le reste relève de la spéculation

D’après l’Élysée, le rapport du comité interministériel sur l’intelligence artificielle générative prévoit un effet positif de l’IA sur l’économie française dès 2030, avec une hausse de PIB entre 250 milliards d’euros et 400 milliards. Ce texte sera rendu public demain, à la suite d’une remise officielle au président Emmanuel Macron.

Co-directeur du comité avec la chercheuse Anne Bouverot, l’économiste Philippe Aghion va présenter dans le rapport des « chiffres inédits sur le potentiel de création de valeur de l’IA », dixit l’Elysée. Le constat y serait au beau fixe : les effets positifs de l’IA générative sur l’emploi devraient largement dépasser les effets négatifs. Tout un chapitre est d’ailleurs dédié à la thématique « IA créatrice ou destructrice d’emploi ». « Le rapport évoque une hausse du PIB potentielle de 250 à 400 milliards d’euros grâce à l’IA à l’horizon 2030 », chiffre la présidence. Pour rappel, le PIB se situait à 2.640 milliards d’euros en 2022.

 

 

 

Intelligence artificielle générative et désinformation

Intelligence artificielle générative et désinformation

Les progrès récents de l’intelligence artificielle générative (ces outils qui permettent de produire du texte, du son, des images ou des vidéos de manière complètement automatique) font craindre un regain de fausses informations. Cette crainte est exacerbée par le fait que de très nombreuses élections vont avoir lieu dans les mois à venir, à commencer par les élections européennes. Qu’en est-il vraiment ?

Par   DR CNRS, École normale supérieure (ENS) – PSL

Il faut déjà observer que, même si l’idée que l’IA générative est une source de danger en matière de désinformation est largement répandue, le point de vue opposé existe aussi. Ainsi, pour les chercheurs Simon, Altay et Mercier, l’arrivée des systèmes génératifs ne change pas fondamentalement la donne, ni sur le plan qualitatif, ni sur le plan quantitatif.

Ils remarquent que les sources d’information traditionnelles continuent d’occuper le haut du pavé (la grande majorité des gens s’informent à travers les médias traditionnels, qui gardent un pouvoir d’influence supérieur). Le public qui s’informe à partir de médias alternatifs et qui « consomme » des fausses informations est, selon eux, déjà abreuvé de telles sources et ne recherche pas tant une information précise que des informations qui confirment leurs idées (fondées sur une méfiance généralisée vis-à-vis des politiques et des médias).

Leur étude contredit le point de vue courant, voyant dans l’IA une source de danger majeure pour la démocratie. Elle repose sur des enquêtes qui montrent effectivement le poids de l’idéologie en matière de consommation d’information (on est orienté en fonction de son idéologie quand on s’informe, et un biais classique consiste à vouloir confirmer ce que l’on croit, quand plusieurs interprétations d’un événement sont possibles).

Il semble que l’augmentation des capacités de production de texte ne soit pas l’élément essentiel : c’est la capacité à diffuser l’information qui joue un rôle majeur. C’est aussi vrai pour les images et les vidéos, mais l’IA générative semble quand même ici créer une vraie rupture. La prise en main d’un outil comme Photoshop est longue et complexe ; à l’inverse, des outils d’IA comme Dall-e et Midjourney pour l’image, ou Sora pour la vidéo, permettent de générer des contenus réalistes à partir de quelques mots clés seulement, et on connaît le poids de l’image dans l’information. La possibilité de créer automatiquement de fausses vidéos avec la voix, et même le mouvement des lèvres rendu de façon hyper réaliste, crée aussi un état de fait nouveau, qui n’était pas imaginable il y a encore quelques mois.

Notons enfin que les outils de détection de documents générés par IA sont très imparfaits et aucune solution ne permet à l’heure actuelle de déterminer à 100 % si un document est d’origine humaine ou non. Le marquage automatique (watermarking, code indétectable à l’œil nu, mais indiquant qu’un document a été généré par une IA) pourra aider, mais il y aura bien évidemment toujours des groupes capables de produire des fichiers sans marquage, à côté des grosses plates-formes ayant pignon sur rue (il s’agit de procédés qui ne sont pas encore mis en œuvre à large échelle, mais qui pourraient l’être avec l’évolution de la législation).

Mais, au-delà, l’argumentaire montre surtout que ce n’est pas l’IA le point essentiel dans ce problème, mais une question avant tout humaine et sociale. La consommation de fausses informations est souvent motivée par des sentiments d’opposition envers les institutions et les corps sociaux établis, perçus comme ayant failli dans leur mission. La crise du Covid en a fourni une illustration récente, avec l’émergence rapide de figures très médiatisées, en opposition frontale et systématique avec les mesures proposées, et très soutenues par leurs supporters sur les médias sociaux.

Pour de nombreux individus, la propagation et la consommation de fausses informations sont un moyen de remettre en question l’autorité et de s’opposer au statu quo. En ralliant ceux qui partagent des points de vue similaires, la diffusion de fausses informations peut également servir à créer un sentiment d’appartenance et de solidarité au sein de groupes qui s’opposent au pouvoir en place. Dans ce contexte, la désinformation devient un outil pour la construction de communautés unies par des valeurs ou des objectifs communs, renforçant ainsi leur cohésion et leur résilience face aux structures de pouvoir établies. Cette dynamique entraîne donc une polarisation accrue et des divisions au sein de la société, c’est même un objectif quasi revendiqué de certains émetteurs de fausses informations, qui ne s’en cachent pas.

La propagation de la désinformation est donc favorisée par les « fractures de la société » où les divisions sociales, politiques et économiques sont prononcées (phénomène largement étudié par Jérôme Fourquet ; Ipsos mène aussi régulièrement des enquêtes sur ce thème).

Dans ces contextes, les individus peuvent être plus enclins à croire et à propager des théories du complot, des rumeurs et des fausses informations qui correspondent à leurs préjugés, à leurs craintes ou à leurs frustrations. Une société fragmentée est caractérisée par un manque de confiance mutuelle et une polarisation croissante, ce qui crée un terrain fertile pour la propagation de la désinformation. La cohésion sociale et la confiance mutuelle jouent un rôle crucial dans la prévention de la propagation de la désinformation et dans le maintien de la santé démocratique d’une société.

Le facteur humain est enfin important dans la production de fausses informations. Les « bots » automatiques produisant en masse du texte ont une influence quasi nulle (sinon pour noyer l’information au sein d’une masse de textes). On sous-estime souvent le facteur humain, qui reste indispensable pour produire de contenu qui aura un impact, même pour de fausses informations. La découverte encore récente de réseaux efficaces, mais usant de méthodes relativement rudimentaires en est la preuve.

Le problème de la désinformation dépasse donc largement le cadre de l’IA générative ou même celui de quelques individus isolés. Il est largement alimenté par des organisations puissantes, souvent dotées de ressources quasi étatiques, qui déploient des moyens importants pour propager de fausses informations à grande échelle (par exemple l’Internet Research Agency basée à Saint-Pétersbourg).

Ces organisations mettent en place des réseaux comprenant des sites web, une forte présence sur les réseaux sociaux, des bots automatisés, mais impliquent aussi des individus réels, soudoyés ou non, chargés de relayer ces informations trompeuses (on voit donc ainsi que le réseau de propagation de l’information a autant sinon plus d’importance que la production de contenu en elle-même). Cette stratégie de désinformation vise à influencer l’opinion publique, à semer la confusion et à manipuler les processus démocratiques, mettant ainsi en péril la confiance dans les institutions et la crédibilité des élections.

Pour contrer efficacement ce phénomène, il est crucial de prendre des mesures à la fois techniques, politiques et sociales pour identifier, contrer et sensibiliser le public à la désinformation orchestrée à grande échelle. Les plates-formes en ligne sont particulièrement sollicitées.

La stratégie de propagation de fausses nouvelles poursuit un double objectif, ce qui représente un double écueil pour les institutions établies. En effet, en diffusant des informations erronées, non seulement on pollue le débat public en semant la confusion et en brouillant les pistes de la vérité, mais on nourrit également un climat général de méfiance envers toute forme d’autorité et d’information « officielle ». Les autorités en place, déjà sujettes à un fort discrédit et perçues comme étant en situation de faiblesse, peinent à réagir de manière efficace face à cette prolifération de désinformation. Le doute généralisé quant à leur capacité à agir avec transparence et impartialité renforce l’impression que leurs actions pourraient être motivées par des intérêts cachés. Ainsi, les institutions en place se retrouvent prises au piège d’un cercle vicieux où leur crédibilité est constamment remise en question, les rendant d’autant plus vulnérables face aux attaques orchestrées par ceux qui cherchent à déstabiliser l’ordre établi.

L’enjeu est donc de protéger la liberté d’opinion et la liberté d’information, tout en luttant contre la propagation de fausses informations qui peuvent nuire au fonctionnement démocratique. Cette frontière entre ces principes fondamentaux est souvent difficile à tracer, et les autorités doivent jongler avec ces enjeux complexes. Dans certains cas jugés flagrants, des mesures ont été prises pour contrer les tentatives de manipulation de l’opinion publique et de déstabilisation des processus démocratiques. Des chaînes de télévision comme RT, soupçonnées d’être sous l’influence russe, ont été fermées. Des personnalités politiques ont été interrogées en raison de soupçons de corruption et d’influence étrangère. De même, les réseaux sociaux sont étroitement surveillés, et des comptes ou des réseaux liés à des puissances étrangères ont été fermés. Ces mesures visent à protéger l’intégrité des processus démocratiques et à préserver la confiance du public dans les institutions, tout en préservant les principes fondamentaux de liberté et de pluralisme. Cependant, trouver un équilibre juste entre la protection contre la désinformation et le respect des libertés individuelles demeure un défi constant dans les sociétés démocratiques.

Effets de L’IA générative : positifs sur la croissance ?

Effets de L’IA générative :  positifs sur la croissance ?

Une annonce tout à fait hypothétique : la quantification de l’effet positif de l’intelligence artificielle sur l’économie. D’après un rapport officiel diffusé par l’Elysée, l’intelligence artificielle pourrait générer des gains de croissance de 10 à 15 % d’ici une vingtaine d’années. Des chiffres très discutables. La première raison c’est qu’on mélange l’intelligence artificielle générative des autres formes d’intelligence artificielle qui déjà automatise les processus de production et de distribution. D’une certaine manière, l’intelligence artificielle est mise à toutes les sauces sans doute par effet de mode. Ce qui est sûr, c’est que l’intelligence artificielle tout court va continuer de se développer et est déjà largement à l’œuvre.Il faudra toutefois faire le moment venu un bilan pertinent des pertes et des créations d’emplois notamment dans les services qui seront largement affectés.Essayer de quantifier les effets de l’intelligence artificielle sur la croissance relève de la recherche dans le marc de café. On pourrait tout aussi bien annoncer que l’intelligence artificielle va détruire 100 milliards s ou au contraire augmenter de à 600 milliards le PIB.

Ce qu’on peut dire avec une certaine certitude c’est que l’intelligence artificielle va continuer de pénétrer l’économie et qu’il faut continuer de s’y préparer avec la formation et les investissements. Tout le reste relève de la spéculation

D’après l’Élysée, le rapport du comité interministériel sur l’intelligence artificielle générative prévoit un effet positif de l’IA sur l’économie française dès 2030, avec une hausse de PIB entre 250 milliards d’euros et 400 milliards. Ce texte sera rendu public demain, à la suite d’une remise officielle au président Emmanuel Macron.

Co-directeur du comité avec la chercheuse Anne Bouverot, l’économiste Philippe Aghion va présenter dans le rapport des « chiffres inédits sur le potentiel de création de valeur de l’IA », dixit l’Elysée. Le constat y serait au beau fixe : les effets positifs de l’IA générative sur l’emploi devraient largement dépasser les effets négatifs. Tout un chapitre est d’ailleurs dédié à la thématique « IA créatrice ou destructrice d’emploi ». « Le rapport évoque une hausse du PIB potentielle de 250 à 400 milliards d’euros grâce à l’IA à l’horizon 2030 », chiffre la présidence. Pour rappel, le PIB se situait à 2.640 milliards d’euros en 2022.

 

 

 

L’IA générative : Un effet positif sur la croissance ?

L’IA générative : Un effet positif sur la croissance ?

Une annonce tout à fait hypothétique : la quantification de l’effet positif de l’intelligence artificielle sur l’économie. D’après un rapport officiel, l’intelligence artificielle pourrait générer des gains de croissance de 10 à 15 % d’ici une vingtaine d’années. Des chiffres très discutables. La première raison c’est qu’on mélange l’intelligence artificielle générative des autres formes d’intelligence artificielle qui déjà automatise les processus de production et de distribution. D’une certaine manière, l’intelligence artificielle émise à toutes les sauces sans doute par effet de mode. Ce qui est sûr, c’est que l’intelligence artificielle tout court va continuer de se développer et est déjà largement à l’œuvre.Il faudra toutefois faire le moment venu un bilan pertinent des pertes et des créations d’emplois notamment dans les services qui seront largement affectés.

Essayer de quantifier les effets de l’intelligence artificielle sur la croissance relève de la recherche dans le marc de café. On pourrait tout aussi bien annoncer que l’intelligence artificielle va détruire 100 milliards s ou au contraire augmenter de à 600 milliards le PIB.

Ce qu’on peut dire avec une certaine certitude c’est que l’intelligence artificielle va continuer de pénétrer l’économie et qu’il faut continuer de s’y préparer avec la formation et les investissements. Tout le reste relève de la spéculation

D’après l’Élysée, le rapport du comité interministériel sur l’intelligence artificielle générative prévoit un effet positif de l’IA sur l’économie française dès 2030, avec une hausse de PIB entre 250 milliards d’euros et 400 milliards. Ce texte sera rendu public demain, à la suite d’une remise officielle au président Emmanuel Macron.

Co-directeur du comité avec la chercheuse Anne Bouverot, l’économiste Philippe Aghion va présenter dans le rapport des « chiffres inédits sur le potentiel de création de valeur de l’IA », dixit l’Elysée. Le constat y serait au beau fixe : les effets positifs de l’IA générative sur l’emploi devraient largement dépasser les effets négatifs. Tout un chapitre est d’ailleurs dédié à la thématique « IA créatrice ou destructrice d’emploi ». « Le rapport évoque une hausse du PIB potentielle de 250 à 400 milliards d’euros grâce à l’IA à l’horizon 2030 », chiffre la présidence. Pour rappel, le PIB se situait à 2.640 milliards d’euros en 2022.

 

 

 

L’IA générative et désinformation

L’IA générative et désinformation

 

Les progrès récents de l’intelligence artificielle générative (ces outils qui permettent de produire du texte, du son, des images ou des vidéos de manière complètement automatique) font craindre un regain de fausses informations. Cette crainte est exacerbée par le fait que de très nombreuses élections vont avoir lieu dans les mois à venir, à commencer par les élections européennes. Qu’en est-il vraiment ?

Par   DR CNRS, École normale supérieure (ENS) – PSL

Il faut déjà observer que, même si l’idée que l’IA générative est une source de danger en matière de désinformation est largement répandue, le point de vue opposé existe aussi. Ainsi, pour les chercheurs Simon, Altay et Mercier, l’arrivée des systèmes génératifs ne change pas fondamentalement la donne, ni sur le plan qualitatif, ni sur le plan quantitatif.

Ils remarquent que les sources d’information traditionnelles continuent d’occuper le haut du pavé (la grande majorité des gens s’informent à travers les médias traditionnels, qui gardent un pouvoir d’influence supérieur). Le public qui s’informe à partir de médias alternatifs et qui « consomme » des fausses informations est, selon eux, déjà abreuvé de telles sources et ne recherche pas tant une information précise que des informations qui confirment leurs idées (fondées sur une méfiance généralisée vis-à-vis des politiques et des médias).

Leur étude contredit le point de vue courant, voyant dans l’IA une source de danger majeure pour la démocratie. Elle repose sur des enquêtes qui montrent effectivement le poids de l’idéologie en matière de consommation d’information (on est orienté en fonction de son idéologie quand on s’informe, et un biais classique consiste à vouloir confirmer ce que l’on croit, quand plusieurs interprétations d’un événement sont possibles).

Il semble que l’augmentation des capacités de production de texte ne soit pas l’élément essentiel : c’est la capacité à diffuser l’information qui joue un rôle majeur. C’est aussi vrai pour les images et les vidéos, mais l’IA générative semble quand même ici créer une vraie rupture. La prise en main d’un outil comme Photoshop est longue et complexe ; à l’inverse, des outils d’IA comme Dall-e et Midjourney pour l’image, ou Sora pour la vidéo, permettent de générer des contenus réalistes à partir de quelques mots clés seulement, et on connaît le poids de l’image dans l’information. La possibilité de créer automatiquement de fausses vidéos avec la voix, et même le mouvement des lèvres rendu de façon hyper réaliste, crée aussi un état de fait nouveau, qui n’était pas imaginable il y a encore quelques mois.

Notons enfin que les outils de détection de documents générés par IA sont très imparfaits et aucune solution ne permet à l’heure actuelle de déterminer à 100 % si un document est d’origine humaine ou non. Le marquage automatique (watermarking, code indétectable à l’œil nu, mais indiquant qu’un document a été généré par une IA) pourra aider, mais il y aura bien évidemment toujours des groupes capables de produire des fichiers sans marquage, à côté des grosses plates-formes ayant pignon sur rue (il s’agit de procédés qui ne sont pas encore mis en œuvre à large échelle, mais qui pourraient l’être avec l’évolution de la législation).

Mais, au-delà, l’argumentaire montre surtout que ce n’est pas l’IA le point essentiel dans ce problème, mais une question avant tout humaine et sociale. La consommation de fausses informations est souvent motivée par des sentiments d’opposition envers les institutions et les corps sociaux établis, perçus comme ayant failli dans leur mission. La crise du Covid en a fourni une illustration récente, avec l’émergence rapide de figures très médiatisées, en opposition frontale et systématique avec les mesures proposées, et très soutenues par leurs supporters sur les médias sociaux.

Pour de nombreux individus, la propagation et la consommation de fausses informations sont un moyen de remettre en question l’autorité et de s’opposer au statu quo. En ralliant ceux qui partagent des points de vue similaires, la diffusion de fausses informations peut également servir à créer un sentiment d’appartenance et de solidarité au sein de groupes qui s’opposent au pouvoir en place. Dans ce contexte, la désinformation devient un outil pour la construction de communautés unies par des valeurs ou des objectifs communs, renforçant ainsi leur cohésion et leur résilience face aux structures de pouvoir établies. Cette dynamique entraîne donc une polarisation accrue et des divisions au sein de la société, c’est même un objectif quasi revendiqué de certains émetteurs de fausses informations, qui ne s’en cachent pas.

La propagation de la désinformation est donc favorisée par les « fractures de la société » où les divisions sociales, politiques et économiques sont prononcées (phénomène largement étudié par Jérôme Fourquet ; Ipsos mène aussi régulièrement des enquêtes sur ce thème).

Dans ces contextes, les individus peuvent être plus enclins à croire et à propager des théories du complot, des rumeurs et des fausses informations qui correspondent à leurs préjugés, à leurs craintes ou à leurs frustrations. Une société fragmentée est caractérisée par un manque de confiance mutuelle et une polarisation croissante, ce qui crée un terrain fertile pour la propagation de la désinformation. La cohésion sociale et la confiance mutuelle jouent un rôle crucial dans la prévention de la propagation de la désinformation et dans le maintien de la santé démocratique d’une société.

Le facteur humain est enfin important dans la production de fausses informations. Les « bots » automatiques produisant en masse du texte ont une influence quasi nulle (sinon pour noyer l’information au sein d’une masse de textes). On sous-estime souvent le facteur humain, qui reste indispensable pour produire de contenu qui aura un impact, même pour de fausses informations. La découverte encore récente de réseaux efficaces, mais usant de méthodes relativement rudimentaires en est la preuve.

Le problème de la désinformation dépasse donc largement le cadre de l’IA générative ou même celui de quelques individus isolés. Il est largement alimenté par des organisations puissantes, souvent dotées de ressources quasi étatiques, qui déploient des moyens importants pour propager de fausses informations à grande échelle (par exemple l’Internet Research Agency basée à Saint-Pétersbourg).

Ces organisations mettent en place des réseaux comprenant des sites web, une forte présence sur les réseaux sociaux, des bots automatisés, mais impliquent aussi des individus réels, soudoyés ou non, chargés de relayer ces informations trompeuses (on voit donc ainsi que le réseau de propagation de l’information a autant sinon plus d’importance que la production de contenu en elle-même). Cette stratégie de désinformation vise à influencer l’opinion publique, à semer la confusion et à manipuler les processus démocratiques, mettant ainsi en péril la confiance dans les institutions et la crédibilité des élections.

Pour contrer efficacement ce phénomène, il est crucial de prendre des mesures à la fois techniques, politiques et sociales pour identifier, contrer et sensibiliser le public à la désinformation orchestrée à grande échelle. Les plates-formes en ligne sont particulièrement sollicitées.

La stratégie de propagation de fausses nouvelles poursuit un double objectif, ce qui représente un double écueil pour les institutions établies. En effet, en diffusant des informations erronées, non seulement on pollue le débat public en semant la confusion et en brouillant les pistes de la vérité, mais on nourrit également un climat général de méfiance envers toute forme d’autorité et d’information « officielle ». Les autorités en place, déjà sujettes à un fort discrédit et perçues comme étant en situation de faiblesse, peinent à réagir de manière efficace face à cette prolifération de désinformation. Le doute généralisé quant à leur capacité à agir avec transparence et impartialité renforce l’impression que leurs actions pourraient être motivées par des intérêts cachés. Ainsi, les institutions en place se retrouvent prises au piège d’un cercle vicieux où leur crédibilité est constamment remise en question, les rendant d’autant plus vulnérables face aux attaques orchestrées par ceux qui cherchent à déstabiliser l’ordre établi.

L’enjeu est donc de protéger la liberté d’opinion et la liberté d’information, tout en luttant contre la propagation de fausses informations qui peuvent nuire au fonctionnement démocratique. Cette frontière entre ces principes fondamentaux est souvent difficile à tracer, et les autorités doivent jongler avec ces enjeux complexes. Dans certains cas jugés flagrants, des mesures ont été prises pour contrer les tentatives de manipulation de l’opinion publique et de déstabilisation des processus démocratiques. Des chaînes de télévision comme RT, soupçonnées d’être sous l’influence russe, ont été fermées. Des personnalités politiques ont été interrogées en raison de soupçons de corruption et d’influence étrangère. De même, les réseaux sociaux sont étroitement surveillés, et des comptes ou des réseaux liés à des puissances étrangères ont été fermés. Ces mesures visent à protéger l’intégrité des processus démocratiques et à préserver la confiance du public dans les institutions, tout en préservant les principes fondamentaux de liberté et de pluralisme. Cependant, trouver un équilibre juste entre la protection contre la désinformation et le respect des libertés individuelles demeure un défi constant dans les sociétés démocratiques.

L’IA générative et la désinformation

L’IA générative et la  désinformation  

Les progrès récents de l’intelligence artificielle générative (ces outils qui permettent de produire du texte, du son, des images ou des vidéos de manière complètement automatique) font craindre un regain de fausses informations. Cette crainte est exacerbée par le fait que de très nombreuses élections vont avoir lieu dans les mois à venir, à commencer par les élections européennes. Qu’en est-il vraiment ?

 

par

Thierry Poibeau, École normale supérieure (ENS) – PSL dans The Conversation 

Il faut déjà observer que, même si l’idée que l’IA générative est une source de danger en matière de désinformation est largement répandue, le point de vue opposé existe aussi. Ainsi, pour les chercheurs Simon, Altay et Mercier, l’arrivée des systèmes génératifs ne change pas fondamentalement la donne, ni sur le plan qualitatif, ni sur le plan quantitatif.

Ils remarquent que les sources d’information traditionnelles continuent d’occuper le haut du pavé (la grande majorité des gens s’informent à travers les médias traditionnels, qui gardent un pouvoir d’influence supérieur). Le public qui s’informe à partir de médias alternatifs et qui « consomme » des fausses informations est, selon eux, déjà abreuvé de telles sources et ne recherche pas tant une information précise que des informations qui confirment leurs idées (fondée sur une méfiance généralisée vis-à-vis des politiques et des médias).

Leur étude contredit le point de vue courant, voyant dans l’IA une source de danger majeure pour la démocratie. Elle repose sur des enquêtes qui montrent effectivement le poids de l’idéologie en matière de consommation d’information (on est orienté en fonction de son idéologie quand on s’informe, et un biais classique consiste à vouloir confirmer ce que l’on croit, quand plusieurs interprétations d’un événement sont possibles).

Il semble que l’augmentation des capacités de production de texte ne soit pas l’élément essentiel : c’est la capacité à diffuser l’information qui joue un rôle majeur. C’est aussi vrai pour les images et les vidéos, mais l’IA générative semble quand même ici créer une vraie rupture. La prise en main d’un outil comme Photoshop est longue et complexe ; à l’inverse, des outils d’IA comme Dall-e et Midjourney pour l’image, ou Sora pour la vidéo, permettent de générer des contenus réalistes à partir de quelques mots clés seulement, et on connaît le poids de l’image dans l’information. La possibilité de créer automatiquement de fausses vidéos avec la voix, et même le mouvement des lèvres rendu de façon hyper réaliste, crée aussi un état de fait nouveau, qui n’était pas imaginable il y a encore quelques mois.

Notons enfin que les outils de détection de documents généras par IA sont très imparfaits et aucune solution ne permet à l’heure actuelle de déterminer à 100 % si un document est d’origine humaine ou non. Le marquage automatique (watermarking, code indétectable à l’œil nu, mais indiquant qu’un document a été généré par une IA) pourra aider, mais il y aura bien évidemment toujours des groupes capables de produire des fichiers sans marquage, à côté des grosses plates-formes ayant pignon sur rue (il s’agit de procédés qui ne sont pas encore mis en œuvre à large échelle, mais qui pourraient l’être avec l’évolution de la législation).

Mais, au-delà, l’argumentaire montre surtout que ce n’est pas l’IA le point essentiel dans ce problème, mais une question avant tout humaine et sociale. La consommation de fausses informations est souvent motivée par des sentiments d’opposition envers les institutions et les corps sociaux établis, perçus comme ayant failli dans leur mission. La crise du Covid en a fourni une illustration récente, avec l’émergence rapide de figures très médiatisées, en opposition frontale et systématique avec les mesures proposées, et très soutenues par leurs supporters sur les médias sociaux.

Pour de nombreux individus, la propagation et la consommation de fausses informations sont un moyen de remettre en question l’autorité et de s’opposer au statu quo. En ralliant ceux qui partagent des points de vue similaires, la diffusion de fausses informations peut également servir à créer un sentiment d’appartenance et de solidarité au sein de groupes qui s’opposent au pouvoir en place. Dans ce contexte, la désinformation devient un outil pour la construction de communautés unies par des valeurs ou des objectifs communs, renforçant ainsi leur cohésion et leur résilience face aux structures de pouvoir établies. Cette dynamique entraîne donc une polarisation accrue et des divisions au sein de la société, c’est même un objectif quasi revendiqué de certains émetteurs de fausses informations, qui ne s’en cachent pas.

La propagation de la désinformation est donc favorisée par les « factures de la société » où les divisions sociales, politiques et économiques sont prononcées (phénomène largement étudié par Jérôme Fourquet ; Ipsos mène aussi régulièrement des enquêtes sur ce thème).

Dans ces contextes, les individus peuvent être plus enclins à croire et à propager des théories du complot, des rumeurs et des fausses informations qui correspondent à leurs préjugés, à leurs craintes ou à leurs frustrations. Une société fragmentée est caractérisée par un manque de confiance mutuelle et une polarisation croissante, ce qui crée un terrain fertile pour la propagation de la désinformation. La cohésion sociale et la confiance mutuelle jouent un rôle crucial dans la prévention de la propagation de la désinformation et dans le maintien de la santé démocratique d’une société.

Le facteur humain est enfin important dans la production de fausses informations. Les « bots » automatiques produisant en masse du texte ont une influence quasi nulle (sinon pour noyer l’information au sein d’une masse de textes). On sous-estime souvent le facteur humain, qui reste indispensable pour produire de contenu qui aura un impact, même pour de fausses informations. La découverte encore récente de réseaux efficaces, mais usant de méthodes relativement rudimentaires en est la preuve.

Le problème de la désinformation dépasse donc largement le cadre de l’IA générative ou même celui de quelques individus isolés. Il est largement alimenté par des organisations puissantes, souvent dotées de ressources quasi étatiques, qui déploient des moyens importants pour propager de fausses informations à grande échelle (par exemple l’Internet Research Agency basée à Saint-Pétersbourg).

Ces organisations mettent en place des réseaux comprenant des sites web, une forte présence sur les réseaux sociaux, des bots automatisés, mais impliquent aussi des individus réels, soudoyés ou non, chargés de relayer ces informations trompeuses (on voit donc ainsi que le réseau de propagation de l’information a autant sinon plus d’importance que la production de contenu en elle-même). Cette stratégie de désinformation vise à influencer l’opinion publique, à semer la confusion et à manipuler les processus démocratiques, mettant ainsi en péril la confiance dans les institutions et la crédibilité des élections.

Pour contrer efficacement ce phénomène, il est crucial de prendre des mesures à la fois techniques, politiques et sociales pour identifier, contrer et sensibiliser le public à la désinformation orchestrée à grande échelle. Les plates-formes en ligne sont particulièrement sollicitées.

La stratégie de propagation de fausses nouvelles poursuit un double objectif, ce qui représente un double écueil pour les institutions établies. En effet, en diffusant des informations erronées, non seulement on pollue le débat public en semant la confusion et en brouillant les pistes de la vérité, mais on nourrit également un climat général de méfiance envers toute forme d’autorité et d’information « officielle ». Les autorités en place, déjà sujettes à un fort discrédit et perçues comme étant en situation de faiblesse, peinent à réagir de manière efficace face à cette prolifération de désinformation. Le doute généralisé quant à leur capacité à agir avec transparence et impartialité renforce l’impression que leurs actions pourraient être motivées par des intérêts cachés. Ainsi, les institutions en place se retrouvent prises au piège d’un cercle vicieux où leur crédibilité est constamment remise en question, les rendant d’autant plus vulnérables face aux attaques orchestrées par ceux qui cherchent à déstabiliser l’ordre établi.

L’enjeu est donc de protéger la liberté d’opinion et la liberté d’information, tout en luttant contre la propagation de fausses informations qui peuvent nuire au fonctionnement démocratique. Cette frontière entre ces principes fondamentaux est souvent difficile à tracer, et les autorités doivent jongler avec ces enjeux complexes. Dans certains cas jugés flagrants, des mesures ont été prises pour contrer les tentatives de manipulation de l’opinion publique et de déstabilisation des processus démocratiques. Des chaînes de télévision comme RT, soupçonnées d’être sous l’influence russe, ont été fermées. Des personnalités politiques ont été interrogées en raison de soupçons de corruption et d’influence étrangère. De même, les réseaux sociaux sont étroitement surveillés, et des comptes ou des réseaux liés à des puissances étrangères ont été fermés. Ces mesures visent à protéger l’intégrité des processus démocratiques et à préserver la confiance du public dans les institutions, tout en préservant les principes fondamentaux de liberté et de pluralisme. Cependant, trouver un équilibre juste entre la protection contre la désinformation et le respect des libertés individuelles demeure un défi constant dans les sociétés démocratiques.

 

L’Intelligence artificielle générative

On définit l’intelligence artificielle comme la conception de programmes informatiques capables d’accomplir des tâches impliquant normalement l’intelligence humaine (tout ce qui se rapporte à la parole, à l’analyse d’images, à l’élaboration de stratégie dans des jeux, etc.).
Des progrès récents ont été faits dans la production de textes, d’images, de vidéos ou de musique. On parle alors d’intelligence artificielle générative (AIG) car les programmes informatiques liés (et les algorithmes, c’est-à-dire les suites d’instructions derrière les programmes) « génèrent » du texte, des images ou du son.

par Thierry Poibeau
DR CNRS, École normale supérieure (ENS) – PSL dans The Conversation

Il n’y a pas d’opposition stricte entre intelligence artificielle (IA) et intelligence artificielle générative (IAG) car il a existé des systèmes capables de produire du texte ou des images presque depuis les débuts de l’IA (ou, à tout le moins, des recherches sur ces thèmes). La nouveauté principale est la qualité, la diversité et plus globalement le réalisme des résultats obtenus avec les systèmes récents (textes pertinents et cohérents, images plus vraies que nature, etc.).

Des analyses de qualité et sans publicité, chaque jour dans vos mails.
Cette brusque amélioration est due à plusieurs éléments. Le premier point, essentiel, est l’accès à des ensembles de données gigantesques (des milliards de textes ou d’images, par exemple) qui permettent aux systèmes d’avoir des montagnes d’exemples pour produire de nouveaux textes ou images réalistes, sans être simplement des copies de données existantes.

Pour le reste, on dispose aujourd’hui, d’une part, de l’augmentation astronomique de la puissance de calcul des ordinateurs (grâce aux puces de type GPU, qui permettent de faire extrêmement rapidement les calculs à la base des techniques utilisées pour ce type de système), de l’autre de nouveaux algorithmes (dits d’apprentissage profond), qui permettent une analyse très fine des données observées, de les comparer et de les combiner pour produire des contenus nouveaux.

Ces systèmes peuvent ensuite être spécialisés par rapport à des tâches précises. Par exemple, un outil comme ChatGPT peut répondre de façon précise à des questions tout-venant : il s’agit donc toujours de générer du texte, mais de le faire de façon pertinente en fonction d’une question posée (ce qu’on appelle parfois le prompt). Le générateur de texte brut est le modèle GPT, et celui-ci est encapsulé dans un autre modèle gérant le dialogue, pour former l’application ChatGPT.

Le réalisme des résultats a impressionné ces dernières années. C’est aussi un des problèmes majeurs que posent ces techniques : à partir du moment où les textes, les images et les vidéos peuvent être confondus avec la réalité, l’intelligence artificielle générative (AGI) pose d’importantes questions pratiques et éthiques. Elle peut être une source majeure de désinformation (de production de fake news) par exemple.

Une solution parfois proposée est de marquer automatiquement (en anglais « watermark ») les textes ou les images produites par des IA, mais il y aura toujours des systèmes pouvant produire des sorties non estampillées. La régulation de ce type de systèmes est une question ouverte à l’heure actuelle.

Enfin, on entend aussi parler de beaucoup de types d’IA, qui peuvent se recouper ou non, comme l’IA prédictive ou l’IA créative. Le terme IA créative (qui recouvre, en gros, l’IAG) est à éviter car les IA ne font que modifier et recombiner des fragments (de texte ou d’image) existants. L’IA prédictive est une IA plus classique, visant à évaluer la probabilité qu’un événement se produise (un crime à tel endroit par exemple). S’il peut y avoir des similarités avec l’intelligence artificielle générative (AIG) au niveau des méthodes employées, la finalité des deux types de systèmes n’est généralement pas la même.

IA Générative: Ouvert à tous chez Microsoft

IA Générative: Ouvert à tous chez Microsoft

Microsoft lance une version grand public à 20 dollars par mois .
Premier outil d’IA générative déployé en masse par Microsoft, Copilot a le potentiel pour dépasser ChatGPT et ses 100 millions d’utilisateurs hebdomadaires, puisqu’il va pouvoir s’appuyer sur le réservoir de plus de 345 millions d’abonnés payants de la suite 365.

Copilot est lié à la suite 365 et dispose donc de tout un contexte spécifique lié aux différents documents présents sur le compte de l’utilisateur. En revanche, il nécessite l’abonnement au logiciel de Microsoft.

Avec cette nouvelle mise à jour, Microsoft permet aussi aux utilisateurs de Copilot d’intégrer (et bientôt, de créer) des « Copilot GPTs », autrement dit des versions spécifiques de l’assistant Par type d’activité ou de thème.

Par exemple, un GPT peut être dédié au sport, au voyage ou encore à la cuisine. Les utilisateurs se trouvent ainsi en face d’un interlocuteur plus expert, sans avoir à donner tout un contexte à leur assistant au moment de poser leur question. OpenAI a tout juste déployé ce système la semaine dernière, et voilà déjà son miroir chez Microsoft…

Avec sa puissance commercial, Microsoft pourrait étouffer OpenAI, dont il a enfin réussi à infiltrer la gouvernance suite à la crise Altman fin 2023.

Copilot 365 pourrait donc rapporter des dizaines de milliards de chiffre d’affaires par an supplémentaires à l’entreprise, et ce, même si elle ne convertit qu’une partie de sa clientèle.

Société- L’IA générative : danger civilisationnel

Société- L’IA générative : danger civilisationnel (Eric Sadin, philosophe)

Face au constat d’une régulation qui n’est « pas à la hauteur des enjeux » pour nous protéger des dérives des technologies, le philosophe Éric Sadin appelle les citoyens à s’unir pour refuser l’IA générative, perçue comme un « danger civilisationnel ».(Interview dans « La tribune »)

Dans votre nouveau livre, La Vie spectrale, vous qualifiez l’irruption de l’IA générative de « séisme planétaire » et de « mutation civilisationnelle ». A ce point ?

ERIC SADIN – Nous avons affaire à une bascule anthropologique. Depuis une quinzaine d’années, l’intelligence artificielle était essentiellement une puissance organisationnelle de pans toujours plus étendus des affaires humaines. Depuis l’arrivée de ChatGPT, il y a un an, un nouveau palier a été franchi, que j’appelle le « tournant intellectuel et créatif des IA ». Il faut prendre la mesure de ce qu’il se passe. En créant elles-mêmes des contenus à partir de simples instructions appelées des « prompts », les IA génératives assurent désormais des tâches qui jusque-là mobilisaient nos facultés intellectuelles et créatives, en maîtrisant le langage et en produisant des images et des sons. Soit des productions symboliques qui nous caractérisent en propre. En cela, il s’agit d’une mutation culturelle et civilisationnelle majeure. Or, elle est présentée sous les oripeaux d’un simple outil de productivité, comme quelque chose de « cool » et d’utile. Sauf qu’au-delà d’un rapport strictement utilitariste à ces technologies, nous ne savons pas envisager l’étendue des conséquences civilisationnelles qui pointent. Saisissons-nous, par exemple, que nos enfants nous diront bientôt : « Pourquoi aller à l’école, apprendre la grammaire, lire des œuvres, si un système produit du texte d’une simple commande de notre part ? »

Les gains de productivité et la simplification de certaines tâches permises par les IA génératives cachent-ils leur véritable nature ?

Oui. L’utilitarisme et la quête éperdue de productivité à l’œuvre depuis plus d’un siècle dans nos sociétés, ont abouti à ce qu’on accueille avec enthousiasme, voire admiration, un outil qui nous amène au fur et à mesure à renoncer à nos facultés humaines les plus fondamentales.

Je pense que les démocraties se seraient honorées à fixer d’entrée de jeu une ligne rouge. Dire « non, l’IA générative va trop loin ». La première réaction de l’Italie a par ailleurs été d’interdire ChatGPT, mais pour des seules raisons de protection de données personnelles, et aucunement en raison de l’ampleur des effets annoncés sur nos sociétés.

Rapidement, les sceptiques sont vite rentrés dans le rang car il y a aujourd’hui un biais dans notre conception du monde, qui est la place occupée par l’industrie du numérique. L’innovation, le franchissement de nouvelles frontières technologiques, représentent l’horizon lumineux de notre temps. L’idéologie de la Silicon Valley et sa doxa techno-solutionniste, empêchent de penser que ce qui est technologiquement possible n’est pas forcément souhaitable. À cet égard, un tabou est à l’œuvre : celui d’interdire, de dire non à des systèmes qui font offense à ce qui nous constitue en propre et qui bafouent nos principes les plus fondamentaux.

N‘est-ce pas le rôle de la régulation d’empêcher les dérives de la technologie et de limiter ses usages ?

La régulation n’est en aucune manière à la hauteur des enjeux. Elle donne l’illusion de détenir un pouvoir contraignant sur les grandes entreprises qui imposent ces outils. Sauf qu’en réalité, son but consiste avant tout à ne pas entraver le développement technologique, entendu comme le cours inéluctable de l’Histoire et porteur de gisements intarissables de richesses. Réguler, aujourd’hui, c’est installer quelques garde-fous de pure circonstance, tels les fameux biais de l’IA par exemple, qui ne représentent que des enjeux secondaires. Car une fois la question des biais réglée, ce sera alors la porte ouverte à l’automatisation croissante des affaires humaines. L’éthique, c’est le grand bla-bla de la bonne conscience. Quand les gourous de l’industrie numérique, ou les ingénieurs de l’IA, alertent sur les dangers de systèmes qu’ils ont eux-mêmes créés pour leur propre profit, c’est risible. Qu’ont produit tous ces discours sur l’éthique ces quinze dernières années ? Rien de tangible, sinon l’illusion de témoigner de vigilance aux yeux du monde.

Car, à vrai dire, les termes de la régulation sont mal posés. Toujours selon l’équation avantages/risques. Celle-ci suppose que si l’on se penche sur les prétendus risques, alors ce sera ensuite le meilleur des mondes. La seule équation qui vaille est celle-ci : là où nous avons la main et là où nous n’avons pas la main. Or, avec la prolifération et la sophistication des IA, nous avons de moins en moins la main. Il s’agit là d’une question politico-juridique décisive et qui devrait pleinement nous mobiliser. Il est temps de passer de l’éthique à la morale, c’est-à-dire de travailler à une prise en compte du droit naturel. Soit les principes fondamentaux qui nous animent : la défense et la célébration de la dignité, de l’intégrité et de la liberté humaines, de l’expression de nos facultés, de l’intelligence, et du génie qui est logé en chacun d’entre nous. Autant de valeurs appelées à être mises en péril par les IA génératives. Aujourd’hui, nous vivons sous le règne du droit positif, c’est-à-dire que le droit, tel qu’envisagé par le législateur, ne tient compte que d’une seule perspective : le primat économique.

Vous dénonciez dès 2016, dans l’un de vos précédents ouvrages, ce que vous appeliez « la silicolonisation du monde ». L’IA générative, c’est l’étape d’après du techno-libéralisme venu de la Silicon Valley ?

Absolument. C’est la dernière frontière de l’automatisation sans cesse intensifiée du cours du monde. Ces IA génératives, comme Bing de Microsoft ou Bard de Google, produisent en outre un langage personnalisé, destiné à orienter nos comportements à des fins marchandes. Voit-on le projet de société ? Adosser continuellement notre quotidien au régime privé, tout en aggravant l’usage des écrans ! Quid de la gigantesque consommation énergétique qui découle de ces pratiques ? À cet égard, on ne peut pas affirmer ne plus prendre l’avion, par exemple, et utiliser ChatGPT. Car la conscience ne se divise pas !

Le paradoxe, c’est que les régulateurs et les mondes économique et politique embrassent ce processus d’automatisation alors qu’il porte en lui-même la destruction du tissu social. Par crainte de rater le virage, perçu comme indispensable, de l’IA générative, et sous prétexte que les États-Unis et la Chine s’y sont lancés à pleine vitesse, on est aveugles au fait que quantité de métiers à haute compétence cognitive sont mis en péril. La liste est longue : avocats, comptables, ressources humaines, métiers de la finance, développeurs, traducteurs, journalistes, photographes… Aujourd’hui, on se rassure en se disant que les IA manquent de fiabilité, font des hallucinations, manquent de transparence. Mais demain ? Nous allons vers des super-assistants personnels qui vont assurer un nombre sans cesse croissant de tâches cognitives à notre place.

On peut très bien imaginer que dans quelques années, au nom d’un ratio avantages/inconvénients favorable, notamment dans les déserts médicaux, l’OMS valide le principe qu’en première consultation, des IA remplacent des médecins généralistes en se basant sur des capteurs, notre dossier médical, la reconnaissance faciale etc.

Un ouragan va frapper les métiers à haute compétence cognitive, intellectuelle et créative. Or, ceux-ci sont vecteurs de sociabilité, de reconnaissance de soi, de plaisir à la tâche. Le travail représente le socle de notre vitalité, mais aussi de la paix sociale. Comment peut-on accepter que l’industrie du numérique, guidée par ses seuls intérêts, produise ainsi un tel séisme sur des activités humaines dans ce qu’elles ont de très nobles ?

Aux Etats-Unis, encadrer l’utilisation de l’IA par les studios d’Hollywood et protéger le travail des scénaristes et des acteurs, a été l’une des principales revendications de la grève historique de plus de 100 jours qui vient de se terminer. C’est cette forme de réveil que vous prônez ?

Ce mouvement donne de l’espoir et devrait nous inspirer. Les scénaristes et les acteurs ont perçu les dangers de l’IA générative et ont bien compris que la quête du profit des grandes plateformes comme Netflix ne pouvait aboutir qu’à une précarisation, voire à la disparition de leur métier. Ce fut un acte fort, car vu que la régulation se montre déficiente, les scénaristes ont décidé de faire jurisprudence en mettant sur la table les vrais sujets dont le régulateur n’a pas su se saisir. Et ils ont obtenu gain de cause. Pour ne pas assister passivement à la disparition de métiers à forte implication intellectuelle et créative, je pense que la meilleure stratégie serait de s’unir par corporation et ce, à l’échelle globale.

Hollywood a pavé le chemin de la mobilisation qui doit être menée. En outre, émerge un monde où on ne sait plus distinguer une photo d’actualité d’une production d’une IA. Ce qui ouvre grand la porte à la désinformation et tue le travail des photographes. La guerre Israël/Hamas en est déjà un exemple navrant. Il est temps de saisir – au-delà de notre penchant à l’utilitarisme et d’un court-termisme très coupables – l’étendue des gigantesques conséquences culturelles et civilisationnelles qui s’annoncent du fait de la généralisation des IA génératives. Et cela appelle nécessairement mobilisation et émergence de contre-pouvoirs à toutes les échelles de la société.

En quoi jugez-vous la destruction des métiers par l’IA générative différente des autres vagues de destructions de métiers liées à l’arrivée de nouvelles technologies depuis la révolution industrielle ?

Depuis la révolution industrielle au XVIIIème siècle, il s’est opéré un mouvement progressif de substitution de l’action humaine au profit de la machine. Deux siècles plus tard, au tournant des années 1980, ce processus connut un moment d’acmé lors de la robotisation des entreprises, particulièrement dans l’industrie automobile. Mais c’était généralement des métiers à haute pénibilité qui étaient concernés, ceux qui entraînaient des troubles musculo-squelettiques, des corps broyés, des travailleurs lessivés au moment de prendre leur retraite… On peut donc considérer que dans ces domaines, le processus d’automatisation recouvrait une dimension vertueuse.

Ce qui est à l’œuvre depuis une dizaine d’années et qui est amené à se renforcer à l’avenir, est différent. Les métiers visés sont ceux qui mobilisent nos facultés intellectuelles, pour lesquels il a fallu de longues études avant de les exercer. En outre, ils créent de l’estime de soi, de la reconnaissance par autrui et de la sociabilité. Est assénée la fable de la « complémentarité homme/machine ». La personne qui a inventé cette notion mérite le prix Nobel de la novlangue, car nous sommes arrivés au bout du concept de la destruction créatrice de Schumpeter, selon lequel la technologie créée autant voire davantage d’emplois qu’elle n’en détruit en premier lieu. Cette théorie trouve ses limites avec l’IA générative, car jamais dans l’Histoire une technologie n’a menacé autant d’emplois différents d’un coup.

Ne basculez-vous pas dans la peur de l’IA dite générale, c’est-à-dire capable de tout faire mieux que l’homme ?

L’enjeu qui, actuellement, nous fait face, concerne surtout l’énorme capacité de progression des IA génératives, et donc la puissance de son impact sur le travail, le tissu social et nos capacités intellectuelles et créatives. En cela, il nous revient, en ce moment de bascule, et de haute gravité, de nous demander ce que c’est qu’être humain. Quels sont au juste nos pouvoirs d’action et d’inventivité, à une époque où des technologies sont en mesure de prendre le relais – de façon infiniment plus rapide et prétendument plus fiable – de la quasi-totalité de nos facultés cognitives ? Que nous reste-t-il dans un monde où ce qui nous constitue en propre et, au premier chef, l’usage du langage, est appelé à être toujours plus assuré par des intelligences artificielles ? L’être humain se sublime dans la contrainte et l’effort, mais prendra-t-on encore la peine d’apprendre des langues, de se confronter à l’autre, quand l’IA nous promet de tout nous apporter sur un plateau ? Notre malheur, c’est qu’on est incapables d’avoir une vision des choses au-delà de notre présent immédiat. Or, je vous le dis : le sempiternel primat économique et le court-termisme nous mènent au désert de nous-mêmes.

L’IA générative : danger civilisationnel (Eric Sadin, philosophe)

L’IA générative : danger civilisationnel (Eric Sadin, philosophe)

Face au constat d’une régulation qui n’est « pas à la hauteur des enjeux » pour nous protéger des dérives des technologies, le philosophe Éric Sadin appelle les citoyens à s’unir pour refuser l’IA générative, perçue comme un « danger civilisationnel ».(Interview dans « La tribune »)

Dans votre nouveau livre, La Vie spectrale, vous qualifiez l’irruption de l’IA générative de « séisme planétaire » et de « mutation civilisationnelle ». A ce point ?

ERIC SADIN – Nous avons affaire à une bascule anthropologique. Depuis une quinzaine d’années, l’intelligence artificielle était essentiellement une puissance organisationnelle de pans toujours plus étendus des affaires humaines. Depuis l’arrivée de ChatGPT, il y a un an, un nouveau palier a été franchi, que j’appelle le « tournant intellectuel et créatif des IA ». Il faut prendre la mesure de ce qu’il se passe. En créant elles-mêmes des contenus à partir de simples instructions appelées des « prompts », les IA génératives assurent désormais des tâches qui jusque-là mobilisaient nos facultés intellectuelles et créatives, en maîtrisant le langage et en produisant des images et des sons. Soit des productions symboliques qui nous caractérisent en propre. En cela, il s’agit d’une mutation culturelle et civilisationnelle majeure. Or, elle est présentée sous les oripeaux d’un simple outil de productivité, comme quelque chose de « cool » et d’utile. Sauf qu’au-delà d’un rapport strictement utilitariste à ces technologies, nous ne savons pas envisager l’étendue des conséquences civilisationnelles qui pointent. Saisissons-nous, par exemple, que nos enfants nous diront bientôt : « Pourquoi aller à l’école, apprendre la grammaire, lire des œuvres, si un système produit du texte d’une simple commande de notre part ? »

Les gains de productivité et la simplification de certaines tâches permises par les IA génératives cachent-ils leur véritable nature ?

Oui. L’utilitarisme et la quête éperdue de productivité à l’œuvre depuis plus d’un siècle dans nos sociétés, ont abouti à ce qu’on accueille avec enthousiasme, voire admiration, un outil qui nous amène au fur et à mesure à renoncer à nos facultés humaines les plus fondamentales.

Je pense que les démocraties se seraient honorées à fixer d’entrée de jeu une ligne rouge. Dire « non, l’IA générative va trop loin ». La première réaction de l’Italie a par ailleurs été d’interdire ChatGPT, mais pour des seules raisons de protection de données personnelles, et aucunement en raison de l’ampleur des effets annoncés sur nos sociétés.

Rapidement, les sceptiques sont vite rentrés dans le rang car il y a aujourd’hui un biais dans notre conception du monde, qui est la place occupée par l’industrie du numérique. L’innovation, le franchissement de nouvelles frontières technologiques, représentent l’horizon lumineux de notre temps. L’idéologie de la Silicon Valley et sa doxa techno-solutionniste, empêchent de penser que ce qui est technologiquement possible n’est pas forcément souhaitable. À cet égard, un tabou est à l’œuvre : celui d’interdire, de dire non à des systèmes qui font offense à ce qui nous constitue en propre et qui bafouent nos principes les plus fondamentaux.

N‘est-ce pas le rôle de la régulation d’empêcher les dérives de la technologie et de limiter ses usages ?

La régulation n’est en aucune manière à la hauteur des enjeux. Elle donne l’illusion de détenir un pouvoir contraignant sur les grandes entreprises qui imposent ces outils. Sauf qu’en réalité, son but consiste avant tout à ne pas entraver le développement technologique, entendu comme le cours inéluctable de l’Histoire et porteur de gisements intarissables de richesses. Réguler, aujourd’hui, c’est installer quelques garde-fous de pure circonstance, tels les fameux biais de l’IA par exemple, qui ne représentent que des enjeux secondaires. Car une fois la question des biais réglée, ce sera alors la porte ouverte à l’automatisation croissante des affaires humaines. L’éthique, c’est le grand bla-bla de la bonne conscience. Quand les gourous de l’industrie numérique, ou les ingénieurs de l’IA, alertent sur les dangers de systèmes qu’ils ont eux-mêmes créés pour leur propre profit, c’est risible. Qu’ont produit tous ces discours sur l’éthique ces quinze dernières années ? Rien de tangible, sinon l’illusion de témoigner de vigilance aux yeux du monde.

Car, à vrai dire, les termes de la régulation sont mal posés. Toujours selon l’équation avantages/risques. Celle-ci suppose que si l’on se penche sur les prétendus risques, alors ce sera ensuite le meilleur des mondes. La seule équation qui vaille est celle-ci : là où nous avons la main et là où nous n’avons pas la main. Or, avec la prolifération et la sophistication des IA, nous avons de moins en moins la main. Il s’agit là d’une question politico-juridique décisive et qui devrait pleinement nous mobiliser. Il est temps de passer de l’éthique à la morale, c’est-à-dire de travailler à une prise en compte du droit naturel. Soit les principes fondamentaux qui nous animent : la défense et la célébration de la dignité, de l’intégrité et de la liberté humaines, de l’expression de nos facultés, de l’intelligence, et du génie qui est logé en chacun d’entre nous. Autant de valeurs appelées à être mises en péril par les IA génératives. Aujourd’hui, nous vivons sous le règne du droit positif, c’est-à-dire que le droit, tel qu’envisagé par le législateur, ne tient compte que d’une seule perspective : le primat économique.

Vous dénonciez dès 2016, dans l’un de vos précédents ouvrages, ce que vous appeliez « la silicolonisation du monde ». L’IA générative, c’est l’étape d’après du techno-libéralisme venu de la Silicon Valley ?

Absolument. C’est la dernière frontière de l’automatisation sans cesse intensifiée du cours du monde. Ces IA génératives, comme Bing de Microsoft ou Bard de Google, produisent en outre un langage personnalisé, destiné à orienter nos comportements à des fins marchandes. Voit-on le projet de société ? Adosser continuellement notre quotidien au régime privé, tout en aggravant l’usage des écrans ! Quid de la gigantesque consommation énergétique qui découle de ces pratiques ? À cet égard, on ne peut pas affirmer ne plus prendre l’avion, par exemple, et utiliser ChatGPT. Car la conscience ne se divise pas !

Le paradoxe, c’est que les régulateurs et les mondes économique et politique embrassent ce processus d’automatisation alors qu’il porte en lui-même la destruction du tissu social. Par crainte de rater le virage, perçu comme indispensable, de l’IA générative, et sous prétexte que les États-Unis et la Chine s’y sont lancés à pleine vitesse, on est aveugles au fait que quantité de métiers à haute compétence cognitive sont mis en péril. La liste est longue : avocats, comptables, ressources humaines, métiers de la finance, développeurs, traducteurs, journalistes, photographes… Aujourd’hui, on se rassure en se disant que les IA manquent de fiabilité, font des hallucinations, manquent de transparence. Mais demain ? Nous allons vers des super-assistants personnels qui vont assurer un nombre sans cesse croissant de tâches cognitives à notre place.

On peut très bien imaginer que dans quelques années, au nom d’un ratio avantages/inconvénients favorable, notamment dans les déserts médicaux, l’OMS valide le principe qu’en première consultation, des IA remplacent des médecins généralistes en se basant sur des capteurs, notre dossier médical, la reconnaissance faciale etc.

Un ouragan va frapper les métiers à haute compétence cognitive, intellectuelle et créative. Or, ceux-ci sont vecteurs de sociabilité, de reconnaissance de soi, de plaisir à la tâche. Le travail représente le socle de notre vitalité, mais aussi de la paix sociale. Comment peut-on accepter que l’industrie du numérique, guidée par ses seuls intérêts, produise ainsi un tel séisme sur des activités humaines dans ce qu’elles ont de très nobles ?

Aux Etats-Unis, encadrer l’utilisation de l’IA par les studios d’Hollywood et protéger le travail des scénaristes et des acteurs, a été l’une des principales revendications de la grève historique de plus de 100 jours qui vient de se terminer. C’est cette forme de réveil que vous prônez ?

Ce mouvement donne de l’espoir et devrait nous inspirer. Les scénaristes et les acteurs ont perçu les dangers de l’IA générative et ont bien compris que la quête du profit des grandes plateformes comme Netflix ne pouvait aboutir qu’à une précarisation, voire à la disparition de leur métier. Ce fut un acte fort, car vu que la régulation se montre déficiente, les scénaristes ont décidé de faire jurisprudence en mettant sur la table les vrais sujets dont le régulateur n’a pas su se saisir. Et ils ont obtenu gain de cause. Pour ne pas assister passivement à la disparition de métiers à forte implication intellectuelle et créative, je pense que la meilleure stratégie serait de s’unir par corporation et ce, à l’échelle globale.

Hollywood a pavé le chemin de la mobilisation qui doit être menée. En outre, émerge un monde où on ne sait plus distinguer une photo d’actualité d’une production d’une IA. Ce qui ouvre grand la porte à la désinformation et tue le travail des photographes. La guerre Israël/Hamas en est déjà un exemple navrant. Il est temps de saisir – au-delà de notre penchant à l’utilitarisme et d’un court-termisme très coupables – l’étendue des gigantesques conséquences culturelles et civilisationnelles qui s’annoncent du fait de la généralisation des IA génératives. Et cela appelle nécessairement mobilisation et émergence de contre-pouvoirs à toutes les échelles de la société.

En quoi jugez-vous la destruction des métiers par l’IA générative différente des autres vagues de destructions de métiers liées à l’arrivée de nouvelles technologies depuis la révolution industrielle ?

Depuis la révolution industrielle au XVIIIème siècle, il s’est opéré un mouvement progressif de substitution de l’action humaine au profit de la machine. Deux siècles plus tard, au tournant des années 1980, ce processus connut un moment d’acmé lors de la robotisation des entreprises, particulièrement dans l’industrie automobile. Mais c’était généralement des métiers à haute pénibilité qui étaient concernés, ceux qui entraînaient des troubles musculo-squelettiques, des corps broyés, des travailleurs lessivés au moment de prendre leur retraite… On peut donc considérer que dans ces domaines, le processus d’automatisation recouvrait une dimension vertueuse.

Ce qui est à l’œuvre depuis une dizaine d’années et qui est amené à se renforcer à l’avenir, est différent. Les métiers visés sont ceux qui mobilisent nos facultés intellectuelles, pour lesquels il a fallu de longues études avant de les exercer. En outre, ils créent de l’estime de soi, de la reconnaissance par autrui et de la sociabilité. Est assénée la fable de la « complémentarité homme/machine ». La personne qui a inventé cette notion mérite le prix Nobel de la novlangue, car nous sommes arrivés au bout du concept de la destruction créatrice de Schumpeter, selon lequel la technologie créée autant voire davantage d’emplois qu’elle n’en détruit en premier lieu. Cette théorie trouve ses limites avec l’IA générative, car jamais dans l’Histoire une technologie n’a menacé autant d’emplois différents d’un coup.

Ne basculez-vous pas dans la peur de l’IA dite générale, c’est-à-dire capable de tout faire mieux que l’homme ?

L’enjeu qui, actuellement, nous fait face, concerne surtout l’énorme capacité de progression des IA génératives, et donc la puissance de son impact sur le travail, le tissu social et nos capacités intellectuelles et créatives. En cela, il nous revient, en ce moment de bascule, et de haute gravité, de nous demander ce que c’est qu’être humain. Quels sont au juste nos pouvoirs d’action et d’inventivité, à une époque où des technologies sont en mesure de prendre le relais – de façon infiniment plus rapide et prétendument plus fiable – de la quasi-totalité de nos facultés cognitives ? Que nous reste-t-il dans un monde où ce qui nous constitue en propre et, au premier chef, l’usage du langage, est appelé à être toujours plus assuré par des intelligences artificielles ? L’être humain se sublime dans la contrainte et l’effort, mais prendra-t-on encore la peine d’apprendre des langues, de se confronter à l’autre, quand l’IA nous promet de tout nous apporter sur un plateau ? Notre malheur, c’est qu’on est incapables d’avoir une vision des choses au-delà de notre présent immédiat. Or, je vous le dis : le sempiternel primat économique et le court-termisme nous mènent au désert de nous-mêmes.

 » Grok », IA générative anti ChatGPT d’Elon Musk

 » Grok », IA générative anti ChatGPT d’Elon Musk


Le patron de X (ex-Twitter)a longtemps demandé une sorte de pause à l’égard de l’intelligence artificielle générative pour officiellement en réguler le développement et ses excès. La vérité est différente car le patron de X (ex Twitter) était en retard par rapport à ses concurrents dans ce domaine et souhaitait donc une suspension pour les rattraper. Or aujourd’hui, il lance avec une certaine précipitation son propre modèle d’intelligence artificielle en plus gavé au fake news de X (ex Twitter) !

La régulation est en cours de réflexion aussi bien aux États-Unis qu’en Europe mais pendant ce temps-là, l’intelligence artificielle se développe. Du coup Musk est contraint de lancer avec une certaine précipitation son propre modèle d’IA générative. Le problème, c’est que les données seront surtout issues de X (ex Twitter) où foisonnent les fakes news.

On pourrait avoir des surprises assez extravagantes en interrogeant désormais le modèle d’intelligence artificielle d’Elon Musk.a révélé ce samedi le premier modèle d’intelligence artificielle générative de sa compagnie xAI. Baptisé Grok, ce ChatGPT muskien aura la particularité d’adorer les sarcasmes et d’utiliser les contenus issus du réseau social… alors que ce dernier se distingue depuis le rachat par le milliardaire comme un vivier inépuisable de fake news.

L’IA générative : défi pour l’Europe

L’IA générative : défi pour l’Europe

Le vieux Continent ne devrait pas se perdre dans les critiques des technologies émergentes comme ChatGPT, ni dans les inquiétudes démesurées comme le remplacement des humains par les automates.

Par Camille Fumard, auteur, et Luc Julia, spécialiste mondial de l’intelligence artificielle et actuel directeur scientifique de Renault. dans la Tribune

Ces derniers mois, la Silicon Valley semblait avoir perdu de sa superbe. Nous avions déjà imaginé la fin de l’idéologie californienne hybridant la culture hippies/yuppies mais aussi la fin d’un lieu « où les grandes idées rencontrent l’argent intelligent », comme aime à le décrire Bill Draper, de la famille Draper, l’une des plus connues dans le domaine du capital-risque mondial. Nous portions alors notre regard vers d’autres contrées telles que la Silicon Wadi (en Israël) ou encore Shenzhen (en Chine). La Silicon Valley, dernier lieu, peut-être, du thymos (l’amour-propre) occidental dont la foi profonde est placée dans le potentiel émancipateur de la technologie, tombait alors en disgrâce. Échec du métaverse, fraude hallucinante de FTX pour les cryptomonnaies, effondrement et faillites bancaires avec notamment la banque régionale des startups, la Silicon Valley Bank…

Et, pourtant ! La Silicon Valley en a vu d’autres et n’en est pas à sa première tempête. De la « dot-com bubble » en passant par la bulle des CleanTech de 2008, elle incarne aussi cette patrie de l’échec, véritable cimetière des innovations. C’est ce lieu des rêveries vulnérables où l’échec représente un passage presque obligé pour réussir. L’esprit de conquête, en référence à la conquête de l’ouest, n’a donc jamais quitté son théâtre de jeu. On le voit récemment avec l’intelligence artificielle (IA) générative. Cette dernière percée technologique des grands modèles linguistiques LLM (s’entraînant sur des trillions de mots) a pris d’assaut l’industrie entraînant une véritable euphorie chez les entrepreneurs et startupers mais aussi les capital-risqueurs. Ce marché devrait atteindre 1.304 milliards de dollars d’ici 2032, selon Bloomberg Intelligence.

La technologie de l’IA générative permet en effet des expériences comme l’écriture d’une semaine de code en quelques secondes ou la génération de conversations textuelles qui semblent encore plus empathiques que celles que nous avons avec les humains. Autrefois associée à l’or, au pétrole, puis au silicium, ou encore à Internet, et aujourd’hui à l’IA générative, la foi profonde dans le potentiel émancipateur de la technologie bat toujours son plein. Finalement, seuls les succès, ceux qui ont un impact énorme sur le réseau, sont retenus. Et, l’IA générative a déjà changé les plans d’affaires des concurrents et des investisseurs.

A cet égard, le vieux Continent ne devrait pas se perdre dans les critiques des technologies émergentes comme ChatGPT, ni dans les inquiétudes démesurées comme le remplacement des humains par les automates dans le monde du travail. Nous avons déjà connu deux cycles de panique liés au chômage dû à la technologie : la panique de l’externalisation dans les années 2000 et la panique de l’automatisation dans les années 2010 comme l’écrit Marc Andreessen, cofondateur et associé général de la société de capital-risque Andreessen

Horowitz, dans son texte « Pourquoi l’IA sauvera le monde ». Non, la technique appelle plutôt à être rationnel. Al Gore dans son célèbre discours de 1993 sur l’expansion d’un réseau informatique national l’avait, par exemple, déjà compris en posant l’expression des « autoroutes de l’information » en opposition à la vision utopique du cyberespace des années 90. L’IA générative n’en est qu’à ses débuts. Elle va traverser des étapes, des étapes toujours domptées par des ingénieurs et architectes du numérique, mais elle façonnera tous les aspects de nos vies. On devrait voir arriver des avancées comme le perfectionnement de la mémoire des LLMs avec des fenêtres contextuelles plus larges ou encore en matière d’interactivité avec l’intégration de modèles multimodaux permettant d’aller au-delà du langage. Ainsi, selon la courbe de Gartner, l’IA générative, qui traverse à une vitesse encore jamais vue la fameuse « Hype Cycle », devrait rapidement atteindre la phase de développement éclairé puis celle de d’adoption progressive.

Démythifier l’IA générative et son fonctionnement, c’est peut-être là que tout se joue aujourd’hui, surtout pour une Europe qui tend à freiner la technologie plutôt que ses usages (l’IA ACT étant le dernier exemple en date). Nous parlons encore de ces dispositifs comme d’un éther conscient qui nous entoure alors que les générations doivent comprendre que nous parlons en réalité de quelque chose que l’homme conçoit, fabrique et contrôle. Le vrai combat à mener pour l’avenir est la lutte contre l’ignorance et l’absence d’une solide compréhension citoyenne du fonctionnement de la tech. En effet, pour que la génération future puisse saisir pleinement les opportunités offertes par l’IA générative et relever les défis qu’elle présente, nous devons agir maintenant. L’IA Literacy, terme dérivé de la littératie numérique qui désigne la capacité d’un individu à comprendre et utiliser l’information au moyen des technologies, est l’une des clés essentielles pour affronter le monde du travail de demain, être un consommateur avisé et un citoyen responsable.

Nous devons donc initier d’urgence un vaste programme d’IA Literacy qui vise à inscrire dans les écoles, à l’université et dans les entreprises des programmes pour apprendre à connaître l’IA, ses aspects techniques, la façon dont elle perçoit le monde, collecte et traite les données. Ce vaste chantier éducatif permettra de former une génération éclairée capable de tempérer la perception souvent inexacte selon laquelle l’IA est une force infaillible et omnisciente mais aussi d’éclairer nos décisions. Une visée qui va d’ailleurs de pair avec un cadre réglementaire pour la gestion des risques liés à l’IA, un « code de conduite » international attaché à de grands principes généraux. « Le génie de l’IA est sorti de la bouteille », explique Cynthia Breazeal, professeur d’arts et de sciences des médias au Massachusetts Institute of Technology. Il ne s’agit pas seulement du domaine de l’informatique et du codage. Cela touche tous les aspects de la société. Savoir solliciter l’outil change la donne et offre des repères pour éviter d’être trompé ou lésé par un programme informatique. Les étudiants devront s’entraîner à obtenir les bonnes informations, à générer les bons prompts mais aussi à détecter les failles ou les biais induits par les machines, de la même manière que les générations précédentes ont appris le système de catalogue pour naviguer dans la bibliothèque.

En saisissant l’importance de l’IA literacy, nous pourrons enfin opérer un glissement sémantique pour parler « d’intelligence augmentée » en lieu et place « d’intelligence artificielle », sans perdre de vue que l’outil technique est là pour d’abord optimiser l’intelligence humaine. Espérons que le nouveau ministre de l’Éducation nationale, Gabriel Attal, et le ministre délégué de la Transition numérique, Jean-Noël Barrot, vont se charger de ce vaste chantier.




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol