Archive pour la Catégorie 'nouvelles technologies'

Page 4 sur 63

Nouvelles technologies : réguler plate-forme et IA

Nouvelles technologies : réguler plate-forme et IA

 

 
Marie-France Lavarini, présidente de MFL Conseil, Philippe Buisson, maire de Libourne, et Frédéric Compain, réalisateur, s’élèvent contre les risques de déstabilisation politique engendrés par l’intelligence artificielle. Ils estiment que la démocratie même est en danger.((dans la Tribune)

À l’heure de l’intelligence artificielle (IA), la concentration des pouvoirs entre les mains des Gafam – plus puissants que les États – est une menace pour nos libertés et la pluralité de l’information. La bataille peut-elle encore être gagnée à la veille d’enjeux importants pour notre pays comme les élections européennes et la présidentielle en 2027, qui constituent des cibles de choix ? Le danger qui pèse sur l’information nous concerne tous.

Les grandes plateformes permettent à n’importe qui de dire n’importe quoi. Elles détruisent l’un des principes de la démocratie, à savoir la responsabilité de la parole. Petit à petit, la mésinformation comme la désinformation gagnent une partie de la société et nous risquons un empoisonnement général. Une fausse information se diffuse six fois plus vite et plus loin qu’une vraie, c’est-à-dire fiable ou vérifiée.

Les réseaux sociaux ont instauré le règne illimité du mensonge, de l’ignorance ou de la posture. Dans l’écosystème du smartphone, ils sont plus performants que les médias, conduisant le public vers des contenus où l’algorithme a pris le pouvoir sur la hiérarchie de l’information. Ce sont donc bien les médias eux-mêmes qui sont en danger, les multinationales du numérique tuant à petit feu l’essence même du journalisme. Défendre les entreprises de presse, c’est défendre la démocratie.

Ce sont les médias eux-mêmes qui sont en danger. Défendre les entreprises de presse, c’est défendre la démocratie

L’intelligence artificielle est une technologie de rupture qui a ainsi le pouvoir de déstabiliser nos démocraties en permettant des campagnes de désinformation. De fausses vidéos – deepfake -, montées de toutes pièces, circulent aux États-Unis pour ridiculiser Joe Biden dans le contexte d’une bataille cruciale pour la démocratie américaine.

Les algorithmes des plateformes, en dictant une hiérarchie des messages fondée sur leur capacité à polariser les opinions, nourrissent les populismes. Nous assistons à une banalisation des punchlines, souvent extrêmes et démagogiques, donnant une vision du monde manichéenne et faisant de notre système d’information une machine à transformer en haine toutes les peurs, toutes les détresses. À ce jeu, les idées d’extrême droite se diffusent aisément, comme l’ont démontré des articles dénonçant les théoriciens du « combat culturel » mené par les sphères identitaires, avec la complicité assumée de certains médias.

Il est urgent de réguler les plateformes, les réseaux sociaux et l’IA. Garantissons une traçabilité des contenus générés par les logiciels, luttons efficacement contre tous les faussaires et toutes les faussetés. C’est la responsabilité du politique. Il faut se doter de tous les moyens pour mettre fin au désordre. Qu’en est-il de la loi de 2018 contre la manipulation de l’information à l’heure de l’intelligence artificielle ? Il est temps de ne plus considérer les plateformes comme de simples hébergeurs. Liberté doit rimer avec responsabilité.

Au niveau européen, l’AI Act porté par le commissaire au marché intérieur, Thierry Breton, vise à réguler l’usage de l’intelligence artificielle dans les États membres. Il vient d’être adopté par le Parlement de l’Union européenne. Pour autant, si cela constitue un net progrès, Reporters sans frontières regrette que ce texte fondateur néglige d’intégrer la protection du droit à l’information. Pour accompagner sa mise en œuvre, pour porter les enjeux du secteur, un ministre de plein exercice et – soyons fous – rattaché directement au Premier ministre ne serait pas un luxe. Ce n’est pas faire offense à la secrétaire d’État chargée du Numérique que de constater que celui-ci ne pèse pas dans l’échiquier gouvernemental. Nous sommes pourtant au cœur du régalien !

Alors que la communication ne figure plus dans le portefeuille de la ministre de la Culture, un strapontin rattaché à Bercy n’est pas à la hauteur des turbulences que nous allons affronter. Un ministre de plein exercice chargé du Numérique et de la Communication s’impose. Pas pour censurer ni pour contrôler, mais pour nous prémunir de la pire des sociétés et faire tout coexister : le numérique, l’IA et la démocratie.

Internet : 90 % des Français pour la suppression de l’anonymat des réseaux sociaux

Internet : 90 % des Français pour la suppression de l’anonymat des réseaux sociaux

Un sondage représentatif dévoile que près de neuf Français sur dix sont favorables à la levée de l’anonymat en ligne. Très concrètement, selon une enquête Harris Interactive pour l’Association de l’économie du numérique (Acsel), 87% des Français estiment que l’identité des personnes inscrites sur les réseaux sociaux devrait être vérifiée pour lutter contre les comportements inappropriés (cyberharcèlement, arnaques, fake news…) et 81% accepteraient que leur propre identité soit vérifiée. ( info La Tribune)

 

Le niveau de violence, de racisme, de sexisme, de harcèlement est bien supérieur sur les réseaux sociaux à ce qu’il est dans la vie physique. On s’y insulte à tout-va et cela finit trop souvent en drame : un jeune se suicide tous les quinze jours dans notre pays, à la suite de harcèlement scolaire et de cyberharcèlement. Sans même parler des arnaques en ligne qui explosent et des fake news qui pullulent. Sommes-nous tous devenus fous ? Non. Mais le sentiment d’anonymat sur les réseaux génère un sentiment d’impunité : il n’y a plus de limites pour certains. Ce phénomène est documenté par les scientifiques.

 

Sondage-Intelligence artificielle : une révolution à réguler

Sondage-Intelligence artificielle : une révolution à réguler 

Les applications d’intelligence artificielle (IA) sont une révolution technologique majeure pour l’humanité, pour six Français sur dix (61%), au même titre que l’a été l’invention de l’imprimerie par exemple. C’est ce qui ressort du Baromètre 2024 de l’esprit critique réalisé par OpinionWay pour Universcience publié jeudi 21 mars. Mais pour plus de huit Français sur dix (85%), il est nécessaire d’encadrer et de réglementer leur utilisation, car elles posent, pour les trois quarts des personnes interrogées (77%), de nouvelles questions éthiques et juridiques en matière de responsabilité et de droits. – (Franceinfo)

Sur les possibilités offertes par ces technologies, 68% des sondés estiment que les applications de l’IA ne peuvent pas prendre de décisions autonomes, puisqu’elles suivent des programmes informatiques définis. 59% des Français jugent qu’elles ne sont pas créatives et innovantes, car elles assemblent des contenus déjà existants. Selon cette enquête, seuls 19% des sondés les croient parfaitement fiables. Quant à savoir si les IA sont plus neutres que les humains, le panel étudié est plus divisé. 42% répondent que oui, elles sont plus neutres, quand 38% estiment qu’elles ne le sont pas.

Le sondage interroge également la vision qu’ont les Français sur les avantages et les risques liés à l’IA. Et ils restent assez partagés, estimant globalement qu’il y a autant de risques que d’avantages à utiliser ces applications. Dans le détail, c’est la perception du risque qui domine pour le domaine des relations humaines. 37% des Français ont ce sentiment, quand 31% estiment qu’il y a autant de risques que d’avantages à utiliser l’IA dans les relations humaines. 10% y voient essentiellement des avantages. Le risque de l’IA est également prédominant pour l’information (33%) et pour l’emploi (31%), même si 34% des sondés voient également autant de risques que d’avantages pour ces deux domaines.

La perception des Français est également très nuancée sur l’apport de l’IA pour la santé, la recherche, les sciences et les transports. Les applications ont autant de risques que d’avantages dans le domaine de la santé (35%), les sciences et la recherche scientifique (36%) et les transports (33%). Mais c’est sur ces trois domaines que les sondés voient le plus d’avantages. Ils sont 29% à percevoir cet avantage pour la santé, 28% pour les sciences et la recherche scientifique, et 26% pour les transports.

L’enquête révèle par ailleurs que les Français se fient majoritairement à l’intelligence artificielle pour détecter des erreurs dans des textes ou des programmes informatiques, pour 75% des sondés, analyser des grandes quantités de données (73%), trouver des informations (70%), approfondir ses connaissances (65%), ou même écrire un texte (64%). À l’inverse, ils sont plus méfiants quand la question de responsabilité entre en jeu. Seul un quart des personnes interrogées (25%) font confiance aux applications de l’IA pour rendre des décisions de justice. Ils sont 28% à assurer que l’IA peut piloter un avion en toute confiance, ou conduire une voiture (34%). Et ils sont 33% à avoir confiance dans l’IA pour prescrire des médicaments, ou pour réaliser un diagnostic médical (41%).

Enfin pour évaluer les risques et bénéfices de l’IA, les Français ont avant tout confiance dans les scientifiques, les musées et journalistes spécialisés. Les personnes interrogées pour le baromètre plébiscitent en priorité les scientifiques et les chercheurs en général (68%), les musées et centres de culture scientifique (59%) et les journalistes scientifiques (56%). Mais les sondés restent très méfiants envers les entreprises. Ils sont seulement 34% à leur faire confiance et même 29% pour les entreprises du numérique du type Gafam. La défiance envers les élus ou les représentants politique est également forte. Seuls 22% des Français leur font confiance pour évaluer les risques et bénéfices de l’IA. La cote de confiance des influenceurs et personnalités publiques est également basse, à 17%.

________________________________________

Le Baromètre 2024 de l’esprit critique réalisé par OpinionWay pour Universcience a été réalisé par un questionnaire en ligne du 31 janvier au 12 février, sur un échantillon de 2 004 personnes, représentatif de la population française âgée de 18 ans et plus.

voir les commentaires

Pa

Santé : les données françaises chez Microsoft

Santé : les données françaises chez Microsoft

Un groupement de 11 entreprises saisissent le Conseil d’État pour tenter de suspendre la décision de la Cnil, qui a autorisé l’hébergement des données de santé chez Microsoft.

 
Un groupement de 11 entreprises saisissent le Conseil d’État pour tenter de suspendre la décision de la Cnil, qui a autorisé l’hébergement des données de santé chez Microsoft.  Ce recours fait suite à une décision de la CNIL, datant du 21 décembre dernier. Le gendarme du numérique a autorisé le groupement d’intérêt public « Plateforme des données de santé » (Health Data Hub) à choisir Microsoft comme hébergeur de l’entrepôt de données EMC2.  Cela concernerait entre 300.000 et 600.000 patients.

Les plaignants reprochent à cette décision de valider le recours à une entreprise américaine, alors que la législation des États-Unis est en contradiction avec celle de l’Union Européenne concernant les données personnelles. Les serveurs de Microsoft Azure sont situés en Europe, mais l’entreprise dépend malgré tout de la juridiction américaine. Et notamment de la loi FISA (Foreign Intelligence Surveillance Act), qui autorise de fait la surveillance de masse au nom de la sécurité nationale.

Les industriels français affirment qu’ils peuvent répondre aux exigences du Health Data Hub
Par ailleurs, les industriels français reprochent au Health Data Hub de ne pas leur donner une chance, en leur préférant un acteur américain.

Une décision qui paraît également aberrante à Léonidas Kalogeropoulos, délégué général de l’OIP, alors que le discours ambiant consiste, dit-il, à évoquer sans cesse la souveraineté numérique et la réindustrialisation.

Mais seuls les fournisseurs cloud comme OVH et Scaleway auraient été consultés durant cette mission, avancent les plaignants.

IA générative de Google dans Apple

IA générative de Google dans Apple

Apple envisage un accord avec Google pour intégrer sur ses smartphones le puissant système d’intelligence artificielle interactive de ce dernier, Gemini AI, a rapporté lundi Bloomberg News.

 

Apple cherche à s’associer à Google pour la mise à jour de la nouvelle version de son système d’exploitation iOS, qui sera probablement présent sur son prochain iPhone, attendu plus tard cette année.

Apple et Google sont déjà engagés dans un partenariat sur un moteur de recherche. Aux termes de cet accord, Google paye des milliards de dollars chaque année à Apple pour donner au moteur de recherche une place de choix sur l’iPhone.

 

Nouvelle technologie-Intelligence artificielle : « risques majeurs pour l’humanité» ?

Nouvelle technologie-Intelligence artificielle : « risques majeurs pour l’humanité» ?


IA: Des conséquences bien sûr technologiques mais aussi sociales, économiques et même démocratiques. La technique pourrait bien échapper à ses créateurs faute de régulation.

Des centaines de chercheurs dans le monde demandent une peau concernant l’utilisation de l’intelligence artificielle en attendant sa régulation. «Ces derniers mois ont vu les laboratoires d’IA s’enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable», peut-on lire dans la tribune parue sur le site de la fondation américaine Future of Life.

«Les systèmes d’IA puissants ne devraient être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables.»

Les signataires réclament donc un moratoire jusqu’à la mise en place de systèmes de sécurité, dont de nouvelles autorités réglementaires dédiées, «la surveillance et le suivi des systèmes d’IA hautement performants», «un financement public robuste pour la recherche technique sur la sécurité de l’IA », «un écosystème robuste d’audit et de certification», des techniques pour aider à distinguer le réel de l’artificiel et des institutions capables de gérer les «perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA provoquera».

«Devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? », poursuivent les signataires. «Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus.» Parmi les applications de l’intelligence artificielle figurent en particulier la rapidité de développement de GPT.

IA générative : positive pour la croissance ?

IA générative :  positive  pour la croissance ?

Une annonce tout à fait hypothétique : la quantification de l’effet positif de l’intelligence artificielle sur l’économie. D’après un rapport officiel diffusé par l’Elysée, l’intelligence artificielle pourrait générer des gains de croissance de 10 à 15 % d’ici une vingtaine d’années. Des chiffres très discutables. La première raison, c’est qu’on mélange l’intelligence artificielle générative des autres formes d’intelligence artificielle qui déjà automatise les processus de production et de distribution. D’une certaine manière, l’intelligence artificielle est mise à toutes les sauces sans doute par effet de mode. Ce qui est sûr, c’est que l’intelligence artificielle tout court va continuer de se développer et est déjà largement à l’œuvre. Il faudra toutefois faire le moment venu un bilan pertinent des pertes et des créations d’emplois notamment dans les services qui seront largement affectés.
Essayer de quantifier les effets de l’intelligence artificielle sur la croissance relève de la recherche dans le marc de café. On pourrait tout aussi bien annoncer que l’intelligence artificielle va détruire 100 milliards  ou au contraire augmenter de à 600 milliards le PIB.Ce qu’on peut dire avec une certaine certitude c’est que l’intelligence artificielle va continuer de pénétrer l’économie et qu’il faut continuer de s’y préparer avec la formation et les investissements. Tout le reste relève de la spéculation

D’après l’Élysée, le rapport du comité interministériel sur l’intelligence artificielle générative prévoit un effet positif de l’IA sur l’économie française dès 2030, avec une hausse de PIB entre 250 milliards d’euros et 400 milliards. Ce texte sera rendu public demain, à la suite d’une remise officielle au président Emmanuel Macron.

Co-directeur du comité avec la chercheuse Anne Bouverot, l’économiste Philippe Aghion va présenter dans le rapport des « chiffres inédits sur le potentiel de création de valeur de l’IA », dixit l’Elysée. Le constat y serait au beau fixe : les effets positifs de l’IA générative sur l’emploi devraient largement dépasser les effets négatifs. Tout un chapitre est d’ailleurs dédié à la thématique « IA créatrice ou destructrice d’emploi ». « Le rapport évoque une hausse du PIB potentielle de 250 à 400 milliards d’euros grâce à l’IA à l’horizon 2030 », chiffre la présidence. Pour rappel, le PIB se situait à 2.640 milliards d’euros en 2022.

 

 

 

Intelligence artificielle générative et désinformation

Intelligence artificielle générative et désinformation

Les progrès récents de l’intelligence artificielle générative (ces outils qui permettent de produire du texte, du son, des images ou des vidéos de manière complètement automatique) font craindre un regain de fausses informations. Cette crainte est exacerbée par le fait que de très nombreuses élections vont avoir lieu dans les mois à venir, à commencer par les élections européennes. Qu’en est-il vraiment ?

Par   DR CNRS, École normale supérieure (ENS) – PSL

Il faut déjà observer que, même si l’idée que l’IA générative est une source de danger en matière de désinformation est largement répandue, le point de vue opposé existe aussi. Ainsi, pour les chercheurs Simon, Altay et Mercier, l’arrivée des systèmes génératifs ne change pas fondamentalement la donne, ni sur le plan qualitatif, ni sur le plan quantitatif.

Ils remarquent que les sources d’information traditionnelles continuent d’occuper le haut du pavé (la grande majorité des gens s’informent à travers les médias traditionnels, qui gardent un pouvoir d’influence supérieur). Le public qui s’informe à partir de médias alternatifs et qui « consomme » des fausses informations est, selon eux, déjà abreuvé de telles sources et ne recherche pas tant une information précise que des informations qui confirment leurs idées (fondées sur une méfiance généralisée vis-à-vis des politiques et des médias).

Leur étude contredit le point de vue courant, voyant dans l’IA une source de danger majeure pour la démocratie. Elle repose sur des enquêtes qui montrent effectivement le poids de l’idéologie en matière de consommation d’information (on est orienté en fonction de son idéologie quand on s’informe, et un biais classique consiste à vouloir confirmer ce que l’on croit, quand plusieurs interprétations d’un événement sont possibles).

Il semble que l’augmentation des capacités de production de texte ne soit pas l’élément essentiel : c’est la capacité à diffuser l’information qui joue un rôle majeur. C’est aussi vrai pour les images et les vidéos, mais l’IA générative semble quand même ici créer une vraie rupture. La prise en main d’un outil comme Photoshop est longue et complexe ; à l’inverse, des outils d’IA comme Dall-e et Midjourney pour l’image, ou Sora pour la vidéo, permettent de générer des contenus réalistes à partir de quelques mots clés seulement, et on connaît le poids de l’image dans l’information. La possibilité de créer automatiquement de fausses vidéos avec la voix, et même le mouvement des lèvres rendu de façon hyper réaliste, crée aussi un état de fait nouveau, qui n’était pas imaginable il y a encore quelques mois.

Notons enfin que les outils de détection de documents générés par IA sont très imparfaits et aucune solution ne permet à l’heure actuelle de déterminer à 100 % si un document est d’origine humaine ou non. Le marquage automatique (watermarking, code indétectable à l’œil nu, mais indiquant qu’un document a été généré par une IA) pourra aider, mais il y aura bien évidemment toujours des groupes capables de produire des fichiers sans marquage, à côté des grosses plates-formes ayant pignon sur rue (il s’agit de procédés qui ne sont pas encore mis en œuvre à large échelle, mais qui pourraient l’être avec l’évolution de la législation).

Mais, au-delà, l’argumentaire montre surtout que ce n’est pas l’IA le point essentiel dans ce problème, mais une question avant tout humaine et sociale. La consommation de fausses informations est souvent motivée par des sentiments d’opposition envers les institutions et les corps sociaux établis, perçus comme ayant failli dans leur mission. La crise du Covid en a fourni une illustration récente, avec l’émergence rapide de figures très médiatisées, en opposition frontale et systématique avec les mesures proposées, et très soutenues par leurs supporters sur les médias sociaux.

Pour de nombreux individus, la propagation et la consommation de fausses informations sont un moyen de remettre en question l’autorité et de s’opposer au statu quo. En ralliant ceux qui partagent des points de vue similaires, la diffusion de fausses informations peut également servir à créer un sentiment d’appartenance et de solidarité au sein de groupes qui s’opposent au pouvoir en place. Dans ce contexte, la désinformation devient un outil pour la construction de communautés unies par des valeurs ou des objectifs communs, renforçant ainsi leur cohésion et leur résilience face aux structures de pouvoir établies. Cette dynamique entraîne donc une polarisation accrue et des divisions au sein de la société, c’est même un objectif quasi revendiqué de certains émetteurs de fausses informations, qui ne s’en cachent pas.

La propagation de la désinformation est donc favorisée par les « fractures de la société » où les divisions sociales, politiques et économiques sont prononcées (phénomène largement étudié par Jérôme Fourquet ; Ipsos mène aussi régulièrement des enquêtes sur ce thème).

Dans ces contextes, les individus peuvent être plus enclins à croire et à propager des théories du complot, des rumeurs et des fausses informations qui correspondent à leurs préjugés, à leurs craintes ou à leurs frustrations. Une société fragmentée est caractérisée par un manque de confiance mutuelle et une polarisation croissante, ce qui crée un terrain fertile pour la propagation de la désinformation. La cohésion sociale et la confiance mutuelle jouent un rôle crucial dans la prévention de la propagation de la désinformation et dans le maintien de la santé démocratique d’une société.

Le facteur humain est enfin important dans la production de fausses informations. Les « bots » automatiques produisant en masse du texte ont une influence quasi nulle (sinon pour noyer l’information au sein d’une masse de textes). On sous-estime souvent le facteur humain, qui reste indispensable pour produire de contenu qui aura un impact, même pour de fausses informations. La découverte encore récente de réseaux efficaces, mais usant de méthodes relativement rudimentaires en est la preuve.

Le problème de la désinformation dépasse donc largement le cadre de l’IA générative ou même celui de quelques individus isolés. Il est largement alimenté par des organisations puissantes, souvent dotées de ressources quasi étatiques, qui déploient des moyens importants pour propager de fausses informations à grande échelle (par exemple l’Internet Research Agency basée à Saint-Pétersbourg).

Ces organisations mettent en place des réseaux comprenant des sites web, une forte présence sur les réseaux sociaux, des bots automatisés, mais impliquent aussi des individus réels, soudoyés ou non, chargés de relayer ces informations trompeuses (on voit donc ainsi que le réseau de propagation de l’information a autant sinon plus d’importance que la production de contenu en elle-même). Cette stratégie de désinformation vise à influencer l’opinion publique, à semer la confusion et à manipuler les processus démocratiques, mettant ainsi en péril la confiance dans les institutions et la crédibilité des élections.

Pour contrer efficacement ce phénomène, il est crucial de prendre des mesures à la fois techniques, politiques et sociales pour identifier, contrer et sensibiliser le public à la désinformation orchestrée à grande échelle. Les plates-formes en ligne sont particulièrement sollicitées.

La stratégie de propagation de fausses nouvelles poursuit un double objectif, ce qui représente un double écueil pour les institutions établies. En effet, en diffusant des informations erronées, non seulement on pollue le débat public en semant la confusion et en brouillant les pistes de la vérité, mais on nourrit également un climat général de méfiance envers toute forme d’autorité et d’information « officielle ». Les autorités en place, déjà sujettes à un fort discrédit et perçues comme étant en situation de faiblesse, peinent à réagir de manière efficace face à cette prolifération de désinformation. Le doute généralisé quant à leur capacité à agir avec transparence et impartialité renforce l’impression que leurs actions pourraient être motivées par des intérêts cachés. Ainsi, les institutions en place se retrouvent prises au piège d’un cercle vicieux où leur crédibilité est constamment remise en question, les rendant d’autant plus vulnérables face aux attaques orchestrées par ceux qui cherchent à déstabiliser l’ordre établi.

L’enjeu est donc de protéger la liberté d’opinion et la liberté d’information, tout en luttant contre la propagation de fausses informations qui peuvent nuire au fonctionnement démocratique. Cette frontière entre ces principes fondamentaux est souvent difficile à tracer, et les autorités doivent jongler avec ces enjeux complexes. Dans certains cas jugés flagrants, des mesures ont été prises pour contrer les tentatives de manipulation de l’opinion publique et de déstabilisation des processus démocratiques. Des chaînes de télévision comme RT, soupçonnées d’être sous l’influence russe, ont été fermées. Des personnalités politiques ont été interrogées en raison de soupçons de corruption et d’influence étrangère. De même, les réseaux sociaux sont étroitement surveillés, et des comptes ou des réseaux liés à des puissances étrangères ont été fermés. Ces mesures visent à protéger l’intégrité des processus démocratiques et à préserver la confiance du public dans les institutions, tout en préservant les principes fondamentaux de liberté et de pluralisme. Cependant, trouver un équilibre juste entre la protection contre la désinformation et le respect des libertés individuelles demeure un défi constant dans les sociétés démocratiques.

Effets de L’IA générative : positifs sur la croissance ?

Effets de L’IA générative :  positifs sur la croissance ?

Une annonce tout à fait hypothétique : la quantification de l’effet positif de l’intelligence artificielle sur l’économie. D’après un rapport officiel diffusé par l’Elysée, l’intelligence artificielle pourrait générer des gains de croissance de 10 à 15 % d’ici une vingtaine d’années. Des chiffres très discutables. La première raison c’est qu’on mélange l’intelligence artificielle générative des autres formes d’intelligence artificielle qui déjà automatise les processus de production et de distribution. D’une certaine manière, l’intelligence artificielle est mise à toutes les sauces sans doute par effet de mode. Ce qui est sûr, c’est que l’intelligence artificielle tout court va continuer de se développer et est déjà largement à l’œuvre.Il faudra toutefois faire le moment venu un bilan pertinent des pertes et des créations d’emplois notamment dans les services qui seront largement affectés.Essayer de quantifier les effets de l’intelligence artificielle sur la croissance relève de la recherche dans le marc de café. On pourrait tout aussi bien annoncer que l’intelligence artificielle va détruire 100 milliards s ou au contraire augmenter de à 600 milliards le PIB.

Ce qu’on peut dire avec une certaine certitude c’est que l’intelligence artificielle va continuer de pénétrer l’économie et qu’il faut continuer de s’y préparer avec la formation et les investissements. Tout le reste relève de la spéculation

D’après l’Élysée, le rapport du comité interministériel sur l’intelligence artificielle générative prévoit un effet positif de l’IA sur l’économie française dès 2030, avec une hausse de PIB entre 250 milliards d’euros et 400 milliards. Ce texte sera rendu public demain, à la suite d’une remise officielle au président Emmanuel Macron.

Co-directeur du comité avec la chercheuse Anne Bouverot, l’économiste Philippe Aghion va présenter dans le rapport des « chiffres inédits sur le potentiel de création de valeur de l’IA », dixit l’Elysée. Le constat y serait au beau fixe : les effets positifs de l’IA générative sur l’emploi devraient largement dépasser les effets négatifs. Tout un chapitre est d’ailleurs dédié à la thématique « IA créatrice ou destructrice d’emploi ». « Le rapport évoque une hausse du PIB potentielle de 250 à 400 milliards d’euros grâce à l’IA à l’horizon 2030 », chiffre la présidence. Pour rappel, le PIB se situait à 2.640 milliards d’euros en 2022.

 

 

 

Intelligence artificielle : « risques majeurs pour l’humanité» ?

Intelligence artificielle : « risques majeurs pour l’humanité» ?


IA: Des conséquences bien sûr technologiques mais aussi sociales, économiques et même démocratiques. La technique pourrait bien échapper à ses créateurs faute de régulation.

Des centaines de chercheurs dans le monde demandent une peau concernant l’utilisation de l’intelligence artificielle en attendant sa régulation. «Ces derniers mois ont vu les laboratoires d’IA s’enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable», peut-on lire dans la tribune parue sur le site de la fondation américaine Future of Life.

«Les systèmes d’IA puissants ne devraient être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables.»

Les signataires réclament donc un moratoire jusqu’à la mise en place de systèmes de sécurité, dont de nouvelles autorités réglementaires dédiées, «la surveillance et le suivi des systèmes d’IA hautement performants», «un financement public robuste pour la recherche technique sur la sécurité de l’IA », «un écosystème robuste d’audit et de certification», des techniques pour aider à distinguer le réel de l’artificiel et des institutions capables de gérer les «perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA provoquera».

«Devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? », poursuivent les signataires. «Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus.» Parmi les applications de l’intelligence artificielle figurent en particulier la rapidité de développement de GPT.

TikTok: Bientôt interdit aux États-Unis ?

 TikTok: Bientôt interdit aux États-Unis ?

TikTok pourrait bien être  interdit aux États-Unis si cette plate-forme ne coupe pas ses liens avec Pékin.

Pour le chef de file des démocrates à la Chambre des représentants, Hakeem Jeffries, qui a voté en faveur du texte. «Il vise à solutionner des questions légitimes de sécurité nationale et de protection des données liées aux rapports du Parti communiste chinois avec un réseau social», a-t-il expliqué dans un communiqué. «Laisser TikTok continuer à opérer aux États-Unis alors qu’il est sous le contrôle du Parti communiste chinois est simplement inacceptable», a commenté l’ancien vice-président républicain Mike Pence dans un communiqué.

Le président américain Joe Biden a déclaré qu’en cas d’adoption au Sénat, il promulguerait ce texte connu officiellement sous le nom de «Protecting Americans from Foreign Adversary Controlled Applications Act» («loi sur la protection des Américains contre les applications contrôlées par des adversaires étrangers»). La proposition de loi obligerait ByteDance, la société-mère de TikTok, à vendre l’application dans un délai de 180 jours, faute de quoi elle serait exclue des boutiques d’applications d’Apple et de Google aux États-Unis. Elle donnerait également au président américain le pouvoir de désigner d’autres applications comme une menace pour la sécurité nationale si elles sont contrôlées par un pays considéré comme hostile aux États-Unis.

 

Intelligence artificielle (AI Act) ) : une loi pour réguler les effets néfastes

  • Intelligence artificielle : une loi pour réguler les effets néfastes
  • L’AI Act a pour objet d’interdire les effets pervers de l’intelligence artificielle notamment en matière de liberté en Europe . Mais ce n’est forcément qu’un premier pas car on est loin de mesurer ce que seront toutes les conséquences du développement d’une telle technologie qui va s’introduire dans tous les aspects de la vie économique, sociale, politique et culturelle. Le texte européen    interdit certains usages de ces technologies, comme les systèmes de notation citoyenne et de manipulation du comportement ou l’identification biométrique à distance des personnes dans les lieux publics, sauf pour certaines missions liées à la sécurité, dont la lutte contre le terrorisme. « Cette législation n’est que le commencement », a relevé le corapporteur Dragos Tudorache (Renew) soulignant que l’intelligence artificielle continuait d’évoluer rapidement.

Le texte impose des obligations aux fournisseurs de systèmes d’IA sur le marché européen, en les classant selon le degré de risques qu’ils présentent pour les personnes. Les modèles d’IA à « usage général » devront respecter des obligations de transparence ainsi que les règles européennes en matière de droits d’auteur. À cet égard il faudra prévoir de nombreuses action d’ordre juridique dans la mesure où l’intelligence artificielle générative se contente de compiler les connaissances de producteurs et d’auteurs d’informations. Les systèmes jugés à « haut risque » (dans la santé, les infrastructures critiques, l’éducation ou les ressources humaines) seront soumis à des obligations plus strictes (maintien d’un contrôle humain, gestion des risques…).

L’AI Act interdit certains usages de ces technologies, comme les systèmes de notation citoyenne et de manipulation du comportement ou l’identification biométrique à distance des personnes dans les lieux publics, sauf pour certaines missions liées à la sécurité, dont la lutte contre le terrorisme. « Cette législation n’est que le commencement », a relevé le corapporteur Dragos Tudorache (Renew) soulignant que l’intelligence artificielle continuait d’évoluer rapidement.

 

Société- IA « risques majeurs pour l’humanité» ?

Société- IA « risques majeurs pour l’humanité» ?


IA: Des conséquences bien sûr technologiques mais aussi sociales, économiques et même démocratiques. La technique pourrait bien échapper à ses créateurs faute de régulation.

Des centaines de chercheurs dans le monde demandent une peau concernant l’utilisation de l’intelligence artificielle en attendant sa régulation. «Ces derniers mois ont vu les laboratoires d’IA s’enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable», peut-on lire dans la tribune parue sur le site de la fondation américaine Future of Life.

«Les systèmes d’IA puissants ne devraient être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables.»

Les signataires réclament donc un moratoire jusqu’à la mise en place de systèmes de sécurité, dont de nouvelles autorités réglementaires dédiées, «la surveillance et le suivi des systèmes d’IA hautement performants», «un financement public robuste pour la recherche technique sur la sécurité de l’IA », «un écosystème robuste d’audit et de certification», des techniques pour aider à distinguer le réel de l’artificiel et des institutions capables de gérer les «perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA provoquera».

«Devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? », poursuivent les signataires. «Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus.» Parmi les applications de l’intelligence artificielle figurent en particulier la rapidité de développement de GPT.

L’IA générative : Un effet positif sur la croissance ?

L’IA générative : Un effet positif sur la croissance ?

Une annonce tout à fait hypothétique : la quantification de l’effet positif de l’intelligence artificielle sur l’économie. D’après un rapport officiel, l’intelligence artificielle pourrait générer des gains de croissance de 10 à 15 % d’ici une vingtaine d’années. Des chiffres très discutables. La première raison c’est qu’on mélange l’intelligence artificielle générative des autres formes d’intelligence artificielle qui déjà automatise les processus de production et de distribution. D’une certaine manière, l’intelligence artificielle émise à toutes les sauces sans doute par effet de mode. Ce qui est sûr, c’est que l’intelligence artificielle tout court va continuer de se développer et est déjà largement à l’œuvre.Il faudra toutefois faire le moment venu un bilan pertinent des pertes et des créations d’emplois notamment dans les services qui seront largement affectés.

Essayer de quantifier les effets de l’intelligence artificielle sur la croissance relève de la recherche dans le marc de café. On pourrait tout aussi bien annoncer que l’intelligence artificielle va détruire 100 milliards s ou au contraire augmenter de à 600 milliards le PIB.

Ce qu’on peut dire avec une certaine certitude c’est que l’intelligence artificielle va continuer de pénétrer l’économie et qu’il faut continuer de s’y préparer avec la formation et les investissements. Tout le reste relève de la spéculation

D’après l’Élysée, le rapport du comité interministériel sur l’intelligence artificielle générative prévoit un effet positif de l’IA sur l’économie française dès 2030, avec une hausse de PIB entre 250 milliards d’euros et 400 milliards. Ce texte sera rendu public demain, à la suite d’une remise officielle au président Emmanuel Macron.

Co-directeur du comité avec la chercheuse Anne Bouverot, l’économiste Philippe Aghion va présenter dans le rapport des « chiffres inédits sur le potentiel de création de valeur de l’IA », dixit l’Elysée. Le constat y serait au beau fixe : les effets positifs de l’IA générative sur l’emploi devraient largement dépasser les effets négatifs. Tout un chapitre est d’ailleurs dédié à la thématique « IA créatrice ou destructrice d’emploi ». « Le rapport évoque une hausse du PIB potentielle de 250 à 400 milliards d’euros grâce à l’IA à l’horizon 2030 », chiffre la présidence. Pour rappel, le PIB se situait à 2.640 milliards d’euros en 2022.

 

 

 

L’IA générative et désinformation

L’IA générative et désinformation

 

Les progrès récents de l’intelligence artificielle générative (ces outils qui permettent de produire du texte, du son, des images ou des vidéos de manière complètement automatique) font craindre un regain de fausses informations. Cette crainte est exacerbée par le fait que de très nombreuses élections vont avoir lieu dans les mois à venir, à commencer par les élections européennes. Qu’en est-il vraiment ?

Par   DR CNRS, École normale supérieure (ENS) – PSL

Il faut déjà observer que, même si l’idée que l’IA générative est une source de danger en matière de désinformation est largement répandue, le point de vue opposé existe aussi. Ainsi, pour les chercheurs Simon, Altay et Mercier, l’arrivée des systèmes génératifs ne change pas fondamentalement la donne, ni sur le plan qualitatif, ni sur le plan quantitatif.

Ils remarquent que les sources d’information traditionnelles continuent d’occuper le haut du pavé (la grande majorité des gens s’informent à travers les médias traditionnels, qui gardent un pouvoir d’influence supérieur). Le public qui s’informe à partir de médias alternatifs et qui « consomme » des fausses informations est, selon eux, déjà abreuvé de telles sources et ne recherche pas tant une information précise que des informations qui confirment leurs idées (fondées sur une méfiance généralisée vis-à-vis des politiques et des médias).

Leur étude contredit le point de vue courant, voyant dans l’IA une source de danger majeure pour la démocratie. Elle repose sur des enquêtes qui montrent effectivement le poids de l’idéologie en matière de consommation d’information (on est orienté en fonction de son idéologie quand on s’informe, et un biais classique consiste à vouloir confirmer ce que l’on croit, quand plusieurs interprétations d’un événement sont possibles).

Il semble que l’augmentation des capacités de production de texte ne soit pas l’élément essentiel : c’est la capacité à diffuser l’information qui joue un rôle majeur. C’est aussi vrai pour les images et les vidéos, mais l’IA générative semble quand même ici créer une vraie rupture. La prise en main d’un outil comme Photoshop est longue et complexe ; à l’inverse, des outils d’IA comme Dall-e et Midjourney pour l’image, ou Sora pour la vidéo, permettent de générer des contenus réalistes à partir de quelques mots clés seulement, et on connaît le poids de l’image dans l’information. La possibilité de créer automatiquement de fausses vidéos avec la voix, et même le mouvement des lèvres rendu de façon hyper réaliste, crée aussi un état de fait nouveau, qui n’était pas imaginable il y a encore quelques mois.

Notons enfin que les outils de détection de documents générés par IA sont très imparfaits et aucune solution ne permet à l’heure actuelle de déterminer à 100 % si un document est d’origine humaine ou non. Le marquage automatique (watermarking, code indétectable à l’œil nu, mais indiquant qu’un document a été généré par une IA) pourra aider, mais il y aura bien évidemment toujours des groupes capables de produire des fichiers sans marquage, à côté des grosses plates-formes ayant pignon sur rue (il s’agit de procédés qui ne sont pas encore mis en œuvre à large échelle, mais qui pourraient l’être avec l’évolution de la législation).

Mais, au-delà, l’argumentaire montre surtout que ce n’est pas l’IA le point essentiel dans ce problème, mais une question avant tout humaine et sociale. La consommation de fausses informations est souvent motivée par des sentiments d’opposition envers les institutions et les corps sociaux établis, perçus comme ayant failli dans leur mission. La crise du Covid en a fourni une illustration récente, avec l’émergence rapide de figures très médiatisées, en opposition frontale et systématique avec les mesures proposées, et très soutenues par leurs supporters sur les médias sociaux.

Pour de nombreux individus, la propagation et la consommation de fausses informations sont un moyen de remettre en question l’autorité et de s’opposer au statu quo. En ralliant ceux qui partagent des points de vue similaires, la diffusion de fausses informations peut également servir à créer un sentiment d’appartenance et de solidarité au sein de groupes qui s’opposent au pouvoir en place. Dans ce contexte, la désinformation devient un outil pour la construction de communautés unies par des valeurs ou des objectifs communs, renforçant ainsi leur cohésion et leur résilience face aux structures de pouvoir établies. Cette dynamique entraîne donc une polarisation accrue et des divisions au sein de la société, c’est même un objectif quasi revendiqué de certains émetteurs de fausses informations, qui ne s’en cachent pas.

La propagation de la désinformation est donc favorisée par les « fractures de la société » où les divisions sociales, politiques et économiques sont prononcées (phénomène largement étudié par Jérôme Fourquet ; Ipsos mène aussi régulièrement des enquêtes sur ce thème).

Dans ces contextes, les individus peuvent être plus enclins à croire et à propager des théories du complot, des rumeurs et des fausses informations qui correspondent à leurs préjugés, à leurs craintes ou à leurs frustrations. Une société fragmentée est caractérisée par un manque de confiance mutuelle et une polarisation croissante, ce qui crée un terrain fertile pour la propagation de la désinformation. La cohésion sociale et la confiance mutuelle jouent un rôle crucial dans la prévention de la propagation de la désinformation et dans le maintien de la santé démocratique d’une société.

Le facteur humain est enfin important dans la production de fausses informations. Les « bots » automatiques produisant en masse du texte ont une influence quasi nulle (sinon pour noyer l’information au sein d’une masse de textes). On sous-estime souvent le facteur humain, qui reste indispensable pour produire de contenu qui aura un impact, même pour de fausses informations. La découverte encore récente de réseaux efficaces, mais usant de méthodes relativement rudimentaires en est la preuve.

Le problème de la désinformation dépasse donc largement le cadre de l’IA générative ou même celui de quelques individus isolés. Il est largement alimenté par des organisations puissantes, souvent dotées de ressources quasi étatiques, qui déploient des moyens importants pour propager de fausses informations à grande échelle (par exemple l’Internet Research Agency basée à Saint-Pétersbourg).

Ces organisations mettent en place des réseaux comprenant des sites web, une forte présence sur les réseaux sociaux, des bots automatisés, mais impliquent aussi des individus réels, soudoyés ou non, chargés de relayer ces informations trompeuses (on voit donc ainsi que le réseau de propagation de l’information a autant sinon plus d’importance que la production de contenu en elle-même). Cette stratégie de désinformation vise à influencer l’opinion publique, à semer la confusion et à manipuler les processus démocratiques, mettant ainsi en péril la confiance dans les institutions et la crédibilité des élections.

Pour contrer efficacement ce phénomène, il est crucial de prendre des mesures à la fois techniques, politiques et sociales pour identifier, contrer et sensibiliser le public à la désinformation orchestrée à grande échelle. Les plates-formes en ligne sont particulièrement sollicitées.

La stratégie de propagation de fausses nouvelles poursuit un double objectif, ce qui représente un double écueil pour les institutions établies. En effet, en diffusant des informations erronées, non seulement on pollue le débat public en semant la confusion et en brouillant les pistes de la vérité, mais on nourrit également un climat général de méfiance envers toute forme d’autorité et d’information « officielle ». Les autorités en place, déjà sujettes à un fort discrédit et perçues comme étant en situation de faiblesse, peinent à réagir de manière efficace face à cette prolifération de désinformation. Le doute généralisé quant à leur capacité à agir avec transparence et impartialité renforce l’impression que leurs actions pourraient être motivées par des intérêts cachés. Ainsi, les institutions en place se retrouvent prises au piège d’un cercle vicieux où leur crédibilité est constamment remise en question, les rendant d’autant plus vulnérables face aux attaques orchestrées par ceux qui cherchent à déstabiliser l’ordre établi.

L’enjeu est donc de protéger la liberté d’opinion et la liberté d’information, tout en luttant contre la propagation de fausses informations qui peuvent nuire au fonctionnement démocratique. Cette frontière entre ces principes fondamentaux est souvent difficile à tracer, et les autorités doivent jongler avec ces enjeux complexes. Dans certains cas jugés flagrants, des mesures ont été prises pour contrer les tentatives de manipulation de l’opinion publique et de déstabilisation des processus démocratiques. Des chaînes de télévision comme RT, soupçonnées d’être sous l’influence russe, ont été fermées. Des personnalités politiques ont été interrogées en raison de soupçons de corruption et d’influence étrangère. De même, les réseaux sociaux sont étroitement surveillés, et des comptes ou des réseaux liés à des puissances étrangères ont été fermés. Ces mesures visent à protéger l’intégrité des processus démocratiques et à préserver la confiance du public dans les institutions, tout en préservant les principes fondamentaux de liberté et de pluralisme. Cependant, trouver un équilibre juste entre la protection contre la désinformation et le respect des libertés individuelles demeure un défi constant dans les sociétés démocratiques.

123456...63



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol