Archive pour la Catégorie 'nouvelles technologies'

Nouvelles technologies, processus cognitifs et comportements

 

Aujourd’hui, les écrans et les notifications dominent notre quotidien. Nous sommes tous familiers de ces distractions numériques qui nous tirent hors de nos pensées ou de notre activité. Entre le mail important d’un supérieur et l’appel de l’école qui oblige à partir du travail, remettant à plus tard la tâche en cours, les interruptions font partie intégrante de nos vies – et semblent destinées à s’imposer encore davantage avec la multiplication des objets connectés dans les futures « maisons intelligentes ». Cependant, elles ne sont pas sans conséquences sur notre capacité à mener à bien des tâches, sur notre confiance en nous, ou sur notre santé. Par exemple, les interruptions engendreraient une augmentation de 27 % du temps d’exécution de l’activité en cours. En tant que chercheuse en psychologie cognitive, j’étudie les coûts cognitifs de ces interruptions numériques : augmentation du niveau de stress, augmentation du sentiment d’épuisement moral et physique, niveau de fatigue, pouvant contribuer à l’émergence de risques psychosociaux voire du burn-out. Dans mes travaux, je me suis appuyée sur des théories sur le fonctionnement du système cognitif humain qui permettent de mieux comprendre ces coûts cognitifs et leurs répercussions sur notre comportement. Ce type d’études souligne qu’il devient crucial de trouver un équilibre entre nos usages des technologies et notre capacité à nous concentrer, pour notre propre bien.

 

par ,Docteur en Psychologie Cognitive et Postdoctorante projet HUT, Université de Montpellier et , Professeur, laboratoire MRM Université de Montpellier, Université de Montpellier dans The Conversation 

Pourquoi s’inquiéter des interruptions numériques ?
L’intégration d’objets connectés dans nos vies peut offrir un contrôle accru sur divers aspects de notre environnement, pour gérer nos emplois du temps, se rappeler les anniversaires ou gérer notre chauffage à distance par exemple. En 2021, les taux de pénétration des maisons connectées (c’est-à-dire, le nombre de foyers équipés d’au moins un dispositif domestique connecté, englobant également ceux qui possèdent uniquement une prise ou une ampoule connectée) étaient d’environ 13 % dans l’Union européenne et de 17 % en France (contre 10,7 % en 2018).
Si la facilité d’utilisation et l’utilité perçue des objets connectés ont un impact sur l’acceptabilité de ces objets pour une grande partie de la population, les interruptions numériques qui y sont souvent attachées entravent notre cognition, c’est-à-dire l’ensemble des processus liés à la perception, l’attention, la mémoire, la compréhension, etc.

L’impact des interruptions numériques peut s’observer aussi bien dans la sphère privée que dans la sphère professionnelle. En effet, une personne met en moyenne plus d’une minute pour reprendre son travail après avoir consulté sa boîte mail. Les études mettent ainsi en évidence que les employés passent régulièrement plus de 1 h 30 par jour à récupérer des interruptions liées aux e-mails. Cela entraîne une augmentation de la charge de travail perçue et du niveau de stress, ainsi qu’un sentiment de frustration, voire d’épuisement, associé à une sensation de perte de contrôle sur les événements.

On retrouve également des effets dans la sphère éducative. Ainsi, dans une étude de 2015 portant sur 349 étudiants, 60 % déclaraient que les sons émis par les téléphones portables (clics, bips, sons des boutons, etc.) les distrayaient. Ainsi, les interruptions numériques ont des conséquences bien plus profondes que ce que l’on pourrait penser.

Pour comprendre pourquoi les interruptions numériques perturbent tant le flux de nos pensées, il faut jeter un coup d’œil à la façon dont notre cerveau fonctionne. Lorsque nous réalisons une tâche, le cerveau réalise en permanence des prédictions sur ce qui va se produire. Cela permet d’adapter notre comportement et de réaliser l’action appropriée : le cerveau met en place des boucles prédictives et d’anticipation.

Ainsi, notre cerveau fonctionne comme une machine à prédire. Dans cette théorie, un concept très important pour comprendre les processus d’attention et de concentration émerge : celui de la fluence de traitement. Il s’agit de la facilité ou la difficulté avec laquelle nous traitons une information. Cette évaluation se fait inconsciemment et résulte en une expérience subjective et non consciente du déroulement du traitement de l’information.

Le concept de fluence formalise quelque chose que l’on comprend bien intuitivement : notre système cognitif fait tout pour que nos activités se déroulent au mieux, de la manière la plus fluide (fluent, en anglais) possible. Il est important de noter que notre cognition est « motivée » par une croyance qu’il formule a priori sur la facilité ou la difficulté d’une tâche et en la possibilité de réaliser de bonnes prédictions. Cela va lui permettre de s’adapter au mieux à son environnement et au bon déroulement de la tâche en cours.

Plus l’information semble facile à traiter, ou plus elle est évaluée comme telle par notre cerveau, plus elle attire notre attention. Par exemple, un mot facile à lire attire davantage notre regard qu’un mot difficile. Cette réaction est automatique, presque instinctive. Dans une expérience, des chercheurs ont mis en évidence que l’attention des individus pouvait être capturée involontairement par la présence de vrais mots par opposition à des pseudomots, des mots inventés par les scientifiques tels que HENSION, notamment lorsqu’on leur demandait de ne pas lire les mots présentés à l’écran.

Ainsi, une de nos études a montré que la fluence – la facilité perçue d’une tâche – guide l’attention des participants vers ce que leur cerveau prédit. L’étude consistait à comprendre comment la prévisibilité des mots allait influencer l’attention des participants. Les participants devaient lire des phrases incomplètes puis identifier un mot cible entre un mot cohérent et un mot incohérent avec la phrase. Les résultats ont mis en évidence que les mots cohérents, prédictibles, attiraient plus l’attention des participants que les mots incohérents.

Il semblerait qu’un événement cohérent avec la situation en cours attire plus l’attention et, potentiellement, favorise la concentration. Notre étude est, à notre connaissance, l’une des premières à montrer que la fluence de traitement a un effet sur l’attention. D’autres études sont nécessaires pour confirmer nos conclusions. Ce travail a été initié, mais n’a pas pu aboutir dans le contexte de la pandémie de Covid.

Comme nous l’avons vu, notre système cognitif réalise en permanence des prédictions sur les événements à venir. Si l’environnement n’est pas conforme à ce que notre cerveau avait prévu, nous devons d’une part adapter nos actions (souvent alors qu’on avait déjà tout mis en place pour agir conformément à notre prédiction), puis essayer de comprendre l’événement imprévu afin d’adapter notre modèle prédictif pour la prochaine fois.

Par exemple, imaginez que vous attrapiez votre tasse pour boire votre café. En la saisissant, vous vous attendez a priori à ce qu’elle soit rigide et peut-être un peu chaude. Votre cerveau fait donc une prédiction et ajuste vos actions en fonction (ouverture de la main, attraper la tasse plutôt vers le haut). Imaginez maintenant que lorsque vous la saisissiez, ce ne soit pas une tasse rigide, mais un gobelet en plastique plus fragile. Vous allez être surpris et tenter d’adapter vos mouvements pour ne pas que votre café vous glisse entre les mains. Le fait que le gobelet plie entre vos doigts a créé un écart entre ce que votre système cognitif avait prédit et votre expérience réelle : on dit qu’il y a une rupture de fluence.

Les interruptions, qu’elles soient numériques ou non, ne sont pas prévues, par nature. Ainsi, un appel téléphonique impromptu provoque une rupture de fluence, c’est-à-dire qu’elle contredit ce que le cerveau avait envisagé et préparé.

L’interruption a des conséquences au niveau comportemental et cognitif : arrêt de l’activité principale, augmentation du niveau de stress, temps pour reprendre la tâche en cours, démobilisation de la concentration, etc.

La rupture de fluence déclenche automatiquement la mise en place de stratégies d’adaptation. Nous déployons notre attention et, en fonction de la situation rencontrée, modifions notre action, mettons à jour nos connaissances, révisons nos croyances et ajustons notre prédiction.

La rupture de fluence remobilise l’attention et déclenche un processus de recherche de la cause de la rupture. Lors d’une interruption numérique, le caractère imprévisible de cette alerte ne permet pas au cerveau d’anticiper ni de minimiser le sentiment de surprise consécutif à la rupture de fluence : la (re)mobilisation attentionnelle est alors perturbée. On ne sait en effet pas d’où va provenir l’interruption (le téléphone dans sa poche ou la boîte mail sur l’ordinateur) ni ce que sera le contenu de l’information (l’école des enfants, un démarchage téléphonique…).

Trouver un équilibre entre les avantages de la technologie et notre capacité à maintenir notre concentration devient crucial. Il est possible de développer des stratégies afin de minimiser les interruptions numériques, d’utiliser les technologies de façon consciente, et de préserver notre capacité à rester engagés dans nos tâches.

Cela pourrait impliquer la création de zones de travail sans interruption (par exemple la réintroduction du bureau conventionnel individuel), la désactivation temporaire des notifications pendant une période de concentration intense (par exemple le mode silencieux du téléphone ou le mode « focus » de logiciels de traitement de texte), ou même l’adoption de technologies intelligentes qui favorisent activement la concentration en minimisent les distractions dans l’environnement.

En fin de compte, l’évolution vers un environnement de plus en plus intelligent, ou du moins connecté, nécessite une réflexion approfondie sur la manière dont nous interagissons avec la technologie et comment celle-ci affecte nos processus cognitifs et nos comportements. Le passage de la maison traditionnelle à la maison connectée relève des problématiques du projet HUT pour lequel j’ai travaillé dans le cadre de mon postdoctorat. De nombreux chercheurs (sciences de gestion, droit, architecture, sciences du mouvement, etc.) ont travaillé autour des questions de l’hyperconnexion des habitations, des usages et du bien-être, au sein d’un appartement-observatoire hyperconnecté. Cela nous a permis de déterminer ensemble les conditions idéales du logement du futur, mais aussi de déceler l’impact des technologies au sein d’un habitat connecté afin d’en prévenir les dérives.

Téléphone: une fonctionnalité pour identifier l’appel ?

Téléphone: une fonctionnalité pour identifier l’appel ?

À l’aide du bouton «Lookup», les utilisateurs de smartphones Android pourront bientôt lancer en un clic une recherche Google du numéro de téléphone mystère.

Avec ce nouveau bouton, faire le distingo entre un appel malveillant et celui de votre banque, votre assureur, ou votre livreur pourrait aller beaucoup plus vite.

 

IA : Des réductions d’effectifs dans la moitié des entreprises

IA : Des réductions d’effectifs dans la moitié des entreprises

Selon une enquête publiée par le groupe suisse Adecco la moitié des entreprises pourrait dans un premier temps être amenée à effectuer des réductions d’effectifs suite au développement de l’intelligence artificielle. Selon cette enquête, 61% des dirigeants interrogés pensent que l’IA va changer la donne pour leur secteur, la proportion grimpant à 82% dans le secteur de la technologie contre 51% dans l’automobile, le transport et la logistique. Mais 57% avouent manquer de confiance dans les compétences et connaissances sur l’IA de leur propre équipe dirigeante. Et « si les décideurs ne comprennent pas les opportunités d’affaires de l’IA, alors ils ne peuvent pas définir la stratégie d’investissement », mettent en garde les auteurs de l’enquête.
Les entreprises manquent de connaissances en matière d’IA. Elles doivent mieux préparer leur personnel à ces technologies, affirme une enquête publiée par le groupe suisse Adecco. La majorité des chefs d’entreprise interrogés se sentent, en effet, mal équipés pour gérer ce bouleversement technologique.

« Les entreprises doivent en faire davantage pour former et redéployer leurs équipes afin d’obtenir le meilleur de ce bond technologique. » Voilà la mise en garde de Denis Machuel, le patron d’Adecco, servant de conclusion à l’enquête qu’a mené le géant de l’intérim sur les conséquences de l’IA dans les entreprises.

L’étude a ainsi démontré que les dirigeants d’entreprises n’étaient pas prêts à accueillir cette technologie.  Car si, il y a une dizaine d’années, la numérisation de l’économie avait elle-même suscité d’importantes craintes mais avait finalement créé « beaucoup d’emplois », a souligné le patron d’Adecco, les choses pourraient être différentes pour l’IA. Pour gérer ce nouveau saut technologique, il est « critique », selon lui, que les dirigeants d’entreprises comprennent eux-même l’IA pour pouvoir préparer leur personnel.

Selon une étude du Fonds monétaire international (FMI), l’IA pourrait changer les contours de 40% des emplois dans le monde, les risques étant plus élevés dans les économies développées. Si certains postes vont être remplacés, l’IA va dans d’autres cas compléter le travail des humains. Mais elle risque d’accroître les inégalités de revenus entre les travailleurs qui pourront tirer parti de l’IA et ceux qui ne parviendront pas à s’adapter, d’après cette étude du FMI.

« L’IA ce n’est pas une révolution, c’est un changement de civilisation qui va impacter en profondeur tous les secteurs, tous les métiers, toutes les fonctions. Une étude de McKinsey estimait qu’à terme 50 % des tâches de 70 % des salariés pourraient être accomplies par de l’IA », a aussi affirmé Philippe Corrot, le patron de la startup Mirakl, dans une interview aux Echos ce vendredi. Pour ce dernier, « La robotisation des usines a « commoditisé » la force manuelle. On va « commoditiser » la puissance intellectuelle, et l’on sait que d’ici peu l’IA ne sera pas simplement plus intelligente qu’Einstein mais 1.000 fois plus puissante. L’impact économique, social, sociétal va être colossal. Voilà pourquoi tous les chefs d’entreprise, les économistes, les politiques doivent faire de l’IA une priorité. »

 

IA « risques majeurs pour l’humanité» ?

IA « risques majeurs pour l’humanité»

IA: Des conséquences bien sûr technologiques mais aussi sociales, économiques et même démocratiques. La technique pourrait bien échapper à ses créateurs faute de régulation.

Des centaines de chercheurs dans le monde demandent une peau concernant l’utilisation de l’intelligence artificielle en attendant sa régulation. «Ces derniers mois ont vu les laboratoires d’IA s’enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable», peut-on lire dans la tribune parue sur le site de la fondation américaine Future of Life.

«Les systèmes d’IA puissants ne devraient être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables.»

Les signataires réclament donc un moratoire jusqu’à la mise en place de systèmes de sécurité, dont de nouvelles autorités réglementaires dédiées, «la surveillance et le suivi des systèmes d’IA hautement performants», «un financement public robuste pour la recherche technique sur la sécurité de l’IA », «un écosystème robuste d’audit et de certification», des techniques pour aider à distinguer le réel de l’artificiel et des institutions capables de gérer les «perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA provoquera».

«Devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? », poursuivent les signataires. «Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus.» Parmi les applications de l’intelligence artificielle figurent en particulier la rapidité de développement de GPT.

Du bon usage des réseaux sociaux

Du bon usage des réseaux sociaux

Les réseaux sociaux ont « un impact sur le développement affectif, sensoriel, cognitif d’un enfant ». Ces paroles sont celles du président Emmanuel Macron qui appelle à mettre en œuvre des recommandations pour « le bon usage des écrans […] parce qu’il en va de l’avenir de nos sociétés et de nos démocraties ». Mais comment éduquer les enfants si les parents sont eux-mêmes très souvent devant des écrans ? Cette question est d’autant plus importante que des recherches ont montré que nombres d’usages des écrans, et surtout des réseaux sociaux, sont également liés à des problèmes psychologiques chez les adultes et ce, sans même que les utilisateurs aient conscience de ces liens. Mais il y a une bonne nouvelle : on peut se protéger de ces problèmes et les solutions ne passent pas nécessairement par la diminution du temps d’écran.

 

par 

Professeur et Chercheur en Sciences de la Communication, Aix-Marseille Université (AMU) dans the Conversation

 

 

D’une manière globale, des études sur de larges populations montrent que plus on utilise les médias numériques (smartphones, Internet, réseaux sociaux, jeux vidéo…) et plus on est susceptible de souffrir de problèmes psychologiques (émotions négatives, anxiété, symptômes dépressifs…).

Les récentes recherches montrent que si les liens entre les utilisations de ces médias et l’altération du bien-être sont significatifs, l’ampleur n’est tout de même pas très élevée.

Par exemple, chez les adolescents, jusqu’à présent, les écrans ne causeraient pas le « tsunami délétère » que certains annoncent parfois.

Cependant, ces résultats globaux masquent de grandes différences entre individus, certains seraient plus touchés que d’autres. Analysons les deux grands processus impliqués dans les états affectifs négatifs et les altérations du bien-être.

Dans notre vie, se comparer aux autres est un besoin social fondamental qui permet d’obtenir des informations sur soi, de s’autoévaluer et de construire son identité sociale.

Si ce processus, normal, est souvent mis en œuvre de manière automatique, c’est-à-dire non intentionnelle et non consciente dans notre vie quotidienne, il est mis en œuvre de la même manière sur les réseaux sociaux. Toutefois, sur les réseaux, chacun essaye de présenter l’image de soi et ses activités d’une manière fortement valorisée. Les photos sont, par exemple, judicieusement construites et travaillées dans ce but.

Nombreuses sont alors les comparaisons en notre défaveur : à partir de son profil et de ses posts, nous allons considérer que telle personne, que nous connaissons plus ou moins, est « mieux que nous » (sur le plan physique, sur le plan de ses compétences dans la vie…) ou a « une plus belle vie que la nôtre ».

Ainsi, comme notre image de soi et notre estime personnelle est construite à la suite de nos interactions avec les autres, ces comparaisons dites ascendantes, peuvent altérer notre propre image et augmenteraient tristesse et mal-être.

Un adolescent est sur son smartphone dont sortent des émoticônes et signes négatifs.
Sur les réseaux sociaux, les comparaisons en notre défaveur peuvent altérer notre propre image et pourraient augmenter tristesse et mal-être.
Dans le processus de comparaison, les récentes recherches montrent que nous sommes différents les uns des autres. Examinons quelques cas où les personnes se comparent plus que les autres sur les réseaux sociaux, ce qui les rend plus vulnérables aux problèmes psychologiques.

En effet, il faut savoir que certains individus ressentent davantage, dans leur vie, le besoin de se comparer aux autres. Ils vont alors, bien plus souvent que les autres, se comparer sur les réseaux sociaux et ce, sans même qu’ils en aient conscience.

D’autre part, certaines personnes sont plus « matérialistes » que d’autres (les matérialistes pensent que le bonheur réside dans la possession matérielle). Globalement, elles passent plus de temps sur les réseaux sociaux que les personnes « non matérialistes ». Dans les informations qu’elles postent, elles affichent plus souvent que les autres les biens qu’elles possèdent et vont fortement se comparer pour entrer « en compétition » avec les autres et tenter de les surpasser. Les conséquences sont souvent délétères pour elles.

On sait également que les personnes qui n’ont pas une bonne image d’elles-mêmes, plutôt anxieuses, timides et hypersensibles sont également fortement sensibles aux comparaisons sociales.

Sur les réseaux sociaux, des études ont montré qu’elles utilisent des stratégies de présentation de soi plus valorisantes afin de diminuer l’angoisse sociale et d’accroître leur estime de soi.

Ces personnes sont également plus sensibles aux commentaires des autres qui, s’ils sont positifs, les rassurent quant à leur appartenance à des groupes sociaux et à leur identité sociale. À l’inverse, des commentaires négatifs altèrent facilement leur bien-être.

D’autres recherches ont également montré que plus les personnes présentent des symptômes dépressifs, plus elles se comparent aux autres. Elles entrent ensuite dans un cercle vicieux : plus elles se comparent et plus cela augmente leurs symptômes dépressifs initiaux.

Développer son intelligence numérique plutôt que diminuer son temps d’écran
On comprendra, dès lors, qu’une première solution n’est pas de diminuer le temps d’écran mais davantage de modifier la manière d’utiliser les médias numériques et notamment les réseaux sociaux. Globalement, le défi pour l’être humain aujourd’hui est de mieux s’adapter à ce nouvel environnement digital en développant une nouvelle forme d’intelligence : l’intelligence numérique.

Celle-ci est définie comme la capacité à bien s’adapter, grâce à des procédures mentales spécifiques, à un environnement numérique en mutation permanente et à interagir de manière optimale avec cet environnement pour satisfaire nos besoins psychologiques, et sociaux. Et ce, tout en préservant, voire en améliorant notre santé physique et mentale.

Ainsi, une fois que l’usager prend conscience du processus de comparaison à l’œuvre sur les réseaux sociaux, il peut mettre en place des « stratégies cognitives » conscientes pour corriger les conséquences potentiellement délétères pour lui.

Il peut par exemple chercher, d’une part, à diminuer le temps qu’il passe à regarder les infos que les autres postent sur eux-mêmes pour se valoriser, et d’autre part, se construire un “beau profil” et poster des informations sur lui-même dont il pourra être fier, aussi bien sur un plan personnel que social. En effet, poster des informations valorisantes pour soi contribue à améliorer son estime personnelle.
Le deuxième processus impliqué dans les états affectifs négatifs et l’altération du bien-être concerne les relations que nous entretenons sur les réseaux sociaux avec nos proches, c’est-à-dire les personnes psychologiquement et socialement importantes pour nous (famille, amis chers).

Les récentes recherches montrent que le bien-être dépend avant tout des relations positives et chaleureuses que nous établissons avec nos proches.

Or, de nombreuses pratiques sur Internet nuisent à ses relations si précieuses pour nous. C’est notamment le cas des jeux vidéo qui se jouent seul ou avec des inconnus en ligne. De même, lorsque nous passons du temps à naviguer sur les réseaux sociaux simplement pour lire ou regarder les posts ou vidéos mis en ligne par des individus que nous ne connaissons pas ou peu. C’est ce que les chercheurs nomment les « usages passifs ». Autant de temps non consacré à interagir avec nos proches.
À l’inverse, toutes les pratiques qui favorisent les relations sociales et affectives avec les proches comme des appels téléphoniques, les messages vocaux (entendre la voix d’un proche aimé apporte des émotions positives) ou écrits (les émoticônes affectivement chargés transmettent « de bonnes émotions »).

Pour être précis, les relations qui accroissent le plus le bien-être sont celles qui, d’une part, sont perçues comme réciproques, chacun montrant de l’intérêt pour l’autre, et, d’autre part, sont perçues comme véritablement chaleureuses.

De même, les vidéos et les divertissements sont bénéfiques lorsqu’ils favorisent l’interaction avec les proches en permettant de vivre des expériences socio-émotionnelles positives qui rapprochent affectivement.

Par exemple, lorsque les divertissements sont regardés ensemble en présentiel, offrant alors des moments de partages sociaux agréables lors desquels, par exemple, on rit ensemble, ou lorsqu’ils font l’objet d’un partage en ligne où on sait que nous allons surprendre ou faire rire nos proches, par écrans interposés.

Enfin, n’oublions pas que les médias numériques facilitent également les rencontres en présentiel (sorties, soirées…) avec les proches. Ainsi, s’ils sont bien utilisés, les médias numériques sont bénéfiques pour le bien-être, nous donnent le sentiment que nous sommes bien intégrés socialement et favorisent les relations affectives chaleureuses avec ceux que nous apprécions.

ChatGPT: Un échantillon de 15 secondes suffit pour le clonage de la voix

  ChatGPT: Un échantillon de 15 secondes suffit pour le clonage de la voix

 OpenAI, qui est l’une des entreprises les plus en pointe dans le monde et éditeur de ChatGPT, a présenté un outil de clonage de voix baptisé Voice Engine. Cette technologie peut reproduire la voix d’une personne à partir d’un échantillon audio de 15 secondes, d’après l’entreprise.

 En Europe, ce type d’outils pourraient d’ailleurs tomber sous le coup de l’IA Act, le nouveau règlement européen sur l’intelligence artificielle, en raison des risques trop élevés d’une utilisation malveillante.

OpenAI reconnaît les risques. « Nous admettons que la capacité de générer des voix ressemblant à celles de personnes comporte de sérieux risques, qui sont particulièrement importants en cette année électorale », a déclaré l’entreprise basée à San Francisco. « Nous travaillons avec des partenaires américains et internationaux issus du gouvernement, des médias, du divertissement, de l’éducation, de la société civile et d’autres secteurs et nous prenons en compte leurs commentaires au fur et à mesure que nous développons l’outil ».

 

Cette présentation prudente intervient après un incident politique majeur, quand un consultant travaillant pour la campagne présidentielle d’un rival démocrate de Joe Biden a mis au point un programme automatisé qui usurpait l’identité du président américain, en campagne pour sa réélection. La voix imitant celle de Joe Biden appelait des électeurs pour les inciter à s’abstenir lors de la primaire du New Hampshire.

Les Etats-Unis ont depuis interdit les appels par des voix clonées, générées par de l’IA, afin de lutter contre les arnaques politiques ou commerciales.

En octobre dernier, la Maison Blanche avait dévoilé des règles et principes pour encadrer le développement de l’IA, dont celui de la transparence. Joe Biden s’était ému à l’idée que des criminels ne s’en servent pour piéger des personnes en se faisant passer pour des membres de leur famille.

 

Numérique : des champions européens d’ici 5 à 10 ans ?

Numérique : des champions européens d’ici 5 à 10 ans

Thierry Breton, le commissaire européen au marché intérieur rêve tout haut : « D’ici 5 à 10 ans, il y aura des champions européens du numérique ». Dans la réalité il en sera sans doute malheureusement autrement. Au cours de la période de douze mois qui s’est terminée en juin 2023, les géants technologiques Alphabet, Apple, Microsoft et Amazon ont généré ensemble 1 544 milliards de dollars de chiffre d’affaires (soit presque l’équivalent du PIB du Brésil) – pour un bénéfice net cumulé de 264 milliards de dollars. Par ailleurs la plupart des nouvelles société de haute technologie sont rapidement rachetées par les Gafam. Enfin concernant les investissements relatifs à l’intelligence artificielle, les sommes investies ou à investir se chiffre en centaines de milliards.Des enjeux financiers bien loin des initiatives pour l’instant surtout confinées  au sein de chaque État de l’union européenne contrairement à ce que dit Thierry Breton dans « la tribune » (extrait):

Y a-t-il, aujourd’hui, un réarmement numérique de l’Europe face aux grandes compagnies technologiques américaines ? Avons-nous mis en place les premières conditions pour organiser une contre-attaque ?

THIERRY BRETON- Nous n’avons pas fait l’IA Act contre, nous l’avons fait pour. Nous avions un espace informationnel fragmenté avec 27 régulations différentes, 27 régulateurs, 27 façons d’appréhender notre espace numérique. Nous avions un marché intérieur pour les personnes et les services mais pas de marché intérieur numérique. Or, ce qui fait la force des Etats-Unis mais aussi de la Chine c’est que, lorsque des jeunes, il y a une vingtaine d’années, ont décidé d’abandonner leurs études après une première année d’université pour aller monter un annuaire appelé Facebook, ils ont pu le faire car il y avait un marché intérieur numérique immédiat et que la profondeur était là, ce qui ne retire en rien la qualité entrepreneuriale ou de marketeur.

Mais nous, alors que nous avons un marché numérique une fois et demie supérieur au marché américain, c’est-à-dire 450 millions de consommateurs contre 330 millions, nous avons raté cette première vague de la révolution numérique, de l’évolution des données personnelles qui a permis la création des Gafam.

N’avez-vous pas l’impression malgré tout, dans la mise en œuvre de ces nouvelles règles, que ces géants numériques ne sont pas toujours de bonne foi ? Il y a des enquêtes qui viennent d’être annoncées par la Commission sur ces grandes entreprises pour dire : « Attention, maintenant, on ne rigole plus, il va falloir vous mettre en conformité ». Qu’en pensez-vous ?

D’abord ce n’est pas « on ne rigole plus ». Nous sommes dans un État de droit. Tout ça prend énormément de temps. C’est le temps de notre démocratie. La Commission a beaucoup consulté avant d’abord de proposer ces règlements, lesquels ont ensuite été votés par nos co-législateurs, le Parlement européen et le Conseil. Par rapport à la démocratie américaine dont le système bicaméral orthogonal bloque toute évolution, la nôtre fonctionne.

Est-ce qu’on cherche à vous contourner ?

Non, personne ne cherche à nous contourner. Nous avons des équipes extrêmement performantes. Nous avons passé beaucoup de temps en amont pour expliquer le DMA et le DSA à l’ensemble des grandes plateformes qui allaient être régulées. C’est vrai qu’il y a eu de la résistance au début. On nous a dit que notre démarche allait contre l’innovation, qu’elle allait isoler l’Europe, que les plateformes n’allaient pas venir. Bien sûr, c’est compliqué d’adapter ses règles, ça coûte un peu d’argent, mais à la fin, toutes les plateformes le feront.

Prenons l’exemple de Google Maps qui n’est plus accessible aujourd’hui directement quand on recherche une adresse sur Google et que d’autres services de localisation ne sont pas proposés, ces réglementations nous contraignent un peu la vie.

Certaines plateformes représentées par un fruit ont eu pendant un moment ce type de réaction. Et puis finalement, récemment, elles ont évolué.

C’est la peur des sanctions ?

Au-delà des sanctions, toutes ces entreprises respectent la loi parce qu’elles n’ont pas envie justement de se mettre en contradiction avec cette loi. Alors bien sûr qu’il y a des sanctions, 10% du chiffre d’affaires, 20% si jamais l’infraction continue. Cela peut même aller jusqu’au démantèlement puisque cette sanction existe. Evidemment, elle est ultime et je souhaite vivement qu’elle ne soit jamais appliquée. A partir du moment où les dommages à l’économie, les dommages aux entreprises, les dommages à nos concitoyens peuvent être très importants voire considérables, si jamais cette loi n’est pas respectée, il faut avoir les moyens de la faire appliquer.

 

Si nous nous projetons, il va y avoir des élections, une nouvelle commission, un nouveau parlement. Que reste-t-il à faire ?

Le marché intérieur devient vraiment un instrument extrêmement important y compris en matière de régulation et de concurrence. Il va devenir plus opérationnel et plus compétitif. Il y a ensuite les infrastructures. Pour pouvoir supporter et bénéficier de tout ce que je viens de décrire, évidemment les données, l’usage des données, il faut avoir les infrastructures. Or celles de télécommunications ne suffisent plus aujourd’hui. L’UE est en retard sur ses réseaux et ses infrastructures.

Ça se dégrade ?

Non seulement ça se dégrade, mais elles ne sont pas adaptées. Maintenant, il faut du « edge computing » partout dans les réseaux. C’est évidemment de l’investissement, du software, de l’intelligence… Or, la régulation des infrastructures datent de la directive de 2000, qui avait été faite pour que les acteurs traditionnels puissent ouvrir leur réseau de cuivre. Tout ça est un peu daté. On a travaillé sur le DNA, Digital Network Act. J’ai fait une large consultation et nous avons commencé à proposer ce qu’il conviendrait de faire. J’espère que ce sera pris en compte par mon successeur. Ce sera peut-être moi, on ne sait jamais. Ou un autre, on verra.

Comment faire pour mettre en place un marché intérieur des capitaux ? Tout le monde dit que nous n’y arrivons pas. Pourrions-nous le faire avec un petit groupe de pays ?

Il se disait aussi qu’il serait impossible de parvenir à une régulation globale sur le numérique. Rien n’est impossible. Il faut de l’énergie. Et vous avez compris qu’il n’est pas obligé d’avoir un président français à la tête de la commission pour le faire.

Impossible n’est pas Breton ?

Quelle que soit place où nous sommes, à partir du moment où l’on a un petit peu de vision, qu’on essaie de mettre un peu d’énergie et peut-être un peu de leadership, on peut y arriver.

Dernier mot sur ce marché européen. Si vous vous projetez à 5-10 ans, vous pensez que des champions européens pourraient émerger ?

Mais évidemment. Nous avons des compétences absolument extraordinaires en Europe, nous avons des infrastructures qui vont être extraordinaires. Je parle en particulier, par exemple, de la mise à disposition de nos puissances de calcul. Ce qui nous manque, je le dis, c’est d’avoir un marché des capitaux qui accompagne les startups, les scale-up, les licornes, et c’est ça qui nous manque. C’est vraiment là-dessus qu’il va falloir aussi mettre le paquet pour le prochain mandat.

Nouvelles technologies : réguler plate-forme et IA

Nouvelles technologies : réguler plate-forme et IA

 

 
Marie-France Lavarini, présidente de MFL Conseil, Philippe Buisson, maire de Libourne, et Frédéric Compain, réalisateur, s’élèvent contre les risques de déstabilisation politique engendrés par l’intelligence artificielle. Ils estiment que la démocratie même est en danger.((dans la Tribune)

À l’heure de l’intelligence artificielle (IA), la concentration des pouvoirs entre les mains des Gafam – plus puissants que les États – est une menace pour nos libertés et la pluralité de l’information. La bataille peut-elle encore être gagnée à la veille d’enjeux importants pour notre pays comme les élections européennes et la présidentielle en 2027, qui constituent des cibles de choix ? Le danger qui pèse sur l’information nous concerne tous.

Les grandes plateformes permettent à n’importe qui de dire n’importe quoi. Elles détruisent l’un des principes de la démocratie, à savoir la responsabilité de la parole. Petit à petit, la mésinformation comme la désinformation gagnent une partie de la société et nous risquons un empoisonnement général. Une fausse information se diffuse six fois plus vite et plus loin qu’une vraie, c’est-à-dire fiable ou vérifiée.

Les réseaux sociaux ont instauré le règne illimité du mensonge, de l’ignorance ou de la posture. Dans l’écosystème du smartphone, ils sont plus performants que les médias, conduisant le public vers des contenus où l’algorithme a pris le pouvoir sur la hiérarchie de l’information. Ce sont donc bien les médias eux-mêmes qui sont en danger, les multinationales du numérique tuant à petit feu l’essence même du journalisme. Défendre les entreprises de presse, c’est défendre la démocratie.

Ce sont les médias eux-mêmes qui sont en danger. Défendre les entreprises de presse, c’est défendre la démocratie

L’intelligence artificielle est une technologie de rupture qui a ainsi le pouvoir de déstabiliser nos démocraties en permettant des campagnes de désinformation. De fausses vidéos – deepfake -, montées de toutes pièces, circulent aux États-Unis pour ridiculiser Joe Biden dans le contexte d’une bataille cruciale pour la démocratie américaine.

Les algorithmes des plateformes, en dictant une hiérarchie des messages fondée sur leur capacité à polariser les opinions, nourrissent les populismes. Nous assistons à une banalisation des punchlines, souvent extrêmes et démagogiques, donnant une vision du monde manichéenne et faisant de notre système d’information une machine à transformer en haine toutes les peurs, toutes les détresses. À ce jeu, les idées d’extrême droite se diffusent aisément, comme l’ont démontré des articles dénonçant les théoriciens du « combat culturel » mené par les sphères identitaires, avec la complicité assumée de certains médias.

Il est urgent de réguler les plateformes, les réseaux sociaux et l’IA. Garantissons une traçabilité des contenus générés par les logiciels, luttons efficacement contre tous les faussaires et toutes les faussetés. C’est la responsabilité du politique. Il faut se doter de tous les moyens pour mettre fin au désordre. Qu’en est-il de la loi de 2018 contre la manipulation de l’information à l’heure de l’intelligence artificielle ? Il est temps de ne plus considérer les plateformes comme de simples hébergeurs. Liberté doit rimer avec responsabilité.

Au niveau européen, l’AI Act porté par le commissaire au marché intérieur, Thierry Breton, vise à réguler l’usage de l’intelligence artificielle dans les États membres. Il vient d’être adopté par le Parlement de l’Union européenne. Pour autant, si cela constitue un net progrès, Reporters sans frontières regrette que ce texte fondateur néglige d’intégrer la protection du droit à l’information. Pour accompagner sa mise en œuvre, pour porter les enjeux du secteur, un ministre de plein exercice et – soyons fous – rattaché directement au Premier ministre ne serait pas un luxe. Ce n’est pas faire offense à la secrétaire d’État chargée du Numérique que de constater que celui-ci ne pèse pas dans l’échiquier gouvernemental. Nous sommes pourtant au cœur du régalien !

Alors que la communication ne figure plus dans le portefeuille de la ministre de la Culture, un strapontin rattaché à Bercy n’est pas à la hauteur des turbulences que nous allons affronter. Un ministre de plein exercice chargé du Numérique et de la Communication s’impose. Pas pour censurer ni pour contrôler, mais pour nous prémunir de la pire des sociétés et faire tout coexister : le numérique, l’IA et la démocratie.

Internet : 90 % des Français pour la suppression de l’anonymat des réseaux sociaux

Internet : 90 % des Français pour la suppression de l’anonymat des réseaux sociaux

Un sondage représentatif dévoile que près de neuf Français sur dix sont favorables à la levée de l’anonymat en ligne. Très concrètement, selon une enquête Harris Interactive pour l’Association de l’économie du numérique (Acsel), 87% des Français estiment que l’identité des personnes inscrites sur les réseaux sociaux devrait être vérifiée pour lutter contre les comportements inappropriés (cyberharcèlement, arnaques, fake news…) et 81% accepteraient que leur propre identité soit vérifiée. ( info La Tribune)

 

Le niveau de violence, de racisme, de sexisme, de harcèlement est bien supérieur sur les réseaux sociaux à ce qu’il est dans la vie physique. On s’y insulte à tout-va et cela finit trop souvent en drame : un jeune se suicide tous les quinze jours dans notre pays, à la suite de harcèlement scolaire et de cyberharcèlement. Sans même parler des arnaques en ligne qui explosent et des fake news qui pullulent. Sommes-nous tous devenus fous ? Non. Mais le sentiment d’anonymat sur les réseaux génère un sentiment d’impunité : il n’y a plus de limites pour certains. Ce phénomène est documenté par les scientifiques.

 

Sondage-Intelligence artificielle : une révolution à réguler

Sondage-Intelligence artificielle : une révolution à réguler 

Les applications d’intelligence artificielle (IA) sont une révolution technologique majeure pour l’humanité, pour six Français sur dix (61%), au même titre que l’a été l’invention de l’imprimerie par exemple. C’est ce qui ressort du Baromètre 2024 de l’esprit critique réalisé par OpinionWay pour Universcience publié jeudi 21 mars. Mais pour plus de huit Français sur dix (85%), il est nécessaire d’encadrer et de réglementer leur utilisation, car elles posent, pour les trois quarts des personnes interrogées (77%), de nouvelles questions éthiques et juridiques en matière de responsabilité et de droits. – (Franceinfo)

Sur les possibilités offertes par ces technologies, 68% des sondés estiment que les applications de l’IA ne peuvent pas prendre de décisions autonomes, puisqu’elles suivent des programmes informatiques définis. 59% des Français jugent qu’elles ne sont pas créatives et innovantes, car elles assemblent des contenus déjà existants. Selon cette enquête, seuls 19% des sondés les croient parfaitement fiables. Quant à savoir si les IA sont plus neutres que les humains, le panel étudié est plus divisé. 42% répondent que oui, elles sont plus neutres, quand 38% estiment qu’elles ne le sont pas.

Le sondage interroge également la vision qu’ont les Français sur les avantages et les risques liés à l’IA. Et ils restent assez partagés, estimant globalement qu’il y a autant de risques que d’avantages à utiliser ces applications. Dans le détail, c’est la perception du risque qui domine pour le domaine des relations humaines. 37% des Français ont ce sentiment, quand 31% estiment qu’il y a autant de risques que d’avantages à utiliser l’IA dans les relations humaines. 10% y voient essentiellement des avantages. Le risque de l’IA est également prédominant pour l’information (33%) et pour l’emploi (31%), même si 34% des sondés voient également autant de risques que d’avantages pour ces deux domaines.

La perception des Français est également très nuancée sur l’apport de l’IA pour la santé, la recherche, les sciences et les transports. Les applications ont autant de risques que d’avantages dans le domaine de la santé (35%), les sciences et la recherche scientifique (36%) et les transports (33%). Mais c’est sur ces trois domaines que les sondés voient le plus d’avantages. Ils sont 29% à percevoir cet avantage pour la santé, 28% pour les sciences et la recherche scientifique, et 26% pour les transports.

L’enquête révèle par ailleurs que les Français se fient majoritairement à l’intelligence artificielle pour détecter des erreurs dans des textes ou des programmes informatiques, pour 75% des sondés, analyser des grandes quantités de données (73%), trouver des informations (70%), approfondir ses connaissances (65%), ou même écrire un texte (64%). À l’inverse, ils sont plus méfiants quand la question de responsabilité entre en jeu. Seul un quart des personnes interrogées (25%) font confiance aux applications de l’IA pour rendre des décisions de justice. Ils sont 28% à assurer que l’IA peut piloter un avion en toute confiance, ou conduire une voiture (34%). Et ils sont 33% à avoir confiance dans l’IA pour prescrire des médicaments, ou pour réaliser un diagnostic médical (41%).

Enfin pour évaluer les risques et bénéfices de l’IA, les Français ont avant tout confiance dans les scientifiques, les musées et journalistes spécialisés. Les personnes interrogées pour le baromètre plébiscitent en priorité les scientifiques et les chercheurs en général (68%), les musées et centres de culture scientifique (59%) et les journalistes scientifiques (56%). Mais les sondés restent très méfiants envers les entreprises. Ils sont seulement 34% à leur faire confiance et même 29% pour les entreprises du numérique du type Gafam. La défiance envers les élus ou les représentants politique est également forte. Seuls 22% des Français leur font confiance pour évaluer les risques et bénéfices de l’IA. La cote de confiance des influenceurs et personnalités publiques est également basse, à 17%.

________________________________________

Le Baromètre 2024 de l’esprit critique réalisé par OpinionWay pour Universcience a été réalisé par un questionnaire en ligne du 31 janvier au 12 février, sur un échantillon de 2 004 personnes, représentatif de la population française âgée de 18 ans et plus.

voir les commentaires

Pa

Santé : les données françaises chez Microsoft

Santé : les données françaises chez Microsoft

Un groupement de 11 entreprises saisissent le Conseil d’État pour tenter de suspendre la décision de la Cnil, qui a autorisé l’hébergement des données de santé chez Microsoft.

 
Un groupement de 11 entreprises saisissent le Conseil d’État pour tenter de suspendre la décision de la Cnil, qui a autorisé l’hébergement des données de santé chez Microsoft.  Ce recours fait suite à une décision de la CNIL, datant du 21 décembre dernier. Le gendarme du numérique a autorisé le groupement d’intérêt public « Plateforme des données de santé » (Health Data Hub) à choisir Microsoft comme hébergeur de l’entrepôt de données EMC2.  Cela concernerait entre 300.000 et 600.000 patients.

Les plaignants reprochent à cette décision de valider le recours à une entreprise américaine, alors que la législation des États-Unis est en contradiction avec celle de l’Union Européenne concernant les données personnelles. Les serveurs de Microsoft Azure sont situés en Europe, mais l’entreprise dépend malgré tout de la juridiction américaine. Et notamment de la loi FISA (Foreign Intelligence Surveillance Act), qui autorise de fait la surveillance de masse au nom de la sécurité nationale.

Les industriels français affirment qu’ils peuvent répondre aux exigences du Health Data Hub
Par ailleurs, les industriels français reprochent au Health Data Hub de ne pas leur donner une chance, en leur préférant un acteur américain.

Une décision qui paraît également aberrante à Léonidas Kalogeropoulos, délégué général de l’OIP, alors que le discours ambiant consiste, dit-il, à évoquer sans cesse la souveraineté numérique et la réindustrialisation.

Mais seuls les fournisseurs cloud comme OVH et Scaleway auraient été consultés durant cette mission, avancent les plaignants.

IA générative de Google dans Apple

IA générative de Google dans Apple

Apple envisage un accord avec Google pour intégrer sur ses smartphones le puissant système d’intelligence artificielle interactive de ce dernier, Gemini AI, a rapporté lundi Bloomberg News.

 

Apple cherche à s’associer à Google pour la mise à jour de la nouvelle version de son système d’exploitation iOS, qui sera probablement présent sur son prochain iPhone, attendu plus tard cette année.

Apple et Google sont déjà engagés dans un partenariat sur un moteur de recherche. Aux termes de cet accord, Google paye des milliards de dollars chaque année à Apple pour donner au moteur de recherche une place de choix sur l’iPhone.

 

Nouvelle technologie-Intelligence artificielle : « risques majeurs pour l’humanité» ?

Nouvelle technologie-Intelligence artificielle : « risques majeurs pour l’humanité» ?


IA: Des conséquences bien sûr technologiques mais aussi sociales, économiques et même démocratiques. La technique pourrait bien échapper à ses créateurs faute de régulation.

Des centaines de chercheurs dans le monde demandent une peau concernant l’utilisation de l’intelligence artificielle en attendant sa régulation. «Ces derniers mois ont vu les laboratoires d’IA s’enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable», peut-on lire dans la tribune parue sur le site de la fondation américaine Future of Life.

«Les systèmes d’IA puissants ne devraient être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables.»

Les signataires réclament donc un moratoire jusqu’à la mise en place de systèmes de sécurité, dont de nouvelles autorités réglementaires dédiées, «la surveillance et le suivi des systèmes d’IA hautement performants», «un financement public robuste pour la recherche technique sur la sécurité de l’IA », «un écosystème robuste d’audit et de certification», des techniques pour aider à distinguer le réel de l’artificiel et des institutions capables de gérer les «perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA provoquera».

«Devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? », poursuivent les signataires. «Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus.» Parmi les applications de l’intelligence artificielle figurent en particulier la rapidité de développement de GPT.

IA générative : positive pour la croissance ?

IA générative :  positive  pour la croissance ?

Une annonce tout à fait hypothétique : la quantification de l’effet positif de l’intelligence artificielle sur l’économie. D’après un rapport officiel diffusé par l’Elysée, l’intelligence artificielle pourrait générer des gains de croissance de 10 à 15 % d’ici une vingtaine d’années. Des chiffres très discutables. La première raison, c’est qu’on mélange l’intelligence artificielle générative des autres formes d’intelligence artificielle qui déjà automatise les processus de production et de distribution. D’une certaine manière, l’intelligence artificielle est mise à toutes les sauces sans doute par effet de mode. Ce qui est sûr, c’est que l’intelligence artificielle tout court va continuer de se développer et est déjà largement à l’œuvre. Il faudra toutefois faire le moment venu un bilan pertinent des pertes et des créations d’emplois notamment dans les services qui seront largement affectés.
Essayer de quantifier les effets de l’intelligence artificielle sur la croissance relève de la recherche dans le marc de café. On pourrait tout aussi bien annoncer que l’intelligence artificielle va détruire 100 milliards  ou au contraire augmenter de à 600 milliards le PIB.Ce qu’on peut dire avec une certaine certitude c’est que l’intelligence artificielle va continuer de pénétrer l’économie et qu’il faut continuer de s’y préparer avec la formation et les investissements. Tout le reste relève de la spéculation

D’après l’Élysée, le rapport du comité interministériel sur l’intelligence artificielle générative prévoit un effet positif de l’IA sur l’économie française dès 2030, avec une hausse de PIB entre 250 milliards d’euros et 400 milliards. Ce texte sera rendu public demain, à la suite d’une remise officielle au président Emmanuel Macron.

Co-directeur du comité avec la chercheuse Anne Bouverot, l’économiste Philippe Aghion va présenter dans le rapport des « chiffres inédits sur le potentiel de création de valeur de l’IA », dixit l’Elysée. Le constat y serait au beau fixe : les effets positifs de l’IA générative sur l’emploi devraient largement dépasser les effets négatifs. Tout un chapitre est d’ailleurs dédié à la thématique « IA créatrice ou destructrice d’emploi ». « Le rapport évoque une hausse du PIB potentielle de 250 à 400 milliards d’euros grâce à l’IA à l’horizon 2030 », chiffre la présidence. Pour rappel, le PIB se situait à 2.640 milliards d’euros en 2022.

 

 

 

Intelligence artificielle générative et désinformation

Intelligence artificielle générative et désinformation

Les progrès récents de l’intelligence artificielle générative (ces outils qui permettent de produire du texte, du son, des images ou des vidéos de manière complètement automatique) font craindre un regain de fausses informations. Cette crainte est exacerbée par le fait que de très nombreuses élections vont avoir lieu dans les mois à venir, à commencer par les élections européennes. Qu’en est-il vraiment ?

Par   DR CNRS, École normale supérieure (ENS) – PSL

Il faut déjà observer que, même si l’idée que l’IA générative est une source de danger en matière de désinformation est largement répandue, le point de vue opposé existe aussi. Ainsi, pour les chercheurs Simon, Altay et Mercier, l’arrivée des systèmes génératifs ne change pas fondamentalement la donne, ni sur le plan qualitatif, ni sur le plan quantitatif.

Ils remarquent que les sources d’information traditionnelles continuent d’occuper le haut du pavé (la grande majorité des gens s’informent à travers les médias traditionnels, qui gardent un pouvoir d’influence supérieur). Le public qui s’informe à partir de médias alternatifs et qui « consomme » des fausses informations est, selon eux, déjà abreuvé de telles sources et ne recherche pas tant une information précise que des informations qui confirment leurs idées (fondées sur une méfiance généralisée vis-à-vis des politiques et des médias).

Leur étude contredit le point de vue courant, voyant dans l’IA une source de danger majeure pour la démocratie. Elle repose sur des enquêtes qui montrent effectivement le poids de l’idéologie en matière de consommation d’information (on est orienté en fonction de son idéologie quand on s’informe, et un biais classique consiste à vouloir confirmer ce que l’on croit, quand plusieurs interprétations d’un événement sont possibles).

Il semble que l’augmentation des capacités de production de texte ne soit pas l’élément essentiel : c’est la capacité à diffuser l’information qui joue un rôle majeur. C’est aussi vrai pour les images et les vidéos, mais l’IA générative semble quand même ici créer une vraie rupture. La prise en main d’un outil comme Photoshop est longue et complexe ; à l’inverse, des outils d’IA comme Dall-e et Midjourney pour l’image, ou Sora pour la vidéo, permettent de générer des contenus réalistes à partir de quelques mots clés seulement, et on connaît le poids de l’image dans l’information. La possibilité de créer automatiquement de fausses vidéos avec la voix, et même le mouvement des lèvres rendu de façon hyper réaliste, crée aussi un état de fait nouveau, qui n’était pas imaginable il y a encore quelques mois.

Notons enfin que les outils de détection de documents générés par IA sont très imparfaits et aucune solution ne permet à l’heure actuelle de déterminer à 100 % si un document est d’origine humaine ou non. Le marquage automatique (watermarking, code indétectable à l’œil nu, mais indiquant qu’un document a été généré par une IA) pourra aider, mais il y aura bien évidemment toujours des groupes capables de produire des fichiers sans marquage, à côté des grosses plates-formes ayant pignon sur rue (il s’agit de procédés qui ne sont pas encore mis en œuvre à large échelle, mais qui pourraient l’être avec l’évolution de la législation).

Mais, au-delà, l’argumentaire montre surtout que ce n’est pas l’IA le point essentiel dans ce problème, mais une question avant tout humaine et sociale. La consommation de fausses informations est souvent motivée par des sentiments d’opposition envers les institutions et les corps sociaux établis, perçus comme ayant failli dans leur mission. La crise du Covid en a fourni une illustration récente, avec l’émergence rapide de figures très médiatisées, en opposition frontale et systématique avec les mesures proposées, et très soutenues par leurs supporters sur les médias sociaux.

Pour de nombreux individus, la propagation et la consommation de fausses informations sont un moyen de remettre en question l’autorité et de s’opposer au statu quo. En ralliant ceux qui partagent des points de vue similaires, la diffusion de fausses informations peut également servir à créer un sentiment d’appartenance et de solidarité au sein de groupes qui s’opposent au pouvoir en place. Dans ce contexte, la désinformation devient un outil pour la construction de communautés unies par des valeurs ou des objectifs communs, renforçant ainsi leur cohésion et leur résilience face aux structures de pouvoir établies. Cette dynamique entraîne donc une polarisation accrue et des divisions au sein de la société, c’est même un objectif quasi revendiqué de certains émetteurs de fausses informations, qui ne s’en cachent pas.

La propagation de la désinformation est donc favorisée par les « fractures de la société » où les divisions sociales, politiques et économiques sont prononcées (phénomène largement étudié par Jérôme Fourquet ; Ipsos mène aussi régulièrement des enquêtes sur ce thème).

Dans ces contextes, les individus peuvent être plus enclins à croire et à propager des théories du complot, des rumeurs et des fausses informations qui correspondent à leurs préjugés, à leurs craintes ou à leurs frustrations. Une société fragmentée est caractérisée par un manque de confiance mutuelle et une polarisation croissante, ce qui crée un terrain fertile pour la propagation de la désinformation. La cohésion sociale et la confiance mutuelle jouent un rôle crucial dans la prévention de la propagation de la désinformation et dans le maintien de la santé démocratique d’une société.

Le facteur humain est enfin important dans la production de fausses informations. Les « bots » automatiques produisant en masse du texte ont une influence quasi nulle (sinon pour noyer l’information au sein d’une masse de textes). On sous-estime souvent le facteur humain, qui reste indispensable pour produire de contenu qui aura un impact, même pour de fausses informations. La découverte encore récente de réseaux efficaces, mais usant de méthodes relativement rudimentaires en est la preuve.

Le problème de la désinformation dépasse donc largement le cadre de l’IA générative ou même celui de quelques individus isolés. Il est largement alimenté par des organisations puissantes, souvent dotées de ressources quasi étatiques, qui déploient des moyens importants pour propager de fausses informations à grande échelle (par exemple l’Internet Research Agency basée à Saint-Pétersbourg).

Ces organisations mettent en place des réseaux comprenant des sites web, une forte présence sur les réseaux sociaux, des bots automatisés, mais impliquent aussi des individus réels, soudoyés ou non, chargés de relayer ces informations trompeuses (on voit donc ainsi que le réseau de propagation de l’information a autant sinon plus d’importance que la production de contenu en elle-même). Cette stratégie de désinformation vise à influencer l’opinion publique, à semer la confusion et à manipuler les processus démocratiques, mettant ainsi en péril la confiance dans les institutions et la crédibilité des élections.

Pour contrer efficacement ce phénomène, il est crucial de prendre des mesures à la fois techniques, politiques et sociales pour identifier, contrer et sensibiliser le public à la désinformation orchestrée à grande échelle. Les plates-formes en ligne sont particulièrement sollicitées.

La stratégie de propagation de fausses nouvelles poursuit un double objectif, ce qui représente un double écueil pour les institutions établies. En effet, en diffusant des informations erronées, non seulement on pollue le débat public en semant la confusion et en brouillant les pistes de la vérité, mais on nourrit également un climat général de méfiance envers toute forme d’autorité et d’information « officielle ». Les autorités en place, déjà sujettes à un fort discrédit et perçues comme étant en situation de faiblesse, peinent à réagir de manière efficace face à cette prolifération de désinformation. Le doute généralisé quant à leur capacité à agir avec transparence et impartialité renforce l’impression que leurs actions pourraient être motivées par des intérêts cachés. Ainsi, les institutions en place se retrouvent prises au piège d’un cercle vicieux où leur crédibilité est constamment remise en question, les rendant d’autant plus vulnérables face aux attaques orchestrées par ceux qui cherchent à déstabiliser l’ordre établi.

L’enjeu est donc de protéger la liberté d’opinion et la liberté d’information, tout en luttant contre la propagation de fausses informations qui peuvent nuire au fonctionnement démocratique. Cette frontière entre ces principes fondamentaux est souvent difficile à tracer, et les autorités doivent jongler avec ces enjeux complexes. Dans certains cas jugés flagrants, des mesures ont été prises pour contrer les tentatives de manipulation de l’opinion publique et de déstabilisation des processus démocratiques. Des chaînes de télévision comme RT, soupçonnées d’être sous l’influence russe, ont été fermées. Des personnalités politiques ont été interrogées en raison de soupçons de corruption et d’influence étrangère. De même, les réseaux sociaux sont étroitement surveillés, et des comptes ou des réseaux liés à des puissances étrangères ont été fermés. Ces mesures visent à protéger l’intégrité des processus démocratiques et à préserver la confiance du public dans les institutions, tout en préservant les principes fondamentaux de liberté et de pluralisme. Cependant, trouver un équilibre juste entre la protection contre la désinformation et le respect des libertés individuelles demeure un défi constant dans les sociétés démocratiques.

12345...61



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol