Archive pour le Tag 'médias'

JO de Paris 2024 : Record d’audience dans les médias

JO de Paris 2024 : Record d’audience dans les médias

Au total, 60 millions de téléspectateurs ont regardé les Jeux olympiques de Paris 2024 sur France Télévisions, selon des chiffres de Médiamétrie publiés ce lundi. Les radios et journaux ont également enregistré une forte hausse des audiences pendant ces deux semaines.

 « Au total, 60 millions de Français (sur une population de 68 millions, Ndlr) ont assisté aux JO sur France Télévisions, ce qui est inédit, et chaque Français en a regardé 20 heures en moyenne », a déclaré ce lundi à l’AFP le numéro 2 du groupe public, Stéphane Sitbon-Gomez.

Selon France TV, qui cite Médiamétrie, les deux plus hauts pics ont été atteints par le nageur Léon Marchand : 14,5 millions de téléspectateurs pour sa quatrième médaille d’or le 2 août et 13,5 millions pour son doublé le 31 juillet. Le troisième pic est la victoire de la France au judo par équipes avec Teddy Riner le 3 août (13 millions).

Encore un score impressionnant pour le service public. Médiamétrie a comptabilisé 17,1 millions de téléspectateurs branchés sur France 2, dimanche soir, pour regarder la cérémonie de clôture des Jeux olympiques de Paris 2024 qui se déroulait au Stade de France (Seine-Saint-Denis).

Un spectacle qui a toutefois attiré moins de téléspectateurs que la cérémonie d’ouverture sur la Seine, le 26 juillet. Celle-ci avait été suivie en direct par 23,2 millions de téléspectateurs en moyenne, puis revisionnée en replay par 1,2 million de personnes supplémentaires, pour un total historique de 24,4 millions.

 

Critique de l’Europe sur l’indépendance des médias

Critique de l’Europe sur l’indépendance des médias

D’après les » Échos », le rapport sur l’Etat de droit de l’UE publié mercredi pointe notamment des inquiétudes sur le manque d’indépendance de la gouvernance des médias de service public dans plusieurs pays.. Dans son rapport annuel sur l’Etat de droit publié mercredi, la Commission européenne fait à nouveau mention de fortes préoccupations concernant la liberté et le pluralisme des médias sur le Vieux Continent.

Certes le rapport note des améliorations, en un an, concernant « la sécurité et l’environnement de travail des journalistes ». Mais leurs conditions de travail et « le manque d’indépendance de la gouvernance des médias de service public restent un sujet de préoccupation dans plusieurs pays », relève-t-il.

Et il n’y a pas que les pays les plus connus en matière d’atteinte à la liberté de la presse qui sont pointés du doigt.

Des préoccupations déjà exprimées concernant l’indépendance éditoriale des médias de service public n’ont pas été résolues en Roumanie, à Malte et en Hongrie, pointe notamment la Commission qui critique aussi fortement le l’Italie.

La Russie interdit 81 médias européens sur son territoire dont l’AFP, Le Monde, LCI et CNews

La Russie interdit 81 médias européens sur son territoire dont l’AFP, Le Monde, LCI et CNews

La Russie interdit 81 médias européens sur son territoire dont l’AFP, Le Monde, LCI et CNews. Cette décision est  une riposte directe à l’interdiction entrée en vigueur mi-mai et mise en place par l’UE. Les Vingt-Sept ont sanctionné quatre médias russes accusés de diffuser de la propagande pro-Kremlin. À savoir Voice of Europe, au cœur d’une enquête sur des allégations d’ingérence au sein du Parlement européen, et trois médias considérés comme proches du Kremlin (Ria Novosti, Izvestia et Rossiiskaia Gazeta).

Cette interdiction instaurée par l’UE concerne tous les moyens de transmission et de distribution depuis ou à destination des pays de l’UE, que ce soit via le câble, le satellite, l’internet ou encore des plateformes et applications sur téléphones portables. Ces médias et leurs journalistes peuvent néanmoins continuer à travailler dans l’UE, tant qu’ils n’y diffusent pas leurs productions ou articles, a précisé l’UE, ajoutant que des personnalités médiatiques russes ont également été sanctionnées dans le passé.

Ces sanctions prises par l’UE doivent aussi inclure une « interdiction du financement russe des médias, des ONG et des partis politiques de l’UE », a précisé la commissaire européenne chargée des Valeurs et de la Transparence, Vera Jourova.

Dans la foulée de ces annonces, Moscou avait d’ailleurs menacé de représailles l’Union européenne, avec qui les relations sont exécrables dans le contexte du conflit en Ukraine. « Je tiens à rappeler à toutes ces têtes brûlées de Bruxelles qu’il y a des dizaines de journalistes des pays de l’UE qui vivent très bien et confortablement en Russie », avait déclaré la porte-parole du ministère russe des Affaires étrangères, Maria Zakharova. Et d’ajouter : « Si de telles mesures sont adoptées contre les journalistes et les médias russes par l’UE ou par des pays individuels, les journalistes occidentaux sentiront notre réponse. Nous réagirons immédiatement et très douloureusement contre les Occidentaux », avait-elle prévenu.

 

« Les médias contribuent à légitimer le RN « 

« Les médias contribuent à légitimer le RN « 

Post-doctorante au Centre européen de sociologie et de science politique (CESSP/EHESS) et docteure en science politique, Safia Dahani mène des recherches sur la légitimation de l’extrême droite contemporaine, et notamment du Rassemblement national (RN). Elle souligne dans la Tribune la manière dont les chaînes d’information en continu ont permis au parti de Marine Le Pen de faire progresser ses idées.

Alors que le Rassemblement national (RN) l’a largement emporté aux élections européennes, une enquête de la plateforme Tagaday montre que Jordan Bardella a été beaucoup plus exposé dans les médias que les autres candidats. Est-ce nouveau ?

SAFIA DAHANI - Ce que les travaux nous montrent, c’est qu’il y a eu un changement dans la médiatisation de ce parti dans les années 2010, dans le sillage de l’ascension de Marine Le Pen à la tête du Front national, devenu Rassemblement national. Il est intéressant de voir la manière dont les médias vont cadrer son accès à la présidence du FN. Elle est élue en 2011 à la tête du parti. Mais dès 2009-2010, elle commence à être invitée dans les émissions politiques de premier plan, en première partie de soirée, sur le service public. Elle débat de controverses nationales avec les ministres sarkozystes de l’époque. Les sondeurs vont la tester, dès 2010, pour l’élection présidentielle de 2012. Marine Le Pen n’est pas médiatisée de la même manière que l’était son père, Jean-Marie Le Pen. Quand Jean-Marie Le Pen était, par exemple, à son époque invité à « L’Heure de vérité » [sur France 2, Ndlr], le journaliste présentait toute sa biographie et rappelait ses ancrages à l’extrême droite. Il y avait des manifestations devant les sièges des chaînes, des appels au boycott… Avec Marine Le Pen, ce n’est plus toujours le cas, et une dynamique nouvelle s’est installée. Il y a cette idée, dans les médias, que c’est nouveau, que c’est une femme, qu’elle présente bien, et que ce n’est pas son père.

Diriez-vous que débute, à ce moment-là, la stratégie dite de « dédiabolisation » du RN ?

Je n’ai pas l’impression qu’il y a alors une stratégie particulière du parti. Ce sont les journalistes, les sondeurs, les observateurs médiatiques de la vie politique qui voient et présentent Marine Le Pen comme quelque chose d’apparemment nouveau, et vont la cadrer de manière différente. Alors effectivement, Marine Le Pen va prendre ses distances avec l’affaire du « détail de l’histoire » [la manière dont son père avait qualifié les chambres à gaz de la seconde guerre mondiale, Ndlr] par exemple… Mais sa médiatisation change. C’est aussi le début des chaînes d’information en continu, ce qu’on appelle le « troisième marché médiatique ». A l’époque, I-Télé va notamment diffuser les meetings de Marine Le Pen, ses conférences de presse, ce qu’on ne voyait pas avant. Ces chaînes vont donner une forte visibilité au FN dans les années 2010. En 2014-2015, j’ai compté que Florian Philippot, alors premier vice-président du parti, était présent au moins tous les deux jours sur les chaînes d’info en continu.

Cette exposition grandissante du RN est-elle aussi liée à l’essor, depuis quelques années, de médias à la ligne ultraconservatrice comme CNews ou le JDD du milliardaire Vincent Bolloré ? On a d’ailleurs vu CNews doubler BFMTV en termes d’audiences une semaine avant le vote des européennes.

Il y a plusieurs éléments. Le premier, c’est que les nouvelles chaînes d’info en continu ont fait apparaître de nouveaux espaces médiatiques, avec la nécessité de trouver de nouveaux invités. C’est à ce moment-là que des députés ont été très médiatisés, alors que cela était jusqu’alors plutôt réservé aux ministres. Le deuxième élément, ce sont les logiques de concentration économique de certains médias, où l’on a effectivement vu des lignes éditoriales se droitiser [comme ce fut le cas avec CNews, ex-I-Télé, après son rachat par le Vivendi de Vincent Bolloré, Ndlr]. Mais au-delà des médias conservateurs comme Valeurs Actuelles ou Le Figaro, qu’on repère directement comme des espaces où les idées de l’extrême droite vont être nuancées, atténuées, légitimées, d’autres types de médias vont progressivement véhiculer cette vision d’un nouveau FN-RN en invitant régulièrement des membres et dirigeants de ce parti. Ils vont le faire en arguant que c’est la démocratie, mais en évacuant tout ce que la science nous dit de ce parti, qui est d’extrême droite, réactionnaire, antisémite et raciste. Cela s’est déployé dans l’ensemble du champ journalistique, à l’exception de quelques médias libres et indépendants, y compris dans l’audiovisuel public. Il y a par exemple eu un débat sur BFMTV, l’an dernier, où le député RN Jean-Philippe Tanguy a suscité la controverse en évoquant des « Français de papier ». Cette médiatisation dépasse les cas de CNews ou du JDD. Elle favorise la percée des idées de l’extrême droite, les rend légitimes. C’est ainsi qu’en 2022, Valérie Pécresse, alors candidate Les Républicains à la présidentielle, a parlé de « grand remplacement » dans un de ses meetings.

Pendant la campagne des européennes, certains observateurs ont notamment critiqué un face à face, le 23 mai sur France 2, entre le Premier ministre Gabriel Attal et Jordan Bardella. Le lendemain, François-Xavier Bellamy, le candidat LR, a critiqué l’organisation de ce débat, refusant de « commenter » un « match qu’on a écrit à l’avance ». Cette forme de médiatisation a-t-elle contribué à légitimer le RN ?

L’organisation de ce duel est quand même questionnant. Le fait que le Premier ministre accepte ce « one to one » avec Jordan Bardella a accouché d’une sorte de transfert de légitimité. Il y a cette idée que ça vaut la peine, en fait, de débattre avec le président du RN, d’y accorder du temps, et en « prime time ». Cela légitime plus qu’autre chose Jordan Bardella et son parti. Ce débat revêt quelque chose d’historique, d’un peu nouveau.

Y a-t-il des précédents à cet épisode ?

C’était déjà historique qu’un président et/ou candidat à l’élection présidentielle débatte avec l’extrême droite avant le second tour, comme Emmanuel Macron l’a fait en 2017 puis en 2022. Il y a désormais cette idée qu’il faut donner la parole au FN-RN en raison de son poids électoral. Mais lors du dernier scrutin, la donne était différente puisqu’il s’agissait des élections européennes, que Gabriel Attal n’était pas candidat, et qu’il a choisi, parmi les dizaines de listes disponibles, de débattre avec le représentant du premier parti d’extrême droite. C’est en cela qu’il y a un changement, et encore une fois un effet de légitimation.

Pour une éducation aux médias

Pour une éducation aux médias 

Ce lundi 18 mars 2024 s’ouvre la 35e édition de la Semaine de la presse et des médias dans l’école. Chaque année, dans bon nombre d’établissements de la maternelle au lycée, ce rendez-vous permet de « développer le goût pour l’actualité », tout en abordant avec les élèves des notions clés du travail journalistique, du décryptage de l’information, à travers des présentations du paysage médiatique ou des rencontres de rédactions. Si cette manifestation a son importance, elle ne suffit bien sûr pas à mener à bien tous les objectifs énoncés ci-dessus. L’observation des pratiques informationnelles enfantines et adolescentes, comme l’analyse des situations d’apprentissage dans le monde scolaire mais aussi en famille, en médiathèques ou dans les communautés associatives, plaident incontestablement pour une banalisation de l’éducation aux médias et à l’information (EMI). Cette éducation est une pierre angulaire du développement d’une culture générale. Comment s’y prendre pour mieux l’ancrer dans le quotidien des jeunes générations ?

 

par 

Anne Cordier, Université de Lorraine dans The Conversation

Dès l’enfance, les pratiques informationnelles existent et participent du développement de loisirs et d’activités. Prenons l’exemple d’Emeline, 10 ans. Passionnée de botanique, elle effectue des recherches en ligne sur les plantes. De son côté, Aiden, 7 ans, utilise YouTube pour regarder « des vidéos de dessins pour avoir des techniques et des idées », et ensuite dessiner à son tour.

Dès l’enfance aussi, ces pratiques d’information témoignent d’un enjeu d’intégration sociale fort. Ainsi, Rémy, scolarisé en CM2, raconte l’importance de ses recherches sur les faits de jeu de son équipe de football préférée. Il les partage avec ses frères et son père car, à la maison, on n’a plus les moyens financiers de se rendre au stade : « Quand on en parle à l’école le lundi, c’est comme si j’étais allé à Bollaert ! »

Cette intrication des pratiques informationnelles avec le développement d’une personnalité et de ses goûts et la volonté de prendre sa place dans le monde monte en puissance avec l’âge.

Les collégiens et les lycéens rencontrés sur le terrain racontent le plaisir de s’informer en groupe, de partager leurs découvertes entre pairs, de s’interroger ensemble sur les informations auxquelles ils accèdent. Dans toute leur diversité : non seulement sont évoquées les pratiques informationnelles médiatiques, dites d’actualité, mais aussi les pratiques informationnelles documentaires, extrêmement prégnantes dans la vie enfantine et adolescente.

Contrairement à une vulgate répandue, et affirmée par des études aux contours flous et purement déclaratives, les enfants et les adolescents s’informent. Ils et elles s’informent sur leurs centres d’intérêt, leurs loisirs, mais aussi des sujets de société qui leur tiennent à cœur, à la manière de ces lycéennes qui peuvent discuter longuement des violences sexistes et sexuelles. Elles effectuent une veille informationnelle rigoureuse sur le sujet par le moyen des réseaux sociaux numériques.

Adolescentes et adolescents s’informent avec un plaisir réel, lors de rituels qu’ils mettent en place, seuls, avec des pairs ou en famille. Vasco, lycéen de 17 ans, explique combien il aime « confronter « (ses) » informations avec celles de (sa) mère avec la télé. On n’est pas souvent d’accord, mais c’est ça qui est bien, on se parle ! »

Ces générations tirent parti de ressources informationnelles qui échappent souvent au regard des adultes, à l’instar de Hugo Décrypte, fortement plébiscité par les lycéens, ou encore des titres de presse régionale ou nationale, dont ils suivent les publications via les réseaux sociaux numériques. N’oublions pas non plus les créateurs et créatrices de contenu, qui tiennent une place importante dans l’écosystème informationnel des publics juvéniles, notamment pour nourrir leur curiosité envers l’information documentaire (sur la santé, la sexualité, ou encore la physique ou le cinéma).

Ces pratiques informationnelles ont besoin de soutien, et les enfants comme les adolescents apparaissent très demandeurs d’accompagnement dans le domaine, conscients notamment de la difficulté à évaluer l’information dans un contexte généralisé de défiance, ou encore à gérer la réception des images violentes en ligne. Ils sont aussi désireux de développer plus encore leurs connaissances informationnelles « pour réussir dans la vie, parce que l’information c’est un tremplin », comme le note Romane, 17 ans.

Les adolescents et les jeunes adultes rencontrés en enquête font part de rituels de familiarisation à l’information qu’ils considèrent comme fondateurs dans leur parcours. C’est le cas de Morgan qui, à 24 ans, tire le fil entre une expérience quotidienne de la lecture et de la discussion autour de la presse d’actualité à l’école primaire et son appétence actuelle, à l’âge adulte, pour la presse écrite :

D’autres évoquent des apprentissages structurants, lesquels ont pu être observés lors d’un suivi longitudinal de lycéens dans leur entrée dans les études supérieures et dans la vie professionnelle. À 19 ans, Julie « ne remerciera jamais assez (son professeur documentaliste) qui lui a donné les bonnes cartes pour après ! », notamment en la sensibilisant au référencement bibliographique et au travail de sourçage de l’information.

Malheureusement, l’étude des parcours sur le long terme, et les enquêtes de terrain en milieu scolaire, montrent la difficulté à mettre en place une progression des apprentissages en éducation aux médias et à l’information. Les temps consacrés à l’information dans la classe, à son analyse comme à sa discussion, sont trop ponctuels.

Or, intégrer des apprentissages informationnels au sein d’un environnement médiatique et documentaire pour le moins complexe, comprendre des concepts essentiels comme l’autorité informationnelle ou encore la ligne éditoriale, développer une culture des sources, tout cela demande du temps.

Le traitement évènementiel de l’information, auquel se trouvent souvent contraints les acteurs de l’éducation aux médias et à l’information, ne permet absolument pas de relever le défi. Tout d’abord, parce que, nous l’avons vu, ce traitement n’est pas à la mesure de la quotidienneté – joyeuse – de la vie sociale des enfants et des adolescents, et des enjeux qu’ils ont à affronter chaque jour pour appréhender le flux d’informations et en traiter le contenu, quel que soit son statut.

Ensuite, la prise en charge des problématiques informationnelles et médiatiques ne saurait se limiter à la gestion d’un évènement en général tellement chargé émotionnellement (attentats, guerres) que la prise de distance nécessaire à la structuration de connaissances n’est pas possible.

Enfin, l’étude des trajectoires informationnelles des acteurs suivis sur le long terme et les interrelations avec les formations en EMI dont ils ont bénéficié montrent à quel point la dimension temporelle est cruciale. C’est ce qui favorise l’intégration de compétences et de connaissances abordées de façon répétée de manière à ce que des transferts soient envisagés et envisageables. C’est ainsi qu’en situation, dans un nouveau contexte, les jeunes concernés seront en mesure de convoquer de nouveau des ressources, des types d’usages ou de pratiques abordés.

Pour l’ensemble de ces raisons, c’est d’une éducation aux médias et à l’information du quotidien et au quotidien dont nos enfants et adolescents ont besoin, une éducation à la hauteur de la place qu’a l’activité informationnelle dans leur vie. C’est-à-dire une place quotidienne, profondément incarnée, sensible, joyeuse, et essentielle dans les sociabilités qu’ils mettent en œuvre, que ce soit avec la famille ou avec les pairs.

Guerre Israël-Hamas : l’intox des médias

Guerre Israël-Hamas : l’intox des médias

Dans la guerre entre Israël et le Hamas, les médias donnent chacun leur version des faits en fonction de leur orientation politique. Voir à cet égard cette tragique affaire de distribution de nourriture à Gaza. Cela peut influencer les perceptions du public et même le déroulement du conflit lui-même. D’où l’importance de suivre des médias dont l’objectif est l’intérêt public.

Papier de télévision d’Ester Duflot de radio France 

Une des dimensions du drame de Gaza, c’est qu’il reste peu de médias pour documenter ce qui se passe. Presque tous les journalistes sont partis, et ceux qui restent ont beaucoup de mal à travailler dans les ruines, au milieu des bombes, sans électricité et sans eau.

En d’autre temps, pour d’autres crises, les réseaux sociaux avaient joué un rôle d’information en permettant aux citoyens de partager ce qu’ils voyaient. Mais aujourd’hui, l’intox domine de tous les côtés sur les réseaux, en partie nourrie par de fausses images générées par l’intelligence artificielle, et en l’absence de tout contrôle.

Les médias traditionnels ne se privent pas non plus d’interpréter une information parcellaire à la sauce qui leur convient. Ainsi, le 17 octobre, une explosion a eu lieu dans à l’hôpital Ahli Arab de Gaza, faisant des centaines de morts. Quelle qu’en soit la cause, il s’agissait évidemment d’une tragédie, un symptôme et un symbole de la cruauté de cette guerre pour les populations civiles.

Mon collègue Ben Olken, qui s’intéresse aux médias et à la politique, a copié les gros titres de différents journaux, le soir de l’explosion, à un moment où il y avait peu d’information. Naturellement, les médias arabes et israéliens présentaient le cas sous un jour entièrement différent :

Al Jazeera titrait ainsi : “Un raid israélien sur un hôpital fait 500 morts” ou encore “Israël tue 500 victimes dans le massacre de l’hôpital de Gaza”.

À la même heure, le Times of Israel titrait “IDF : l’explosion de l’hôpital était due à une roquette mal tirée. Le monde arabe accuse Israël”.

Et ce n’est pas la première fois non plus dans ce conflit que des événements troubles ont donné lieu à des interprétations opposées. À chaque fois, chacune de ces versions a été amplifiée dans les médias avant que la vérité n’émerge.

Ce qui est peut-être plus frappant, c’est qu’au moment où on ne savait encore rien des détails sur l’hôpital Ahli Arab, les journaux américains titraient également sur le drame en fonction de leur position politique.

Ainsi, le Washington Post, de centre gauche, titrait : “des centaines de morts dans un raid sur un hôpital à Gaza, d’après les officiels palestiniens”.

Le New York Times, au centre, était plus prudent, ne se prononçait pas sur la responsabilité d’une partie ou de l’autre : “Des centaines de morts dans une explosion dans un hôpital à Gaza, d’après les officiels palestiniens”.

Le Wall Street Journal, à droite, introduisait la position israélienne : “Une explosion à un hôpital de Gaza fait plus de 500 morts, d’après les officiels palestiniens. Le Jihad Islamique palestinien dément l’accusation d’Israël d’avoir causé l’explosion. Les officiels palestiniens et le Hamas accusent Israël”.

Et finalement, Fox News, à droite de la droite, ne donnait même plus la version palestinienne : “Des centaines de morts. D’après Israël, c’est un tir de roquette rate qui est à l’origine de l’explosion de l’hôpital à Gaza ».

Les médias s’adaptent aux opinions de leur public pour ne pas risquer de perdre leur lectorat. Et dans une certaine mesure, oui, bien sûr, le public le sait et tempère ce qu’il entend, mais jamais complètement. C’est bien pour cela que le contrôle des médias est un aspect essentiel du pouvoir.

Ainsi, quand Fox News a pénétré le marché de la télévision aux États-Unis, le vote républicain a augmenté. En Russie, quand les télévisions et les radios indépendantes pouvaient encore opérer, ceux qui habitaient près d’une antenne de transmission votent moins pour le parti de gouvernement et plus pour les partis indépendants.

Dans le conflit israélo-palestinien, les récits du conflit finissent par influencer le conflit lui-même. Quelle que soit la conclusion finale sur la source de l’explosion de l’hôpital Ahli Arab, la plupart des gens ne se rappelleront que de la première version qu’ils auront entendue. Pour certains, de supposées actions israéliennes justifieront une escalade de la guerre. Pour d’autres, une probable désinformation palestinienne autorisera l’armée israélienne à ne pas rendre compte de ses actes.

Quoi qu’il arrive, les civils israéliens et palestiniens, et les juifs et les musulmans dans le monde entier, seront les perdants. Cela nous rappelle le rôle essentiel d’un média bien informé et dont l’objectif est le bien public, pas le profit.

La crise des médias et publicité digitale

La crise des médias et publicité digitale

Promesse de campagne du candidat Emmanuel Macron en 2022, les États Généraux de l’information se déroulent depuis le mois d’octobre dernier, avec l’objectif de « pérenniser le financement de l’information libre indépendante ». Une initiative qui répond à une préoccupation légitime suscitée par les difficultés que rencontrent les médias traditionnels ou par certains mouvements récents de concentration du paysage médiatique. Ces États généraux de l’information co-pilotés par le Président d’Arte, Bruno Patino, et le Secrétaire général de RSF, Christophe Deloire, déboucheront avant l’été sur des propositions. Il est donc essentiel qu’elles se fondent sur un diagnostic précis de ces évolutions pour en tirer des conclusions en matière d’innovation, de concurrence et in fine de contribution au pluralisme. En particulier pour ce qui concerne le financement de l’information, le rôle de la publicité, notamment digitale, sera certainement scruté comme le laisse d’ailleurs supposer l’étude à paraître ce mois-ci « L’avenir du marché publicitaire », lancée par l’Arcom et la DGMIC du ministère de la Culture.

par
Loïc Rivière, directeur délégué de The Good Advertising Project dans la Tribune

Initiative certainement louable si cette dernière souligne aussi la contribution essentielle de la publicité digitale au pluralisme sur Internet. Car il est une habitude tenace en France, celle de s’en prendre au numérique pour y chercher les causes de son désarroi face aux évolutions des usages de notre temps. C’est pourquoi, il importe de ne pas déconnecter l’analyse des équilibres économiques et des marchés comme celui de la publicité, de celles des usages de notre époque. Car les usages d’accès à l’information ont bien changé !

La crise de la presse est d’abord une crise du papier, de son prix sans aucun doute, de son usage certainement – l’audience des médias est désormais sur le web – mais de son modèle publicitaire également. La publicité digitale a en effet mis un terme à l’effet boîte noire du placement publicitaire au sein d’un titre papier : la publicité sera-t-elle vue, combien de fois et par qui ? Une interrogation historique légitime des annonceurs qui trouva sa réponse dans le formidable développement de la publicité en ligne et en particulier du programmatique.

La conversion des médias au digital a, à l’instar de tous les secteurs affectés par la révolution numérique, redessiné le paysage du secteur qui s’est de fait trouvé intégré dans un flot de contenus et de services. Entre les nouveaux entrants, pure players du 100% digital ou nouveaux formats d’information vidéo, les titres premium qui ont réussi leur mue digitale, ceux qui à l’inverse se sont enfermés dans un modèle clickbait et de dépréciation de l’information : le paysage n’est plus le même ! Sans parler du poids du User Generated Content, ce contenu utilisateur de divertissement ou bien d’information disponible sur les réseaux sociaux et dont les générations nouvelles sont avides.

Ce contenu a pris une place considérable dans l’accès à l’information, en particulier immédiate et de fait l’information grand public se résume parfois au commentaire de ces sources. Si ces informations ne sont pas exemptes de stratégies de désinformation, elles constituent aussi dans certains cas la meilleure source de vérification comme l’ont illustré les analyses[1] des spécialistes de l’Osint sur les conflits en cours. L’information ne se consomme plus de la même manière et les médias ne sont plus les seuls à en diffuser. C’est donc un élément structurant de l’évolution des placements des budgets publicitaires consacrés à l’information à prendre en compte.

C’est, en outre, bien la publicité digitale qui a permis l’éclosion de nombreux médias numériques et de formats d’information vidéo innovants comme Brut, Konbini ou encore Loopsider dont les ressources reposent, parfois cumulées avec l’abonnement, principalement sur la publicité digitale ou le « brand content ». Si certains succès sur le web se sont construits sur l’abonnement (Mediapart, Contexte…), d’autres prospèrent en effet grâce à la publicité digitale (Huffington Post, Actu, L’Internaute…) ou bien associent abonnement et publicité pour ce qui concerne la presse d’information, dite premium.

Dans le cadre des aides au pluralisme, le ministère de la Culture a donc logiquement soutenu ces nouveaux formats avec la création d’une nouvelle aide dédiée aux services de presse en ligne, versée à 52 titres, qui complète le fonds de soutien aux médias d’information sociale et de proximité (FSMISP), qui lui cible non seulement la presse écrite, mais tous les services d’information diffusés par voie électronique (site internet de presse, infolettre, webtélé, webradio…).

La publicité digitale représente ainsi une opportunité unique pour le pluralisme d’information. Opportunité qui s’est sans aucun doute nourrie, pour ce qui concerne les titres ne disposant pas de régies, des offres intégrées des plateformes offrant en quelques clics aux nouveaux entrants un accès immédiat à tous les annonceurs.

Le marché de la publicité sur écrans est désormais un marché global de l’attention
« Temps de cerveau humain disponible » : l’expression de Patrick Le Lay alors PDG du groupe TF1 avait suscité la polémique. Elle était pour le moins malheureuse ! Mais elle disait cependant caricaturalement quelque chose de l’enjeu pour les annonceurs de s’adapter à la dispersion croissante des audiences dans un paysage audiovisuel devenu multiple. La continuité d’expérience qu’offrent aujourd’hui les différents écrans (télévision, ordinateur, smartphone) qui permettent de consulter les mêmes contenus de façon linéaire ou à la demande, invite sans aucun doute à parler davantage d’un marché de l’attention pour désigner la publicité sur écrans.

Aujourd’hui, les écrans mobiles (téléphone et tablette) concentrent plus de la moitié de la consommation de programmes télévisuels en ligne (54%), contre 28% sur téléviseur et 18% sur ordinateur [2] ! Les régies publicitaires des chaînes de télévision, qui sont désormais en mesure de proposer du ciblage à travers l’IPTV, ont aussi bien la charge de commercialiser les espaces linéaires que ceux à la demande (CTV, Smart TV, Chaînes FAST). Un enjeu pour Médiamétrie dont le Médiamat, la mesure de référence de l’audience TV, franchit une étape cette année en prenant en compte « la consommation TV de tous les Français, sur tous les écrans et en tous lieux ».

C’est donc une offre globale à laquelle peut souscrire l’annonceur et l’évaluation du marché publicitaire pertinent doit intégrer cette approche pour saisir l’évolution des usages, les dynamiques d’innovation et de concurrence entre les acteurs. Les plateformes de streaming ou de VOD à l’instar de Netflix investissent également le marché publicitaire et demain le jeu vidéo se financera aussi par la publicité, comme en témoigne le développement de la startup Gadsme, qui propose des offres programmatiques de publicité « in game ». Il serait donc erroné d’évaluer les parts de marchés des acteurs de la publicité digitale en dessinant des contours d’un marché qui ne refléterait ni la forte substituabilité des usages, ni celle des possibilités offertes aux annonceurs.

C’est d’ailleurs à notre sens ce qu’il faut déduire des différents avis ou enquêtes des autorités de la concurrence [3] qui se sont heurtées – et la plupart du temps ont donc renoncé [4] -, à la complexité de définir et d’isoler plusieurs marchés pertinents dans les différents segments de la publicité numérique. On devra sans aucun doute également prendre de plus en plus en compte dans ce marché global de l’attention les dynamiques à l’œuvre au sein des industries culturelles et la diversification horizontale des grands groupes de communication qui intégrant édition, médias, télévision, et distribution numérique offrent de fortes synergies d’exposition publicitaire à travers les promotions croisées ainsi rendues possibles…

En outre, de nombreux modèles et technologies d’accès au marché publicitaire, et donc aux inventaires, coexistent. Loin de se scléroser, l’écosystème Adtech a littéralement explosé et compte désormais plusieurs milliers d’acteurs dont une vingtaine cotée aujourd’hui au Nasdaq [5] à l’instar du champion français Criteo. Au sein de cette dynamique d’innovation, les plateformes jouent un souvent rôle positivement structurant en ce qu’elles génèrent des écosystèmes d’acteurs qui offrent des services à valeur ajoutée en s’interopérant avec celles-ci, soit via des API spécifiques, soit à travers des programmes de partenariat.

Une dynamique qui est portée par les attentes nouvelles des consommateurs en matière de publicité responsable et auxquelles tous ces acteurs tentent de répondre. Mais il s’agit parfois de faire face à des injonctions contradictoires à l’instar des préoccupations exprimées en matière de protection de la vie privée qui mettent un terme à l’emploi des cookies de suivi du comportement de consommation (cookies tiers). Celles-ci conduisent dès lors les acteurs à élaborer des technologies plus protectrices [6] qui, dans le respect du consentement exigé, contreviennent à l’autre objectif affirmé des autorités de supervision de ces marchés d’un plus grand partage de ces données.

C’est pourquoi, les acteurs souhaitent un assouplissement des contraintes en contrepartie d’une meilleure protection des utilisateurs. En l’absence d’une refonte du RGPD à court terme, les autorités de protection des données pourraient y pourvoir. Tout le monde en sortirait gagnant !

[1] Voir à ce titre l’épisode du bombardement de l’hôpital Al-Ahli Arabi à Gaza le 17 octobre 2023.

[2] Ministère de la Culture 2021. https://www.culture.gouv.fr/Media/Medias-creation-rapide/Chiffres-cles-2022-Television-Fiche.pdf

[3] Voir notamment pour l’ADLC, l’avis 18-A-03 du 06 mars 2018 ou la Décision 22-D-12 du 16 juin 2022.

[4] A l’exception du Search

[5]Adtech Index : https://adprofs.co/adtech-index/

[6] Privacy Enhancing Technologies

Société- Le vide des médias pendant la trêve des confiseurs

Société- Le vide des médias pendant la trêve des confiseurs

C’est devenu une tradition, la vie économique s’arrête en grande partie entre Noël et le nouvel an. Il en est de même dans les médias ou le sport occupe une grande partie avec quelques faits divers. Notons d’ailleurs que les premières plumes, les grands éditorialistes sont partis en vacances au soleil ou à la neige. À la place on voit des seconds couteaux dans beaucoup d’émissions de radio de télé et autres médias. Exemple sur BFM on apprend qu’une voiture était mal garée à Nice:

 » La circulation de la ligne 1 du tramway a été à l’arrêt pendant 15 minutes ce samedi 30 décembre. En cause, une voiture garée sur les rails, avenue Jean-Jaurès, indique Nice-Matin.

Le tramway a donc dû être immobilisé dans les deux sens de circulation vers 16h, pendant un quart d’heure, le temps que la fourrière intervienne pour déplacer le véhicule gênant. »

Il est certain qu’on pourrait largement nourrir les médias actuels et même beaucoup de nouveaux uniquement avec les voitures mal garées en France. On pourrait même sans doute faire un concours national est consacré une télé réalité sur le sujet d’importance évidemment stratégique et culturelle évidente.

Le quasi vide des médias pendant la trêve des confiseurs

Le quasi vide des médias pendant la trêve des confiseurs

C’est devenu une tradition, la vie économique s’arrête en grande partie entre Noël et le nouvel an. Il en est de même dans les médias ou le sport occupe une grande partie avec quelques faits divers. Notons d’ailleurs que les premières plumes, les grands éditorialistes sont partis en vacances au soleil ou à la neige. À la place on voit des seconds couteaux dans beaucoup d’émissions de radio de télé et autres médias. Exemple sur BFM on apprend qu’une voiture était mal garée à Nice:

 » La circulation de la ligne 1 du tramway a été à l’arrêt pendant 15 minutes ce samedi 30 décembre. En cause, une voiture garée sur les rails, avenue Jean-Jaurès, indique Nice-Matin.

Le tramway a donc dû être immobilisé dans les deux sens de circulation vers 16h, pendant un quart d’heure, le temps que la fourrière intervienne pour déplacer le véhicule gênant. »

Il est certain qu’on pourrait largement nourrir les médias actuels et même beaucoup de nouveaux uniquement avec les voitures mal garées en France. On pourrait même sans doute faire un concours national est consacré une télé réalité sur le sujet d’importance évidemment stratégique et culturelle évidente.

soit engagée ».

Ensauvagement et violences: Les Français critiquent gouvernements, élites et médias

Ensauvagement et violences: Les Français critiquent gouvernements, élites et médias

Alors que le gouvernement médias et élites ont tous adopté une attitude particulièrement hypocrite vis-à-vis du meurtre de Thomas à Crépol considérant qu’il s’agissait d’un fait divers ne pouvant justifier d’une généralisation sociétale, les Français pensent exactement le contraire.

Selon la dernière enquête d’Elabe, une majorité de Français estiment que le drame survenu Crépol « n’est ni un fait divers ni une simple rixe » (78%), il représente « la faillite générale » (75%) et « l’ensauvagement » (67%) d’une société qui « risque de basculer ».

Il est clair qu’il y a un divorce actuellement entre la société française et les élites qui perpétuent le déni de réalité concernant l’insécurité en particulier lié à la délinquance de certaines catégories marginales sur fond de radicalisation et de trafic de drogue.

Il faut dire que ces élites médiatiques politiques et même scientifiques habitent rarement les mêmes zones géographiques que ceux qui subissent la délinquance. L’exemple plus significatif étant sans doute celui de Marseille ville pratiquement coupée en deux avec ses quartiers hors contrôle éloignés et des zones embourgeoisées compris dans le centre.

De ce point de vue, Marseille offre les pires contradictions. Sans doute la plus belle ville de France mais en même temps où la criminalité fait partie du quotidien.

L a sauvagerie du meurtre de Thomas à Crépol marque sans doute une pierre dans l’évolution de la société française vis-à-vis des violences en général. Il faudra que la justice en particulier mais aussi le gouvernement en tiennent compte sinon un jour les citoyens feront leur justice et leur police eux-mêmes comme aux États-Unis.

Politique: Meurtre de Thomas à Crépol: Les Français critiquent gouvernements, élites et médias

Politique: Meurtre de Thomas à Crépol: Les Français critiquent gouvernements, élites et médias

Alors que le gouvernement médias et élites ont tous adopté une attitude particulièrement hypocrite vis-à-vis du meurtre de Thomas à Crépol considérant qu’il s’agissait d’un fait divers ne pouvant justifier d’une généralisation sociétale, les Français pensent exactement le contraire.

Selon la dernière enquête d’Elabe, une majorité de Français estiment que le drame survenu Crépol « n’est ni un fait divers ni une simple rixe » (78%), il représente « la faillite générale » (75%) et « l’ensauvagement » (67%) d’une société qui « risque de basculer ».

Il est clair qu’il y a un divorce actuellement entre la société française et les élites qui perpétuent le déni de réalité concernant l’insécurité en particulier lié à la délinquance de certaines catégories marginales sur fond de radicalisation et de trafic de drogue.

Il faut dire que ces élites médiatiques politiques et même scientifiques habitent rarement les mêmes zones géographiques que ceux qui subissent la délinquance. L’exemple plus significatif étant sans doute celui de Marseille ville pratiquement coupée en deux avec ses quartiers hors contrôle éloignés et des zones embourgeoisées compris dans le centre.

De ce point de vue, Marseille offre les pires contradictions. Sans doute la plus belle ville de France mais en même temps où la criminalité fait partie du quotidien.

L a sauvagerie du meurtre de Thomas à Crépol marque sans doute une pierre dans l’évolution de la société française vis-à-vis des violences en général. Il faudra que la justice en particulier mais aussi le gouvernement en tiennent compte sinon un jour les citoyens feront leur justice et leur police eux-mêmes comme aux États-Unis.

Société-Meurtre de Thomas à Crépol: Les Français critiquent gouvernements et médias

Société-Meurtre de Thomas à Crépol: Les Français critiquent gouvernements et médias

Alors que le gouvernement médias et élites ont tous adopté une attitude particulièrement hypocrite vis-à-vis du meurtre de Thomas à Crépol considérant qu’il s’agissait d’un fait divers ne pouvant justifier d’une généralisation sociétale, les Français pensent exactement le contraire.

Selon la dernière enquête d’Elabe, une majorité de Français estiment que le drame survenu Crépol « n’est ni un fait divers ni une simple rixe » (78%), il représente « la faillite générale » (75%) et « l’ensauvagement » (67%) d’une société qui « risque de basculer ».

Il est clair qu’il y a un divorce actuellement entre la société française et les élites qui perpétuent le déni de réalité concernant l’insécurité en particulier lié à la délinquance de certaines catégories marginales sur fond de radicalisation et de trafic de drogue.

Il faut dire que ces élites médiatiques politiques et même scientifiques habitent rarement les mêmes zones géographiques que ceux qui subissent la délinquance. L’exemple plus significatif étant sans doute celui de Marseille ville pratiquement coupée en deux avec ses quartiers hors contrôle éloignés et des zones embourgeoisées compris dans le centre.

De ce point de vue, Marseille offre les pires contradictions. Sans doute la plus belle ville de France mais en même temps où la criminalité fait partie du quotidien.

L a sauvagerie du meurtre de Thomas à Crépol marque sans doute une pierre dans l’évolution de la société française vis-à-vis des violences en général. Il faudra que la justice en particulier mais aussi le gouvernement en tiennent compte sinon un jour les citoyens feront leur justice et leur police eux-mêmes comme aux États-Unis.

Meurtre de Thomas à Crépol: Les Français contredisent gouvernements et médias

Meurtre de Thomas à Crépol: Les Français contredisent gouvernements et médias

Alors que le gouvernement médias et élites ont tous adopté une attitude particulièrement hypocrite vis-à-vis du meurtre de Thomas à Crépol considérant qu’il s’agissait d’un fait divers ne pouvant justifier d’une généralisation sociétale, les Français pensent exactement le contraire.

Selon la dernière enquête d’Elabe, une majorité de Français estiment que le drame survenu Crépol « n’est ni un fait divers ni une simple rixe » (78%), il représente « la faillite générale » (75%) et « l’ensauvagement » (67%) d’une société qui « risque de basculer ».

Il est clair qu’il y a un divorce actuellement entre la société française et les élites qui perpétuent le déni de réalité concernant l’insécurité en particulier lié à la délinquance de certaines catégories marginales sur fond de radicalisation et de trafic de drogue.

Il faut dire que ces élites médiatiques politiques et même scientifiques habitent rarement les mêmes zones géographiques que ceux qui subissent la délinquance. L’exemple plus significatif étant sans doute celui de Marseille ville pratiquement coupée en deux avec ses quartiers hors contrôle éloignés et des zones embourgeoisées compris dans le centre.

De ce point de vue, Marseille offre les pires contradictions. Sans doute la plus belle ville de France mais en même temps où la criminalité fait partie du quotidien.

L a sauvagerie du meurtre de Thomas à Crépol marque sans doute une pierre dans l’évolution de la société française vis-à-vis des violences en général. Il faudra que la justice en particulier mais aussi le gouvernement en tiennent compte sinon un jour les citoyens feront leur justice et leur police eux-mêmes comme aux États-Unis.

L’intelligence artificielle va provoquer la fin des médias ?

L’intelligence artificielle va provoquer la fin des médias ?

Recherche d’informations, production de contenu, traduction, détection de propos haineux… l’intelligence artificielle (IA) générative promet d’importants gains de productivité dans l’univers des médias. Les médias nous accompagnent au quotidien et sont un support à la démocratie : ils ont la liberté de montrer différents points de vue et idées, de dénoncer la corruption et les discriminations, mais également de montrer la cohésion sociale et culturelle.
Alors que le public se tourne vers les médias pour s’informer, se cultiver et se divertir, les médias n’échappent pas aux soucis économiques et à la rentabilité d’une industrie mesurée en termes d’audimat et de vente. Dans ce contexte, l’IA générative amène de nouveaux outils puissants et sera de plus en plus utilisée.

Laurence Devillers
Professeur en Intelligence Artificielle, Sorbonne Université dans The conversation

Un article intéressant mais qui n’assiste pas suffisamment sur l’actuelle très grande fragilité des médias. Une fragilité qui se traduit notamment par un introuvable équilibre financier qui favorise la médiocrité rédactionnelle. Et qui permet la mainmise des grands capitaines d’industrie sur l’information ! NDLR

Mais il faut crucialement rappeler que les IA génératives n’ont pas d’idées, et qu’elles reprennent des propos qui peuvent être agencés de façon aussi intéressante qu’absurde (on parle alors d’« hallucinations » des systèmes d’IA). Ces IA génératives ne savent pas ce qui est possible ou impossible, vrai ou faux, moral ou immoral.

Ainsi, le métier de journaliste doit rester central pour enquêter et raisonner sur les situations complexes de société et de géopolitique. Alors, comment les médias peuvent-ils exploiter les outils d’IA tout en évitant leurs écueils ?

Le Comité national pilote d’éthique du numérique (CNPEN) a rendu en juillet un avis général sur les enjeux d’éthique des IA génératives, que j’ai co-coordonné, au ministre chargé de la Transition numérique. Il précise notamment les risques de ces systèmes.

Les médias peuvent utiliser l’IA pour améliorer la qualité de l’information, lutter contre les fausses nouvelles, identifier le harcèlement et les incitations à la haine, mais aussi parce qu’elle peut permettre de faire avancer la connaissance et mieux comprendre des réalités complexes, comme le développement durable ou encore les flux migratoires.

Les IA génératives sont des outils fabuleux qui peuvent faire émerger des résultats que nous ne pourrions pas obtenir sans elles car elles calculent à des niveaux de représentation qui ne sont pas les nôtres, sur une quantité gigantesque de données et avec une rapidité qu’un cerveau ne sait pas traiter. Si on sait se doter de garde-fous, ce sont des systèmes qui vont nous faire gagner du temps de recherche d’information, de lecture et de production et qui vont nous permettre de lutter contre les stéréotypes et d’optimiser des processus.

Ces outils n’arrivent pas maintenant par hasard. Alors que nous sommes effectivement noyés sous un flot d’informations diffusées en continu par les chaînes classiques ou contenus accessibles sur Internet, des outils comme ChatGPT nous permettent de consulter et de produire des synthèses, programmes, poèmes, etc., à partir d’un ensemble d’informations gigantesques inaccessibles à un cerveau humain en temps humain. Ils peuvent donc être extrêmement utiles pour de nombreuses tâches mais aussi contribuer à un flux d’informations non sourcées. Il faut donc les apprivoiser et en comprendre le fonctionnement et les risques.

Les performances des IA génératives tiennent à la capacité d’apprentissage auto-supervisée (c’est-à-dire sans être guidée par une main humaine, ce qui est un concept différent de l’adaptation en temps réel) de leurs modèles internes, appelés « modèles de fondation », qui sont entraînés à partir d’énormes corpus de données constitués de milliards d’images, de textes ou de sons très souvent dans les cultures dominantes sur Internet, par exemple GPT3.5 de ChatGPT est nourri majoritairement de données en anglais. Les deux autres types d’apprentissage ont également été utilisés : avant sa mise à disposition fin 2022, ChatGPT a été optimisé grâce à un apprentissage supervisé puis grâce à un apprentissage par renforcement par des humains de façon à affiner les résultats et à éliminer les propos non souhaitables.

Cette optimisation par des humains a d’ailleurs été très critiquée. Comment sont-ils formés ? Qui sont ces « hommes du clic » sous-payés ? Ces propos « non souhaitables », en outre, ne sont pas décidés par un comité d’éthique ou le législateur, mais par l’entreprise seule.

Durant l’apprentissage des modèles de fondation sur des textes, le système apprend ce que l’on appelle des « vecteurs de plongements lexicaux » (de taille 512 dans GPT 3.5). C’est le système « transformers ». Le principe d’entraînement du modèle de fondation est fondé par l’hypothèse distributionnelle proposée par le linguiste américain John Ruppert Fith en 1957 : on ne peut connaître le sens d’un mot que par ses fréquentations (« You shall know a word by the company it keeps »).

Ces entités (« token » en anglais) font en moyenne quatre caractères dans GPT3.5. Elles peuvent n’être constituées que d’un seul et d’un blanc. Elles peuvent donc être des parties de mots ou des mots avec l’avantage de pouvoir combiner agilement ces entités pour recréer des mots et des phrases sans aucune connaissance linguistique (hormis celle implicite à l’enchaînement des mots), le désavantage étant évidemment d’être moins interprétable. Chaque entité est codée par un vecteur qui contient des informations sur tous les contextes où cette entité a été vue grâce à des mécanismes d’attention. Ainsi deux entités ayant le même voisinage seront considérées comme proches par le système d’IA.

Le système d’IA générative sur des textes apprend ainsi un modèle de production avec des mécanismes qui n’ont rien à voir avec la production humaine située avec un corps, pour autant elle est capable de l’imiter à partir des textes de l’apprentissage. Ce fonctionnement a pour conséquence directe de perdre les sources d’où sont extraits les voisinages repérés, ce qui pose un problème de fond pour la vérification du contenu produit. Aucune vérification de la véracité des propos n’est produite facilement. Il faut retrouver les sources et quand on demande au système de le faire, il peut les inventer !

Lorsque vous proposez une invite à ChatGPT, il va prédire l’entité suivante, puis la suivante et ainsi de suite. Un paramètre clé est celui de la « température » qui exprime le degré d’aléatoire dans le choix des entités. À une température élevée, le modèle est plus « créatif » car il peut générer des sorties plus diversifiées, tandis qu’à une température basse, le modèle tend à choisir les sorties les plus probables, ce qui rend le texte généré plus prévisible. Trois options de température sont proposées dans l’outil conversationnel Bing (GPT4) de Microsoft (plus précis, plus équilibré, plus créatif). Souvent, les hyperparamètres des systèmes ne sont pas dévoilés pour des raisons de cybersécurité ou de confidentialité comme c’est le cas dans ChatGPT… mais la température permet d’avoir des réponses différentes à la même question.

Il est ainsi facile d’imaginer certains des risques de l’IA générative pour les médias. D’autres apparaîtront certainement au fur et à mesure de leurs utilisations.

Il paraît urgent de trouver comment les minimiser en attendant la promulgation pour l’Union européenne d’un IA Act en se dotant de guides de bonnes pratiques. L’avis du CNPEN sur les IA génératives et les enjeux d’éthique comprend, lui, 10 préconisations pour la recherche et 12 pour la gouvernance. Voici quelques-uns des risques identifiés pour les médias :

Faire trop confiance aux dires de la machine sans recouper avec d’autres sources. Le croisement de plusieurs sources de données et la nécessité d’enquêter deviennent fondamentaux pour toutes les professions : journalistes, scientifiques, professeurs et autres. Il semble d’ailleurs fondamental d’enseigner la façon d’utiliser ces systèmes à l’école et à l’université et de cultiver l’art de débattre pour élaborer ses idées.

Comprendre que ChatGPT est construit avec des données majoritairement en anglais et que son influence culturelle peut-être importante.

Utiliser massivement ChatGPT de façon paresseuse dans les médias, en produisant énormément de nouvelles données artificielles non vérifiées sur Internet qui pourraient servir à entraîner de nouvelles IA. Ce serait dramatique qu’il n’y ait plus aucune garantie de vérité sur ces données reconstituées par la machine. Deux avocats américains se sont par exemple fait piéger en faisant référence au cours d’une procédure, sur les conseils de l’algorithme, à des jurisprudences qui n’existaient pas.

Remplacer certaines tâches dans de nombreux métiers autour des médias par des systèmes d’IA. Certains métiers vont disparaître, d’autres vont apparaître. Il faut créer des interfaces avec des mesures de confiance pour aider la coopération entre les humains et les systèmes d’IA.

Utiliser les systèmes d’IA et les démystifier devient une nécessité absolue tout en faisant attention de ne pas désapprendre et de pouvoir s’en passer.

Il est nécessaire de comprendre que ChatGPT fait de nombreuses erreurs, par exemple il n’a pas de notion d’histoire ni de compréhension de l’espace. Le diable est dans les détails mais également dans le choix des données utilisées pour créer le modèle. La loi sur l’IA réclame plus de transparence sur ces systèmes d’IA pour vérifier leur robustesse, leur non-manipulation et leur consommation énergétique.

Il faut vérifier que les données produites n’empiètent pas sur le droit d’auteur et que les données utilisées par le système sont correctement utilisées. Si des données « synthétiques » remplacent demain nos connaissances dans d’entraînement des futurs modèles de fondation, il sera de plus en plus difficile de démêler le vrai du faux.

Donner accès à des systèmes d’IA (par exemple Dall-E ou Stable Diffusion) qui peuvent être utilisés pour créer de l’hypertrucage (deepfake en anglais) pour produire des images. Le phénomène rappelle l’importance de vérifier non seulement la fiabilité des sources des articles, mais aussi des images et vidéos. Il est question de mettre des filigranes (ou watermarks) dans les textes, images ou vidéos produites pour savoir si elles ont été faites par des IA ou de labelliser les données « bio » (ou produites par des humains).

L’arrivée de ChatGPT a été un tsunami pour tout le monde. Il a bluffé experts comme non-experts par ses capacités de production de texte, de traduction et même de programmation informatique.

L’explication scientifique précise du phénomène d’« étincelle d’émergences » dans les modèles de fondation est un sujet de recherche actuel et dépend des données et des hyperparamètres des modèles. Il est important de développer massivement la recherche pluridisciplinaire sur les émergences et limites des IA génératives et sur les mesures à déployer pour les contrôler.

Enfin, if faut éduquer à l’école sur les risques et l’éthique tout autant que sur la programmation, et également former et démystifier les systèmes d’IA pour utiliser et innover de façon responsable en ayant conscience des conséquences éthiques, économiques, sociétales et du coût environnemental.

La France pourrait jouer un rôle majeur au sein de l’Europe avec l’ambition d’être un laboratoire de l’IA pour les médias en étudiant les enjeux éthiques et économiques au service du bien commun et des démocraties.

Société- La fin des médias avec l’intelligence artificielle ?

Société-La fin des médias avec l’intelligence artificielle ?

Recherche d’informations, production de contenu, traduction, détection de propos haineux… l’intelligence artificielle (IA) générative promet d’importants gains de productivité dans l’univers des médias. Les médias nous accompagnent au quotidien et sont un support à la démocratie : ils ont la liberté de montrer différents points de vue et idées, de dénoncer la corruption et les discriminations, mais également de montrer la cohésion sociale et culturelle.
Alors que le public se tourne vers les médias pour s’informer, se cultiver et se divertir, les médias n’échappent pas aux soucis économiques et à la rentabilité d’une industrie mesurée en termes d’audimat et de vente. Dans ce contexte, l’IA générative amène de nouveaux outils puissants et sera de plus en plus utilisée.

Laurence Devillers
Professeur en Intelligence Artificielle, Sorbonne Université dans The conversation

Un article intéressant mais qui n’assiste pas suffisamment sur l’actuelle très grande fragilité des médias. Une fragilité qui se traduit notamment par un introuvable équilibre financier qui favorise la médiocrité rédactionnelle. Et qui permet la mainmise des grands capitaines d’industrie sur l’information ! NDLR

Mais il faut crucialement rappeler que les IA génératives n’ont pas d’idées, et qu’elles reprennent des propos qui peuvent être agencés de façon aussi intéressante qu’absurde (on parle alors d’« hallucinations » des systèmes d’IA). Ces IA génératives ne savent pas ce qui est possible ou impossible, vrai ou faux, moral ou immoral.

Ainsi, le métier de journaliste doit rester central pour enquêter et raisonner sur les situations complexes de société et de géopolitique. Alors, comment les médias peuvent-ils exploiter les outils d’IA tout en évitant leurs écueils ?

Le Comité national pilote d’éthique du numérique (CNPEN) a rendu en juillet un avis général sur les enjeux d’éthique des IA génératives, que j’ai co-coordonné, au ministre chargé de la Transition numérique. Il précise notamment les risques de ces systèmes.

Les médias peuvent utiliser l’IA pour améliorer la qualité de l’information, lutter contre les fausses nouvelles, identifier le harcèlement et les incitations à la haine, mais aussi parce qu’elle peut permettre de faire avancer la connaissance et mieux comprendre des réalités complexes, comme le développement durable ou encore les flux migratoires.

Les IA génératives sont des outils fabuleux qui peuvent faire émerger des résultats que nous ne pourrions pas obtenir sans elles car elles calculent à des niveaux de représentation qui ne sont pas les nôtres, sur une quantité gigantesque de données et avec une rapidité qu’un cerveau ne sait pas traiter. Si on sait se doter de garde-fous, ce sont des systèmes qui vont nous faire gagner du temps de recherche d’information, de lecture et de production et qui vont nous permettre de lutter contre les stéréotypes et d’optimiser des processus.

Ces outils n’arrivent pas maintenant par hasard. Alors que nous sommes effectivement noyés sous un flot d’informations diffusées en continu par les chaînes classiques ou contenus accessibles sur Internet, des outils comme ChatGPT nous permettent de consulter et de produire des synthèses, programmes, poèmes, etc., à partir d’un ensemble d’informations gigantesques inaccessibles à un cerveau humain en temps humain. Ils peuvent donc être extrêmement utiles pour de nombreuses tâches mais aussi contribuer à un flux d’informations non sourcées. Il faut donc les apprivoiser et en comprendre le fonctionnement et les risques.

Les performances des IA génératives tiennent à la capacité d’apprentissage auto-supervisée (c’est-à-dire sans être guidée par une main humaine, ce qui est un concept différent de l’adaptation en temps réel) de leurs modèles internes, appelés « modèles de fondation », qui sont entraînés à partir d’énormes corpus de données constitués de milliards d’images, de textes ou de sons très souvent dans les cultures dominantes sur Internet, par exemple GPT3.5 de ChatGPT est nourri majoritairement de données en anglais. Les deux autres types d’apprentissage ont également été utilisés : avant sa mise à disposition fin 2022, ChatGPT a été optimisé grâce à un apprentissage supervisé puis grâce à un apprentissage par renforcement par des humains de façon à affiner les résultats et à éliminer les propos non souhaitables.

Cette optimisation par des humains a d’ailleurs été très critiquée. Comment sont-ils formés ? Qui sont ces « hommes du clic » sous-payés ? Ces propos « non souhaitables », en outre, ne sont pas décidés par un comité d’éthique ou le législateur, mais par l’entreprise seule.

Durant l’apprentissage des modèles de fondation sur des textes, le système apprend ce que l’on appelle des « vecteurs de plongements lexicaux » (de taille 512 dans GPT 3.5). C’est le système « transformers ». Le principe d’entraînement du modèle de fondation est fondé par l’hypothèse distributionnelle proposée par le linguiste américain John Ruppert Fith en 1957 : on ne peut connaître le sens d’un mot que par ses fréquentations (« You shall know a word by the company it keeps »).

Ces entités (« token » en anglais) font en moyenne quatre caractères dans GPT3.5. Elles peuvent n’être constituées que d’un seul et d’un blanc. Elles peuvent donc être des parties de mots ou des mots avec l’avantage de pouvoir combiner agilement ces entités pour recréer des mots et des phrases sans aucune connaissance linguistique (hormis celle implicite à l’enchaînement des mots), le désavantage étant évidemment d’être moins interprétable. Chaque entité est codée par un vecteur qui contient des informations sur tous les contextes où cette entité a été vue grâce à des mécanismes d’attention. Ainsi deux entités ayant le même voisinage seront considérées comme proches par le système d’IA.

Le système d’IA générative sur des textes apprend ainsi un modèle de production avec des mécanismes qui n’ont rien à voir avec la production humaine située avec un corps, pour autant elle est capable de l’imiter à partir des textes de l’apprentissage. Ce fonctionnement a pour conséquence directe de perdre les sources d’où sont extraits les voisinages repérés, ce qui pose un problème de fond pour la vérification du contenu produit. Aucune vérification de la véracité des propos n’est produite facilement. Il faut retrouver les sources et quand on demande au système de le faire, il peut les inventer !

Lorsque vous proposez une invite à ChatGPT, il va prédire l’entité suivante, puis la suivante et ainsi de suite. Un paramètre clé est celui de la « température » qui exprime le degré d’aléatoire dans le choix des entités. À une température élevée, le modèle est plus « créatif » car il peut générer des sorties plus diversifiées, tandis qu’à une température basse, le modèle tend à choisir les sorties les plus probables, ce qui rend le texte généré plus prévisible. Trois options de température sont proposées dans l’outil conversationnel Bing (GPT4) de Microsoft (plus précis, plus équilibré, plus créatif). Souvent, les hyperparamètres des systèmes ne sont pas dévoilés pour des raisons de cybersécurité ou de confidentialité comme c’est le cas dans ChatGPT… mais la température permet d’avoir des réponses différentes à la même question.

Il est ainsi facile d’imaginer certains des risques de l’IA générative pour les médias. D’autres apparaîtront certainement au fur et à mesure de leurs utilisations.

Il paraît urgent de trouver comment les minimiser en attendant la promulgation pour l’Union européenne d’un IA Act en se dotant de guides de bonnes pratiques. L’avis du CNPEN sur les IA génératives et les enjeux d’éthique comprend, lui, 10 préconisations pour la recherche et 12 pour la gouvernance. Voici quelques-uns des risques identifiés pour les médias :

Faire trop confiance aux dires de la machine sans recouper avec d’autres sources. Le croisement de plusieurs sources de données et la nécessité d’enquêter deviennent fondamentaux pour toutes les professions : journalistes, scientifiques, professeurs et autres. Il semble d’ailleurs fondamental d’enseigner la façon d’utiliser ces systèmes à l’école et à l’université et de cultiver l’art de débattre pour élaborer ses idées.

Comprendre que ChatGPT est construit avec des données majoritairement en anglais et que son influence culturelle peut-être importante.

Utiliser massivement ChatGPT de façon paresseuse dans les médias, en produisant énormément de nouvelles données artificielles non vérifiées sur Internet qui pourraient servir à entraîner de nouvelles IA. Ce serait dramatique qu’il n’y ait plus aucune garantie de vérité sur ces données reconstituées par la machine. Deux avocats américains se sont par exemple fait piéger en faisant référence au cours d’une procédure, sur les conseils de l’algorithme, à des jurisprudences qui n’existaient pas.

Remplacer certaines tâches dans de nombreux métiers autour des médias par des systèmes d’IA. Certains métiers vont disparaître, d’autres vont apparaître. Il faut créer des interfaces avec des mesures de confiance pour aider la coopération entre les humains et les systèmes d’IA.

Utiliser les systèmes d’IA et les démystifier devient une nécessité absolue tout en faisant attention de ne pas désapprendre et de pouvoir s’en passer.

Il est nécessaire de comprendre que ChatGPT fait de nombreuses erreurs, par exemple il n’a pas de notion d’histoire ni de compréhension de l’espace. Le diable est dans les détails mais également dans le choix des données utilisées pour créer le modèle. La loi sur l’IA réclame plus de transparence sur ces systèmes d’IA pour vérifier leur robustesse, leur non-manipulation et leur consommation énergétique.

Il faut vérifier que les données produites n’empiètent pas sur le droit d’auteur et que les données utilisées par le système sont correctement utilisées. Si des données « synthétiques » remplacent demain nos connaissances dans d’entraînement des futurs modèles de fondation, il sera de plus en plus difficile de démêler le vrai du faux.

Donner accès à des systèmes d’IA (par exemple Dall-E ou Stable Diffusion) qui peuvent être utilisés pour créer de l’hypertrucage (deepfake en anglais) pour produire des images. Le phénomène rappelle l’importance de vérifier non seulement la fiabilité des sources des articles, mais aussi des images et vidéos. Il est question de mettre des filigranes (ou watermarks) dans les textes, images ou vidéos produites pour savoir si elles ont été faites par des IA ou de labelliser les données « bio » (ou produites par des humains).

L’arrivée de ChatGPT a été un tsunami pour tout le monde. Il a bluffé experts comme non-experts par ses capacités de production de texte, de traduction et même de programmation informatique.

L’explication scientifique précise du phénomène d’« étincelle d’émergences » dans les modèles de fondation est un sujet de recherche actuel et dépend des données et des hyperparamètres des modèles. Il est important de développer massivement la recherche pluridisciplinaire sur les émergences et limites des IA génératives et sur les mesures à déployer pour les contrôler.

Enfin, if faut éduquer à l’école sur les risques et l’éthique tout autant que sur la programmation, et également former et démystifier les systèmes d’IA pour utiliser et innover de façon responsable en ayant conscience des conséquences éthiques, économiques, sociétales et du coût environnemental.

La France pourrait jouer un rôle majeur au sein de l’Europe avec l’ambition d’être un laboratoire de l’IA pour les médias en étudiant les enjeux éthiques et économiques au service du bien commun et des démocraties.

12345...9



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol