Archive pour la Catégorie 'nouvelles technologies'

Page 5 sur 33

Google écrase le marché de la pub

Google écrase le marché de la pub

 

Un papier des Echos souligne que Google écrase de plus en plus le marché de la pub avec en plus le soutien tacite des grands médias qui ont vendu ( Contre une rémunération infamante)  leur âme et leurs informations au champion de la tech mondiale. Désormais Google détient 25 % du marché mondial de la pub. Sur l’année 2021, le groupe a encaissé 258 milliards de dollars (+41 % en un an). En trois ans, le mastodonte a quasiment doublé ses recettes. Comment est-ce possible ? Ce n’est pas tant la diversification (dans le cloud, les smartphones Pixel…) qui porte ses fruits que l’activité historique du groupe qui continue de lui profiter à plein - à savoir la publicité.

Pour expliquer Son succès, le géant américain met en avant ses outils technologiques, notamment les algorithmes d’intelligence artificielle qui améliorent la pertinence des résultats de son moteur de recherche ou des publicités affichées. Mais ce n’est pas la seule raison.D’une part - et très paradoxalement -, la pression croissante du public et des régulateurs pour respecter la vie privée des internautes renforce Google. Par exemple, lorsqu’ Apple a dynamité la publicité dans les applis iOS, en limitant la possibilité de pister les utilisateurs, les géants du secteur comme Facebook, Instagram ou Snap ont été cruellement handicapés. Google, très peu. Au contraire, il a même pu bénéficier d’un report des campagnes sur ses services, dont la précision du ciblage est restée intacte.

Il en va de même pour la disparition prochaine des cookies tiers, l’outil star des publicitaires pour collecter et croiser des données sur les utilisateurs de différents sites ou services. Ce changement radical effraie toute l’industrie… mais pas Google, qui dispose d’énormes quantités d’informations sur la quasi-totalité des internautes grâce à ses propres services, toujours plébiscités du public. C’est d’ailleurs pour cela que ses concurrents dénoncent avec force les solutions de substitution aux cookies, moins intrusives mais moins performantes, développées par le groupe pour son navigateur Chrome.Un navigateur qui le plus souvent impose de lire la pub avant de prendre connaissance de l’information recherchée

D’autre part, de nombreuses voix dénoncent la façon dont Google profite de sa position centrale dans l’écosystème publicitaire pour favoriser ses propres services. C’est d’ailleurs aujourd’hui la seule menace crédible pour le groupe. L’Autorité de la concurrence française a frappé les esprits l’été dernier en sanctionnant Google pour ses pratiques illégales dans l’intermédiation publicitaire. Ce pourrait être le début d’une série de déflagrations. La Commission européenne a lancé une enquête, plus large que celle menée en France. Et les Etats-Unis ont également plusieurs fronts judiciaires ouverts sur le sujet.

 

Données et Cloud: Le loup américain dans la bergerie européenne et française

  • Données et Cloud: Le loup américain dans la bergerie européenne et française
  • Par Philippe Boyer, directeur relations institutionnelles et innovation à Covivio  dénonce dans la Tribune L’entrée du loup  américain pour la gestion des données dans le cloud. Dernier exemple en date, la SNCF qui confie aussi cette gestion aux Américains
  • Tribune

 

  • S’exprimant sur Malraux écrivain, le Général de Gaulle avait eu ces mots : « Brumeux, avec quelques belles éclaircies. » Pour prolonger cette métaphore météorologique, si l’on devait qualifier GAIA-X [1], projet européen visant à développer une infrastructure de données, nous pourrions ajouter qu’en plus de ces brumes, de gros nuages d’orage se sont accumulés à l’horizon. Un comble pour cette initiative liée au « cloud », (nuage, en anglais), technologie qui offre des services informatiques externalisés.

L’enjeu au centre de cette initiative européenne était de doter notre continent d’une force de frappe coordonnées capable de peser sur la collecte et le stockage de données qui, pour l’heure, atterrissent sur les serveurs des géants technologiques majoritairement américains ou chinois.

Loup dans la bergerie

Porté, mi-2020, sur les fonts baptismaux par la France et l’Allemagne, GAIA-X, société de droit belge, rassemble près de 850 membres (universités, laboratoires, grandes entreprises, start-up…) issus d’une vingtaine de pays, dont plus d’une dizaine de l’Union Européenne. Sorte « d’Airbus de la donnée », l’ambition initiale était de favoriser la coopération d’acteurs européens et, partant, d’aller dans le sens d’une souveraineté européenne de la donnée, le tout bien sûr dans le respect des règles européennes dont le fameux RGPD (règlement général sur la protection des données pour le respect de la vie privée) en vigueur depuis 2016.

GAIA-X est toujours en vie mais a essuyé sa première tempête. En cause, le fait que des acteurs non-européens du cloud (Amazon, Google, Palantir, Hewlett-Packard, VMware, Huawei, Alibaba…) aient été autorisés à faire partie de ce consortium des acteurs du cloud. Pour certains membres de GAIA-X (Scaleway [2], Outscale), une telle décision revient à faire « entrer le loup dans la bergerie », c’est-à-dire, implicitement, à renoncer à se doter d’un outil qui aille dans le sens d’une souveraineté numérique européenne.

La donnée, enjeu politique mondial

On le sait, à l’avenir, la valeur ajoutée se situera de plus en plus dans le stockage et le traitement de la donnée. « Pourrons-nous contrôler l’accès à nos propres données ainsi que leur confidentialité, ou serons-nous prisonniers d’une entreprise ou d’un État gardant jalousement le contrôle de l’accès à ces données? [3] », écrit Jean Tirole, Prix Nobel d’économie 2015. Tels sont quelques-uns des grands enjeux politiques de la donnée et de son hébergement dans un contexte de concurrence aiguë entre États et grandes entreprises pour dominer ce marché en plein essor [4].

Dans ce monde agrandi par le virtuel où la donnée massive (Big Data) devient une ressource stratégique, la capacité à drainer, traiter, stocker, voire capter de la donnée est devenue un attribut de la puissance des États.

Aux États-Unis, le « Cloud Act » adopté en 2018 (Clarifying Lawful Overseas Use of Data Act, que l’on peut traduire par « loi clarifiant l’usage légal des données hébergées à l’étranger »), impose à toute société américaine d’aider les services de renseignement à accéder à des données qu’elle détiendrait ou administrerait ; que celles-ci se trouvent sur le sol américain où dans n’importe quel autre pays.

Dans le cadre d’une procédure judiciaire, cette réglementation s’apparente à une sorte de « droit de tirage » sur tous types de données, y compris celles qui se rapportent à l’activité économique ou industrielle d’entreprises ou d’institutions étatiques.

Cloud souverain

Dans notre monde où réel et virtuel s’entrelacent et où les données deviennent des « biens communs » qui composent le patrimoine d’un État, en ce compris les données personnelles des citoyens, des entreprises et des acteurs publics…, la réglementation de l’usage de ces données s’impose tant en matière d’utilisation, de stockage que de règles de partage. Sur un sujet à la fois si stratégique et si régalien, il revient à un « tiers de confiance » – les États, l’Union européenne – d’ancrer ces principes d’intérêt général en mettant en œuvre des initiatives publiques/privées qui vont dans le sens de l’émergence d’un cloud souverain, gage d’une plus grande indépendance technologique.

Sur ce sujet, les initiatives et projets existent. En France, et au titre du plan « France 2030″ présenté en octobre dernier, le président de la République a tracé les contours d’un plan d’investissement de près de 30 milliards d’euros, dont près de 2 milliards seraient consacrés à la création de ce cloud souverain du fait que les infrastructures techniques se doivent d’être situées en France.

Data Governance Act en Europe

À l’échelle européenne, le Parlement européen et les États membres se sont récemment accordés sur le futur espace européen de données en lien avec le futur Data Governance Act [5] (DGA), initiative législative adoptée dans le cadre de la stratégie européenne sur les données. Par ailleurs, Thierry Breton, le commissaire européen notamment en charge des sujets numériques, a annoncé un investissement de 2 milliards d’euros pour la mise en place d’un projet de cloud souverain, à l’image de GAIA-X, c’est-à-dire un cloud qui respecte les valeurs cardinales de transparence, de sécurité et de portabilité des données, gage d’une véritable confiance de la part des citoyens et de toutes les autres parties prenantes.

Exactement ce que l’écosystème numérique réclame, à l’instar d’Euclidia [6], qui fédère 26 entreprises fournissant des services de cloud basées en Europe, et qui demande aux États membres de l’Union européenne de revoir leurs stratégies cloud nationales pour aller vers une harmonisation des pratiques, dans le but de favoriser les entreprises européennes et de réduire la dépendance aux acteurs américains ou chinois. Bref, un appel à un volontarisme politique assumé, presque gaullien pourrait-on dire, pour qu’enfin ces nuages sur le « cloud » fassent place à un temps résolument dégagé.

___

NOTES

1 What is Gaia-X?

2 Scaleway quitte Gaia-X : « Je n’ai plus de temps à perdre avec un projet gangrené de l’intérieur par les Gafam » (Yann Lechelle, CEO)

3 Économie du bien commun, Jean Tirole, PUF

4 https://home.kpmg/fr/fr/home/insights/2021/04/cloud-europeen-croissance-enjeux.html

5 https://eur-lex.europa.eu/legal-content/FR/TXT/HTML/?uri=CELEX:52020PC0767&from=EN

6 Press Relase: EUCLIDIA calls for a moratorium on fragmented national cloud strategies to support sovereign European technologies

Le métavers : Avenir ou chimère ?

Le métavers : Avenir ou chimère ?

 

 

Un article du monde idéalise le métavers de Facebook. Une technologie qui pourrait avoir des applications mais qui pourrait aussi se révéler une chimère aussi bien inutile sur le plan technologique que sur le plan sociétal. NDLR

 

Analyse. 

Métavers » : dans le monde des technologies, c’est le mot qui fait le buzz.de Microsoft à Nvidia, de Tencent à Epic Games (éditeur du jeu à succès Fortnite), nombreux sont les acteurs qui ont récemment manifesté leur volonté de participer activement à l’élaboration de ce qui s’annonce comme la prochaine génération d’Internet. Dans cet espace numérique du futur, chacun, à travers un avatar, sera plongé dans un univers virtuel et pourra accéder à une quantité infinie de services : jouer avec des amisa, les rejoindre pour assister à un concert ou voir un film, participer avec des collègues à une réunion, essayer une automobile ou visiter son prochain appartement…

Plus que tout autre, un événement a donné de l’épaisseur à cette vision : fin octobre, Facebook a décidé de rebaptiser sa maison mère « Meta ». Une manière de graver dans le marbre son ambition de faire basculer ses utilisateurs dans cette dimension futuriste.

 

L’entreprise de Mark Zuckerberg n’est pas la première à faire ce pari. A la tête d’Epic Games, Tim Sweeney est peut-être le théoricien le plus aiguisé du métavers. Surtout, il a fait de Fortnite une des esquisses les plus abouties de ce que pourrait être ce nouvel espace numérique, un terrain de jeu virtuel ouvert à d’autres développeurs qui peuvent y proposer leurs expériences. Ce qui a par exemple permis, en avril 2020, au rappeur Travis Scott d’y réunir plusieurs millions de spectateurs pour une série de concerts en ligne.

Les professionnels ont bien vu l’intérêt de s’emparer de cette technologie. Des marques de vêtements ou de voitures pour y faire la promotion de leurs produits, des acteurs culturels pour être présents sur ces nouvelles scènes, des entreprises pour en faire une extension de leurs espaces de travail, comme Accenture qui a créé, avec Microsoft, un « campus analogique » permettant à ses nouveaux collaborateurs à travers le monde de suivre un parcours d’intégration.

Maturité technologique

Cette avancée technologique soulève de nombreuses inquiétudes : sur l’isolement des individus dans un monde virtuel, sur la modération des contenus et la protection des données personnelles. Pour autant, l’arrivée à maturité d’un métavers abouti n’est qu’une question de temps. « C’est une évolution qui fait sens du point de vue historique et technologique », explique Frédéric Descamps, cofondateur et dirigeant de Manticore Games. Les outils de production de mondes virtuels élaborés ont été industrialisés par les acteurs du jeu vidéo ; les casques de réalité virtuelle et augmentée, même s’ils peinent encore à gagner le cœur du grand public, sont arrivés à un stade de maturité technologique ; les infrastructures (fibre, réseaux mobiles, cloud) sont présentes, elles devront seulement monter en puissance pour absorber le volume énorme de données que pourrait générer le métavers s’il devait être adopté massivement.

300 millions en plus pour la fibre

300 millions en  plus pour la fibre

Si la fibre se développe surtout dans l’espace urbain, par contre elle a des difficultés à atteindre nombre de zones rurales qui pourraient par ailleurs été privées  de tous raccordements du fait  de l’obsolescence du réseau cuivre et de son abandon programmé. Certains n’auront d’ailleurs d’autres solutions que de ce raccorder à Internet via le satellite ou la téléphonie 5G.

L’État accorde donc un soutien financier supplémentaire de 150 millions d’euros pour la réalisation des raccordements finaux. Les collectivités locales devront investir 1 euro pour chaque euro déboursé par l’État, soit une enveloppe totale de 300 millions d’euros. «Cette enveloppe s’inscrit dans le cadre du plan de relance», mentionne Cédric O, le secrétaire d’État au Numérique.En réalité l’aide de l’État sera de 150 millions puisque l’aide du gouvernement est de un euro à chaque euro engagé par les collectivités locales

Grave accident de la Model 3-Tesla en France

Grave accident de la Model 3-Tesla en France

Le modèle de pilotage du véhicule Tesla en cause pourrait être responsable d’un très grave accident provoqué par un taxi G7 qui du coup a suspendu l’utilisation des véhicules de ce type. Ce n’est pas la première fois que les modèles Tesla sont mis en cause à propos de leurs équipements de conduite en particulier les conditions d’utilisation du système auto Pilote système de conduite autonome qui paraît pour le moins aléatoire.

Le problème de la voiture autonome se trouve à nouveau posé car non seulement c’est une illusion sur une infrastructure banalisée mais cela constitue un véritable danger pour les autres usagers de l’espace viaire. La  Model 3, la voiture la plus vendue de Tesla mais qui se trouve également être la voiture la plus vendue au monde toute motorisation confondue, a provoqué une dizaine de blessés dont sept urgences absolues. Le chauffeur, qui était en sortie privée avec sa famille, a perdu le contrôle du véhicule dans le 13ème arrondissement de Paris. Le véhicule a percuté deux piétons avant d’enfoncer un conteneur à verre, un feu de signalisation pour finir dans une camionnette.

« G7 a appris avec stupeur le terrible accident survenu samedi soir à Paris qui a concerné un chauffeur de taxi. Celui-ci, en déplacement privé avec sa famille, n’était pas en activité au moment des faits », a indiqué le groupe auprès de l’AFP.

Cloud : Le loup américain dans la bergerie européenne

 Cloud : Le loup américain dans la bergerie européenne 

 

  • par . Par Philippe Boyer, directeur relations institutionnelles et innovation à Covivio (dans la Tribune)
  • Tribune

 

  • S’exprimant sur Malraux écrivain, le Général de Gaulle avait eu ces mots : « Brumeux, avec quelques belles éclaircies. » Pour prolonger cette métaphore météorologique, si l’on devait qualifier GAIA-X [1], projet européen visant à développer une infrastructure de données, nous pourrions ajouter qu’en plus de ces brumes, de gros nuages d’orage se sont accumulés à l’horizon. Un comble pour cette initiative liée au « cloud », (nuage, en anglais), technologie qui offre des services informatiques externalisés.

L’enjeu au centre de cette initiative européenne était de doter notre continent d’une force de frappe coordonnées capable de peser sur la collecte et le stockage de données qui, pour l’heure, atterrissent sur les serveurs des géants technologiques majoritairement américains ou chinois.

Loup dans la bergerie

Porté, mi-2020, sur les fonts baptismaux par la France et l’Allemagne, GAIA-X, société de droit belge, rassemble près de 850 membres (universités, laboratoires, grandes entreprises, start-up…) issus d’une vingtaine de pays, dont plus d’une dizaine de l’Union Européenne. Sorte « d’Airbus de la donnée », l’ambition initiale était de favoriser la coopération d’acteurs européens et, partant, d’aller dans le sens d’une souveraineté européenne de la donnée, le tout bien sûr dans le respect des règles européennes dont le fameux RGPD (règlement général sur la protection des données pour le respect de la vie privée) en vigueur depuis 2016.

GAIA-X est toujours en vie mais a essuyé sa première tempête. En cause, le fait que des acteurs non-européens du cloud (Amazon, Google, Palantir, Hewlett-Packard, VMware, Huawei, Alibaba…) aient été autorisés à faire partie de ce consortium des acteurs du cloud. Pour certains membres de GAIA-X (Scaleway [2], Outscale), une telle décision revient à faire « entrer le loup dans la bergerie », c’est-à-dire, implicitement, à renoncer à se doter d’un outil qui aille dans le sens d’une souveraineté numérique européenne.

La donnée, enjeu politique mondial

On le sait, à l’avenir, la valeur ajoutée se situera de plus en plus dans le stockage et le traitement de la donnée. « Pourrons-nous contrôler l’accès à nos propres données ainsi que leur confidentialité, ou serons-nous prisonniers d’une entreprise ou d’un État gardant jalousement le contrôle de l’accès à ces données? [3] », écrit Jean Tirole, Prix Nobel d’économie 2015. Tels sont quelques-uns des grands enjeux politiques de la donnée et de son hébergement dans un contexte de concurrence aiguë entre États et grandes entreprises pour dominer ce marché en plein essor [4].

Dans ce monde agrandi par le virtuel où la donnée massive (Big Data) devient une ressource stratégique, la capacité à drainer, traiter, stocker, voire capter de la donnée est devenue un attribut de la puissance des États.

Aux États-Unis, le « Cloud Act » adopté en 2018 (Clarifying Lawful Overseas Use of Data Act, que l’on peut traduire par « loi clarifiant l’usage légal des données hébergées à l’étranger »), impose à toute société américaine d’aider les services de renseignement à accéder à des données qu’elle détiendrait ou administrerait ; que celles-ci se trouvent sur le sol américain où dans n’importe quel autre pays.

Dans le cadre d’une procédure judiciaire, cette réglementation s’apparente à une sorte de « droit de tirage » sur tous types de données, y compris celles qui se rapportent à l’activité économique ou industrielle d’entreprises ou d’institutions étatiques.

Cloud souverain

Dans notre monde où réel et virtuel s’entrelacent et où les données deviennent des « biens communs » qui composent le patrimoine d’un État, en ce compris les données personnelles des citoyens, des entreprises et des acteurs publics…, la réglementation de l’usage de ces données s’impose tant en matière d’utilisation, de stockage que de règles de partage. Sur un sujet à la fois si stratégique et si régalien, il revient à un « tiers de confiance » – les États, l’Union européenne – d’ancrer ces principes d’intérêt général en mettant en œuvre des initiatives publiques/privées qui vont dans le sens de l’émergence d’un cloud souverain, gage d’une plus grande indépendance technologique.

Sur ce sujet, les initiatives et projets existent. En France, et au titre du plan « France 2030″ présenté en octobre dernier, le président de la République a tracé les contours d’un plan d’investissement de près de 30 milliards d’euros, dont près de 2 milliards seraient consacrés à la création de ce cloud souverain du fait que les infrastructures techniques se doivent d’être situées en France.

Data Governance Act en Europe

À l’échelle européenne, le Parlement européen et les États membres se sont récemment accordés sur le futur espace européen de données en lien avec le futur Data Governance Act [5] (DGA), initiative législative adoptée dans le cadre de la stratégie européenne sur les données. Par ailleurs, Thierry Breton, le commissaire européen notamment en charge des sujets numériques, a annoncé un investissement de 2 milliards d’euros pour la mise en place d’un projet de cloud souverain, à l’image de GAIA-X, c’est-à-dire un cloud qui respecte les valeurs cardinales de transparence, de sécurité et de portabilité des données, gage d’une véritable confiance de la part des citoyens et de toutes les autres parties prenantes.

Exactement ce que l’écosystème numérique réclame, à l’instar d’Euclidia [6], qui fédère 26 entreprises fournissant des services de cloud basées en Europe, et qui demande aux États membres de l’Union européenne de revoir leurs stratégies cloud nationales pour aller vers une harmonisation des pratiques, dans le but de favoriser les entreprises européennes et de réduire la dépendance aux acteurs américains ou chinois. Bref, un appel à un volontarisme politique assumé, presque gaullien pourrait-on dire, pour qu’enfin ces nuages sur le « cloud » fassent place à un temps résolument dégagé.

___

NOTES

1 What is Gaia-X?

2 Scaleway quitte Gaia-X : « Je n’ai plus de temps à perdre avec un projet gangrené de l’intérieur par les Gafam » (Yann Lechelle, CEO)

3 Économie du bien commun, Jean Tirole, PUF

4 https://home.kpmg/fr/fr/home/insights/2021/04/cloud-europeen-croissance-enjeux.html

5 https://eur-lex.europa.eu/legal-content/FR/TXT/HTML/?uri=CELEX:52020PC0767&from=EN

6 Press Relase: EUCLIDIA calls for a moratorium on fragmented national cloud strategies to support sovereign European technologies

Cloud : le mépris pour les PME européennes

Cloud : le mépris pour les PME européennes

Euclidia, association qui fédère 26 acteurs du cloud européen, dont de nombreux Français (Clever Cloud, Jamespot, Scaleway…) demande à l’Union européenne de revoir sa stratégie sur le cloud pour donner moins de place aux acteurs étrangers Pour JEAN-PAUL SMETS  , membre d’Euclidia, « il n’est pas trop tard pour bien faire les choses ».( la Tribune)

Pourquoi cette initiative ? Pourquoi faut-il selon vous un moratoire sur les stratégies cloud des pays européens ?

JEAN-PAUL SMETS - Depuis le 17 mai et le lancement de la stratégie cloud de confiance en France, il se passe un phénomène étrange. A la place de constater une accélération des ventes des solutions cloud basées sur des technologies européennes, ce qui serait logique pour développer un cloud souverain, on constate à l’inverse une accélération des ventes des solutions cloud basées sur les technologies des Gafam, notamment de Microsoft et de Google. La raison est simple : le ministre de l’Economie, Bruno Le Maire, et le secrétaire d’Etat à la Transition numérique, Cédric O, ont publiquement présenté les solutions de Google et de Microsoft comme des solutions « de confiance » plus simple à mettre en place, ce qui a poussé le marché et les administrations à recourir à leurs services les yeux fermés. L’ironie de l’histoire est que les projets censés apporter ce cloud de confiance -la coentreprise Bleu entre Microsoft et Orange/Capgemini et la coentreprise entre Google et Thales, Ndlr- n’existent même pas encore alors que le but de la stratégie était de combler rapidement un retard.

Parallèlement, l’Italie est en train de mettre en œuvre une politique nationale de cloud qui pourrait aussi aboutir à favoriser les acteurs dominants américains. L’Allemagne a une stratégie fédérale qui veut faire du cloud souverain sur la base de logiciels libres, ce qui est une bonne chose, mais dans les faits Berlin met également en avant du logiciel libre américain. Souvenons-nous aussi que la France a choisi Microsoft pour héberger nos données de santé dans le Health Data Hub et avait déclaré, à tort, qu’il n’existait pas d’autre solution. La Belgique s’est également alliée avec Amazon Web Services dans la santé.

Dans le contexte où la France va prendre la présidence tournante de l’Union Européenne au premier semestre 2022, nous pensons qu’il faut d’urgence tirer le frein à main. C’est le moment de réunir les industriels européens, les gouvernements nationaux et l’UE autour d’une table, pour mettre en place une vraie stratégie européenne du cloud, coordonnée entre tous les acteurs. Ce qui se passe actuellement dans divers pays européens ou par exemple au sein de Gaia-X, où les acteurs américains et chinois ont pris le pouvoir dans un projet qui devait à la base être souverain, nous fragilise au lieu de nous renforcer. L’Europe doit mieux prendre en compte qu’il existe déjà un écosystème européen du cloud, composé essentiellement de PME qui proposent des solutions efficaces et souveraines, et qui ne doivent pas être ignorées.

Vous appelez à une stratégie cloud européenne coordonnée avec la filière, mais n’est-il pas un peu tard ? En plus du projet Gaia-X déjà lancé, l’UE prépare un plan cloud européen pour 2022, qui pourrait être doté entre 10 et 20 milliards d’euros, avec l’objectif de créer une infrastructure cloud européenne souveraine…

La filière cloud européenne, composée essentiellement de PME probablement invisibles aux yeux des gouvernements nationaux et de Bruxelles, n’a pas été prise en compte dans ce plan. Concrètement, l’UE va injecter au moins 10 milliards d’euros pour essayer de construire avec des grands groupes [parmi les futurs bénéficiaires de l'enveloppe française figurent notamment Atos, Capgemini, Orange et OVHcloud, Ndlr], ce que des petites entreprises proposent déjà à leurs milliers de clients. La plupart des projets qui demandent des subventions veulent faire ce qui existe déjà, ce qui est au passage contraire aux principes du libre marché. Cela revient à saboter l’industrie cloud européenne avec de l’argent public.

Je ne pense pas que l’argent soit la solution miracle. Les politiques pensent qu’il faut des milliards d’euros pour construire un cloud européen, alors qu’en réalité il faut seulement des millions et une bonne politique d’achats publics. Celle-ci fait cruellement défaut aujourd’hui, mais si les Etats achetaient davantage de solutions cloud aux acteurs européens, cela améliorerait notre souveraineté technologique. Notre problème, c’est que les PME européennes du cloud ne sont pas bien connues. Beaucoup de personnes dans les gouvernements, y compris en France, souhaiteraient aider les entreprises européennes, mais le lobbying des Gafam, des cabinets de conseil, et notre discrétion jusqu’à présent leur ont fait croire que l’Europe n’a pas les outils pour être vraiment souverain dans le cloud.

Cette perception est tout simplement fausse. Une centaine de PME en Europe propose des technologies cloud. Chez Euclidia, qui a pour but de les fédérer pour nous rendre collectivement plus forts, nous les encourageons à travailler ensemble pour proposer des solutions intégrées 100% souveraines capables de répondre à tous les besoins des entreprises et des administrations. Il existe déjà 10 solutions basées sur des alliances infrastructure (IaaS) / plateforme (PaaS) / logiciels (SaaS), disponibles dès maintenant. Par exemple la solution « Scaleway J » propose l’IaaS et le PaaS de Scaleway avec la solution logicielle de Jamespot comprenant tous les outils collaboratifs de bureau. Il y en a neuf autres comme ça. L’offre est déjà là et aurait besoin d’aide pour passer à une plus grande échelle.

Dans votre texte, vous regrettez que les stratégies nationales ne demandent pas toutes une évaluation des risques sur les logiciels non-européens utilisés sous licence. Vous demandez aussi un accès à leur code source. Vous ciblez particulièrement, sans la nommer, la stratégie française ?

Oui, car il ne suffit pas de prendre des technologies de Microsoft et de Google sous licence et de les héberger en Europe par des entreprises européennes avec un bon niveau de cybersécurité, pour en faire des solutions « de confiance ». Cette conception de la confiance est très problématique. Sans accès au code source, impossible de savoir si la NSA par exemple a injecté une « backdoor » [porte d'entrée cachée dans le logiciel à des fins d'espionnage, Ndlr], ce qui est tout de même incroyable pour des solutions promises à des administrations, à des opérateurs d’importance vitale (OIV) et de services essentiels (OSE).

De plus, les licences sont-elles révocables ? A partir du moment où la propriété intellectuelle appartient à une entreprise américaine, celle-ci ne peut pas se soustraire à une obligation de son pays. Quant à l’argument que l’hébergement en France dans une entreprise de droit français suffit à protéger des lois extraterritoriales américaines, c’est peut-être vrai pour le Cloud Act, mais pas pour la loi FISA (Foreign Intelligence Surveillance Act). Celle-ci s’applique aussi aux logiciels américains et ne se préoccupe pas de la nationalité de l’entreprise qui l’utilise.

 

A qui adressez-vous cette demande de moratoire ?

Notre message est qu’il n’est pas trop tard pour bien faire les choses. Ce moratoire demande aux gouvernements nationaux comme la France, qui ont déjà lancé une stratégie qui s’appuie sur des Américains, d’appuyer sur pause. Il met en garde ceux qui s’apprêtent à le faire et leur demande d’écouter la filière européenne. Il demande aussi à la Commission européenne de faire attention aux effets délétères très forts de certaines stratégies nationales et de certaines initiatives comme Gaia-X. Euclidia a rendez-vous avec la Commission européenne le 21 décembre pour discuter de ces sujets.

Pensez-vous que vous pouvez vraiment infléchir sur des choix politiques déjà largement actés ?

Je ne suis pas pessimiste car je pense que nous souffrons surtout d’un manque de notoriété. Je ne pense pas qu’il y ait eu à la base, en France comme en Europe, la volonté d’écarter les acteurs européens du cloud. Il y avait juste la croyance erronée que nous ne sommes pas au niveau. Il est temps d’écouter un peu moins les grands groupes et les Gafam et de réaliser que nos petites entreprises proposent déjà ce qu’on veut créer. La preuve, elles le vendent déjà à leurs milliers de clients en Europe et dans le monde !

Bruno Le Maire : la France aura un « SpaceX en 2026 »

Bruno Le Maire : la France aura un « SpaceX en 2026 »

Le ministre de l’économie a indiqué qu’ArianeGroup allait développer, à son tour, un mini lanceur réutilisable concurrent de l’engin américain. « Nous aurons un SpaceX en 2026 » a assuré le ministre tout en reconnaissant que « le délai (était) court ». Une confirmation de ce qu’avait annoncé Emmanuel Macron lors de la présentation de son plan 2030. Le seul problème qui se pose c’est la question de l’existence même d’Ariane group dont l’avenir n’est nullement assuré !

Ariane Group a clairement des problèmes de compétitivité. Pour preuve, cela se traduit désormais dans les chiffres, avec l’annonce de la suppression de 600 postes au sein du groupe européen d’aérospatial d’ici la fin 2022. Si ces 600 départs vont concerner la France et l’Allemagne, le groupe va aussi opérer le transfert de la production du moteur Vinci d’Ariane 6 de l’usine de Vernon (Eure) vers le voisin allemand, a appris jeudi l’AFP de sources syndicales.

« Tous les postes de travail sont concernés, sauf les personnels en atelier », a précisé une source syndicale. Les départs, volontaires, s’étaleront tout au long de l’année 2022. Dévoilé par Challenges, ce plan vise à redonner de la compétitivité et réduire les coûts du fabricant des fusées Ariane.

« Sachant qu’en France, on a 350 départs naturels chaque année, si on y ajoute le flux d’embauches que l’entreprise va maintenir, il faudra faire partir 150 à 200 personnes », a estimé Philippe Gery, délégué syndical central CFE-CGC.

ArianeGroup fait face à la féroce concurrence de l’américain SpaceX et ses lanceurs réutilisables. Avec sa constellation Starlink, elle possède déjà une avance sur son rival européen. Sur plus de 9.000 satellites placés en orbite depuis 1957, « Space X a déjà déployé 1.677 satellites pour Starlink, ça veut dire qu’aujourd’hui, sur tous les satellites en opération, 35% appartiennent à un homme, Elon Musk, et si vous prenez les satellites de plus de 50 kg, c’est plus de 50% », pointait le PDG d’Arianespace.

L’intelligence artificielle : Pour une utilisation sobre

L’intelligence artificielle : Pour une utilisation sobre

Loin de tous les fantasmes qu’elle charrie, Guy Mamou-Mani, coprésident d’Open, entreprise de services du numérique, plaide pour une utilisation sobre et responsable de l’intelligence artificielle, et plus largement des outils digitaux. ( la Tribune)

 

De quoi parle-t-on lorsque l’on parle d’intelligence artificielle ?

Guy Mamou-Mani : En préambule, il est nécessaire de revenir sur la révolution numérique que nous sommes en train de vivre. Tous les secteurs, toutes les entreprises, tous les métiers, tous les individus sont concernés par cette dernière. Elle va transformer en profondeur, d’une part la vie de chaque citoyen, et de l’autre le business model des organisations. Il faut donc se préparer à cette révolution numérique dont l’un des outils majeurs est l’intelligence artificielle (IA) qui draine énormément de fantasmes. A ce sujet, on peut schématiquement parler de deux niveaux. Il y a, tout d’abord, ce que je nomme l’IA réaliste, basée sur la connaissance de la data et qui va démontrer toute son utilité. Appliquée, par exemple, à la médecine, l’IA va pouvoir faire preuve d’une lisibilité 1 000 fois supérieure à celle de l’humain grâce à l’acquisition d’expérience basée sur la lecture d’un très grand nombre de radios. Non pour remplacer le radiologue, mais bien pour augmenter ses compétences. Et cela est vrai pour tous les métiers.

Qu’en est-il du second niveau ?

Guy Mamou-Mani : Il s’agit de l’IA forte. Elle consiste à imaginer que l’ordinateur va pouvoir devenir autonome et prendre des décisions par lui-même. Le fameux ordinateur HAL du film de Stanley Kubrick, 2001 l’Odyssée de l’Espace, en est une illustration possible. Pour ma part, je pense que cela relève de la science-fiction. Nous n’en sommes pas à ce niveau, et je ne sais pas si l’on y parviendra. Il ne sert donc à rien d’agiter certaines peurs. Aujourd’hui, l’IA qui nous concerne est celle de premier niveau. C’est à partir de celle-ci qu’il convient de raisonner.

L’IA, même de premier niveau, pose toutefois un certain nombre de questions d’ordre éthique. Comment justifier d’une décision prise par une IA ?

Guy Mamou-Mani : C’est effectivement un point crucial. Ma réponse est claire : dans aucun cas, on ne devra laisser l’IA prendre de décisions. C’est à l’homme, aux chefs d’entreprises, aux managers, de prendre une décision en fonction des éléments donnés par l’IA. Au cœur du sujet, se trouve la problématique suivante : l’homme va-t-il rester maître de la décision par rapport à la technologie ou va-t-il la subir ? C’est pourquoi, l’éducation et la formation vont jouer un rôle essentiel pour que nous restions maîtres de ces technologies, via une utilisation sobre responsable de la donnée, et plus largement du numérique. Chez Open, ces réflexions font partie du quotidien du groupe.

On reproche également à l’IA de reproduire les biais humains…

Guy Mamou-Mani : Les algorithmes qui forment la base de l’IA sont élaborés par l’homme. La possibilité existe donc que les biais que nous connaissons soient reproduits par l’IA. Pour passer cet écueil, il existe plusieurs types de réponses. Par exemple, pour lutter contre la misogynie, il faut encourager les femmes à investir le secteur informatique pour devenir des actrices de l’IA. Aujourd’hui, elles ne représentent que 10 à 15 % des personnes qui travaillent dans ce domaine. Il faut faire en sorte que cette proportion augmente pour créer une rupture. Par ailleurs, de la même manière que pour la biologie, il est très important de créer des comités d’éthique qui vont poser un certain nombre de règles. A nous de nous engager pour construire le futur et non pas le subir.

Guy Mamou-Mani est l’auteur de l’ouvrage « L’apocalypse numérique n’aura pas lieu » (Editions de l’Observatoire).

Numérisation: Les enjeux sociétaux

Numérisation:  Les enjeux sociétaux 

 

Dans une tribune au « Monde », les dirigeants de onze associations professionnelles du numérique français identifient six enjeux que les candidats à la présidentielle doivent intégrer à leurs programmes afin de bâtir en France et en Europe des technologies durables, fiables et compétitives.

 

Tribune.

 

 Laurence Boone, cheffe économiste de l’Organisation de coopération et de développement économiques (OCDE), l’a récemment dit : « Le numérique et le climat sont au cœur de tout » (La Croix26 octobre). Nous partageons cette conviction et nous y adhérons sans réserve. Et nous souhaitons la porter ! Elle est au cœur des propositions qu’incarne notre collectif, Convergences numériques 2022.

En effet, tant la transformation numérique de la société et de l’économie que la lutte contre le réchauffement climatique doivent être précédées, accompagnées et appuyées par des politiques publiques ambitieuses, portées au plus haut niveau des priorités de court terme, mais aussi inscrites dans le temps long, et légitimées par les voies de la démocratie.

 

A l’évidence, l’élection présidentielle constitue l’opportunité cardinale pour formuler et développer de telles propositions, et les mettre sur la table du débat démocratique. Nos onze organisations professionnelles, représentatives de l’écosystème numérique national, contribueront à ce débat avec leurs propositions.

Que les lecteurs de cette tribune n’aient aucun doute quant à notre détermination à saisir cette occasion exceptionnelle de l’élection présidentielle de 2022 pour faire entendre notre voix, la voix de la raison, la voix de l’urgence à agir, la voix de l’intérêt général, en faveur de la compétitivité technologique et de la performance numérique de la France et de l’Europe.

Depuis maintenant plusieurs décennies, trop de retards ont été pris, en France et en Europe, par absence de vision, par déficit de compréhension, par défaut de courage, ou encore – et trop souvent ! – par simples mais coupables atermoiements. Il n’est pas dans notre intention, au cours de la prochaine campagne présidentielle, d’ouvrir de nouveaux procès en inaction, mais bien d’exhorter les candidats à mettre un numérique utile et responsable au cœur de leur projet pour la France et pour l’Europe. En effet, face à ces défis, nous ne pouvons pas admettre de perdre à nouveau cinq précieuses années.

Pas d’intelligence artificielle sans dimension humaine (David Lacombled)

Pas d’intelligence artificielle sans dimension humaine (David Lacombled)

 

Dans un papier de l‘Opinion, David Lacombled observe que le concept d’intelligence artificielle ne saurait convaincre l’opinion si l’on ne fait pas le lien avec la dimension humaine qui doit demeurer. La vérité sans doute puisque si l’intelligence artificielle permet d’énormes gains de productivité dans un secteur donné, elle permet parallèlement en amont et en aval la création de nombre d’activités connexes.

Un seul exemple qui contredit la thèse de l’intérêt du tout  technologique : la suppression du support papier. En réalité, les flux d’informations sont majoritairement gérés désormais par voie numérique mais il y a autant et même davantage de papier au bout de la chaîne qui supporte les frais d’édition. Par ailleurs évidemment l’intelligence artificielle n’a  intérêt que si elle sert le progrès humain.

L’intelligence artificielle (IA) ne fera pas tout affirme David Lacombled. Promettre ou craindre le grand remplacement, ici des humains par la machine , ne peut que renforcer défiance et méfiance face à la technologie, en accentuant les divisions entre les individus. Les promesses mirifiques ouvrent la voie au désenchantement. La technique et l’économie doivent rester une science en veillant à ne pas revêtir des attributs de la fiction.

L’IA, un vocable polymorphe souvent préféré à celui plus effrayant encore d’automatisation, est par nature machinale, là où l’intelligence humaine est instinctive et créative. C’est à cela que l’on reconnaît des êtres capables de lier des éléments qui n’avaient de prime abord rien à voir entre eux. Pour preuve, les humains savent parfaitement se jouer de la machine et ne se privent pas de la contourner. Les militants anti-vaccins savent, par exemple, parfaitement passer sous les radars de modération et de détection automatique des réseaux sociaux, en faisant sans cesse évoluer leur langage. Ainsi, «(ovid Va((ine» (sic) ne sera pas détecté tant qu’il n’aura pas été saisi dans une base de données, vaste dictionnaire du Web… par un humain.

Les algorithmes sont neutres ? ( Aurélie Jean)

Les algorithmes sont neutres ? ( Aurélie Jean)

 

 

D‘une certaine manière, la scientifique Aurélie Jean considère que les algorithmes sont n à l’image de ceux qui les construisent. Un peu la même problématique que l’énergie atomique qui peut être utilisée à des fins de paix ou de guerre. La question ne serait pas celle de l’existence des technologies mais de leurs conditions d’utilisation. Cette appréciation n’évacue pas cependant les questions de transparence démocratique et de régulation si nécessaire. Sans parler des problèmes d’éthique qui peuvent se poser pour certaines technologies. NDLR

En France, Aurélie Jean s’est imposée comme la meilleure des vulgarisatrices de la science algorithmique. De livres à succès en interventions remarquées, cette experte de la morphologie mathématique ne cesse de ferrailler contre les idées reçues sur les algorithmes, trop souvent assimilés aux seules dérives des réseaux sociaux comme Facebook. Dans son dernier ouvrage, la scientifique rappelle qu’ils ne sont responsables de rien, n’étant pas une personnalité juridique. Ne redoutez donc pas une société qui serait contrôlée par des intelligences artificielles. Mais intéressez-vous aux concepteurs des programmes. Pour poursuivre son entreprise de démystification, l’Opinion a soumis au commentaire de la scientifique des assertions sur les algorithmes.

Les algorithmes sont des coupables idéaux…

Le procès contre un algorithme est impossible, même si j’ai souvent l’impression de jouer leur avocate [rires…] ! Les algorithmesn’ont aucune personnalité juridique, qu’elle soit physique ou morale. Derrière chaque algorithme en fonctionnement, il y a des hommes et des femmes qui ont pensé, développé, testé, vendu et utilisé cet algorithme. Des décisions bien humaines ont été prises tout au long du processus, sur la formulation du problème à résoudre, l’algorithme lui-même, des hypothèses, les données sur lesquelles le calibrer ou l’entraîner, ou encore des scénarios d’utilisation.

Ces décisions peuvent potentiellement être biaisées ou faussées, et mener à des discriminations technologiques – quand une catégorie de la population est écartée du fonctionnement de l’algorithme – ou à des erreurs. Un exemple de discrimination technologique tristement connu sont les premiers algorithmes de reconnaissance faciale qui ne reconnaissaient pas les personnes de couleur. Le jeu de données sur lequel l’algorithme avait été entraîné, était constitué majoritairement – voire uniquement – d’individus à peaux claires. L’algorithme était alors dans l’impossibilité de reconnaître la présence d’un visage à peau noire.

Un plan européen pour l’autonomie en semi-conducteurs

Un plan européen pour l’autonomie en semi-conducteurs

L’union européenne a décidé de doubler sa production de semi-conducteurs à horizon de 2030.

Ces puces – qui contrôlent le flux de courant dans l’électronique – sont désormais au cœur de la fabrication de nombreux nœuds technologiques essentiels à la production d’une voiture, tant l’informatique embarquée et l’électronique n’ont cessé de s’inviter dans l’habitacle et la motorisation (système d’info-divertissement, sécurité assistée, vitres, sièges électriques).

Or elles sont conçues à partir de métaux stratégiques, notamment le silicium, le germanium, le gallium, l’indium ainsi que d’autres éléments purs.

Aujourd’hui, l’Europe et les Etats-Unis ne représentent plus à eux deux que 18 % de la production mondiale de semi-conducteurs, contre environ 60 % il y a 30 ans. La production étant désormais concentrée en Asie – 50 % de l’offre mondiale pour la seule île de Taïwan – « En contrepartie de ce soutien public, nous instaurerons un mécanisme de préférence européenne en cas de crise ». Les détails de ce mécanisme n’ont pas été dévoilés pour le moment, mais il s’agit vraisemblablement de la possibilité pour l’Europe de limiter les exportations de semi-conducteurs en cas de pénurie pour privilégier l’approvisionnement des industries locales.

Le commissaire européen a ainsi fait le parallèle avec la politique américaine sur les vaccins contre la Covid-19 : « C’est, je le rappelle, ce que les Américains ont fait à propos des vaccins produits sur leur sol. Nous devons retenir la leçon. Les semi-conducteurs sont aussi un enjeu d’équilibre des pouvoirs. Ce n’est pas du protectionnisme mais de la souveraineté géopolitique. »

La problématique de régulation de l’espace numérique

La problématique de régulation de l’espace numérique

Les défis posés par le numérique à la vie démocratique, notamment en Europe, sont toujours plus complexes, et la revue « Esprit », dans sa nouvelle livraison, y consacre un riche dossier.

 

Revue des revues ( Le Monde).

 

La régulation de l’espace numérique public est un impératif majeur pour les démocraties européennes. « Le temps où l’avènement d’un Internet grand public était salué comme une révolution, non seulement technologique mais aussi démocratique, paraît loin tant le désenchantement est aujourd’hui important », relèvent les chercheurs Romain Badouard et Charles Girard en ouverture du dossier de la revue Esprit consacré à « Internet en mal de démocratie ». Les deux universitaires soulignent très clairement les termes de l’enjeu : « Il importe à la fois de protéger la communication en ligne contre les dérives qui l’affectent, de la brutalisation des échanges aux manipulations de l’information, et de contrôler les géants du Web qui ont accumulé un formidable pouvoir privé de censure mis au service d’une marchandisation de la participation. »

De l’utopie à la dystopie

Ce basculement de l’utopie à la dystopie, ce passage d’un Internet symbole de liberté à un Internet perçu comme tueur de démocratie, s’est fait en moins d’une génération. D’où la véhémence des prises de position de part et d’autre, aussi bien du côté de ceux qui croient encore en la grande utopie numérique que de ceux qui en dénoncent désormais les dérives totalitaires. « Internet ne crée pas mais reconfigure les défis inhérents à l’institution de l’espace public », rappelle Charles Girard, maître de conférences en philosophie, précisant que la liberté de communication implique plus que la liberté de choix laissée à l’internaute, mais surtout que « les acteurs qui orientent ces choix et définissent les conséquences produites par leur accumulation soient contrôlés ».

L’une des contributions les plus intéressantes du dossier est la fine analyse des « fake news » menée par Juliette Roussin, professeure adjointe de philosophie à l’université Laval à Québec, où elle souligne que le fait de relayer de tels bobards sert souvent moins à communiquer une information qu’à signaler une prise de position idéologique. « Fausses, les fake news partagées permettent d’exprimer “une vérité plus profonde” ou “une vérité d’un autre genre” – c’est-à-dire à proprement parler une émotion ou une idéologie : le sentiment de déclassement, d’absence de contrôle sur ses conditions de vie, de privilèges perdus, de défiance envers les élites et les institutions, etc. », écrit l’universitaire québécoise, soulignant que « l’adhésion aux fausses nouvelles en ligne gagne à être comprise comme un état contradictoire, proche de l’immersion dans la fiction ou le mensonge à soi-même ». Celui qui accepte une telle proposition et pense sur sa base ne croit pas forcément en sa vérité. D’où les effets pour le moins limités des réponses rationnelles et intellectuelles telles que le « fact-checking » ou l’éducation sur ce désir de croire.

5G et champ électromagnétique

5G et champ électromagnétique 

Côté utilisateurs, la 5G doit permettre de nouveaux usages dans bien des domaines. Médias, santé, transports, entre autres, profiteront des débits jusqu’à 10 fois supérieurs à la 4G. Les téléchargements devraient par exemple être quasiment instantanés. Mais beaucoup de questions se posent quant au rayonnement magnétique que cette nouvelle technologie devrait entraîner et les possibles répercussions sur la santé que la 5G pourrait entraîner. Sciences et Avenir fait le point.

 

Qu’est-ce qu’un champ électromagnétique ?

Un champ magnétique apparaît lorsqu’un courant électrique circule. Son intensité varie selon la consommation d’électricité. Il existe des champs électromagnétiques partout autour de nous. Certains naissent de façon naturelle, comme lors d’un orage. D’autres sont le fruit de l’activité humaine. C’est par exemple grâce au champ électromagnétique que l’on peut observer des fractures avec les rayons X à l’hôpital.

Comment mesure-t-on ce champ ?

Pour le mesurer, il faut observer sa fréquence ou sa longueur d’ondes. « On peut se représenter le rayonnement électromagnétique comme une série d’ondes très régulières qui progressent à une vitesse extrêmement élevée et plus précisément à la vitesse de la lumière. La fréquence traduit simplement le nombre d’oscillations ou de cycles par seconde, tandis que la longueur d’onde est égale à la distance entre un point d’une onde et son homologue sur l’onde suivante. Fréquence et longueur d’onde sont donc totalement indissociables : plus la fréquence est élevée, plus la longueur d’onde est courte« , explique l’Organisation mondiale de la santé (OMS).

 L’intensité d’un champ électrique se mesure en volts par mètre ( V/m) et l’intensité d’un champ magnétique se mesure en ampères par mètre (A/m) ou encore en microteslas (μT).

Donc il y a déjà des champs électromagnétiques dans ma maison ?

Oui et ils proviennent de nombreux objets. Un téléviseur émet 60 V/m, tout comme une machine à café. Un fer à repasser en émet 120 et une ampoule 5. Mais il sont aussi présents hors de la maison, à proximité des lignes de train, des radars ou des lignes électriques. « Dans les habitations qui ne sont pas situées à proximité d’une ligne électrique, le champ magnétique de fond peut aller jusqu’à un maximum d’environ 0,2 μT, explique l’OMS. Juste au dessous d’une ligne, les champs sont beaucoup plus intenses, avec une densité de flux magnétique pouvant atteindre plusieurs microteslas. Sous une ligne, le champ électrique peut atteindre 10 kV/m. A une distance comprise entre 50 et 100 m, l’intensité des deux types de champ retombe à la valeur mesurée dans les zones situées loin des lignes à haute tension.«  

A partir de quelle valeur un champ électromagnétique est-il dangereux ?

Les ondes de haute fréquence transportent plus d’énergie que les ondes de bases fréquences. Certains rayonnements sont si forts qu’ils brisent les liaisons entre les molécules. Ces « rayonnements ionisants » sont émis par les substances radioactives, les rayonnements cosmiques ou encore les rayons X. « Les champs électromagnétiques d’ origine humaine qui résultent, pour une part importante, de l’activité industrielle (électricité, hyperfréquences et radiofréquences) engendrent des rayonnements où la fréquence est relativement basse et sont incapables de provoquer la rupture des liaisons chimiques. »

Comment la téléphonie mobile émet-elle ce champ?

Les portables fonctionnent grâce à des stations-relais installés sur le toit des immeubles, entre 15 et 50 mètres du sol. « Les réseaux mobiles actuels utilisent des antennes qui diffusent les signaux de manière constante, dans toutes les directions« , explique l’Agence nationale des fréquences (ANFR) dans un communiqué. La 2G, la 3G et la 4G fonctionnent grâce à la bande passante, qui n’est qu’un terme servant à désigner le débit maximal qu’un système peut transporter. Elles utilisent des fréquences basses, qui ont une « bonne propagation à l’intérieur des bâtiments. » 

Les antennes 5G sont-elles différentes De petites antennes devraient être installées dans le mobilier urbain. Crédit photo : ANFR.

Pour la 5G, des antennes intelligentes vont voir le jour et seront installées dans le mobilier urbain, comme dans les arrêts de bus ainsi que dans les bâtiments. Cette nouvelle génération d’antennes « orientent les signaux vers les appareils qui en ont besoin. Couplée avec des bandes de fréquences hautes, l’utilisation de ces antennes permettra d’accroître fortement les débits« , explique l’ANFR. Ces hautes bandes de fréquence font polémique. Les bandes basses, de large couverture, se propagent à travers les bâtiments et s’échelonnent autour de 3,4 et 3,8 GHZ. Elles correspondent à un niveau émis par le Wifi. Les bandes dites « milimétriques » à haute fréquence fonctionnent à plus de 24,25 Ghz. Elles ont une propagation limitée, c’est pour cela qu’il faut installer des petits capteurs, appelés « small cells« , dans le mobilier urbain. Ces bandes de haute fréquence ne devraient toutefois pas être mises en oeuvre dès 2020.

La 5G émet-elle des ondes dangereuses pour la santé ?

Pour l’instant, aucune étude scientifique n’est disponible sur le sujet. Nous n’avons été en mesure de trouver quel serait le taux d’émission d’ondes de la 5G. L’ANFR et l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) n’ont pas répondu à nos sollicitations. Le gouvernement a chargé l’Anses de procéder à une expertise sur l’aspect sanitaire de la 5G. Près de 70 responsables politiques ont signé une pétition pour demander un moratoire sur la 5G. Elle fait suite à une autre pétition signée plus tôt par 170 scientifiques issus de 37 pays.

La documentation la plus récente émane d’un rapport publié le 1er septembre 2020 par le Conseil général de l’environnement et du développement durable (CGEDD), le Conseil général de l’économie (CGE), l’Inspection générale des affaires sociales (IGAS) et l’Inspection générale des finances (IGF). Il est  »très difficile de mesurer l’exposition liée aux usages (c’est-à-dire au contact des terminaux) qui, pourtant, en représentent usuellement la part prépondérante. [...] Il est également complexe d’estimer l’évolution des niveaux d’exposition en France du fait de l’arrivée de la 5G », estiment les auteurs du rapport. « Les éléments disponibles à ce jour permettent d’estimer que l’introduction de la 5G en bande 3,5 GHz avec antennes actives ne générera pas de rupture en matière d’exposition dans les zones urbaines, où elle sera majoritairement déployée, par rapport aux évolutions observées avec les réseaux existants, mais peut contribuer à une augmentation du nombre de points atypiques, ce qui devra faire l’objet d’une vigilance particulière. »

Le rapport conclut à une absence d’effet néfaste à long terme mais reste prudent sur de possibles effets sur une plus longue période. « Il n’existe pas, selon le consensus des agences sanitaires nationales et internationales, d’effets néfastes avérés à court terme, c’est-à-dire d’effets thermiques délétères sur les tissus [...] ni dans le grand public, ni chez les travailleurs. » Quand aux effets sur le long terme sur un possible effet cancérogène, ils sont « à ce stade, pour l’essentiel, non avérés selon les mêmes agences nationales et internationales. Des débats persistent toutefois, notamment pour ces effets de long terme, au sein de la communauté scientifique. »

Et la 4G est-elle, déjà, dangereuse pour la santé ?

« La question qui fait actuellement débat est celle de savoir si une exposition faible mais prolongée est susceptible de susciter des réponses biologiques et de nuire au bien-être de la population. Au cours des 30 dernières années, environ 25.000 articles scientifiques ont été publiés sur les effets biologiques et les applications médicales des rayonnements non ionisants. S’appuyant sur un examen approfondi de la littérature scientifique, l’OMS a conclu que les données actuelles ne confirment en aucun cas l’existence d’effets sanitaires résultant d’une exposition à des champs électromagnétiques de faible intensité. Toutefois, notre connaissance des effets biologiques de ces champs comporte encore certaines lacunes et la recherche doit se poursuivre pour les combler« , explique l’OMS, qui appelle elle aussi à la prudence, dans un communiqué. Par ailleurs, les ondes électromagnétiques sont « peut-être cancérigènes » pour l’être humain, selon un autre rapport de l’OMS et par l’Agence internationale de recherches sur le cancer (IARC) publié lui 2011.

Quelle est la limite d’exposition fixée actuellement ?

L’ANFR est chargée de veiller au respect des valeurs limites d’exposition du public aux champs électromagnétiques, comprises entre 28 V/m et 87 V/m, selon les fréquences. L’agence a réalisé un gros travail de mesure de fréquences en France en 2014. Des travaux réalisés surtout en milieu urbain (84%) et en milieu extérieur (60%). « L’analyse montre que les mesures sont toutes nettement inférieures aux valeurs limites réglementaires (28-87 V/m). Moins de 1% dépassent la valeur dite « d’attention » de 6 V/m. Plus de huit mesures sur 10 se sont avérées inférieures à 1 V/m« , explique l’étude de l’ANFR publiée en 2016. « La téléphonie mobile est le contributeur le plus important dans près de 60% des cas. En milieu rural, cette tendance est moins marquée, avec seulement 40% des cas pour lesquels la téléphonie mobile domine.« 

La 5G respectera-t-elle cette limite ?

Les valeurs limites citées plus haut prennent effet peu importe le type de réseau, 2G, 3G, 4G ou 5G. « Les réseaux 5G qui seront déployés par les opérateurs devront donc respecter ces valeurs limites tout autant que les technologies en place aujourd’hui. Le gouvernement travaille avec l’Anses et l’ANFR pour qu’elles puissent examiner l’exposition aux ondes électromagnétiques et l’impact éventuel de ces nouveaux développements technologiques, dès la phase des expérimentations. L’ensemble de ces travaux feront l’objet d’échanges avec les parties prenantes dans le cadre des comités de dialogue mis en place par l’ANFR et l’ANSES« , explique le gouvernement dans sa feuille de route.

Qui fixe cette limite ?

Chaque pays a ses propres normes. Celles-ci suivent très souvent les recommandations formulées par la Commission internationale de protection contre les rayonnements non ionisants (CIPRNI), une organisation non gouvernementale reconnue par l’OMS. Pour fixer les valeurs maximales d’exposition, cette ONG applique un facteur sécurité de 10 pour l’exposition sur le lieu de travail et 50 pour la population générale, c’est-à-dire qu’elle fixe des limites 50 fois plus faibles que le seuil d’apparition d’anomalies.

Et les personnes électrosensibles alors ?

Certaines personnes se décrivent comme « électrosensibles » et décrivent plusieurs symptômes qui seraient liés aux ondes.  »Il s’agit notamment d’anxiété, de céphalées, de tendances dépressives voire suicidaires, de fatigue et d’une réduction de la libido. Jusqu’à présent, les données scientifiques ne confirment pas l’existence d’un lien entre cette symptomatologie et l’exposition à des champs électromagnétiques. Elle peut, au moins en partie, être attribuée au bruit et à d’autres facteurs environnementaux ou encore à l’anxiété suscitée par les nouvelles technologies« , soutient l’OMS. En France, l’Anses reconnaît toutefois une souffrance chez les personnes électrosensibles : « les plaintes (douleurs, souffrance) formulées par les personnes se déclarant EHS correspondent à une réalité vécue. »

Comment éviter d’être exposé ?

 « Comme dans le cas du champ électrique, le champ magnétique est d’autant plus intense qu’on est proche de la source et il diminue rapidement lorsque la distance augmente. Les matériaux courants tels que les matériaux de construction ne constituent pas un blindage efficace contre les champs magnétiques« , explique l’OMS. Rien de mieux que de s’éloigner, donc.

5G : le mythe des ondes dangereuses ?

5G : le mythe des ondes dangereuses ?

 

OPINION.

 

On n’entrevoit probablement qu’à peine les applications qui seront demain rendues possibles par la 5G. Pourtant, son déploiement a suscité voilà quelques mois une levée de boucliers sans précédent, et la 5G fut pilonnée et accusée de tous les maux. Dernier écho en date: la 5G pourrait perturber les radioaltimètres des avions et provoquer paralysie aéroportuaire et incidents aériens. Crash en vue pour la 5G ou simple effet de manche interroge dans la Tribune Sébastien Point, physicien et ingénieur, spécialiste des sciences & technologies, président de la section Rayonnements non ionisants de la Société française de radioprotection.

Une information sur de potentielles interférences entre les ondes de la 5G et les radioaltimètres des avions a depuis peu contribué à ranimer les débats sur la pertinence de déployer la technologie 5G, laquelle technologie avait subi, il y a quelques mois, de violentes attaques d’une mouvance écoésotérique radicale qui y voyait un asservissement de l’humanité aux machines ou encore une immense catastrophe sanitaire à venir.

Ainsi, après s’être demandé si la 5G pouvait être dangereuse pour la santé des individus et non satisfaite sans doute d’avoir dépensé tant d’énergie à débattre de son éventuel impact environnemental, voilà qu’une partie de la presse se demande désormais si la 5G ne serait pas dangereuse pour… les avions. On lit ainsi, sur le site lechotouristique.com[1] , que des compagnies aériennes « pourraient être contraintes d’annuler, de retarder ou de détourner des vols dans les 46 zones américaines où se trouvent des tours 5G ».

Un avertissement qui ne date pas d’hier

En cause, la proximité des fréquences utilisées par les radioaltimètres des avions avec l’une des bandes de fréquences des émetteurs 5G. Sont rapportés sur de nombreux sites d’information en ligne les propos d’un porte-parole de la Direction générale de l’aviation civile (DGAC) avertissant que « l’utilisation d’appareils 5G à bord des aéronefs pourrait conduire à des risques d’interférences conduisant à des erreurs potentielles sur les mesures d’altitude », ce qui serait critique lors des phases d’atterrissage et de décollage. Le site lesnumériques.com[2] insiste quant à lui sur le fait que l’avertissement ne date pas d’hier puisqu’aux Etats-Unis l’Administration fédérale de l’aviation (FAA) « avait déjà alerté à ce sujet l’an dernier » et qu’« en France, la Direction générale de l’aviation civile (DGAC) avait demandé en 2020 des analyses techniques supplémentaires avant l’allumage d’antennes 5G proches des aéroports ».

Néanmoins, comme le précise la FAA, « il n’a pas encore été rapporté d’exemples prouvés d’interférences dues aux réseaux de téléphonie sans fil au niveau international », et certains, à l’image du site nouvelles-du-monde.com[3], se demandent si tout cela n’est pas monté en épingle pour des raisons bassement politiques de concurrence entre l’Administration fédérale de l’aviation et la Commission fédérale des communications.

Quoiqu’il en soit, il y a fort à parier qu’une fois les ajustements techniques réalisés, cette histoire, qui relève de la compatibilité électromagnétique, un champ d’investigation scientifique bien encadré normativement et parfaitement connu des ingénieurs, finisse par ressembler à un simple trou d’air dans le déploiement de la 5G. Le fait qu’elle fasse les gros titres montre néanmoins que le débat n’est pas apaisé et qu’une certaine presse gagnerait peut-être à ce qu’il s’enflamme à nouveau. Car, faut-il le rappeler, aucune des accusations proférées à cors et à cris contre la 5G n’a jamais bénéficié de réel fondement, et toutes se sont révélées in fine appartenir au domaine de la croyance.

Exposition aux champs électromagnétiques

On a dit de la 5G qu’elle multiplierait l’exposition aux champs électromagnétiques par 10 ou 100 : ces allégations démagogiques n’avaient aucune chance d’être justes compte-tenu des lois qui régissent la physique des ondes, et effectivement les mesures réalisées en France par l’Agence nationale des fréquences ont confirmé que l’élévation du niveau de champ électrique à proximité des émetteurs 5G était tout à fait négligeable, les points les plus élevés étant toujours très en deçà des valeurs limites d’exposition. On a entendu que la 5G rendrait la vie définitivement impossible à tous les électrosensibles du monde, en dépit de l’évidence grandissante de la nature psychiatrique de cette maladie, dont j’ai montré ailleurs [4], qu’elle était très probablement une phobie spécifique.

On a affirmé que la 5G avait tué les oiseaux du parc Huygens, à La Hague… lesquels oiseaux avaient en réalité consommé des baies toxiques. On a dit de la 5G, sur la base de modèles numériques, qu’elle décimerait les insectes… Mais aucune observation in situ ne confirme les résultats de ces modélisations. On a dit de la 5G qu’elle décuplerait les consommations électriques, qu’elle favoriserait la surveillance de la population, et même qu’elle accélèrerait la transmission de la Covid-19, que certains activistes complotistes ont rebaptisé du doux nom de « syndrome d’hypertoxicité Covid-5G ». On a tout dit sur la 5G. Sauf peut-être l’essentiel : que nulle nation ne peut se permettre, à notre époque, de retarder volontairement son progrès scientifique, technologique et économique, sauf à accepter de devenir le spectateur de son propre devenir.

Des perspectives que l’on ne peut qu’entrevoir aujourd’hui

A ceux qui les développeront et les maitriseront, les nouveaux outils de communication, dont la 5G fait partie, offriront des perspectives que probablement l’on ne peut qu’entrevoir aujourd’hui : désenclavement culturel et économique de régions entières du globe sans besoin de réseaux routiers supplémentaires ; partages de données entre ingénieurs et chercheurs, sans nécessité de déplacer des dizaines ou des  centaines d’entre eux en un même lieu ; opérations ou consultations à distance, en réponse aux problèmes de désertification médicale. Sécurisation des grands axes routiers et des bâtiments, supervisés en temps réel.

 

Et après-demain, c’est l’exploration et la conquête des planètes de notre système solaire par des robots intelligents et interconnectés, puis par l’Homme, qui seront rendues possibles. Face à ces perspectives immenses pour l’avenir, cet épisode des interférences avec les radioaltimètres des avions est anecdotique et ne révèle rien d’autre qu’une énième tentative d’instrumentaliser les peurs de la 5G au profit de quelques-uns et au détriment du plus grand nombre.

_____________

[1] Aérien : la 5G est-elle dangereuse pour les avions ? (lechotouristique.com)

[2] La 5G pourrait-elle perturber le trafic aérien ? – Les Numériques (lesnumeriques.com)

[3] La préoccupation de la FAA concernant l’interférence des avions est-elle légitime ? – Nouvelles Du Monde (nouvelles-du-monde.com)

[4] Sébastien Point, La religion anti-ondes : comment médias et associations ont fabriqué les électrosensibles, 2021.

Numérique : La nécessité d’une régulation pour une vraie concurrence

Numérique : La nécessité d’une régulation pour une vraie concurrence 

 

Emmanuel Combe, Président de l’Autorité de la concurrence par interim et professeur d’économie à Skema Business School observe, dans une tribune au « Monde », que la réaffirmation de la « souveraineté économique » et la régulation du marché du numérique ne sont pas incompatibles avec le maintien des règles de concurrence, au contraire.

 

Tribune.

 

A l’heure où la thématique de la souveraineté économique s’invite dans les débats et où l’Europe entend mieux réguler les géants du numérique, la politique de concurrence semble avoir perdu sa primauté. Certains considèrent même qu’elle appartiendrait au passé, au point de devoir céder la place à d’autres politiques publiques, jugées plus efficaces et légitimes.

En premier lieu, l’Europe a pris la mesure de l’urgence d’une véritable politique industrielle : plusieurs initiatives ont été engagées récemment, visant à combler notre retard dans des industries critiques – à l’image des semi-conducteurs – et à préparer les ruptures technologiques à venir, comme l’ordinateur quantique.

Cette politique industrielle n’est toutefois pas antinomique avec le maintien de la concurrence. Rappelons tout d’abord que la politique de concurrence est à sa manière une forme de politique industrielle : en luttant contre les cartels et les abus de position dominante, elle permet de préserver la compétitivité de nos entreprises et favorise l’éclosion de nouveaux acteurs, dont certains seront les géants de demain.


De plus, une politique de coopération technologique entre concurrents n’exclut pas le maintien d’une concurrence en aval, sur le marché des produits.

Enfin, une politique d’investissement dans les secteurs d’avenir a plus de chances de réussir si les entreprises se font concurrence : dans une course technologique, désigner le vainqueur à l’avance est rarement couronné de succès. Politique industrielle et politique de concurrence sont plus complémentaires que substituables.

En deuxième lieu, face aux pratiques de concurrence déloyale émanant de pays tiers, l’Europe a décidé de muscler sa politique de défense commerciale : elle a renforcé dès 2018 son arsenal antidumping et s’apprête demain à adopter un dispositif de lutte contre les subventions publiques étrangères qui distordent la concurrence. Cette politique est bienvenue : elle permet de sanctionner des comportements qui ne sont pas véritablement appréhendés par le droit de la concurrence, à l’image du dumping non prédateur.


Pour autant, la politique de concurrence doit continuer à jouer son rôle dans la régulation de la mondialisation : n’oublions pas que les règles antitrust nous protègent également contre des pratiques mises en œuvre par des acteurs non européens… sur le sol européen. Google l’a appris à ses dépens à plusieurs reprises, tout comme le cartel international des airbags, qui a affecté négativement nos constructeurs automobiles.

Risques de l’excès de la digitalisation et du cloud

Risques  de l’excès de la digitalisation et du cloud

 

. Les initiatives gouvernementales du cloud souverain sous-estiment considérablement l’impact du SaaS, qui crée pourtant une digitalisation souterraine dans les entreprises, augmentant considérablement la surface d’exposition aux cyberattaques. Par Andréa Jacquemin, fondateur et CEO de Beamy

Selon l’étude de KPMG réalisée en mai dernier dans le cadre de l’initiative gouvernementale du cloud souverain, le marché du cloud européen pourrait décupler et atteindre 560 milliards d’euros d’ici à 2030. Il concentre à part égale, 230 milliards d’euros, des besoins d’infrastructure – le IaaS et le PaaS – et les besoins d’applications : le SaaS. Mais si le cloud d’Infrastructure a été au cœur des débats de souveraineté ces derniers mois avec l’initiative européenne Gaia-X, ou la défense des acteurs français OVH, Orange ou Scaleway face aux mastodontes américains Amazon, Google ou Microsoft, rien ou trop peu n’a été dit sur son pendant applicatif : le SaaS.

Et pourtant, à l’insu des DSI et des directions générales, le SaaS explose jusqu’à créer une véritable digitalisation souterraine, aux mépris de tous les enjeux sécuritaires (RGPD) ou de souveraineté numérique.

Ainsi, dans les sociétés du Cac 40, et plus largement dans les grandes entreprises, le SaaS est devenu le vecteur clé de la digitalisation des métiers. Couramment appelé Shadow IT, l’écosystème SaaS se construit via l’usage massif d’outils disponibles sur internet, hyper-spécifiques et payables par abonnements. Déployés  à l’insu des lourds process de gouvernance d’entreprise, ces outils passent majoritairement sous les radars de l’entreprise car « à moins de 100.000 euros, le groupe ne regarde pas« , et cela même s’ils représentent des millions d’euros de coûts annuels cumulés. Externalisée, cette informatique est souvent celle de l’usage débridé des données personnelles (plus de 40% des SaaS utilisés sont américains), présentant potentiellement une multitude de failles de sécurité et de conformité à venir.

C’est une véritable digitalisation souterraine qui s’opère avec, en moyenne, plus de 190 éditeurs cloud différents pour une entreprise de plus de 1.000 collaborateurs. Sur ce nombre, seuls 60 de ces éditeurs sont maîtrisés par la DSI, 44 par le DPO et 36 par la sécurité. Et si, comme le prévoit KPMG, la croissance du cloud se poursuit, ce sont alors plus d’un millier d’éditeurs SaaS différents qui seront utilisés par chaque entreprise en 2030. La capacité de structurer un cadre de gouvernance clair sur le cloud d’application sera donc vital tant cela cristallise des enjeux de souveraineté numérique, de cyberdéfense ou de performance digitale de nos entreprises.

La transformation digitale étant l’affaire de tous, et surtout des métiers, il est normal qu’ils s’en saisissent. Notamment ceux de la nouvelle génération, celle du smartphone et ses applications qu’ils installent et désinstallent à la vitesse d’un clic. Génération du zapping, elle attend de l’entreprise le meilleur de la technologie que ce soit sur la vitesse d’exécution, l’interface des solutions et l’impact des outils sur la simplification et la performance de leurs activités professionnelles. Or, c’est un euphémisme de dire que cela ne fait pas encore partie des solutions proposées par les grandes entreprises

 

Pourtant, les meilleures technologies existent sur le marché mondial – près de 100.000 SaaS – dont les investissements réalisés par le capital risque se comptent en centaines de milliards d’euros. Ces solutions, parmi lesquelles figurent les plus puissantes, rapides et les mieux adaptées à la digitalisation des différents processus, sont aussi celles qui stockent et consomment le plus de données personnelles à l’étranger. Il s’agit donc de construire un véritable App Store de l’entreprise, pour permettre aux métiers de choisir eux-mêmes les meilleures applications tout en les guidant dans la bonne manière de sélectionner, utiliser et dé-risquer ces outils sur le­ long terme.

Le DSI tient une place stratégique sur ce sujet : celle de fournir ainsi à l’entreprise le cadre de décentralisation de la digitalisation. Celle de s’assurer que, malgré l’inflation technologique portée par les métiers, le cadre réglementaire est respecté, les données personnelles sous-traitées par ces outils sont bien protégées et les failles de sécurité externalisées sont réduites au minimum. Dans ce contexte, le DSI agît comme chef d’orchestre de l’écosystème digital, assurant l’optimisation des applications SaaS et leurs synergies au fur et à mesure que les métiers les ajoutent.

Le cloud souverain restera une initiative vaine si le cloud d’application, qui en résulte pour moitié, est toujours considéré au second plan. Au sein des entreprises, c’est à la direction générale d’impulser la construction d’une gouvernance digitale décentralisée, la seule à même de réussir à structurer cette part explosive du cloud. Une stratégie qui nécessite de mobiliser, avec le DSI, l’ensemble du comité exécutif, toutes les directions étant concernées par les enjeux de la transformation digitale.

L’urgence reste pourtant bien de faire l’état des lieux de la digitalisation souterraine existante !

Pour une nouvelle architecture d’Internet

Pour une nouvelle architecture d’Internet 

 

L’entrepreneur américain, Frank McCourt,  plaide, dans une tribune au « Monde », pour une refonte du réseau, qui laisserait aux utilisateurs la propriété et le bénéfice de leurs données et de leur exploitation, dans un cadre de gouvernance coopératif visant le bien commun.

 

Tribune. 

 

Ces dernières semaines, les discussions au Congrès américain, puis au Parlement européen, ont une fois de plus pointé les effets néfastes des réseaux sociaux. Encore une fois, les Parlements du monde occidental cherchent des réponses aux dommages causés par ces plates-formes, liés dès l’origine aux défauts de leur conception. Encore une fois, les décideurs politiques et les dirigeants de la Silicon Valley s’interrogent sur la mise en place d’une surveillance accrue et d’une stricte réglementation. L’autre voie serait de voir ces géants du numérique modifier par eux-mêmes et volontairement leurs pratiques. Mais cela n’arrivera pas. Et encore une fois, le débat se concentre sur les moyens de réparer un modèle, pourtant indéniablement et irrémédiablement brisé.


Il est grand temps de dépasser cette infrastructure technologique, car elle génère ses profits à partir de dommages. Internet comporte des avantages indiscutables, mais son modèle actuel déforme le système économique en s’appropriant nos données personnelles et en les vendant au plus offrant. Les médias sociaux abîment le discours public en privilégiant le clic au détriment de la vérité et en rendant la désinformation et l’indignation plus rentables que les faits. La technologie est conçue pour le profit des plates-formes ; elle ignore l’individu. Elle transforme nos modes de vie à notre insu et érode les institutions civiques censées renforcer la cohésion de nos sociétés. Tous ces maux ont un impact disproportionné sur les personnes déjà vulnérables ; ils ont un effet d’inégalité toxique. Il en résulte une perte de confiance, qui menace nos démocraties. Il est temps de résoudre le problème, une fois pour toutes.

Big Tech a tenu sa promesse : « Aller vite et tout casser ». C’est une situation irréversible, irréparable, qui ne peut pas être traitée par la simple réglementation. Au lieu de chercher à réparer un modèle cassé, nous devons élaborer une nouvelle architecture d’Internet, imaginée et construite sur une base plus équitable, dans un esprit positif. Le but est de réinitialiser complètement notre modèle technologique afin de développer une nouvelle approche en plaçant l’utilisateur au centre du projet. Il s’agit de l’optimiser pour en garantir l’accès et l’équité, dans le souci constant du bien commun.

Cela peut sembler audacieux. Mais c’est aujourd’hui à notre portée. Il est d’ores et déjà possible de construire un protocole Web en open source. Dès sa conception, il transférerait le contrôle des données personnelles aux particuliers. Il encouragerait les développeurs à innover en permettant à tous les utilisateurs de bénéficier directement de la valeur économique de leurs données. Avec une approche collaborative et interdisciplinaire, nous pouvons réunir des technologues, des experts en sciences sociales, des éthiciens, des juristes et des économistes pour imaginer un nouveau cadre de gouvernance à même de tracer la voie de cette prochaine génération numérique reposant sur une « technologie éthique » afin de rendre les progrès durables à long terme. Avec le soutien de personnalités qualifiées et d’institutions, nous pouvons construire une dynamique de changement donnant la priorité aux personnes plutôt qu’aux plates-formes, ouvrant de nouvelles pistes et donnant vie à un engagement social, économique et civique fécond.

5G: Les risques de la technologie

5G: Les risques de la technologie

 

Si la 5G devrait apporter des avantages et améliorer la vitesse de nos communications, il ne faut pas oublier de penser à toutes les problématiques que pose cette nouvelle technologie. Par Serge Abiteboul, Inria et Gérard Berry, Collège de France ( La tribune, extrait)

 

Le numérique, de manière générale, questionne les défenseurs de l’environnement. Par plein de côtés, il a des effets positifs sur l’environnement. Par exemple, il permet des études fines du climat, la gestion intelligente de l’énergie dans des smart grids, celle des moteurs de tous types, de l’automobile à l’aviation, des économies de transports avec le travail à distance. Par contre, il participe à la course en avant vers toujours plus de productivité et de consommation. Cet aspect très général du débat sera ignoré ici, où nous nous focaliserons sur la 5G.

Du côté positif, la 5G a été conçue dès le départ pour être énergétiquement sobre. Sachant que les chiffres ne sont pas stabilisés, elle devrait diviser fortement la consommation d’électricité pour le transport d’un Gigaoctet de données ; on parle de division par 10 et à terme par 20 par rapport à la 4G. Même si ces prévisions sont peut-être trop optimistes, il faut noter qu’elles vont dans le sens de l’histoire, qui a effectivement vu de pareilles améliorations de la 2G à la 3G à la 4G. Et on pourrait citer aussi les économies du passage du fil de cuivre à la fibre, ou des « vieux » data centers aux plus modernes. Le numérique sait aussi aller vers plus de sobriété, ce qui lui a permis d’absorber une grande partie de l’explosion des données transférées sur le réseau depuis vingt ans.

Une partie de cette explosion, oui, mais une partie seulement, car il faut tenir compte de l’effet rebond. D’une manière très générale, l’effet rebond, encore appelé paradoxe de Jevons, observe que des économies (monétaire ou autres) prévues du fait d’une amélioration de la technologie peuvent être perdues à la suite d’une adaptation du comportement de la société. Avec les améliorations des techniques qui ont permis le transport de plus en plus de données, on a vu cette quantité de données transportées augmenter violemment, en gros, doubler tous les dix-huit mois. Si les récents confinements dus à la pandémie n’ont pas mis à genoux la 4G, c’est grâce à l’année d’avance que sont obligés de prendre les opérateurs pour absorber cette croissance, entièrement due aux utilisateurs d’ailleurs.

L’introduction de la 5G va permettre que cet accroissement se poursuive, ce qui résulterait selon certains en une augmentation de l’impact négatif des réseaux sur l’environnement.

Bien sûr, on doit s’interroger pour savoir si cela aurait été mieux en refusant la 5G. Sans 5G, les réseaux télécoms de centre-ville auraient vite été saturés ce qui aurait conduit à densifier le réseaux de stations 4G. On aurait sans doute assisté à un même impact négatif pour un réseau qui aurait alors fini massivement par dysfonctionner, car la 4G supporte mal la saturation pour des raisons intrinsèques à sa technologie. Ne pas déployer la 5G n’aurait réglé aucun problème, le vrai sujet est celui de la sobriété.

Dans le cadre du déploiement en cours, une vraie question est celle des coûts environnementaux de fabrication des éléments de réseaux comme les stations radio, et surtout des téléphones. Il faut savoir que la fabrication d’un téléphone portable émet beaucoup plus de gaz à effet de serre (GES) que son utilisation. Si tous les Français se précipitent et changent leur téléphone pour avoir accès à la 5G, on arrive à un coût énorme en émission de GES. Il faudrait les convaincre que ça ne sert à rien et qu’on peut se contenter du renouvellement « normal » des téléphones. Il est important d’insister ici sur « normal » : les Français changent de téléphone tous les 18 mois, ce qui n’est pas normal du tout. Même si ça a été effectivement nécessaire quand les téléphones étaient loin de leur puissance de calcul actuelle, ça ne l’est plus maintenant. Et produire tous ces téléphones engendre une gabegie de ressources, d’énergie et d’émission de GES. Au-delà du sujet de la 5G, que faisons-nous pour ralentir ces remplacements ? Que faisons-nous pour qu’ils ne s’accélèrent pas à l’appel des sirènes de l’industrie des smartphones ?

Il faudrait aussi questionner les usages. Le visionnage d’une vidéo sur un smartphone consomme plusieurs fois l’électricité nécessaire au visionnage de la même vidéo après téléchargement par la fibre. Mais la situation est tout sauf simple. Comment comparer le visionnage d’un cours en 4G par un élève ne disposant pas d’autre connexion Internet au visionnage d’une vidéo (qu’on aurait pu télécharger à l’avance) dans le métro parisien ? Il ne s’agit pas ici de décider pour le citoyen ce qu’il peut visionner suivant le contexte, mais juste de le sensibiliser à la question du coût environnemental de ses choix numériques et de lui donner les moyens, s’il le souhaite, d’avoir des comportements plus sobres.

Dans ces dimensions, les effets sont contrastés.

Pour la cybersécurité, la 5G procure des moyens d’être plus exigeants, par exemple, en chiffrant les échanges de bout en bout. Par contre, en augmentant la surface des points névralgiques, on accroît les risques en matière de sécurité. En particulier, la virtualisation des réseaux qu’elle introduit ouvre la porte à des attaques logicielles. L’internet des objets, potentiellement boosté par la 5G, questionne également quand on voit la faiblesse de la sécurité des objets connectés, des plus simples comme les capteurs à basse énergie jusqu’aux plus critiques comme les pacemakers. Le risque lié à la cybersécurité venant de l’internet des objets est accru par la fragmentation de ce marché qui rend difficile de converger sur un cadre et des exigences communes.

Pour ce qui est de la surveillance, les effets sont également contrastés. Les pouvoirs publics s’inquiètent de ne pouvoir que plus difficilement intercepter les communications des escrocs, des terroristes, etc. Des citoyens s’inquiètent de la mise en place de surveillance vidéo massive. La 4G permet déjà une telle surveillance, mais la 5G, en augmentant les débits disponibles la facilite. On peut réaliser les rêves des dictateurs en couvrant le pays de caméra dont les flux sont analysés par des logiciels d’intelligence artificielle. Le cauchemar. Mais la 5G ne peut être tenue seule pour responsable ; si cela arrive, cela tiendra aussi du manque de vigilance des citoyens et de leurs élus.

C’est un vieux sujet. Comme ces ondes sont très utilisées (télécoms, wifi, four à micro-ondes, radars, etc.) et qu’elles sont invisibles, elles inquiètent depuis longtemps. Leurs effets sur la santé ont été intensément étudiés sans véritablement permettre de conclure à une quelconque nocivité dans un usage raisonné. Une grande majorité des spécialistes pensent qu’il n’y a pas de risque sanitaire à condition de bien suivre les seuils de recommandation de l’OMS, qui ajoute déjà des marges importantes au-delà des seuils où on pense qu’il existe un risque. On notera que certains pays comme la France vont encore au-delà des recommandations de l’OMS.

Pourtant, d’autres spécialistes pensent que des risques sanitaires existent. Et on s’accorde généralement pour poursuivre les études pour toujours mieux comprendre les effets biologiques des ondes, en fonction des fréquences utilisées, de la puissance et de la durée d’exposition. Avec le temps, on soulève de nouvelles questions comme l’accumulation des effets de différentes ondes, et après avoir focalisé sur les énergies absorbées et les effets thermiques, on s’attaque aux effets non thermiques.

La controverse se cristallise autour de « l’hypersensibilité aux ondes électromagnétiques ». C’est une pathologie reconnue dans de nombreux pays, qui se manifeste par des maux de tête, des douleurs musculaires, des troubles du sommeil, etc. Malgré son nom, les recherches médicales n’ont montré aucun lien avec l’exposition aux ondes. Ses causes restent mystérieuses.

Venons-en à la question plus spécifique de la 5G. La 5G mobilise différentes nouvelles gammes de fréquences, autour de 3,5 GHz et autour de 26 GHz. Avec la 3.5 GHz, on est très proche de fréquences déjà utilisées, par exemple par le wifi, et de fréquences dont les effets ont été très étudiés. Pour la 26 GHz, si l’utilisation dans un cadre grand public de telles ondes est nouvelle, on dispose déjà d’études sur de telles fréquences élevées. Pourtant, l’utilisation nouvelle de ces fréquences spécifiques légitime le fait que de nouvelles études soient entreprises pour elles, ce qui est déjà le cas.

Un aspect de la 5G conduit naturellement aussi à de nouvelles études : les antennes MIMO dont nous avons parlé. Elles permettent de focaliser l’émission sur l’utilisateur. Cela évite de balancer des ondes dans tout l’espace. Par contre, l’utilisateur sera potentiellement exposé à moins d’ondes au total, mais à des puissances plus importantes. Le contexte de l’exposition changeant aussi radicalement conduit à redéfinir la notion d’exposition aux ondes, et peut-être à de nouvelles normes d’exposition. Cela conduit donc à repenser même les notions de mesure.

Nous concluons cette section en mentionnant un autre effet sur la santé qui va bien au-delà de la 5G pour interpeller tout le numérique : la vitesse de développement de ces technologies. Le numérique met au service des personnes des moyens pour améliorer leurs vies. C’est souvent le cas et, en tant qu’informaticiens, nous aimons souligner cette dimension. Mais, le numérique impose aussi son rythme et son instantanéité à des individus, quelquefois (souvent ?) à leur détriment. C’est particulièrement vrai dans un contexte professionnel. Dans le même temps où il nous décharge de tâches pénibles, il peut imposer des cadences inhumaines. Voici évidemment des usages qu’il faut repousser. Il faut notamment être vigilant pour éviter que la 5G ne participe à une déshumanisation du travail.

On peut difficilement évaluer les retombées économiques de la 5G, mais les analystes avancent qu’elle va bouleverser de nombreux secteurs, par exemple, la fabrication en usine et les entrepôts. On s’attend à ce qu’elle conduise aussi à de nouvelles gammes de services grand public et à la transformation des services de l’État. On entend donc : Le monde de demain sera différent avec la 5G, et ceux qui n’auront pas pris le tournant 5G seront dépassés. C’est une des réponses avancées aux détracteurs de la 5G, la raison économique. On rejouerait un peu ce qui s’est passé avec les plates-formes d’internet : on est parti trop tard et du coup on rame à rattraper ce retard. Sans la 5G, l’économie nationale perdrait en compétitivité et nous basculerions dans le tiers monde.

Il est difficile de valider ou réfuter une telle affirmation. N’abandonnerions-nous la 5G que pour un temps ou indéfiniment ? Est-ce que ce serait pour adopter une autre technologie ? Nous pouvons poser par contre la question de notre place dans cette technique particulière, celle de la France et celle de l’Europe.

Pour ce qui est du développement de la technologie, contrairement à d’autres domaines, l’Europe est bien placée avec deux entreprises européennes sur les trois qui dominent le marché, Nokia et Ericsson. On peut même dire que Nokia est « un peu » française puisqu’elle inclut Alcatel. La dernière entreprise dominante est chinoise, Huawei, que les États-Unis et d’autres essaient de tenir à l’écart parce qu’elle est plus ou moins sous le contrôle du parti communiste chinois. La France essaie d’éviter que des communications d’acteurs sensibles ne puissent passer par les matériels Huawei ce qui revient de fait à l’exclure en grande partie du réseau français.

Pour ce qui est des usages, les industriels français semblent s’y intéresser enfin. Les milieux scientifiques européens et les entreprises technologiques européennes ne sont pas (trop) à la traîne même si on peut s’inquiéter des dominations américaines et chinoises dans des secteurs comme les composants électroniques ou les logiciels, et des investissements véritablement massif des États-Unis et de la Chine dans les technologies numériques bien plus grands qu’en Europe. On peut donc s’inquiéter de voir l’économie et l’industrie européenne prendre du retard. Il est vrai que la 5G ne sera pleinement présente que dans deux ou trois ans. On peut espérer que ce délai sera utilisé pour mieux nous lancer peut-être quand on aura mieux compris les enjeux, en espérant que ce ne sera pas trop tard, qu’en arrivant avec un temps de retard, on n’aura pas laissé les premiers arrivants rafler la mise (« winner-take-all »).

Comme nous l’avons vu, certains questionnements sur la 5G méritent qu’on s’y arrête, qu’on poursuive des recherches, qu’on infléchisse nos usages des technologies cellulaires. La 5G est au tout début de son déploiement. Les sujets traversés interpellent le citoyen. Nous voulons mettre cette technologie à notre service, par exemple, éviter qu’elle ne conduise à de la surveillance de masse ou imposer des rythmes de travail inhumains. Nous avons l’obligation de la mettre au service de l’écologie par exemple en évitant des changements de smartphones trop fréquents ou des téléchargements intempestifs de vidéos en mobilité. C’est bien pourquoi les citoyens doivent se familiariser avec ces sujets pour choisir ce qu’ils veulent que la 5G soit. Décider sans comprendre est rarement la bonne solution.

__________

1...34567...33



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol