Archive pour le Tag 'technologiques'

Organisation du travail et révolutions technologiques

Organisation du travail et révolutions technologiques

Pierre-Michel Menger, professeur au Collège de France et directeur d’études à l’Ehess, voit dans la démocratisation du télétravail une conséquence des évolutions profondes du marché du travail, des aspirations sociales et des révolutions technologiques. dans la Tribune

Les évolutions irréversibles dans le monde du travail sont peu nombreuses. Elles ont concerné notamment les congés payés, et l’instauration du salaire minimum. Le télétravail relève de l’organisation du travail, une matière d’accords très différenciés. Il existait avant la pandémie, et faisait partie des ressources offertes par les nouvelles technologies de communication et internet. Son essor dans le salariat lors de la pandémie a fait partie des solutions d’urgence à une situation exceptionnelle de confinement.

C’était une expérience grandeur nature d’exécution qui a d’abord concerné des emplois qualifiés et très qualifiés, et des secteurs (banques, assurances, conseil, informatique, enseignement) dans lesquels la productivité du travail paraissait pouvoir être préservée dans des limites acceptables, en situation d’autonomie forcée d’organisation de leur travail pour les salariés.

Une fois la pandémie passée, le télétravail est devenu un élément de négociation du côté des salariés candidats à un emploi et de ceux qui, pour rester, demandent le réaménagement de leurs conditions de travail. Les tensions du marché du travail favorisent elles-mêmes la revendication offensive des salariés les plus aptes à travailler à distance pour demander des arrangements flexibles.

Il est certain aussi que tout ce qui ne figurait pas, ou qui figurait seulement marginalement dans la comptabilité des conditions d’emploi et de rémunération, comme le trajet domicile-travail et ses coûts multiples, et les dépenses de logement, a pris une importance grandissante à la faveur du cycle d’inflation, supposé temporaire, et à la faveur de la crise climatique, qui n’a rien de temporaire à l’horizon de plusieurs générations.

Ces évolutions soutiennent l’installation durable du télétravail à la manière d’une flexibilité non plus simplement défensive, mais offensive, dans les préférences des salariés et la revendication d’équilibres plus dynamiques entre travail, vie de famille et hors-travail. Comme de nombreuses enquêtes l’ont montré, c’est d’abord le cas des actifs les plus qualifiés, qui savent et qui sauront tirer directement parti des cascades d’innovations technologiques qui ne cesseront pas de transformer le télétravail lui-même, son contenu et ses modalités de réalisation.

Du côté des entreprises et des employeurs, la question décisive demeure celle de la productivité du travail. L’évaluation des différentes combinaisons observées de travail in situ et de travail à distance n’est pas stabilisée, pour ce qui concerne la productivité du travail, le bien-être au travail, l’intégration des différentes générations dans le collectif, et les ressources d’inventivité que fournissent les interactions, planifiées ou non. Par ailleurs, le partage entre salariat, indépendance, et hybridation de ces deux régimes d’activité évolue. Le grand toilettage de l’organisation du travail ne fait que commencer, et il sera bousculé par les innovations (IA, environnement virtuel, notamment).

Parler d’irréversibilité, c’est supposer une dynamique linéaire, à partir d’un changement et d’un effet cliquet. Il est plus fécond d’entrevoir des changements multiples et non linéaires, avec leurs ajustements par tâtonnement.

La Chine : le parti communiste veut réguler les géants technologiques chinois

La Chine : le parti communiste veut réguler  les géants technologiques chinois

L’Administration chinoise d’État pour la régulation du marché (SAMR)  a déclaré que les dernières directives «arrêteraient les comportements monopolistiques dans l’économie des plates-formes et protégeraient une concurrence loyale sur le marché».

L’avis indiquait également qu’il empêcherait les entreprises de fixer les prix, de restreindre les technologies et d’utiliser des données et des algorithmes pour manipuler le marché. Dans une question-réponse accompagnant l’avis, SAMR a déclaré que les rapports de comportement anti-monopole liés à Internet avaient augmenté et qu’il était confronté à des défis pour réglementer l’industrie.

«Le comportement est plus caché, l’utilisation de données, d’algorithmes, de règles de plate-forme, etc., rend plus difficile la découverte et la détermination de ce que sont les accords de monopole», a-t-il déclaré.

La Chine a commencé ces derniers mois à resserrer le contrôle de ses géants de la technologie. Et pour bien se faire comprendre le parti communiste a exercé des pressions sur les patrons des grands groupes a commencé par le patron d’Alibaba.

L’objectif du parti communiste et de lutter contre les situations monopolistiques mais tout autant d’empêcher les patrons de grandes entreprises chinoises de peser sur la ligne politique du parti

En décembre, les régulateurs ont lancé une enquête antitrust sur Alibaba Group à la suite de la suspension dramatique du plan d’offre publique initiale de 37 milliards de dollars de sa filiale de paiement, Ant Group.

À l’époque, les régulateurs avaient mis en garde la société contre des pratiques telles que l’obligation pour les commerçants de signer des pactes de coopération exclusifs au détriment d’autres plates-formes Internet.

Les grands défis technologiques en 2021

Les grands défis technologiques en 2021

 

 

Après une année de croissance prodigieuse, 2021 pourrait s’annoncer plus délicate pour le secteur technologique d’après un article du Wall Street Journal

En 2020, la pandémie a permis aux géants de la tech comme Amazon et Microsoft d’atteindre de nouveaux sommets. Le recours au shopping en ligne et au travail à distance a accéléré à une vitesse qui aurait été inconcevable en l’absence du coronavirus.

Mais les Big Tech pourraient à présent connaître des temps plus difficiles. Fin 2020, les autorités américaines, chinoises et européennes ont lancé séparément des enquêtes pour déterminer si la taille de ces géants n’était pas devenue problématique. Aux Etats-Unis, ces investigations devraient continuer sous la présidence de Joe Biden, laquelle semble également encline à maintenir les restrictions aux exportations chinoises qui modifient le profil des chaînes d’approvisionnement mondiales.

Si les Big Tech risquent ainsi d’être confrontées à des difficultés inédites depuis des années, 2021 pourrait également apporter son lot d’opportunités. Le monde pourrait enfin entrer dans l’ère de la voiture électrique. Le président élu Joe Biden s’est engagé à faire de la cybersécurité une priorité. Et Washington instaurera des incitations financières en vue d’aider les entreprises américaines à garder une longueur d’avance sur leurs concurrentes chinoises.

Voici les principaux enjeux de 2021 pour le secteur technologique.

La réglementation

La plus grande source d’inquiétude en la matière pour les Big Tech reste la menace de poursuites pour pratiques anticoncurrentielles. Mais les démocrates, forts de leur pouvoir nouvellement acquis sur le Congrès, souhaiteront sans doute aussi un durcissement législatif.

Pour Google et Facebook, la menace est déjà bien réelle. Le département de la Justice, la Commission fédérale du commerce (FTC) ainsi que les procureurs généraux de certains Etats ont lancé coup sur coup à leur encontre cinq actions en justice en fin d’année dernière.

Pour ces entreprises, toute la question sera de savoir si l’administration Biden décidera d’élargir les procédures fédérales, de simplement les poursuivre, ou de chercher un accord. Google comme Facebook semblent désireuses d’en finir avec ces affaires. Chacune des deux entreprises nie toute mauvaise conduite.

Mais l’accumulation de poursuites du même ordre entamées par des plaignants privés complique encore la situation.

Pour Amazon et Apple, le risque est de voir des enquêtes préliminaires ouvertes par les autorités réglementaires fédérales conduire à de nouvelles poursuites.

Au-delà des actions d’ordre judiciaire, les entreprises technologiques peuvent craindre une offensive du Congrès en faveur d’un durcissement des lois antitrust existantes. Dans l’interprétation qu’en donne la jurisprudence, les règles actuelles ciblent avant tout l’impact des pratiques des entreprises sur les prix à la consommation. Leur mise en œuvre peut être épineuse dans le cas de moteurs de recherche ou réseaux sociaux essentiellement gratuits.

Après la fin tumultueuse de la présidence Trump, les démocrates pourraient vouloir faire usage de leur nouveau pouvoir au Congrès pour pousser des entreprises comme Facebook ou Twitter à réprimer davantage la désinformation et les discours haineux. Certains d’entre eux se sont exprimés en ce sens après l’attaque du Capitole, même si aucun n’a pour l’instant avancé de proposition claire.

De nouvelles règles en termes de confidentialité des données et un renforcement des normes en matière de responsabilité pourraient aussi être envisagées.

— par John D. McKinnon

Les Big Tech poursuivront-elles leur croissance ?

La dépendance vis-à-vis des géants de la tech a fortement augmenté en 2020, ménages et entreprises privilégiant les achats en ligne, et recourant en masse aux services informatiques et de cloud, ainsi qu’aux appareils mobiles et aux services de diffusion de vidéos en ligne. De plus petites entreprises, particulièrement bien placées pour tirer parti de la pandémie, ont également connu une croissance fulgurante, la palme revenant au spécialiste des services de vidéoconférence Zoom Video Communications.

Ces différents services faisant désormais partie du quotidien des consommateurs, le secteur devrait continuer d’avoir le vent en poupe cette année, selon les analystes. Des segments comme le commerce électronique, qui, selon certaines estimations, ont enregistré une croissance de près de 50 % en 2020, continueront de profiter de l’évolution des modes de consommation entraînée par la pandémie. Et même lorsque la vaccination permettra de nouveau l’accès aux bureaux et aux espaces publics, l’adoption du télétravail par le monde de l’entreprise devrait entretenir la demande pour les plateformes qui ont permis aux travailleurs et usagers de rester connectés.

« Nous savions déjà que les technologies jouaient un rôle important dans nos vies, mais nous ne voulions pas en prendre réellement la mesure, observe Gene Munster, directeur associé de la société de recherche et d’investissement Loup Ventures. Avec la pandémie, nous les avons totalement adoptées. »

Les Big Tech n’en seront pas moins confrontées à la loi des grands nombres en 2021. Les bénéfices records qu’elles ont enregistrés l’an dernier font planner la menace d’un ralentissement, en particulier pour les entreprises qui, sous l’effet de la pandémie, ont réalisé en quelques mois une croissance de plusieurs années. Cette décélération attendue de certains segments conduit les analystes à penser que les grands noms de la tech miseront davantage encore sur la diffusion de vidéos en ligne, et d’autres services appelés à connaître un bel avenir.

« Il faudra alimenter le moteur de la croissance », souligne M. Munster en référence à Amazon, Apple et d’autres groupes qui sont entrés ces dernières années sur de nouveaux marchés comme celui du streaming.

— par Sebastian Herrera

Les véhicules électriques

2021 sera une année charnière sur le marché des voitures électriques.

Tesla, dont la valeur en Bourse est aujourd’hui la plus élevée de tous les constructeurs automobiles, entend ouvrir deux nouvelles usines d’assemblage, l’une aux Etats-Unis et l’autre en Allemagne, et entrer sur le marché juteux des pick-up avec son Cybertruck entièrement électrique fin 2021 ou début 2022. Des constructeurs classiques comme Volkswagen, General Motors et Hyundai Motor comptent eux aussi lancer de nouveaux modèles électriques destinés au grand public.

« L’offensive est lancée », note Scott Keogh, le patron de Volkswagen aux Etats-Unis, où l’entreprise doit lancer en mars son crossover électrique ID.4.

D’autres lancements très attendus, de la part de start-up comme Rivian Automotive ou Lucid Motors, viendront étoffer encore l’offre de voitures électriques cette année.

Selon les patrons de l’automobile, cette diversité accrue et l’arrivée de nouveaux concurrents contribueront à doper les ventes de ces véhicules aux Etats-Unis, comme elles l’ont fait en Chine et en Europe. Les ventes de voitures électriques ont augmenté de 9,8 % en Chine l’an dernier, et ont bondi de 89 % en Europe entre janvier et novembre 2020, selon des statistiques de l’industrie automobile.

Aux Etats-Unis en revanche, où les analystes estiment que les quatre cinquièmes des véhicules électriques vendus en 2020 étaient de marque Tesla, les ventes de voitures électriques ont chuté d’environ 11 % l’an dernier, selon les données de LMC Automotive.

Le manque de stations de recharge constitue un obstacle important. Selon les données du gouvernement, les États-Unis comptent actuellement 96 000 stations publiques de recharge, une fraction du nombre nécessaire pour soutenir une forte croissance du marché, indiquent les analystes.

2021 pourrait cependant voir un progrès sur ce front. Durant sa campagne, Joe Biden s’était engagé à mettre en place 500 000 nouvelles stations publiques de recharge d’ici à 2030.

— par Ben Foldy

La cybersécurité

Le piratage massif d’agences fédérales mis au jour le mois dernier a révélé les lacunes des systèmes de défense américains dans le domaine de la cybersécurité. Après cette intrusion, que des responsables ont accusé la Russie d’avoir organisé, Joe Biden a affirmé que la cybersécurité serait une priorité à chaque échelon gouvernemental.

Pour Diane Rinaldo, qui a été administratrice entre 2018 et 2019 de la National Telecommunications and Information Administration, l’une des agences piratées, le Congrès pourrait commencer par prendre une mesure simple : allouer des fonds. Si, de par son nom, l’agence qu’elle administrait semblait devoir être à la pointe des technologies, ses employés devaient composer avec une infrastructure informatique hors d’âge, baptisée « Sneakernet », qui les obligeait par exemple à procéder à des interventions manuelles sur chaque ordinateur pour assurer la sauvegarde des e-mails, raconte Mme Rinaldo.

Selon elle, Sneakernet résume à lui seul le degré d’obsolescence des infrastructures informatiques de Washington. « C’est pourtant simple : il faut investir de l’argent. Les systèmes doivent être mis à niveau », souligne Mme Rinaldo, une républicaine.

Au-delà des services gouvernementaux, le principal enjeu de cybersécurité en 2021 est le même qu’en 2020, à savoir les confiscations de données personnelles par des logiciels malveillants (« ransomware »), indique Eric Chien, directeur technique de Symantec, la division de cybersécurité de Broadcom. La situation n’a pas changé dans ce domaine et les organisations doivent continuer de mettre en pratique les règles de base de cybersécurité pour empêcher ce type d’attaques.

La singularité de 2021 tient à la manière dont les organisations s’adapteront à la généralisation du télétravail. Avant la pandémie, il était faisable pour une entreprise de demander à quelques employés de se connecter à distance à ses systèmes au moyen de réseaux privés virtuels. Il est moins facile de procéder de la sorte avec l’ensemble du personnel.

« Que se passe-t-il si quelqu’un oublie qu’il est sur le réseau de son entreprise et se met à regarder Netflix, s’interroge M. Chien. Cela représente énormément de données. » Selon lui, les organisations peuvent mettre en place des systèmes de sécurité plus simples, laissant par exemple les employés se connecter s’ils sont sur le bon fuseau horaire et ne déclenchent pas d’avertissement de sécurité ou de logiciel malveillant.

— par Stu Woo

Le nationalisme technologique

En 2020, le gouvernement américain a pris des mesures pour empêcher d’agir certains grands noms chinois des technologies, en particulier le géant des télécoms Huawei et des fabricants de microprocesseurs. Cette année, il tentera de faire en sorte que les entreprises américaines et de pays alliés qui ont bénéficié de cette initiative ne gaspillent pas leur avance.

Selon des conseillers démocrates et des analystes de la Chine, il ne faut pas s’attendre à ce que l’administration Biden revienne sur les mesures qui ont été prises contre les entreprises technologiques chinoises.

« Il n’est pas question de faire machine arrière, affirme James Mulvenon, qui dirige une équipe d’analystes de la Chine au sein du groupe de défense SOS International. L’administration Biden entend maintenir certaines mesures utiles des politiques de Trump, et atténuer celles qui semblent avoir été prises à chaud dans un but punitif. »

Le nouveau gouvernement pourrait ainsi maintenir les restrictions aux exportations des géants chinois des télécoms et des microprocesseurs, tout en laissant aux tribunaux le soin de déterminer la légalité de l’interdiction de TikTok et WeChat décidée par l’administration Trump.

Le maintien du statu quo permettrait de laisser le temps aux responsables compétents de décider comment stimuler le secteur technologique américain. Le Congrès a récemment adopté une loi de sécurité nationale prévoyant l’octroi de subventions et d’incitations financières aux fabricants de microprocesseurs, des aides qui, selon les parlementaires, pourraient atteindre jusqu’à 3 milliards de dollars par projet. Les conseillers de Joe Biden ont indiqué qu’ils comptaient poursuivre les efforts de l’administration Trump pour inciter les entreprises américaines à développer des technologies d’équipement 5G à source ouverte susceptibles de concurrencer Huawei. Le président élu lui-même a fait des mesures d’encouragement à la fabrication de véhicules électriques américains (secteur dont la chaîne logistique est aujourd’hui dominée par la Chine) un pilier de son programme.

« La priorité des Etats-Unis est d’augmenter leur propre production de microprocesseurs afin d’être moins dépendants d’usines potentiellement instables en Asie, observe Dan Wang, analyste en technologies de Gavekal Dragonomics basé à Pékin. De son côté, la Chine doit rebâtir d’importants segments de la chaîne logistique des équipements et logiciels pour semiconducteurs. »

Traduit à partir de la version originale en anglais

Titans technologiques ……et politiques

Titans technologiques ……et   politiques

 

Charles-Edouard Bouée, ancien PDG du cabinet de conseil en stratégie Roland Berger, aujourd’hui associé cogérant du fonds de capital-risque Alpha Intelligence Capital (AIC),  met en perspective dans l’Opinion l’émergence de titans contemporains, technologiques et politiques, qui sont le produit d’un capitalisme financier à outrance et qui bouleversent les rapports de force.

 

Dernier livre L’ère des nouveaux Titans : le capitalisme en apesanteur (Editions Grasset), 2020)

 

Pourquoi parlez-vous de capitalisme en apesanteur ?

Les deux éléments qui contribuent à la pesanteur du capitalisme sont aujourd’hui remis en cause. La baisse continue des taux d’intérêt depuis la crise de 2008 a modifié notre rapport au temps. Les durées de remboursement se sont allongées, les entreprises technologiques ont pu accélérer leur développement à un rythme défiant toute logique, grâce à un volume d’argent disponible quasi illimité. D’autre part, le capitalisme est basé sur des faits, des principes physiques, des lois et des règles. Or depuis une dizaine d’années, avec le développement des réseaux sociaux notamment, les fake news ont été rendues possibles, contribuant à déstabiliser notre perception de la réalité. Ce qui était anecdotique dans la prise de décision et d’investissement ne l’est plus aujourd’hui. Ces deux paramètres ont mis le capitalisme en apesanteur. Ils ont réduit la valeur du temps à zéro et brouillé les lignes entre ce qui est possible ou pas. On voit apparaître un monde où il n’y a plus de limites. On est capable de financer des gens pour aller sur Mars, alors qu’on ne sait pas si concrètement l’Homme peut survivre sur cette planète. La crise de 2008 et l’activation de la planche à billets ont donné naissance à des titans technologiques qui portent aujourd’hui le monde sur leurs épaules.

Ces titans auraient, selon vous, donné naissance à d’autre titans, politiques ceux-là…

La crise des subprimes a créé les conditions d’émergence d’une ère technologique aujourd’hui incarnée par les GAFAM, les BAT chinois, et aussi par toutes ces licornes : Uber, Airbnb, TikTok… Des créatures fantastiques qui existent alors même qu’elles ne font pas de profit. Ces titans technologiques se sont saisis de parties de nos vies pour les rendre plus simples, pour nous aider. Un bel âge d’or en perspective. L’illusion a été de courte durée. A la place, ils ont attaqué les modèles économiques existants et remplacé des métiers plus traditionnels. Une peur insidieuse s’est répandue chez les citoyens. Consciemment ou inconsciemment, par incantation ou par vote, ils ont appelé des personnages hors normes au pouvoir, dans l’espoir qu’ils règlent une situation que personne n’est capable de maîtriser. Il y a eu un besoin de protection, une recherche de sécurité, qui s’est exprimée par le Brexit, l’élection de Donald Trump aux Etats-Unis ou de leaders populistes en Europe de l’Est… Les titans géopolitiques ont répondu à cette peur primaire générée par les titans technologiques. Aujourd’hui, ils se battent entre eux. On l’a vu cet été avec la lutte sino-américaine autour de TikTok.

Il est dommage que les titans technologiques, alors qu’ils ont des compétences analytiques extraordinaires, ne s’en soient pas servi pour parler d’humanité. L’épidémie nous a permis de prendre conscience de notre mortalité et de l’importance de la vie sociale

Dans la mythologie, les humains restent les jouets des titans jusqu’au déluge qui les refaçonne et leur redonne du pouvoir. Ce récit peut-il s’appliquer à la période que nous vivons ?

L’âge d’or promis par les titans n’est pas arrivé. Les risques liés à la violence, aux opiacés, aux réseaux sociaux se sont multipliés. Le mythe des titans relate qu’un déluge est censé refaçonner l’humanité pour qu’elle reprenne ses droits. Quel sera-t-il ? Une catastrophe climatique ? Une guerre ? Un virus informatique ? J’ai, au début de la crise sanitaire, pensé que le coronavirus jouerait ce rôle. Tout le monde s’est mis à rêver des merveilles du « monde d’après ». On constate aujourd’hui que rien n’a changé. La Covid-19 n’est pas le déluge, mais la « révélation », au sens biblique du terme, du monde dans lequel nous vivons. Elle a mis en lumière un système financier déréglé et la toute-puissance de quelques titans technologiques. Sans eux, notre confinement aurait été à la fois physique et psychologique : un enfer. Il aurait été impossible d’échanger avec ses proches, de travailler, de se divertir… Mais ils se sont aussi révélés tels qu’ils sont : des organisations robotisées, peu capables de compassion ou d’empathie, démontrant du même coup leur incapacité à s’investir émotionnellement auprès des humains, qu’elles prétendent pourtant connaître si bien.

Considérez-vous que l’économie est un sujet éthique ?

On a tendance à séparer l’Etat de l’entrepreneuriat et de l’esprit. Quand on observe la manière dont travaillent les Chinois, ce qui a fait l’objet d’un précédent livre en 2013 (Comment la Chine change le monde, Editions Dialogues), on constate que ces trois éléments sont interconnectés. L’humain est présent dans ces trois dimensions de la société. Il est à la fois citoyen, salarié ou entrepreneur, et philosophe. La technologie et le politique sont partis dans une direction : les titans. La partie culturelle, liée aux valeurs, est, elle, restée sur le côté. L’économie ne peut pas être éthique, mais l’économie et l’éthique ne peuvent pas être dissociées. Il est dommage que les titans technologiques, alors qu’ils ont des compétences analytiques extraordinaires, ne s’en soient pas servi pour parler d’humanité. L’épidémie nous a permis de prendre conscience de notre mortalité et de l’importance de la vie sociale. S’il va y avoir une accélération de la prise de conscience et d’action sur le climat, la RSE, les ESG, le partage des richesses et les sujets de gouvernance, je pense qu’il reste du chemin à parcourir avant que les entreprises à mission deviennent une réalité, même si elles sont une belle initiative.

Vous estimez que la pandémie va contribuer à l’explosion de la robotisation. N’a-t-on pourtant pas vu, pendant le confinement du printemps, que l’Homme était indispensable pour faire tourner l’économie ?

C’est un paradoxe. Pendant la première vague, on a vu que les humains étaient indispensables pour administrer des soins, nettoyer nos rues, gérer la logistique… Et en même temps, avec des taux d’intérêt aussi bas, il est moins cher d’investir dans des machines que dans la formation d’une personne. Les métiers les plus empathiques ne sont pas les plus valorisés dans la société. Je pousse pour ce qu’on appelle l’intelligence humaine augmentée. Utiliser la technologie pour rendre l’Homme plus efficace. La technologie doit entrer dans le mode de fonctionnement humain comme l’eau élèverait un bateau, sans pour autant séparer ceux qui réussissent avec les machines et ceux qui n’auraient plus d’utilité sociale. J’ai une conviction : on n’a jamais pu arrêter l’évolution des technologies, même si elles étaient létales pour l’humanité. On doit bien diriger le paquebot pour que cette dimension humaniste et bienveillante, soit mise en place. La vraie question, c’est : est-ce que les titans technologiques et géopolitiques sont capables d’opter pour cette matrice, alors qu’ils sont nés de la peur et de l’efficacité technologique ?

Le revenu universel serait la seule solution pour encaisser les chocs sociaux futurs. Pourquoi ? N’y a-t-il pas de solutions intermédiaires ?

De toutes les solutions qui ont été proposées, y compris par Milton Friedman, le revenu universel apparaît comme la moins mauvaise. On l’a finalement vécu concrètement avec la pandémie. Lors du premier confinement, les Américains gagnaient plus grâce aux aides qu’en travaillant. La Covid-19 va avoir les mêmes conséquences que la crise de 2008. Elle va créer plus de titans, de peurs et de repli sur soi-même. Il s’agit donc de réfléchir à comment amortir le choc en évitant que les inégalités, entre ceux qui peuvent et ne peuvent pas, ceux qui savent et ne savent pas, deviennent des déchirures génératrices de violences et de révoltes. Une des solutions pourrait être d’utiliser l’argent bon marché pour lancer une transformation réelle de la société. Les idées qui paraissent les plus folles, comme celle d’Elon Musk d’envoyer un million de personnes pour peupler Mars d’ici 2050, sont mises en œuvre. Pourquoi les idées citoyennes qui voudraient renouveler l’équilibre entre économie et climat, entre technologies et humains ou qui voudraient rendre l’Etat plus efficace, ne bénéficient-elles pas du même investissement ? Plutôt que d’emprunter plus d’argent pour le redistribuer comme le voudrait la logique du revenu universel, pourquoi ne pas l’investir dans des projets, et rendre nos pays plus verts, notre Etat plus moderne… ? C’est faisable. Quand un homme a faim, mieux vaut lui apprendre à pêcher que de lui donner un poisson, disait Confucius.

Les changements technologiques de la 5G par l’ANFR (agence nationale fréquence)

Les changements technologiques de la 5G par l’ANFR (agence nationale fréquence)

La nouvelle génération 5G, rend indispensable l’utilisation de nouvelles portions du spectre radioélectrique. L’obtention de nouvelles fréquences est un pré-requis pour lancer les services 5G. Les bandes identifiées sont plus élevées dans le spectre et permettent des montées en débit très importantes. Avec l’utilisation d’antennes intelligentes et d’un réseau de petites antennes, les forts besoins en connectivité du public et des entreprises auront leur solution. 

De nouvelles bandes de fréquence 5G déjà identifiées

 

  • Les bandes « basses », déjà allouées pour la 2G / 3G / 4G, pourraient être réutilisées pour la 5G.  
  • La bande 3,5 GHz est la première bande 5G offrant un compromis couverture/capacité.
  • La bande 26 GHz, « pionnière 5G », sera principalement utilisée pour des « hot spots ».
  • D’autres bandes hautes seront étudiées lors de la Conférence Mondiale des Radiocommunications en 2019.
LE RÔLE DE L’ANFR 

L’ANFR conduit les négociations européennes et internationales pour identifier les bandes de fréquences 5G. En Europe, deux nouvelles bandes ont déjà été choisies pour la 5G.
Ces négociations ont permis dès 2015 d’harmoniser la bande 3,5 GHz comme bande 5G et de définir les futures bandes candidates pour la 5G comme la bande 26 GHz qui doit faire l’objet d’une harmonisation mondiale en 2019. 

Au niveau national, l’ANFR prépare l’arrivée de la 5G en libérant les bandes de fréquences attribuées à la 5G mais occupées par d’autres utilisateurs. 
Enfin, l’ANFR accompagne les premiers déploiements pilote 5G dans la bande 3,5 GHz des opérateurs de téléphonie mobile et travaille avec l’ensemble des acteurs pour caractériser les réseaux 5G en termes d’exposition du public aux ondes électromagnétiques. 

 

Evolutions technologiques vers des antennes intelligentes

Les réseaux mobiles actuels utilisent des équipements radio appelés « cellules macro » déployés pour assurer la couverture dans les différents territoires. Les antennes diffusent les signaux de manière constante, dans une direction donnée (faisceau).

Le déploiement de la 5G se fera en recourant à des sites « macro » à l’instar des réseaux actuels des opérateurs, mais devrait également s’articuler autour du déploiement de petites antennes installées dans du mobilier urbain.

Pour atteindre les performances annoncées (débits multiplié par 10, latence divisée par 10 et multiples connexions), la 5G reposera notamment sur une nouvelle génération d’antennes, qui orientent les signaux vers les appareils qui en ont besoin. Couplée avec des bandes de fréquences hautes, l’utilisation de ces antennes permettra d’accroître fortement les débits. 

Le rôle de l’ANFR

L’ANFR veille au respect des valeurs limites d’exposition du public aux ondes et gère le dispositif national de surveillance et de mesure des ondes. Un Comité National de Dialogue a été créé par la loi au sein de l’ANFR pour échanger avec les acteurs, partager l’information, la diffuser et favoriser la confiance du public. L’ANFR participe également aux pilotes 5G pour mettre au point les outils relatifs aux contrôles et à la concertation sur l’exposition du public créée par la 5G.

L’ANFR accompagne les premiers déploiements pilote 5G des opérateurs de téléphonie mobile dans la bande 3,5 GHz et travaille avec l’ensemble des acteurs pour caractériser les réseaux 5G en termes d’exposition du public aux ondes électromagnétiques. A l’avenir, les nouvelles bandes 5G (par exemple la 26 GHz) seront plus hautes en fréquences dans les bandes millimétriques, qui correspondent aux bandes de fréquences dont la longueur d’onde est de l’ordre du millimètre. 

Dans ses bandes millimétriques, l’exposition reste localisée à la surface de la peau et l’exposition n’est plus évaluée par le débit d’absorption spécifique (DAS) mais par la densité surfacique de puissance (DSP).

Dans le cadre de la réflexion générale sur l’évaluation de l’exposition du public aux ondes électromagnétiques des réseaux 5G, l’ANFR a publié aujourd’hui deux rapports, l’un sur une présentation générale de la 5G abordée sous l’angle de l’exposition et l’autre sur les déploiements pilotes menés en France pour tester en grandeur nature les modalités d’un déploiement d’antennes 5G à faisceaux orientables dans la bande 3400-3800 MHz :
L’ANFR a également entamé une étude pour analyser des simulations numériques des niveaux d’exposition créés par la téléphonie mobile dans une zone urbaine très dense, le 14e arrondissement de Paris. Le rapport ci-dessous constitue un point d’étape. Il fournit de premiers ordres de grandeur d’exposition selon différents scénarios identifiés avec le suivi des pilotes 5G et après avoir consulté les équipementiers télécoms et les opérateurs de téléphonie mobile.  Les prochaines phases de ces travaux consisteront à affiner les scénarios de déploiement, en jouant sur les technologies employées et les puissances, dans les différentes bandes de fréquences ouvertes à la téléphonie mobile. L’exposition sera ainsi simulée plus précisément. 

Les rayonnements électromagnétiques de la 5G (ANFR)

La lettre de l’ANFR de Juillet 2019 (lien : Newsletter Météorologie) mentionnait et expliquait comment des satellites météorologiques captaient une partie des émissions électromagnétiques naturelles émises par certaines molécules ou par certains corps à une température donnée. Il existe en fait un grand nombre de façon d’émettre des champs électromagnétiques et tous ces champs sont liés à l’émission d’une particule nommée photon. Comme cela avait été présenté dans le Newsletter sur le graviton, à chaque interaction qui régit notre univers est associée une particule, si le graviton est la particule qui caractérise les champs gravitationnels, le photon est la particule qui caractérise le transport de l’énergie des champs électromagnétiques. L’émission de ces photons peut résulter :

  1. De modifications structurelles atomiques ou moléculaires (que la modification soit spontanée ou initiée comme dans la fusion ou la fission nucléaire) 
  2. De la mobilité des porteurs de charge(s) électrique(s), indépendamment du milieu considéré :
    a. L’agitation thermique: rayonnement de corps présentant une température supérieure à 0K (soit environ -273°C)
    b. La circulation dans le milieu : il peut s’agir de conducteur électrique (c’est dans cette dernière catégorie que ce range la plupart des émetteurs/récepteurs qui [envahissent] notre quotidien), tout comme de plasma (cas du rayonnement électromagnétique issu des arcs électriques issus de la foudre).
    c. L’accélération, par exemple le rayonnement (non thermique) synchrotron issu des pulsars.

Comment fonctionnent les antennes de radiocommunication ?

D’un point de vue général, les antennes de radiocommunication sont basées à ce jour, sur le principe de la circulation de charge le long d’un conducteur. Autrement dit, il est possible de formuler, que tout corps, quel qu’il soit, parcouru par un courant (qui définit en soi la circulation de charges nommées électrons) rayonne simultanément deux types de champs, l’un est dit électrique, l’autre magnétique. Bien qu’ils n’aient pas les mêmes propriétés, les équations de Maxwell, nous apprennent qu’ils sont indissociables l’un de de l’autre. Les variations temporelles de ces deux champs sont identiques à celles du courant qu’il lui donne naissance. Dans la mesure où l’on considère des variations temporelles des courants ou des champs, alors on introduit nécessairement la notion de fréquence. La notion de fréquence est assez simple à appréhender, il s’agit simplement du nombre d’ « oscillations de l’onde radio» durant 1 seconde. Pour obtenir une onde à 1GHz, un courant alternatif doit onduler 1 milliard de fois en 1 seconde. A cette fréquence est associée une longueur d’onde, que l’on pourrait définir simplement comme la longueur physique dans l’espace d’une oscillation. 

Lors de la réalisation d’antenne de radiocommunication, bien que ces champs soient interdépendants, il est possible de privilégier la réception de l’un ou de l’autre. Généralement le choix se fait sur la dimension de l’antenne à réaliser au regard de la fréquence du champ EM à produire ou à capter. On favorise davantage la conception d’antennes privilégiant la réception des champs magnétiques à basse fréquence et des champs électrique à hautes fréquences. En réalité, il serait plus juste de dire qu’à basse fréquence, les comportements des champs électriques et magnétiques sont discernables, ce qui n’est plus le cas en haute fréquence, ou seule la notion de puissance (comprise comme une densité de flux d’énergie assimilable au produit1 des champs électrique E ⃗ et magnétique H ⃗) devient prépondérante. 

 

En quoi les fréquences jouent-t-elle un rôle dans la conception d’une antenne ?  

Il faut d’abord distinguer deux types d’antennes :

  1. Le premier type inclut à la fois la formation du champ électromagnétique et la direction dans laquelle il doit être émis. Antenne dipôle, antenne patch, antenne à réseaux phasés, etc.
  2. Le second type produit le champ EM par l’intermédiaire d’une cavité et utilise un réflecteur pour guider le champ dans une direction privilégier : les antennes paraboliques

Par définition, si tout corps conducteur parcouru par un courant rayonne, son rayonnement est aussi optimisé par la dimension physique qu’il a au regard de la longueur d’onde à émettre ou à capter. C’est une propriété fondamentale. Il faut voir la longueur d’onde comme la longueur physique d’une oscillation de l’onde dans l’espace. Cette longueur est bien entendu, à une fréquence donnée, identique pour le champ électrique et magnétique. Il faut partir du principe que l’intensité du rayonnement du champ électrique est optimisée lorsque la longueur physique du conducteur rayonnant est égale à la moitié de la longueur d’onde. Dans ce cas précis, la surface métallisé présente un ventre de courant à sa surface (et de ventre de tension à ces extrémités) et on dit alors que le l’élément résonne ou entre en résonnance. Bien entendu, pour qu’une antenne émette un champ électromagnétique optimisé au regard de l’énergie électrique qui lui est fourni, elle ne doit pas répondre qu’à cet unique critère. D’autres effets sont à prendre en considération comme par exemple l’adaptation des impédances. On pourrait résumer cet effet comme une forme d’opposition du milieu aux passages du courant. Il faut généralement faire en sorte que cette opposition soit constante sur l’ensemble du parcours du courant jusqu’à l’antenne. Sinon une partie du courant va se réfléchir vers la source. 

Dans le cas d’une antenne parabolique, c’est l’émetteur (généralement une cavité résonnante), qui fait face à la parabole, qui produit le champ électromagnétique idéal. Le réflecteur n‘est là que pour orienter le faisceau dans une direction privilégiée. 

On  comprend ainsi pourquoi les antennes, en général, sont élaborées pour une gamme de fréquences d’utilisation particulière (fréquence centrale et bande passante). La longueur physique de l’élément ou des éléments rayonnants (qu’il s‘agissent de conducteurs ou de cavités) étant fixée dès la conception.  Il est bien entendu possible d’élargir leur gamme de fréquence d’utilisation dans une certaine mesure, en modifiant fictivement les propriétés de résonnance des conducteurs utilisés par exemple par l’emploi d’un substrat (servant de support à l’élément rayonnant) à plus grande permittivité que l’air ou encore en augmentant la largeur du conducteur. 

Champs rayonné et diagramme d’antenne

Lorsque qu’un champ est produit par un conducteur, il rayonne dans tout l’espace, c’est ce que l’on appelle son diagramme de rayonnement. Toutefois, il est possible de faire en sorte de privilégier les directions d’émission des champs.  Par exemple, l’ajout d’un réflecteur (mais encore de toute forme de métallisation connectée à la masse) derrière un conducteur résonnant permet de limiter son rayonnement à la partie supérieure et de minimiser le rayonnement derrière le plan métallique. Suivant la forme de ce réflecteur, on modifie l’énergie émise dans l’autre direction (plan de masse ou parabole). La mise en réseau de métallisation, comme dans le cas des antennes de réception hertziennes qui arborent nos toits permet aussi de privilégier la captation du rayonnement provenant d’une direction privilégiée et généralement celle dans laquelle le diffuseur se situe. Le diagramme de rayonnement de l’antenne est donc directement conçu pour répondre à l’utilisation que l’on fait de l’antenne. Lorsque l’on doit diffuser sur une large couverture (Radio, télévision, mobile) on va privilégier des antennes qui diffusent dans tout l’espace utile. Par exemple, les antennes 4G, produisent des rayonnements en forme de disque incliné, permettant de couvrir de large zone azimutale, tout en minimisant les émissions au-dessus de l’horizon où elles sont inutiles. En revanche un téléphone mobile 4G qui doit pouvoir capter et émettre dans tout l’espace, ne sachant pas où se situe le relais, aura tendance à privilégier des antennes qui diffusent dans l’ensemble de l’espace.  Enfin une station terrienne d’émission ou de réception satellitaire, privilégiera un rayonnement extrêmement intense dans une direction angulaire unique, celle où se  situe le satellite avec lequel elle souhaite communiquer, et dans ce cas les paraboles sont à ce jour les antennes les plus utilisées. 

Les antennes dites « actives » de la 5G c’est quoi ? 

Avant d’introduire les antennes de la 5G, il faut comprendre ce que l’on considère comme une antenne active. Elles sont nommées ainsi pour une raison simple : au lieu de produire un champ électromagnétique dans une direction fixe, leur faisceau est capable de balayer l’espace par des procédés topologiques et d’architecture électronique. Le concept d’antenne active, dite aussi antenne à réseau phasé,  existe depuis plusieurs décennies et a été largement utilisé (et continue à être utilisé) dans le domaine du radar. La téléphonie mobile a donc exploité un concept existant. De nombreux exemples de radars à réseaux phasés existent aujourd’hui, ils sont parfois de dimension réduite, embarqués sur des aéronefs, parfois gigantesques et conçus sur des façades de bâtiments. 

On peut dénombrer trois avantages aux antennes actives :

  1. leur faible épaisseur, rendant ces antennes planaires (elles peuvent être conçues sur n’importe quel type de surface). 
  2. un rayonnement variable dans chaque direction (au cours du temps) du fait de la rapidité de balayage (électronique) du faisceau. 
  3. leur grande directivité (directement proportionnelle au nombre d’éléments qui compose le panneau d’antennes) dans des directions d’intérêt. Cette directivité est une autre façon de décrire leur capacité à concentrer l’intensité de leur rayonnement dans une direction privilégiée.  Par exemple, si le panneau d’antennes est composé de 16 colonnes et de 16 lignes d’éléments rayonnants, alors, il sera possible d’augmenter la puissance rayonnée par le faisceau de l’antenne, de 256 fois dans la direction choisie (par rapport au rayonnement d’un élément). 

 

Une antenne à réseau phasé utilise le principe de l’association des champs d’une multitude de sources à une certaine distance. Généralement, donc, ces antennes sont conçues comme une association d’antennes de même forme et de même dimension. Dans ce cas, l’ensemble des antennes constituant le réseau présentent à la fréquence de résonance voulue le même type de rayonnement EM intrinsèque. Les rayonnements produits par chaque élément s’associent en phase pour augmenter le rayonnement de l’antenne globale dans une direction choisie. Pour offrir une grande directivité du faisceau formé par le panneau, certaines caractéristiques topologiques sont à respecter :

  • au regard de l’espace que les éléments doivent avoir entre eux (positionnement dans le panneau) ou de leur longueur d’onde,
  • au regard de la loi d’illumination des éléments rayonnants du panneau : 
  • en amplitude lorsqu’il s’agit de modifier la forme du diagramme : hauteur et largeur du lobe principal, écart entre lobe principal et lobe secondaire,
  • en phase lorsqu’il s’agit d’orienter le faisceau électronique dans différentes directions.

 

Quelle différence entre antennes active et passive ?

La différence fondamentale est le rayonnement des antennes. Une antenne passive émet de façon homogène et constante sur les azimuts en minimisant les rayonnements vers le ciel ou vers le sol à l’aplomb de l’antenne, la couverture, comme vu précédemment pourrait être schématisée comme une portion de disque, plus ou moins large, inclinée vers le sol. On peut donc considérer que la puissance globale rayonnée par l’antenne est distribuée sur les azimuts. Par ce biais, tous les utilisateurs qui sont dans cette couverture azimutale peuvent communiquer avec la station de base, mais la puissance reçue par chacun d’entre eux est limitée.

Dans le cas des antennes actives, ce n’est plus le cas, seule la direction où se situe l’utilisateur est visée, il n’y a plus d’émission constante dans le temps sur tous les azimuts, mais uniquement sur l’azimut où se situe le bénéficiaire. Si les antennes actives et passives présentaient les mêmes caractéristiques, on pourrait imaginer que l’énergie reçue par l’utilisateur d’une station équipée d’une antenne active recevrait l’ensemble de l’énergie que l’ensemble des utilisateurs de l’antenne passive pourrait recevoir.

En pratique, la situation est bien plus complexe, car deux situations peuvent apparaitre :

  • La première consiste au fait que l’antenne créé plusieurs faisceaux  indépendants pour couvrir les utilisateurs. Chacun de ces faisceaux est formé par des sous-ensembles de la matrice d’éléments rayonnants et utilise la totalité de la bande passante disponible. 
  • La seconde revient à subdiviser la bande passante  (sur laquelle rayonnant l’antenne) en sous-bandes attribuées à chaque utilisateur mais où chaque faisceau formé utilise alors tous les éléments rayonnants du panneau.

Il peut aussi être question parfois d’une combinaison des deux  idées précédentes. Par exemple, en reprenant le cas d’une matrice présentant 256 éléments rayonnants (16 en lignes et 16 en colonne), rien n’empêche d’imaginer que 4 faisceaux soient formés simultanément par 4 sous matrice de 64 éléments (8 en lignes et 8 en colonne) et que donc 4 utilisateurs se partagent  la puissance rayonnée  globale de l’antenne. 

 

Pourquoi la 5G nécessite ce genre d’antenne ? 

L’idée première de la 5G pour les applications à très haut débit2 (Enhanced Mobile BroadBand EMBB) est de fournir une grande quantité d’information en un temps très court. Pour que cette prouesse soit possible, il est nécessaire de disposer d’une importante largeur de bande pour écouler le débit attendu. 

Une telle contrainte oriente l’usage de telles applications à des fréquences dites de « grande capacité » (>3GHz) où le spectre contigüe y est disponible. Toutefois, comme les pertes de propagation de l’onde radio s’accroissent également avec la fréquence, l’augmentation de la directivité des antennes apparaît incontournable pour compenser ces atténuations et conserver des tailles de cellules raisonnables (entre quelques centaines de mètre à quelques km suivant les fréquences considérées). Par ailleurs, la figure 3 nous permet d’observer qu’une antenne est d’autant plus directive que son gain maximum est élevé. Ainsi, lorsque les utilisateurs à couvrir sont en mobilité, le faisceau directif (et étroit) de l’antenne doit être capable de suivre ce dernier. On parle alors d’antennes intelligentes car le balayage du faisceau doit être réalisé en temps réel, ce qui ne peut être fait qu’électroniquement ; ce qui explique le recours aux antennes actives.

Des orientations technologiques approximatives faute d’approche scientifique

Des orientations  technologiques approximatives  faute d’approche scientifique

Retour à l’analyse pertinente pour  Gérard Kafadaroff, ingénieur agronome, et Jean-Pierre Riou, chroniqueur indépendant sur l’énergie, membres du collectif Science-Technologies-Actions (*) qui regrettent  que les scientifiques soient si peu écoutés au profit de militants souvent ignorants. (Sur la Tribune). (Notons que le grand débat n’aborde pratiquement peu de questions technologiques et encore moins la question des financements)

 

« L’accès sans précédent au savoir et à l’information, semble paradoxalement impuissant à impulser un comportement rationnel promu par les philosophes des Lumières. Dans une société imprégnée de technologie, les scientifiques sont peu consultés, voire marginalisés par les décideurs politiques et les influenceurs d’opinion formés le plus souvent aux sciences humaines et réfractaires à la pensée scientifique. Le champ est libre pour les gourous, marchands de peurs et autres oracles médiatiques en délicatesse avec la réalité factuelle. Les fausses informations martelées par des groupes militants et reprises par des médias deviennent vite vérités, contribuant à manipuler l’opinion. Il en résulte des choix de société aberrants et incohérents rarement dénoncés par les esprits les plus éclairés. L’actualité nous fournit d’affligeants exemples, notamment dans les secteurs de l’agriculture et de l’énergie.

La génétique suspecte !

Les OGM présentés dès l’origine, et sans bien savoir pourquoi, comme des plantes dangereuses pour la santé et l’environnement par l’écologisme ont finalement été interdits en France, sans aucune justification scientifique et contre l’avis des agences de sécurité. Pire, la mention « sans OGM » est même devenue un outil marketing de la grande distribution alimentaire pour rassurer les consommateurs.

Et pourtant, en 2017, les OGM étaient cultivés dans 24 pays par 18 millions d’agriculteurs (près de 20 fois le nombre d’agriculteurs français) sur une surface de 190 millions d’hectares (7 fois la surface agricole française). De 1996 à 2017, les surfaces annuelles cumulées d’OGM atteignent 2,3 milliards d’hectares ! Une adoption rapide et massive due aux avantages agronomiques, économiques, sanitaires et environnementaux qu’apportent les OGM et sans dommage ou accident prouvé durant 23 ans. Mais la France n’en a cure et a même interdit le seul OGM autorisé en Europe, un maïs génétiquement modifié résistant à deux insectes ravageurs, qui permet de supprimer des traitements insecticides et d’améliorer la qualité sanitaire du maïs (moins de mycotoxines cancérigènes). Les biotechnologies végétales offrent d’immenses perspectives à l’agriculture (résistance aux parasites, amélioration de la qualité nutritionnelle, débouchés industriels, tolérance à la sécheresse, etc.), mais la France, en pointe il y a 35 ans dans ce domaine, a perdu son savoir-faire et l’abandonne à d’autres pays agricoles dont elle dépendra à l’avenir.

La chimie mal-aimée !

Tout est chimie dans ce qui nous entoure mais l’utilisation d’intrants chimiques comme les engrais pour nourrir les plantes et surtout les produits phytopharmaceutiques (pesticides) pour les protéger, longtemps appréciés, sont aujourd’hui dénigrés et accusés sans discernement de nuire à l’environnement et à la santé.
L’agriculture biologique (AB) parée de toutes les vertus profite de cet engouement naïf pour le naturel. Plus chère pour le consommateur à cause de rendements plus faibles, elle est présentée comme l’alternative aux pesticides -alors qu’elle en utilise de façon significative- et que sont occultés les risques sanitaires de contaminants biologiques.

L’exemple du glyphosate est révélateur de la dérive irrationnelle de la société. Depuis quelques années, il est devenu une cible privilégiée des écologistes surtout depuis qu’il est utilisé, hors d’Europe, sur des plantes génétiquement modifiées tolérantes à cet herbicide, plantes rejetées aussi par les militants écolos. Très actifs, ces derniers sont parvenus à semer le doute sur le glyphosate dans la population avec l’appui de nombreux médias et de quelques lanceurs d’alerte peu scrupuleux. Le classement contesté du glyphosate «cancérogène probable » (comme la viande rouge) par le seul CIRC en mars 2015 a été une aubaine pour les opposants redoublant d’ardeur pour diaboliser le glyphosate, suivis en cela par les ministres de l’écologie Ségolène Royal et Nicolas Hulot. Mais aussi par le président Emmanuel Macron qui, dans un excès de zèle et de précipitation, a décidé, faisant fi des décisions européennes, de l’interdire en France dans 3 ans, pour récemment, face à la réalité, se déjuger quelque peu.

Et pourtant, ce désherbant, le plus étudié, reste autorisé et utilisé dans tous les pays du monde depuis 44 ans. Un exceptionnel retour d’expérience propre à rassurer les plus récalcitrants ! Il a largement fait la preuve de son intérêt agronomique, économique et de son bon profil toxicologique et écotoxicologique. Toutes les agences d’évaluation sanitaire, française, européennes et internationales, y compris l’OMS maison-mère du CIRC, ont confirmé qu’il n’est ni cancérigène, ni perturbateur endocrinien. Son interdiction, prise sous la pression du puissant lobby écologiste et sans en mesurer les conséquences, va se traduire par un retour du travail mécanique du sol plus cher et émetteur de CO2.

Pire, il entrave le développement des techniques agronomiques de conservation des sols (suppression du travail du sol et implantation d’un couvert végétal en interculture) qui permettent de développer une agriculture durable offrant réduction des coûts, amélioration de la fertilité des sols et réduction des émissions de CO2 grâce à la séquestration du carbone dans le sol.
Ces techniques, certes, nécessitent une application annuelle d’une faible dose de glyphosate (700g/hectare) mais auraient la capacité, si elles étaient généralisées, d’absorber la quasi-totalité des émissions agricoles de CO2. Intérêt majeur qui a échappé aux militants se réclamant de l’écologie.

L’énergie nucléaire redoutée !

Dès 1945, sous l’impulsion du Président De Gaulle, la France a développé un programme de nucléaire civil lui permettant de devenir le deuxième producteur mondial d’électricité nucléaire et d’acquérir une expertise reconnue. Mais, en août 2015, une loi sur la transition énergétique initiée par Ségolène Royal a imposé la réduction de la part d’électricité d’origine nucléaire pour faire place aux énergies renouvelables (EnR).

Et pourtant, le nucléaire est avec l’hydraulique la source d’énergie sans carbone la plus abondante et la mieux pilotable au monde alors que l’intermittence du photovoltaïque et de l’éolien impose des moyens de production complémentaires et des coûts importants de restructuration du réseau. Le seul surcoût des contrats déjà engagés pour les EnR électriques jusqu’à fin 2017 est estimé à 121 milliards d’euros par la Cour des Comptes, pour une production marginale (6% en 2017) susceptible de faire défaut quand on en a le plus besoin. Les épisodes de grand froid sont généralement anticycloniques, c’est-à-dire sans vent, et les pointes de consommation se produisent le soir, après le coucher du soleil . L’éolien et le solaire réclament une place considérable et contribuent par leur dispersion sur le territoire à abîmer nos paysages. Suite à des plaintes de riverains d’éoliennes, l’Académie de médecine préconise dans un rapport de 2017 de durcir la règlementation acoustique des éoliennes et renouvelle sa demande de 2006 d’une étude épidémiologique.

Par ailleurs, en investissant massivement dans les EnR au détriment du nucléaire (et des factures d’électricité de plus en plus élevées), la France perd son expertise dans les réacteurs de nouvelle génération alors que des techniques avancées de production d’énergie nucléaire offrent pour demain des solutions encore plus sûres et plus performantes.
Enfin, il faut rappeler la confusion entretenue auprès de l’opinion publique entre risque et danger. L’énergie nucléaire reste le moyen de production d’électricité responsable du plus petit nombre de décès par unité d’énergie produite, tous incidents et accidents confondus. La gestion des risques est un domaine qui réclame la rigueur et ne doit pas céder à l’émotion.

Ainsi dans deux secteurs importants du pays, des décisions majeures sont prises de façon irrationnelle, sous la pression de l’écologisme politique, sans véritable analyse bénéfices/risques, sans s’appuyer sur l’indispensable expertise scientifique, beaucoup trop absente des grands débats citoyens. Pour une grande part, elles aboutissent à l’inverse du but annoncé et à une régression inquiétante, préjudiciable à la France. Aussi peut-on s’étonner et regretter que la « résolution de l’Assemblée nationale sur les sciences et le progrès dans la République » du 21/02/2017 soit restée sans suite !

(*) Collectif Science-Technologies-Actions https://sciencetechaction.tumblr.com/

 

Des choix technologiques approximatifs faute d’approche scientifiques

Des  choix technologiques approximatifs faute d’approche scientifiques

Retour à l’analyse pertinente pour  Gérard Kafadaroff, ingénieur agronome, et Jean-Pierre Riou, chroniqueur indépendant sur l’énergie, membres du collectif Science-Technologies-Actions (*) qui regrettent  que les scientifiques soient si peu écoutés au profit de militants souvent ignorants. (Sur la Tribune)

 

« L’accès sans précédent au savoir et à l’information, semble paradoxalement impuissant à impulser un comportement rationnel promu par les philosophes des Lumières. Dans une société imprégnée de technologie, les scientifiques sont peu consultés, voire marginalisés par les décideurs politiques et les influenceurs d’opinion formés le plus souvent aux sciences humaines et réfractaires à la pensée scientifique. Le champ est libre pour les gourous, marchands de peurs et autres oracles médiatiques en délicatesse avec la réalité factuelle. Les fausses informations martelées par des groupes militants et reprises par des médias deviennent vite vérités, contribuant à manipuler l’opinion. Il en résulte des choix de société aberrants et incohérents rarement dénoncés par les esprits les plus éclairés. L’actualité nous fournit d’affligeants exemples, notamment dans les secteurs de l’agriculture et de l’énergie.

La génétique suspecte !

Les OGM présentés dès l’origine, et sans bien savoir pourquoi, comme des plantes dangereuses pour la santé et l’environnement par l’écologisme ont finalement été interdits en France, sans aucune justification scientifique et contre l’avis des agences de sécurité. Pire, la mention « sans OGM » est même devenue un outil marketing de la grande distribution alimentaire pour rassurer les consommateurs.

Et pourtant, en 2017, les OGM étaient cultivés dans 24 pays par 18 millions d’agriculteurs (près de 20 fois le nombre d’agriculteurs français) sur une surface de 190 millions d’hectares (7 fois la surface agricole française). De 1996 à 2017, les surfaces annuelles cumulées d’OGM atteignent 2,3 milliards d’hectares ! Une adoption rapide et massive due aux avantages agronomiques, économiques, sanitaires et environnementaux qu’apportent les OGM et sans dommage ou accident prouvé durant 23 ans. Mais la France n’en a cure et a même interdit le seul OGM autorisé en Europe, un maïs génétiquement modifié résistant à deux insectes ravageurs, qui permet de supprimer des traitements insecticides et d’améliorer la qualité sanitaire du maïs (moins de mycotoxines cancérigènes). Les biotechnologies végétales offrent d’immenses perspectives à l’agriculture (résistance aux parasites, amélioration de la qualité nutritionnelle, débouchés industriels, tolérance à la sécheresse, etc.), mais la France, en pointe il y a 35 ans dans ce domaine, a perdu son savoir-faire et l’abandonne à d’autres pays agricoles dont elle dépendra à l’avenir.

La chimie mal-aimée !

Tout est chimie dans ce qui nous entoure mais l’utilisation d’intrants chimiques comme les engrais pour nourrir les plantes et surtout les produits phytopharmaceutiques (pesticides) pour les protéger, longtemps appréciés, sont aujourd’hui dénigrés et accusés sans discernement de nuire à l’environnement et à la santé.
L’agriculture biologique (AB) parée de toutes les vertus profite de cet engouement naïf pour le naturel. Plus chère pour le consommateur à cause de rendements plus faibles, elle est présentée comme l’alternative aux pesticides -alors qu’elle en utilise de façon significative- et que sont occultés les risques sanitaires de contaminants biologiques.

L’exemple du glyphosate est révélateur de la dérive irrationnelle de la société. Depuis quelques années, il est devenu une cible privilégiée des écologistes surtout depuis qu’il est utilisé, hors d’Europe, sur des plantes génétiquement modifiées tolérantes à cet herbicide, plantes rejetées aussi par les militants écolos. Très actifs, ces derniers sont parvenus à semer le doute sur le glyphosate dans la population avec l’appui de nombreux médias et de quelques lanceurs d’alerte peu scrupuleux. Le classement contesté du glyphosate «cancérogène probable » (comme la viande rouge) par le seul CIRC en mars 2015 a été une aubaine pour les opposants redoublant d’ardeur pour diaboliser le glyphosate, suivis en cela par les ministres de l’écologie Ségolène Royal et Nicolas Hulot. Mais aussi par le président Emmanuel Macron qui, dans un excès de zèle et de précipitation, a décidé, faisant fi des décisions européennes, de l’interdire en France dans 3 ans, pour récemment, face à la réalité, se déjuger quelque peu.

Et pourtant, ce désherbant, le plus étudié, reste autorisé et utilisé dans tous les pays du monde depuis 44 ans. Un exceptionnel retour d’expérience propre à rassurer les plus récalcitrants ! Il a largement fait la preuve de son intérêt agronomique, économique et de son bon profil toxicologique et écotoxicologique. Toutes les agences d’évaluation sanitaire, française, européennes et internationales, y compris l’OMS maison-mère du CIRC, ont confirmé qu’il n’est ni cancérigène, ni perturbateur endocrinien. Son interdiction, prise sous la pression du puissant lobby écologiste et sans en mesurer les conséquences, va se traduire par un retour du travail mécanique du sol plus cher et émetteur de CO2.

Pire, il entrave le développement des techniques agronomiques de conservation des sols (suppression du travail du sol et implantation d’un couvert végétal en interculture) qui permettent de développer une agriculture durable offrant réduction des coûts, amélioration de la fertilité des sols et réduction des émissions de CO2 grâce à la séquestration du carbone dans le sol.
Ces techniques, certes, nécessitent une application annuelle d’une faible dose de glyphosate (700g/hectare) mais auraient la capacité, si elles étaient généralisées, d’absorber la quasi-totalité des émissions agricoles de CO2. Intérêt majeur qui a échappé aux militants se réclamant de l’écologie.

L’énergie nucléaire redoutée !

Dès 1945, sous l’impulsion du Président De Gaulle, la France a développé un programme de nucléaire civil lui permettant de devenir le deuxième producteur mondial d’électricité nucléaire et d’acquérir une expertise reconnue. Mais, en août 2015, une loi sur la transition énergétique initiée par Ségolène Royal a imposé la réduction de la part d’électricité d’origine nucléaire pour faire place aux énergies renouvelables (EnR).

Et pourtant, le nucléaire est avec l’hydraulique la source d’énergie sans carbone la plus abondante et la mieux pilotable au monde alors que l’intermittence du photovoltaïque et de l’éolien impose des moyens de production complémentaires et des coûts importants de restructuration du réseau. Le seul surcoût des contrats déjà engagés pour les EnR électriques jusqu’à fin 2017 est estimé à 121 milliards d’euros par la Cour des Comptes, pour une production marginale (6% en 2017) susceptible de faire défaut quand on en a le plus besoin. Les épisodes de grand froid sont généralement anticycloniques, c’est-à-dire sans vent, et les pointes de consommation se produisent le soir, après le coucher du soleil . L’éolien et le solaire réclament une place considérable et contribuent par leur dispersion sur le territoire à abîmer nos paysages. Suite à des plaintes de riverains d’éoliennes, l’Académie de médecine préconise dans un rapport de 2017 de durcir la règlementation acoustique des éoliennes et renouvelle sa demande de 2006 d’une étude épidémiologique.

Par ailleurs, en investissant massivement dans les EnR au détriment du nucléaire (et des factures d’électricité de plus en plus élevées), la France perd son expertise dans les réacteurs de nouvelle génération alors que des techniques avancées de production d’énergie nucléaire offrent pour demain des solutions encore plus sûres et plus performantes.
Enfin, il faut rappeler la confusion entretenue auprès de l’opinion publique entre risque et danger. L’énergie nucléaire reste le moyen de production d’électricité responsable du plus petit nombre de décès par unité d’énergie produite, tous incidents et accidents confondus. La gestion des risques est un domaine qui réclame la rigueur et ne doit pas céder à l’émotion.

Ainsi dans deux secteurs importants du pays, des décisions majeures sont prises de façon irrationnelle, sous la pression de l’écologisme politique, sans véritable analyse bénéfices/risques, sans s’appuyer sur l’indispensable expertise scientifique, beaucoup trop absente des grands débats citoyens. Pour une grande part, elles aboutissent à l’inverse du but annoncé et à une régression inquiétante, préjudiciable à la France. Aussi peut-on s’étonner et regretter que la « résolution de l’Assemblée nationale sur les sciences et le progrès dans la République » du 21/02/2017 soit restée sans suite !

(*) Collectif Science-Technologies-Actions https://sciencetechaction.tumblr.com/

Start-ups technologiques : attention retour de bâton

Start-ups technologiques : attention retour de bâton

 

Les nouvelles start-ups technologiques sont évidemment à la mode, certaines start-ups apportent réellement des innovations et créent de la valeur ajoutée tandis que d’autres  se limitent  à pomper celle des autres en précarisant au passage le travail. Ces derniers temps certaines start-ups dites technologiques ont vu leur valorisation exploser. Mais ces entreprises – devraient bientôt connaître un retour de bâton. En cause la recherche de rendement irraisonné pour compenser dés placements qui ne sont plus rémunérateurs  du fait de  baisse de taux d’intérêt.  L’une des illustrations les plus frappantes en est la multiplication et la valorisation des « licornes », ces entreprises jeunes et pas encore cotées dont la valorisation dépasse le milliard de dollars. Tandis qu’on en comptait 4 pour une valeur globale de 13 milliards de dollars en 2009, elles seraient aujourd’hui 124 pesant 468 milliards de dollars. Les levées de fonds record sur la base de valorisations astronomiques semblent s’enchaîner à un rythme effréné. Cette recherche de haut rendement pourrait se justifier si les entreprises dites technologiques apportaient une réelle innovation et si la croissance était au rendez-vous. Encore une fois si certaines start-ups technologiques apportent une réelle innovation, d’autres ne sont que de simples applications Internet qui se contentent de détourner la valeur ajoutée d’opérateurs déjà sur le marché (qui sont les vrais créateurs de cette valeur ajouté). Des applications qui par ailleurs rendent possible un détournement des contraintes fiscales et sociales. L’exemple le plus récent concerne Uber pour le transport des personnes ;  encore plus récemment Uber vient de s’attaquer sur le même modèle économique au transport express de la même manière Uber ou d’autres start-ups numériques pourraient s’interposer entre les processus de production et de distribution concernant notamment certains autres marchés des particuliers. À terme certaines start-ups qui n’apportent pas de réelle valeur ajoutée(ou à valeur ajoutée faible)  pourraient donc avec la crise financière voir leur valorisation s’écrouler surtout aussi si les pouvoirs publics mettent en place une régulation visant à empêcher les détournements de réglementation fiscale ou sociale.




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol