Archive pour le Tag 'technologiques'

Titans technologiques ……et politiques

Titans technologiques ……et   politiques

 

Charles-Edouard Bouée, ancien PDG du cabinet de conseil en stratégie Roland Berger, aujourd’hui associé cogérant du fonds de capital-risque Alpha Intelligence Capital (AIC),  met en perspective dans l’Opinion l’émergence de titans contemporains, technologiques et politiques, qui sont le produit d’un capitalisme financier à outrance et qui bouleversent les rapports de force.

 

Dernier livre L’ère des nouveaux Titans : le capitalisme en apesanteur (Editions Grasset), 2020)

 

Pourquoi parlez-vous de capitalisme en apesanteur ?

Les deux éléments qui contribuent à la pesanteur du capitalisme sont aujourd’hui remis en cause. La baisse continue des taux d’intérêt depuis la crise de 2008 a modifié notre rapport au temps. Les durées de remboursement se sont allongées, les entreprises technologiques ont pu accélérer leur développement à un rythme défiant toute logique, grâce à un volume d’argent disponible quasi illimité. D’autre part, le capitalisme est basé sur des faits, des principes physiques, des lois et des règles. Or depuis une dizaine d’années, avec le développement des réseaux sociaux notamment, les fake news ont été rendues possibles, contribuant à déstabiliser notre perception de la réalité. Ce qui était anecdotique dans la prise de décision et d’investissement ne l’est plus aujourd’hui. Ces deux paramètres ont mis le capitalisme en apesanteur. Ils ont réduit la valeur du temps à zéro et brouillé les lignes entre ce qui est possible ou pas. On voit apparaître un monde où il n’y a plus de limites. On est capable de financer des gens pour aller sur Mars, alors qu’on ne sait pas si concrètement l’Homme peut survivre sur cette planète. La crise de 2008 et l’activation de la planche à billets ont donné naissance à des titans technologiques qui portent aujourd’hui le monde sur leurs épaules.

Ces titans auraient, selon vous, donné naissance à d’autre titans, politiques ceux-là…

La crise des subprimes a créé les conditions d’émergence d’une ère technologique aujourd’hui incarnée par les GAFAM, les BAT chinois, et aussi par toutes ces licornes : Uber, Airbnb, TikTok… Des créatures fantastiques qui existent alors même qu’elles ne font pas de profit. Ces titans technologiques se sont saisis de parties de nos vies pour les rendre plus simples, pour nous aider. Un bel âge d’or en perspective. L’illusion a été de courte durée. A la place, ils ont attaqué les modèles économiques existants et remplacé des métiers plus traditionnels. Une peur insidieuse s’est répandue chez les citoyens. Consciemment ou inconsciemment, par incantation ou par vote, ils ont appelé des personnages hors normes au pouvoir, dans l’espoir qu’ils règlent une situation que personne n’est capable de maîtriser. Il y a eu un besoin de protection, une recherche de sécurité, qui s’est exprimée par le Brexit, l’élection de Donald Trump aux Etats-Unis ou de leaders populistes en Europe de l’Est… Les titans géopolitiques ont répondu à cette peur primaire générée par les titans technologiques. Aujourd’hui, ils se battent entre eux. On l’a vu cet été avec la lutte sino-américaine autour de TikTok.

Il est dommage que les titans technologiques, alors qu’ils ont des compétences analytiques extraordinaires, ne s’en soient pas servi pour parler d’humanité. L’épidémie nous a permis de prendre conscience de notre mortalité et de l’importance de la vie sociale

Dans la mythologie, les humains restent les jouets des titans jusqu’au déluge qui les refaçonne et leur redonne du pouvoir. Ce récit peut-il s’appliquer à la période que nous vivons ?

L’âge d’or promis par les titans n’est pas arrivé. Les risques liés à la violence, aux opiacés, aux réseaux sociaux se sont multipliés. Le mythe des titans relate qu’un déluge est censé refaçonner l’humanité pour qu’elle reprenne ses droits. Quel sera-t-il ? Une catastrophe climatique ? Une guerre ? Un virus informatique ? J’ai, au début de la crise sanitaire, pensé que le coronavirus jouerait ce rôle. Tout le monde s’est mis à rêver des merveilles du « monde d’après ». On constate aujourd’hui que rien n’a changé. La Covid-19 n’est pas le déluge, mais la « révélation », au sens biblique du terme, du monde dans lequel nous vivons. Elle a mis en lumière un système financier déréglé et la toute-puissance de quelques titans technologiques. Sans eux, notre confinement aurait été à la fois physique et psychologique : un enfer. Il aurait été impossible d’échanger avec ses proches, de travailler, de se divertir… Mais ils se sont aussi révélés tels qu’ils sont : des organisations robotisées, peu capables de compassion ou d’empathie, démontrant du même coup leur incapacité à s’investir émotionnellement auprès des humains, qu’elles prétendent pourtant connaître si bien.

Considérez-vous que l’économie est un sujet éthique ?

On a tendance à séparer l’Etat de l’entrepreneuriat et de l’esprit. Quand on observe la manière dont travaillent les Chinois, ce qui a fait l’objet d’un précédent livre en 2013 (Comment la Chine change le monde, Editions Dialogues), on constate que ces trois éléments sont interconnectés. L’humain est présent dans ces trois dimensions de la société. Il est à la fois citoyen, salarié ou entrepreneur, et philosophe. La technologie et le politique sont partis dans une direction : les titans. La partie culturelle, liée aux valeurs, est, elle, restée sur le côté. L’économie ne peut pas être éthique, mais l’économie et l’éthique ne peuvent pas être dissociées. Il est dommage que les titans technologiques, alors qu’ils ont des compétences analytiques extraordinaires, ne s’en soient pas servi pour parler d’humanité. L’épidémie nous a permis de prendre conscience de notre mortalité et de l’importance de la vie sociale. S’il va y avoir une accélération de la prise de conscience et d’action sur le climat, la RSE, les ESG, le partage des richesses et les sujets de gouvernance, je pense qu’il reste du chemin à parcourir avant que les entreprises à mission deviennent une réalité, même si elles sont une belle initiative.

Vous estimez que la pandémie va contribuer à l’explosion de la robotisation. N’a-t-on pourtant pas vu, pendant le confinement du printemps, que l’Homme était indispensable pour faire tourner l’économie ?

C’est un paradoxe. Pendant la première vague, on a vu que les humains étaient indispensables pour administrer des soins, nettoyer nos rues, gérer la logistique… Et en même temps, avec des taux d’intérêt aussi bas, il est moins cher d’investir dans des machines que dans la formation d’une personne. Les métiers les plus empathiques ne sont pas les plus valorisés dans la société. Je pousse pour ce qu’on appelle l’intelligence humaine augmentée. Utiliser la technologie pour rendre l’Homme plus efficace. La technologie doit entrer dans le mode de fonctionnement humain comme l’eau élèverait un bateau, sans pour autant séparer ceux qui réussissent avec les machines et ceux qui n’auraient plus d’utilité sociale. J’ai une conviction : on n’a jamais pu arrêter l’évolution des technologies, même si elles étaient létales pour l’humanité. On doit bien diriger le paquebot pour que cette dimension humaniste et bienveillante, soit mise en place. La vraie question, c’est : est-ce que les titans technologiques et géopolitiques sont capables d’opter pour cette matrice, alors qu’ils sont nés de la peur et de l’efficacité technologique ?

Le revenu universel serait la seule solution pour encaisser les chocs sociaux futurs. Pourquoi ? N’y a-t-il pas de solutions intermédiaires ?

De toutes les solutions qui ont été proposées, y compris par Milton Friedman, le revenu universel apparaît comme la moins mauvaise. On l’a finalement vécu concrètement avec la pandémie. Lors du premier confinement, les Américains gagnaient plus grâce aux aides qu’en travaillant. La Covid-19 va avoir les mêmes conséquences que la crise de 2008. Elle va créer plus de titans, de peurs et de repli sur soi-même. Il s’agit donc de réfléchir à comment amortir le choc en évitant que les inégalités, entre ceux qui peuvent et ne peuvent pas, ceux qui savent et ne savent pas, deviennent des déchirures génératrices de violences et de révoltes. Une des solutions pourrait être d’utiliser l’argent bon marché pour lancer une transformation réelle de la société. Les idées qui paraissent les plus folles, comme celle d’Elon Musk d’envoyer un million de personnes pour peupler Mars d’ici 2050, sont mises en œuvre. Pourquoi les idées citoyennes qui voudraient renouveler l’équilibre entre économie et climat, entre technologies et humains ou qui voudraient rendre l’Etat plus efficace, ne bénéficient-elles pas du même investissement ? Plutôt que d’emprunter plus d’argent pour le redistribuer comme le voudrait la logique du revenu universel, pourquoi ne pas l’investir dans des projets, et rendre nos pays plus verts, notre Etat plus moderne… ? C’est faisable. Quand un homme a faim, mieux vaut lui apprendre à pêcher que de lui donner un poisson, disait Confucius.

Les changements technologiques de la 5G par l’ANFR (agence nationale fréquence)

Les changements technologiques de la 5G par l’ANFR (agence nationale fréquence)

La nouvelle génération 5G, rend indispensable l’utilisation de nouvelles portions du spectre radioélectrique. L’obtention de nouvelles fréquences est un pré-requis pour lancer les services 5G. Les bandes identifiées sont plus élevées dans le spectre et permettent des montées en débit très importantes. Avec l’utilisation d’antennes intelligentes et d’un réseau de petites antennes, les forts besoins en connectivité du public et des entreprises auront leur solution. 

De nouvelles bandes de fréquence 5G déjà identifiées

 

  • Les bandes « basses », déjà allouées pour la 2G / 3G / 4G, pourraient être réutilisées pour la 5G.  
  • La bande 3,5 GHz est la première bande 5G offrant un compromis couverture/capacité.
  • La bande 26 GHz, « pionnière 5G », sera principalement utilisée pour des « hot spots ».
  • D’autres bandes hautes seront étudiées lors de la Conférence Mondiale des Radiocommunications en 2019.
LE RÔLE DE L’ANFR 

L’ANFR conduit les négociations européennes et internationales pour identifier les bandes de fréquences 5G. En Europe, deux nouvelles bandes ont déjà été choisies pour la 5G.
Ces négociations ont permis dès 2015 d’harmoniser la bande 3,5 GHz comme bande 5G et de définir les futures bandes candidates pour la 5G comme la bande 26 GHz qui doit faire l’objet d’une harmonisation mondiale en 2019. 

Au niveau national, l’ANFR prépare l’arrivée de la 5G en libérant les bandes de fréquences attribuées à la 5G mais occupées par d’autres utilisateurs. 
Enfin, l’ANFR accompagne les premiers déploiements pilote 5G dans la bande 3,5 GHz des opérateurs de téléphonie mobile et travaille avec l’ensemble des acteurs pour caractériser les réseaux 5G en termes d’exposition du public aux ondes électromagnétiques. 

 

Evolutions technologiques vers des antennes intelligentes

Les réseaux mobiles actuels utilisent des équipements radio appelés « cellules macro » déployés pour assurer la couverture dans les différents territoires. Les antennes diffusent les signaux de manière constante, dans une direction donnée (faisceau).

Le déploiement de la 5G se fera en recourant à des sites « macro » à l’instar des réseaux actuels des opérateurs, mais devrait également s’articuler autour du déploiement de petites antennes installées dans du mobilier urbain.

Pour atteindre les performances annoncées (débits multiplié par 10, latence divisée par 10 et multiples connexions), la 5G reposera notamment sur une nouvelle génération d’antennes, qui orientent les signaux vers les appareils qui en ont besoin. Couplée avec des bandes de fréquences hautes, l’utilisation de ces antennes permettra d’accroître fortement les débits. 

Le rôle de l’ANFR

L’ANFR veille au respect des valeurs limites d’exposition du public aux ondes et gère le dispositif national de surveillance et de mesure des ondes. Un Comité National de Dialogue a été créé par la loi au sein de l’ANFR pour échanger avec les acteurs, partager l’information, la diffuser et favoriser la confiance du public. L’ANFR participe également aux pilotes 5G pour mettre au point les outils relatifs aux contrôles et à la concertation sur l’exposition du public créée par la 5G.

L’ANFR accompagne les premiers déploiements pilote 5G des opérateurs de téléphonie mobile dans la bande 3,5 GHz et travaille avec l’ensemble des acteurs pour caractériser les réseaux 5G en termes d’exposition du public aux ondes électromagnétiques. A l’avenir, les nouvelles bandes 5G (par exemple la 26 GHz) seront plus hautes en fréquences dans les bandes millimétriques, qui correspondent aux bandes de fréquences dont la longueur d’onde est de l’ordre du millimètre. 

Dans ses bandes millimétriques, l’exposition reste localisée à la surface de la peau et l’exposition n’est plus évaluée par le débit d’absorption spécifique (DAS) mais par la densité surfacique de puissance (DSP).

Dans le cadre de la réflexion générale sur l’évaluation de l’exposition du public aux ondes électromagnétiques des réseaux 5G, l’ANFR a publié aujourd’hui deux rapports, l’un sur une présentation générale de la 5G abordée sous l’angle de l’exposition et l’autre sur les déploiements pilotes menés en France pour tester en grandeur nature les modalités d’un déploiement d’antennes 5G à faisceaux orientables dans la bande 3400-3800 MHz :
L’ANFR a également entamé une étude pour analyser des simulations numériques des niveaux d’exposition créés par la téléphonie mobile dans une zone urbaine très dense, le 14e arrondissement de Paris. Le rapport ci-dessous constitue un point d’étape. Il fournit de premiers ordres de grandeur d’exposition selon différents scénarios identifiés avec le suivi des pilotes 5G et après avoir consulté les équipementiers télécoms et les opérateurs de téléphonie mobile.  Les prochaines phases de ces travaux consisteront à affiner les scénarios de déploiement, en jouant sur les technologies employées et les puissances, dans les différentes bandes de fréquences ouvertes à la téléphonie mobile. L’exposition sera ainsi simulée plus précisément. 

Les rayonnements électromagnétiques de la 5G (ANFR)

La lettre de l’ANFR de Juillet 2019 (lien : Newsletter Météorologie) mentionnait et expliquait comment des satellites météorologiques captaient une partie des émissions électromagnétiques naturelles émises par certaines molécules ou par certains corps à une température donnée. Il existe en fait un grand nombre de façon d’émettre des champs électromagnétiques et tous ces champs sont liés à l’émission d’une particule nommée photon. Comme cela avait été présenté dans le Newsletter sur le graviton, à chaque interaction qui régit notre univers est associée une particule, si le graviton est la particule qui caractérise les champs gravitationnels, le photon est la particule qui caractérise le transport de l’énergie des champs électromagnétiques. L’émission de ces photons peut résulter :

  1. De modifications structurelles atomiques ou moléculaires (que la modification soit spontanée ou initiée comme dans la fusion ou la fission nucléaire) 
  2. De la mobilité des porteurs de charge(s) électrique(s), indépendamment du milieu considéré :
    a. L’agitation thermique: rayonnement de corps présentant une température supérieure à 0K (soit environ -273°C)
    b. La circulation dans le milieu : il peut s’agir de conducteur électrique (c’est dans cette dernière catégorie que ce range la plupart des émetteurs/récepteurs qui [envahissent] notre quotidien), tout comme de plasma (cas du rayonnement électromagnétique issu des arcs électriques issus de la foudre).
    c. L’accélération, par exemple le rayonnement (non thermique) synchrotron issu des pulsars.

Comment fonctionnent les antennes de radiocommunication ?

D’un point de vue général, les antennes de radiocommunication sont basées à ce jour, sur le principe de la circulation de charge le long d’un conducteur. Autrement dit, il est possible de formuler, que tout corps, quel qu’il soit, parcouru par un courant (qui définit en soi la circulation de charges nommées électrons) rayonne simultanément deux types de champs, l’un est dit électrique, l’autre magnétique. Bien qu’ils n’aient pas les mêmes propriétés, les équations de Maxwell, nous apprennent qu’ils sont indissociables l’un de de l’autre. Les variations temporelles de ces deux champs sont identiques à celles du courant qu’il lui donne naissance. Dans la mesure où l’on considère des variations temporelles des courants ou des champs, alors on introduit nécessairement la notion de fréquence. La notion de fréquence est assez simple à appréhender, il s’agit simplement du nombre d’ « oscillations de l’onde radio» durant 1 seconde. Pour obtenir une onde à 1GHz, un courant alternatif doit onduler 1 milliard de fois en 1 seconde. A cette fréquence est associée une longueur d’onde, que l’on pourrait définir simplement comme la longueur physique dans l’espace d’une oscillation. 

Lors de la réalisation d’antenne de radiocommunication, bien que ces champs soient interdépendants, il est possible de privilégier la réception de l’un ou de l’autre. Généralement le choix se fait sur la dimension de l’antenne à réaliser au regard de la fréquence du champ EM à produire ou à capter. On favorise davantage la conception d’antennes privilégiant la réception des champs magnétiques à basse fréquence et des champs électrique à hautes fréquences. En réalité, il serait plus juste de dire qu’à basse fréquence, les comportements des champs électriques et magnétiques sont discernables, ce qui n’est plus le cas en haute fréquence, ou seule la notion de puissance (comprise comme une densité de flux d’énergie assimilable au produit1 des champs électrique E ⃗ et magnétique H ⃗) devient prépondérante. 

 

En quoi les fréquences jouent-t-elle un rôle dans la conception d’une antenne ?  

Il faut d’abord distinguer deux types d’antennes :

  1. Le premier type inclut à la fois la formation du champ électromagnétique et la direction dans laquelle il doit être émis. Antenne dipôle, antenne patch, antenne à réseaux phasés, etc.
  2. Le second type produit le champ EM par l’intermédiaire d’une cavité et utilise un réflecteur pour guider le champ dans une direction privilégier : les antennes paraboliques

Par définition, si tout corps conducteur parcouru par un courant rayonne, son rayonnement est aussi optimisé par la dimension physique qu’il a au regard de la longueur d’onde à émettre ou à capter. C’est une propriété fondamentale. Il faut voir la longueur d’onde comme la longueur physique d’une oscillation de l’onde dans l’espace. Cette longueur est bien entendu, à une fréquence donnée, identique pour le champ électrique et magnétique. Il faut partir du principe que l’intensité du rayonnement du champ électrique est optimisée lorsque la longueur physique du conducteur rayonnant est égale à la moitié de la longueur d’onde. Dans ce cas précis, la surface métallisé présente un ventre de courant à sa surface (et de ventre de tension à ces extrémités) et on dit alors que le l’élément résonne ou entre en résonnance. Bien entendu, pour qu’une antenne émette un champ électromagnétique optimisé au regard de l’énergie électrique qui lui est fourni, elle ne doit pas répondre qu’à cet unique critère. D’autres effets sont à prendre en considération comme par exemple l’adaptation des impédances. On pourrait résumer cet effet comme une forme d’opposition du milieu aux passages du courant. Il faut généralement faire en sorte que cette opposition soit constante sur l’ensemble du parcours du courant jusqu’à l’antenne. Sinon une partie du courant va se réfléchir vers la source. 

Dans le cas d’une antenne parabolique, c’est l’émetteur (généralement une cavité résonnante), qui fait face à la parabole, qui produit le champ électromagnétique idéal. Le réflecteur n‘est là que pour orienter le faisceau dans une direction privilégiée. 

On  comprend ainsi pourquoi les antennes, en général, sont élaborées pour une gamme de fréquences d’utilisation particulière (fréquence centrale et bande passante). La longueur physique de l’élément ou des éléments rayonnants (qu’il s‘agissent de conducteurs ou de cavités) étant fixée dès la conception.  Il est bien entendu possible d’élargir leur gamme de fréquence d’utilisation dans une certaine mesure, en modifiant fictivement les propriétés de résonnance des conducteurs utilisés par exemple par l’emploi d’un substrat (servant de support à l’élément rayonnant) à plus grande permittivité que l’air ou encore en augmentant la largeur du conducteur. 

Champs rayonné et diagramme d’antenne

Lorsque qu’un champ est produit par un conducteur, il rayonne dans tout l’espace, c’est ce que l’on appelle son diagramme de rayonnement. Toutefois, il est possible de faire en sorte de privilégier les directions d’émission des champs.  Par exemple, l’ajout d’un réflecteur (mais encore de toute forme de métallisation connectée à la masse) derrière un conducteur résonnant permet de limiter son rayonnement à la partie supérieure et de minimiser le rayonnement derrière le plan métallique. Suivant la forme de ce réflecteur, on modifie l’énergie émise dans l’autre direction (plan de masse ou parabole). La mise en réseau de métallisation, comme dans le cas des antennes de réception hertziennes qui arborent nos toits permet aussi de privilégier la captation du rayonnement provenant d’une direction privilégiée et généralement celle dans laquelle le diffuseur se situe. Le diagramme de rayonnement de l’antenne est donc directement conçu pour répondre à l’utilisation que l’on fait de l’antenne. Lorsque l’on doit diffuser sur une large couverture (Radio, télévision, mobile) on va privilégier des antennes qui diffusent dans tout l’espace utile. Par exemple, les antennes 4G, produisent des rayonnements en forme de disque incliné, permettant de couvrir de large zone azimutale, tout en minimisant les émissions au-dessus de l’horizon où elles sont inutiles. En revanche un téléphone mobile 4G qui doit pouvoir capter et émettre dans tout l’espace, ne sachant pas où se situe le relais, aura tendance à privilégier des antennes qui diffusent dans l’ensemble de l’espace.  Enfin une station terrienne d’émission ou de réception satellitaire, privilégiera un rayonnement extrêmement intense dans une direction angulaire unique, celle où se  situe le satellite avec lequel elle souhaite communiquer, et dans ce cas les paraboles sont à ce jour les antennes les plus utilisées. 

Les antennes dites « actives » de la 5G c’est quoi ? 

Avant d’introduire les antennes de la 5G, il faut comprendre ce que l’on considère comme une antenne active. Elles sont nommées ainsi pour une raison simple : au lieu de produire un champ électromagnétique dans une direction fixe, leur faisceau est capable de balayer l’espace par des procédés topologiques et d’architecture électronique. Le concept d’antenne active, dite aussi antenne à réseau phasé,  existe depuis plusieurs décennies et a été largement utilisé (et continue à être utilisé) dans le domaine du radar. La téléphonie mobile a donc exploité un concept existant. De nombreux exemples de radars à réseaux phasés existent aujourd’hui, ils sont parfois de dimension réduite, embarqués sur des aéronefs, parfois gigantesques et conçus sur des façades de bâtiments. 

On peut dénombrer trois avantages aux antennes actives :

  1. leur faible épaisseur, rendant ces antennes planaires (elles peuvent être conçues sur n’importe quel type de surface). 
  2. un rayonnement variable dans chaque direction (au cours du temps) du fait de la rapidité de balayage (électronique) du faisceau. 
  3. leur grande directivité (directement proportionnelle au nombre d’éléments qui compose le panneau d’antennes) dans des directions d’intérêt. Cette directivité est une autre façon de décrire leur capacité à concentrer l’intensité de leur rayonnement dans une direction privilégiée.  Par exemple, si le panneau d’antennes est composé de 16 colonnes et de 16 lignes d’éléments rayonnants, alors, il sera possible d’augmenter la puissance rayonnée par le faisceau de l’antenne, de 256 fois dans la direction choisie (par rapport au rayonnement d’un élément). 

 

Une antenne à réseau phasé utilise le principe de l’association des champs d’une multitude de sources à une certaine distance. Généralement, donc, ces antennes sont conçues comme une association d’antennes de même forme et de même dimension. Dans ce cas, l’ensemble des antennes constituant le réseau présentent à la fréquence de résonance voulue le même type de rayonnement EM intrinsèque. Les rayonnements produits par chaque élément s’associent en phase pour augmenter le rayonnement de l’antenne globale dans une direction choisie. Pour offrir une grande directivité du faisceau formé par le panneau, certaines caractéristiques topologiques sont à respecter :

  • au regard de l’espace que les éléments doivent avoir entre eux (positionnement dans le panneau) ou de leur longueur d’onde,
  • au regard de la loi d’illumination des éléments rayonnants du panneau : 
  • en amplitude lorsqu’il s’agit de modifier la forme du diagramme : hauteur et largeur du lobe principal, écart entre lobe principal et lobe secondaire,
  • en phase lorsqu’il s’agit d’orienter le faisceau électronique dans différentes directions.

 

Quelle différence entre antennes active et passive ?

La différence fondamentale est le rayonnement des antennes. Une antenne passive émet de façon homogène et constante sur les azimuts en minimisant les rayonnements vers le ciel ou vers le sol à l’aplomb de l’antenne, la couverture, comme vu précédemment pourrait être schématisée comme une portion de disque, plus ou moins large, inclinée vers le sol. On peut donc considérer que la puissance globale rayonnée par l’antenne est distribuée sur les azimuts. Par ce biais, tous les utilisateurs qui sont dans cette couverture azimutale peuvent communiquer avec la station de base, mais la puissance reçue par chacun d’entre eux est limitée.

Dans le cas des antennes actives, ce n’est plus le cas, seule la direction où se situe l’utilisateur est visée, il n’y a plus d’émission constante dans le temps sur tous les azimuts, mais uniquement sur l’azimut où se situe le bénéficiaire. Si les antennes actives et passives présentaient les mêmes caractéristiques, on pourrait imaginer que l’énergie reçue par l’utilisateur d’une station équipée d’une antenne active recevrait l’ensemble de l’énergie que l’ensemble des utilisateurs de l’antenne passive pourrait recevoir.

En pratique, la situation est bien plus complexe, car deux situations peuvent apparaitre :

  • La première consiste au fait que l’antenne créé plusieurs faisceaux  indépendants pour couvrir les utilisateurs. Chacun de ces faisceaux est formé par des sous-ensembles de la matrice d’éléments rayonnants et utilise la totalité de la bande passante disponible. 
  • La seconde revient à subdiviser la bande passante  (sur laquelle rayonnant l’antenne) en sous-bandes attribuées à chaque utilisateur mais où chaque faisceau formé utilise alors tous les éléments rayonnants du panneau.

Il peut aussi être question parfois d’une combinaison des deux  idées précédentes. Par exemple, en reprenant le cas d’une matrice présentant 256 éléments rayonnants (16 en lignes et 16 en colonne), rien n’empêche d’imaginer que 4 faisceaux soient formés simultanément par 4 sous matrice de 64 éléments (8 en lignes et 8 en colonne) et que donc 4 utilisateurs se partagent  la puissance rayonnée  globale de l’antenne. 

 

Pourquoi la 5G nécessite ce genre d’antenne ? 

L’idée première de la 5G pour les applications à très haut débit2 (Enhanced Mobile BroadBand EMBB) est de fournir une grande quantité d’information en un temps très court. Pour que cette prouesse soit possible, il est nécessaire de disposer d’une importante largeur de bande pour écouler le débit attendu. 

Une telle contrainte oriente l’usage de telles applications à des fréquences dites de « grande capacité » (>3GHz) où le spectre contigüe y est disponible. Toutefois, comme les pertes de propagation de l’onde radio s’accroissent également avec la fréquence, l’augmentation de la directivité des antennes apparaît incontournable pour compenser ces atténuations et conserver des tailles de cellules raisonnables (entre quelques centaines de mètre à quelques km suivant les fréquences considérées). Par ailleurs, la figure 3 nous permet d’observer qu’une antenne est d’autant plus directive que son gain maximum est élevé. Ainsi, lorsque les utilisateurs à couvrir sont en mobilité, le faisceau directif (et étroit) de l’antenne doit être capable de suivre ce dernier. On parle alors d’antennes intelligentes car le balayage du faisceau doit être réalisé en temps réel, ce qui ne peut être fait qu’électroniquement ; ce qui explique le recours aux antennes actives.

Des orientations technologiques approximatives faute d’approche scientifique

Des orientations  technologiques approximatives  faute d’approche scientifique

Retour à l’analyse pertinente pour  Gérard Kafadaroff, ingénieur agronome, et Jean-Pierre Riou, chroniqueur indépendant sur l’énergie, membres du collectif Science-Technologies-Actions (*) qui regrettent  que les scientifiques soient si peu écoutés au profit de militants souvent ignorants. (Sur la Tribune). (Notons que le grand débat n’aborde pratiquement peu de questions technologiques et encore moins la question des financements)

 

« L’accès sans précédent au savoir et à l’information, semble paradoxalement impuissant à impulser un comportement rationnel promu par les philosophes des Lumières. Dans une société imprégnée de technologie, les scientifiques sont peu consultés, voire marginalisés par les décideurs politiques et les influenceurs d’opinion formés le plus souvent aux sciences humaines et réfractaires à la pensée scientifique. Le champ est libre pour les gourous, marchands de peurs et autres oracles médiatiques en délicatesse avec la réalité factuelle. Les fausses informations martelées par des groupes militants et reprises par des médias deviennent vite vérités, contribuant à manipuler l’opinion. Il en résulte des choix de société aberrants et incohérents rarement dénoncés par les esprits les plus éclairés. L’actualité nous fournit d’affligeants exemples, notamment dans les secteurs de l’agriculture et de l’énergie.

La génétique suspecte !

Les OGM présentés dès l’origine, et sans bien savoir pourquoi, comme des plantes dangereuses pour la santé et l’environnement par l’écologisme ont finalement été interdits en France, sans aucune justification scientifique et contre l’avis des agences de sécurité. Pire, la mention « sans OGM » est même devenue un outil marketing de la grande distribution alimentaire pour rassurer les consommateurs.

Et pourtant, en 2017, les OGM étaient cultivés dans 24 pays par 18 millions d’agriculteurs (près de 20 fois le nombre d’agriculteurs français) sur une surface de 190 millions d’hectares (7 fois la surface agricole française). De 1996 à 2017, les surfaces annuelles cumulées d’OGM atteignent 2,3 milliards d’hectares ! Une adoption rapide et massive due aux avantages agronomiques, économiques, sanitaires et environnementaux qu’apportent les OGM et sans dommage ou accident prouvé durant 23 ans. Mais la France n’en a cure et a même interdit le seul OGM autorisé en Europe, un maïs génétiquement modifié résistant à deux insectes ravageurs, qui permet de supprimer des traitements insecticides et d’améliorer la qualité sanitaire du maïs (moins de mycotoxines cancérigènes). Les biotechnologies végétales offrent d’immenses perspectives à l’agriculture (résistance aux parasites, amélioration de la qualité nutritionnelle, débouchés industriels, tolérance à la sécheresse, etc.), mais la France, en pointe il y a 35 ans dans ce domaine, a perdu son savoir-faire et l’abandonne à d’autres pays agricoles dont elle dépendra à l’avenir.

La chimie mal-aimée !

Tout est chimie dans ce qui nous entoure mais l’utilisation d’intrants chimiques comme les engrais pour nourrir les plantes et surtout les produits phytopharmaceutiques (pesticides) pour les protéger, longtemps appréciés, sont aujourd’hui dénigrés et accusés sans discernement de nuire à l’environnement et à la santé.
L’agriculture biologique (AB) parée de toutes les vertus profite de cet engouement naïf pour le naturel. Plus chère pour le consommateur à cause de rendements plus faibles, elle est présentée comme l’alternative aux pesticides -alors qu’elle en utilise de façon significative- et que sont occultés les risques sanitaires de contaminants biologiques.

L’exemple du glyphosate est révélateur de la dérive irrationnelle de la société. Depuis quelques années, il est devenu une cible privilégiée des écologistes surtout depuis qu’il est utilisé, hors d’Europe, sur des plantes génétiquement modifiées tolérantes à cet herbicide, plantes rejetées aussi par les militants écolos. Très actifs, ces derniers sont parvenus à semer le doute sur le glyphosate dans la population avec l’appui de nombreux médias et de quelques lanceurs d’alerte peu scrupuleux. Le classement contesté du glyphosate «cancérogène probable » (comme la viande rouge) par le seul CIRC en mars 2015 a été une aubaine pour les opposants redoublant d’ardeur pour diaboliser le glyphosate, suivis en cela par les ministres de l’écologie Ségolène Royal et Nicolas Hulot. Mais aussi par le président Emmanuel Macron qui, dans un excès de zèle et de précipitation, a décidé, faisant fi des décisions européennes, de l’interdire en France dans 3 ans, pour récemment, face à la réalité, se déjuger quelque peu.

Et pourtant, ce désherbant, le plus étudié, reste autorisé et utilisé dans tous les pays du monde depuis 44 ans. Un exceptionnel retour d’expérience propre à rassurer les plus récalcitrants ! Il a largement fait la preuve de son intérêt agronomique, économique et de son bon profil toxicologique et écotoxicologique. Toutes les agences d’évaluation sanitaire, française, européennes et internationales, y compris l’OMS maison-mère du CIRC, ont confirmé qu’il n’est ni cancérigène, ni perturbateur endocrinien. Son interdiction, prise sous la pression du puissant lobby écologiste et sans en mesurer les conséquences, va se traduire par un retour du travail mécanique du sol plus cher et émetteur de CO2.

Pire, il entrave le développement des techniques agronomiques de conservation des sols (suppression du travail du sol et implantation d’un couvert végétal en interculture) qui permettent de développer une agriculture durable offrant réduction des coûts, amélioration de la fertilité des sols et réduction des émissions de CO2 grâce à la séquestration du carbone dans le sol.
Ces techniques, certes, nécessitent une application annuelle d’une faible dose de glyphosate (700g/hectare) mais auraient la capacité, si elles étaient généralisées, d’absorber la quasi-totalité des émissions agricoles de CO2. Intérêt majeur qui a échappé aux militants se réclamant de l’écologie.

L’énergie nucléaire redoutée !

Dès 1945, sous l’impulsion du Président De Gaulle, la France a développé un programme de nucléaire civil lui permettant de devenir le deuxième producteur mondial d’électricité nucléaire et d’acquérir une expertise reconnue. Mais, en août 2015, une loi sur la transition énergétique initiée par Ségolène Royal a imposé la réduction de la part d’électricité d’origine nucléaire pour faire place aux énergies renouvelables (EnR).

Et pourtant, le nucléaire est avec l’hydraulique la source d’énergie sans carbone la plus abondante et la mieux pilotable au monde alors que l’intermittence du photovoltaïque et de l’éolien impose des moyens de production complémentaires et des coûts importants de restructuration du réseau. Le seul surcoût des contrats déjà engagés pour les EnR électriques jusqu’à fin 2017 est estimé à 121 milliards d’euros par la Cour des Comptes, pour une production marginale (6% en 2017) susceptible de faire défaut quand on en a le plus besoin. Les épisodes de grand froid sont généralement anticycloniques, c’est-à-dire sans vent, et les pointes de consommation se produisent le soir, après le coucher du soleil . L’éolien et le solaire réclament une place considérable et contribuent par leur dispersion sur le territoire à abîmer nos paysages. Suite à des plaintes de riverains d’éoliennes, l’Académie de médecine préconise dans un rapport de 2017 de durcir la règlementation acoustique des éoliennes et renouvelle sa demande de 2006 d’une étude épidémiologique.

Par ailleurs, en investissant massivement dans les EnR au détriment du nucléaire (et des factures d’électricité de plus en plus élevées), la France perd son expertise dans les réacteurs de nouvelle génération alors que des techniques avancées de production d’énergie nucléaire offrent pour demain des solutions encore plus sûres et plus performantes.
Enfin, il faut rappeler la confusion entretenue auprès de l’opinion publique entre risque et danger. L’énergie nucléaire reste le moyen de production d’électricité responsable du plus petit nombre de décès par unité d’énergie produite, tous incidents et accidents confondus. La gestion des risques est un domaine qui réclame la rigueur et ne doit pas céder à l’émotion.

Ainsi dans deux secteurs importants du pays, des décisions majeures sont prises de façon irrationnelle, sous la pression de l’écologisme politique, sans véritable analyse bénéfices/risques, sans s’appuyer sur l’indispensable expertise scientifique, beaucoup trop absente des grands débats citoyens. Pour une grande part, elles aboutissent à l’inverse du but annoncé et à une régression inquiétante, préjudiciable à la France. Aussi peut-on s’étonner et regretter que la « résolution de l’Assemblée nationale sur les sciences et le progrès dans la République » du 21/02/2017 soit restée sans suite !

(*) Collectif Science-Technologies-Actions https://sciencetechaction.tumblr.com/

 

Des choix technologiques approximatifs faute d’approche scientifiques

Des  choix technologiques approximatifs faute d’approche scientifiques

Retour à l’analyse pertinente pour  Gérard Kafadaroff, ingénieur agronome, et Jean-Pierre Riou, chroniqueur indépendant sur l’énergie, membres du collectif Science-Technologies-Actions (*) qui regrettent  que les scientifiques soient si peu écoutés au profit de militants souvent ignorants. (Sur la Tribune)

 

« L’accès sans précédent au savoir et à l’information, semble paradoxalement impuissant à impulser un comportement rationnel promu par les philosophes des Lumières. Dans une société imprégnée de technologie, les scientifiques sont peu consultés, voire marginalisés par les décideurs politiques et les influenceurs d’opinion formés le plus souvent aux sciences humaines et réfractaires à la pensée scientifique. Le champ est libre pour les gourous, marchands de peurs et autres oracles médiatiques en délicatesse avec la réalité factuelle. Les fausses informations martelées par des groupes militants et reprises par des médias deviennent vite vérités, contribuant à manipuler l’opinion. Il en résulte des choix de société aberrants et incohérents rarement dénoncés par les esprits les plus éclairés. L’actualité nous fournit d’affligeants exemples, notamment dans les secteurs de l’agriculture et de l’énergie.

La génétique suspecte !

Les OGM présentés dès l’origine, et sans bien savoir pourquoi, comme des plantes dangereuses pour la santé et l’environnement par l’écologisme ont finalement été interdits en France, sans aucune justification scientifique et contre l’avis des agences de sécurité. Pire, la mention « sans OGM » est même devenue un outil marketing de la grande distribution alimentaire pour rassurer les consommateurs.

Et pourtant, en 2017, les OGM étaient cultivés dans 24 pays par 18 millions d’agriculteurs (près de 20 fois le nombre d’agriculteurs français) sur une surface de 190 millions d’hectares (7 fois la surface agricole française). De 1996 à 2017, les surfaces annuelles cumulées d’OGM atteignent 2,3 milliards d’hectares ! Une adoption rapide et massive due aux avantages agronomiques, économiques, sanitaires et environnementaux qu’apportent les OGM et sans dommage ou accident prouvé durant 23 ans. Mais la France n’en a cure et a même interdit le seul OGM autorisé en Europe, un maïs génétiquement modifié résistant à deux insectes ravageurs, qui permet de supprimer des traitements insecticides et d’améliorer la qualité sanitaire du maïs (moins de mycotoxines cancérigènes). Les biotechnologies végétales offrent d’immenses perspectives à l’agriculture (résistance aux parasites, amélioration de la qualité nutritionnelle, débouchés industriels, tolérance à la sécheresse, etc.), mais la France, en pointe il y a 35 ans dans ce domaine, a perdu son savoir-faire et l’abandonne à d’autres pays agricoles dont elle dépendra à l’avenir.

La chimie mal-aimée !

Tout est chimie dans ce qui nous entoure mais l’utilisation d’intrants chimiques comme les engrais pour nourrir les plantes et surtout les produits phytopharmaceutiques (pesticides) pour les protéger, longtemps appréciés, sont aujourd’hui dénigrés et accusés sans discernement de nuire à l’environnement et à la santé.
L’agriculture biologique (AB) parée de toutes les vertus profite de cet engouement naïf pour le naturel. Plus chère pour le consommateur à cause de rendements plus faibles, elle est présentée comme l’alternative aux pesticides -alors qu’elle en utilise de façon significative- et que sont occultés les risques sanitaires de contaminants biologiques.

L’exemple du glyphosate est révélateur de la dérive irrationnelle de la société. Depuis quelques années, il est devenu une cible privilégiée des écologistes surtout depuis qu’il est utilisé, hors d’Europe, sur des plantes génétiquement modifiées tolérantes à cet herbicide, plantes rejetées aussi par les militants écolos. Très actifs, ces derniers sont parvenus à semer le doute sur le glyphosate dans la population avec l’appui de nombreux médias et de quelques lanceurs d’alerte peu scrupuleux. Le classement contesté du glyphosate «cancérogène probable » (comme la viande rouge) par le seul CIRC en mars 2015 a été une aubaine pour les opposants redoublant d’ardeur pour diaboliser le glyphosate, suivis en cela par les ministres de l’écologie Ségolène Royal et Nicolas Hulot. Mais aussi par le président Emmanuel Macron qui, dans un excès de zèle et de précipitation, a décidé, faisant fi des décisions européennes, de l’interdire en France dans 3 ans, pour récemment, face à la réalité, se déjuger quelque peu.

Et pourtant, ce désherbant, le plus étudié, reste autorisé et utilisé dans tous les pays du monde depuis 44 ans. Un exceptionnel retour d’expérience propre à rassurer les plus récalcitrants ! Il a largement fait la preuve de son intérêt agronomique, économique et de son bon profil toxicologique et écotoxicologique. Toutes les agences d’évaluation sanitaire, française, européennes et internationales, y compris l’OMS maison-mère du CIRC, ont confirmé qu’il n’est ni cancérigène, ni perturbateur endocrinien. Son interdiction, prise sous la pression du puissant lobby écologiste et sans en mesurer les conséquences, va se traduire par un retour du travail mécanique du sol plus cher et émetteur de CO2.

Pire, il entrave le développement des techniques agronomiques de conservation des sols (suppression du travail du sol et implantation d’un couvert végétal en interculture) qui permettent de développer une agriculture durable offrant réduction des coûts, amélioration de la fertilité des sols et réduction des émissions de CO2 grâce à la séquestration du carbone dans le sol.
Ces techniques, certes, nécessitent une application annuelle d’une faible dose de glyphosate (700g/hectare) mais auraient la capacité, si elles étaient généralisées, d’absorber la quasi-totalité des émissions agricoles de CO2. Intérêt majeur qui a échappé aux militants se réclamant de l’écologie.

L’énergie nucléaire redoutée !

Dès 1945, sous l’impulsion du Président De Gaulle, la France a développé un programme de nucléaire civil lui permettant de devenir le deuxième producteur mondial d’électricité nucléaire et d’acquérir une expertise reconnue. Mais, en août 2015, une loi sur la transition énergétique initiée par Ségolène Royal a imposé la réduction de la part d’électricité d’origine nucléaire pour faire place aux énergies renouvelables (EnR).

Et pourtant, le nucléaire est avec l’hydraulique la source d’énergie sans carbone la plus abondante et la mieux pilotable au monde alors que l’intermittence du photovoltaïque et de l’éolien impose des moyens de production complémentaires et des coûts importants de restructuration du réseau. Le seul surcoût des contrats déjà engagés pour les EnR électriques jusqu’à fin 2017 est estimé à 121 milliards d’euros par la Cour des Comptes, pour une production marginale (6% en 2017) susceptible de faire défaut quand on en a le plus besoin. Les épisodes de grand froid sont généralement anticycloniques, c’est-à-dire sans vent, et les pointes de consommation se produisent le soir, après le coucher du soleil . L’éolien et le solaire réclament une place considérable et contribuent par leur dispersion sur le territoire à abîmer nos paysages. Suite à des plaintes de riverains d’éoliennes, l’Académie de médecine préconise dans un rapport de 2017 de durcir la règlementation acoustique des éoliennes et renouvelle sa demande de 2006 d’une étude épidémiologique.

Par ailleurs, en investissant massivement dans les EnR au détriment du nucléaire (et des factures d’électricité de plus en plus élevées), la France perd son expertise dans les réacteurs de nouvelle génération alors que des techniques avancées de production d’énergie nucléaire offrent pour demain des solutions encore plus sûres et plus performantes.
Enfin, il faut rappeler la confusion entretenue auprès de l’opinion publique entre risque et danger. L’énergie nucléaire reste le moyen de production d’électricité responsable du plus petit nombre de décès par unité d’énergie produite, tous incidents et accidents confondus. La gestion des risques est un domaine qui réclame la rigueur et ne doit pas céder à l’émotion.

Ainsi dans deux secteurs importants du pays, des décisions majeures sont prises de façon irrationnelle, sous la pression de l’écologisme politique, sans véritable analyse bénéfices/risques, sans s’appuyer sur l’indispensable expertise scientifique, beaucoup trop absente des grands débats citoyens. Pour une grande part, elles aboutissent à l’inverse du but annoncé et à une régression inquiétante, préjudiciable à la France. Aussi peut-on s’étonner et regretter que la « résolution de l’Assemblée nationale sur les sciences et le progrès dans la République » du 21/02/2017 soit restée sans suite !

(*) Collectif Science-Technologies-Actions https://sciencetechaction.tumblr.com/

Start-ups technologiques : attention retour de bâton

Start-ups technologiques : attention retour de bâton

 

Les nouvelles start-ups technologiques sont évidemment à la mode, certaines start-ups apportent réellement des innovations et créent de la valeur ajoutée tandis que d’autres  se limitent  à pomper celle des autres en précarisant au passage le travail. Ces derniers temps certaines start-ups dites technologiques ont vu leur valorisation exploser. Mais ces entreprises – devraient bientôt connaître un retour de bâton. En cause la recherche de rendement irraisonné pour compenser dés placements qui ne sont plus rémunérateurs  du fait de  baisse de taux d’intérêt.  L’une des illustrations les plus frappantes en est la multiplication et la valorisation des « licornes », ces entreprises jeunes et pas encore cotées dont la valorisation dépasse le milliard de dollars. Tandis qu’on en comptait 4 pour une valeur globale de 13 milliards de dollars en 2009, elles seraient aujourd’hui 124 pesant 468 milliards de dollars. Les levées de fonds record sur la base de valorisations astronomiques semblent s’enchaîner à un rythme effréné. Cette recherche de haut rendement pourrait se justifier si les entreprises dites technologiques apportaient une réelle innovation et si la croissance était au rendez-vous. Encore une fois si certaines start-ups technologiques apportent une réelle innovation, d’autres ne sont que de simples applications Internet qui se contentent de détourner la valeur ajoutée d’opérateurs déjà sur le marché (qui sont les vrais créateurs de cette valeur ajouté). Des applications qui par ailleurs rendent possible un détournement des contraintes fiscales et sociales. L’exemple le plus récent concerne Uber pour le transport des personnes ;  encore plus récemment Uber vient de s’attaquer sur le même modèle économique au transport express de la même manière Uber ou d’autres start-ups numériques pourraient s’interposer entre les processus de production et de distribution concernant notamment certains autres marchés des particuliers. À terme certaines start-ups qui n’apportent pas de réelle valeur ajoutée(ou à valeur ajoutée faible)  pourraient donc avec la crise financière voir leur valorisation s’écrouler surtout aussi si les pouvoirs publics mettent en place une régulation visant à empêcher les détournements de réglementation fiscale ou sociale.




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol