Archive pour le Tag 'agence'

Vaccin Covid-19 : une distribution en janvier 2021….. ou 2022 (agence européenne du médicament)

  • Vaccin Covid-19 : une distribution en janvier 2021….. ou 2022  (agence européenne du médicament)

     

    En ces temps de crise, les institutions de santé, d’ailleurs comme les experts, instrumentalisent la situation pour se rappeler à l’opinion avec des déclarations souvent assez fantaisistes et ou contradictoires dans les médias. Cela a déjà été le cas pour l’organisation mondiale de la santé OMS)  très contestée pour son alignement un peu trop docile vis-à-vis des autorités chinoises. C’est maintenant le cas de l’agence européenne des médicaments qui promet une distribution du vaccin début janvier.

    Une agence européenne évidemment composée essentiellement de bureaucrates et d’experts de la santé qui n’ont pas pratiqué depuis des années et des années. On sait en effet que s’il y a en plus du vaccin Pfizer , d’autres candidats, une dizaine actuellement en phase trois

     

    Le traitement ne sera pas disponible avant des mois d’abord pour en vérifier l’efficacité, sa durabilité et ses contre-indications. Les promesses de l’agence européenne du médicament sont sans doute destinées  à revaloriser une institution qui évidemment fait doublon avec de nombreuses autres

    «Si les données sont solides, nous pourrons donner le feu vert au premier vaccin d’ici la fin de l’année et commencer la distribution à partir de janvier», déclare Guido Rasi, directeur de l’EMA, dans un entretien publié samedi dans le journal italien Il Sole 24 Ore. Une sorte de déclaration type Trump qui ne parlait qui ne paraît ni réaliste ni pertinente.

    Cet organisme a pour mission d’autoriser et contrôler les médicaments dans l’UE. Le feu vert final, donné par la Commission européenne, permet à des laboratoires de commercialiser leur médicament dans toute l’UE.

    L’EMA, qui table sur «6 ou 7» vaccins différents à disposition en 2021, a reçu vendredi «les premières données cliniques de Pfizer pour son vaccin», précise Guido Rasi. «Nous avons reçu d’AstraZeneca les données précliniques, celles des essais sur les animaux qui sont déjà en cours d’évaluation et enfin nous avons eu plusieurs discussions avec Moderna», énumère-t-il. En mettant un vaccin sur le marché en janvier, ses premiers effets sur la propagation du virus «seront visibles dans cinq à six mois, essentiellement l’été prochain», explique-t-il. «Il est évident qu’il ne sera pas possible de vacciner tout le monde, mais nous commencerons par les catégories les plus exposées, comme les personnes âgées et les travailleurs de la santé, ce qui commencera à bloquer les ponts de transmission», note le responsable.

Agence de participation de l’État : une gestion catastrophique

Agence de participation de l’État : une gestion catastrophique

 

La valorisation du portefeuille coté de l’Etat a fondu de 30% en un an, à 52,3 milliards d’euros .  le résultat d’une gestion catastrophique qu’on ne peut imputer seulement à la crise sanitaire. En fait,  l’agence s’est souvent comportée en instruments pompier qu’en instrument stratège au point d’ailleurs d’hypothéquer les futures réserves destinées au développement des technologies ( par parenthèse le ministre de l’économie ne parle plus de l’utilisation de la vente de la Française des jeux à cette fin et pas davantage du fameux fonds).

Normalement l’agence de participation de l’État (APE ) doit contribuer à améliorer la performance économique des entreprises, leur rentabilité et leur valorisation sur le long terme ; Agir en actionnaire avisé dans les instances de gouvernance des entreprises ; Gérer le portefeuille de participations à travers les opérations d’acquisitions, de cessions ou de rapprochements actionnariaux .

.

Depuis 2017, l’État a vocation à être actionnaire de trois types d’entreprises : les entreprises stratégiques qui contribuent à la souveraineté (défense et nucléaire), les entreprises participant à des missions de service public ou d’intérêt général national ou local pour lesquelles la régulation serait insuffisante pour préserver les intérêts publics et assurer les missions de service public, les entreprises en difficulté dont la disparition pourrait entraîner un risque systémique.

Globalement, ses 11 participations cotées ont affiché un taux de rendement actionnarial très négatif : -30 % au 30 juin sur un an, révèle le dernier rapport de Bercy sur le sujet. 

Le portefeuille de l’agence de participation de l’État se compose de 21 milliards pour EDF, 6 milliards pour Eramet, 6 milliards pour Engie,  6 milliards pour Airbus ,5 milliards pour ADP, 4 milliards pour Safran , 4 milliards pour Thales, 3,8 milliards pour Orange, 1 milliard pour Renault zéro 2 milliards pour Air France.

L’action ADP qui avait atteint son pic historique en novembre dernier à 179 euros n’en vaut plus que 82 aujourd’hui. L’Etat actionnaire s’est appauvri d’autant

A l’avenir, il lui faudra plutôt compter sur les cessions d’actifs pour financer la politique industrielle. Bref,  on aurait pu imaginer que la création de cette agence de participation de l’État serait plus pointue et plus efficace notamment pour investir dans des secteurs stratégiques comme les nouvelles technologies au lieu de se cantonner dans des entreprises à la gestion douteuse ou qui ne justifient pas la présence de l’État.

 

5G: le changement technologique par l’ANFR (agence natonale fréquence)

5G: le  changements technologique  par l’ANFR (agence natonale fréquence)

La nouvelle génération 5G, rend indispensable l’utilisation de nouvelles portions du spectre radioélectrique. L’obtention de nouvelles fréquences est un pré-requis pour lancer les services 5G. Les bandes identifiées sont plus élevées dans le spectre et permettent des montées en débit très importantes. Avec l’utilisation d’antennes intelligentes et d’un réseau de petites antennes, les forts besoins en connectivité du public et des entreprises auront leur solution.

 

De nouvelles bandes de fréquence 5G déjà identifiées

 

  • Les bandes « basses », déjà allouées pour la 2G / 3G / 4G, pourraient être réutilisées pour la 5G.
  • La bande 3,5 GHz est la première bande 5G offrant un compromis couverture/capacité.
  • La bande 26 GHz, « pionnière 5G », sera principalement utilisée pour des « hot spots ».
  • D’autres bandes hautes seront étudiées lors de la Conférence Mondiale des Radiocommunications en 2019.
LE RÔLE DE L’ANFR

L’ANFR conduit les négociations européennes et internationales pour identifier les bandes de fréquences 5G. En Europe, deux nouvelles bandes ont déjà été choisies pour la 5G.
Ces négociations ont permis dès 2015 d’harmoniser la bande 3,5 GHz comme bande 5G et de définir les futures bandes candidates pour la 5G comme la bande 26 GHz qui doit faire l’objet d’une harmonisation mondiale en 2019.

Au niveau national, l’ANFR prépare l’arrivée de la 5G en libérant les bandes de fréquences attribuées à la 5G mais occupées par d’autres utilisateurs.
Enfin, l’ANFR accompagne les premiers déploiements pilote 5G dans la bande 3,5 GHz des opérateurs de téléphonie mobile et travaille avec l’ensemble des acteurs pour caractériser les réseaux 5G en termes d’exposition du public aux ondes électromagnétiques.

 

Evolutions technologiques vers des antennes intelligentes

Les réseaux mobiles actuels utilisent des équipements radio appelés « cellules macro » déployés pour assurer la couverture dans les différents territoires. Les antennes diffusent les signaux de manière constante, dans une direction donnée (faisceau).

Le déploiement de la 5G se fera en recourant à des sites « macro » à l’instar des réseaux actuels des opérateurs, mais devrait également s’articuler autour du déploiement de petites antennes installées dans du mobilier urbain.

Pour atteindre les performances annoncées (débits multiplié par 10, latence divisée par 10 et multiples connexions), la 5G reposera notamment sur une nouvelle génération d’antennes, qui orientent les signaux vers les appareils qui en ont besoin. Couplée avec des bandes de fréquences hautes, l’utilisation de ces antennes permettra d’accroître fortement les débits.

Le rôle de l’ANFR

L’ANFR veille au respect des valeurs limites d’exposition du public aux ondes et gère le dispositif national de surveillance et de mesure des ondes. Un Comité National de Dialogue a été créé par la loi au sein de l’ANFR pour échanger avec les acteurs, partager l’information, la diffuser et favoriser la confiance du public. L’ANFR participe également aux pilotes 5G pour mettre au point les outils relatifs aux contrôles et à la concertation sur l’exposition du public créée par la 5G.

L’ANFR accompagne les premiers déploiements pilote 5G des opérateurs de téléphonie mobile dans la bande 3,5 GHz et travaille avec l’ensemble des acteurs pour caractériser les réseaux 5G en termes d’exposition du public aux ondes électromagnétiques. A l’avenir, les nouvelles bandes 5G (par exemple la 26 GHz) seront plus hautes en fréquences dans les bandes millimétriques, qui correspondent aux bandes de fréquences dont la longueur d’onde est de l’ordre du millimètre.

Dans ses bandes millimétriques, l’exposition reste localisée à la surface de la peau et l’exposition n’est plus évaluée par le débit d’absorption spécifique (DAS) mais par la densité surfacique de puissance (DSP).

Dans le cadre de la réflexion générale sur l’évaluation de l’exposition du public aux ondes électromagnétiques des réseaux 5G, l’ANFR a publié aujourd’hui deux rapports, l’un sur une présentation générale de la 5G abordée sous l’angle de l’exposition et l’autre sur les déploiements pilotes menés en France pour tester en grandeur nature les modalités d’un déploiement d’antennes 5G à faisceaux orientables dans la bande 3400-3800 MHz :
L’ANFR a également entamé une étude pour analyser des simulations numériques des niveaux d’exposition créés par la téléphonie mobile dans une zone urbaine très dense, le 14e arrondissement de Paris. Le rapport ci-dessous constitue un point d’étape. Il fournit de premiers ordres de grandeur d’exposition selon différents scénarios identifiés avec le suivi des pilotes 5G et après avoir consulté les équipementiers télécoms et les opérateurs de téléphonie mobile.  Les prochaines phases de ces travaux consisteront à affiner les scénarios de déploiement, en jouant sur les technologies employées et les puissances, dans les différentes bandes de fréquences ouvertes à la téléphonie mobile. L’exposition sera ainsi simulée plus précisément.

Les rayonnements électromagnétiques de la 5G (ANFR)

La lettre de l’ANFR de Juillet 2019 (lien : Newsletter Météorologie) mentionnait et expliquait comment des satellites météorologiques captaient une partie des émissions électromagnétiques naturelles émises par certaines molécules ou par certains corps à une température donnée. Il existe en fait un grand nombre de façon d’émettre des champs électromagnétiques et tous ces champs sont liés à l’émission d’une particule nommée photon. Comme cela avait été présenté dans le Newsletter sur le graviton, à chaque interaction qui régit notre univers est associée une particule, si le graviton est la particule qui caractérise les champs gravitationnels, le photon est la particule qui caractérise le transport de l’énergie des champs électromagnétiques. L’émission de ces photons peut résulter :

  1. De modifications structurelles atomiques ou moléculaires (que la modification soit spontanée ou initiée comme dans la fusion ou la fission nucléaire)
  2. De la mobilité des porteurs de charge(s) électrique(s), indépendamment du milieu considéré :
    a. L’agitation thermique: rayonnement de corps présentant une température supérieure à 0K (soit environ -273°C)
    b. La circulation dans le milieu : il peut s’agir de conducteur électrique (c’est dans cette dernière catégorie que ce range la plupart des émetteurs/récepteurs qui [envahissent] notre quotidien), tout comme de plasma (cas du rayonnement électromagnétique issu des arcs électriques issus de la foudre).
    c. L’accélération, par exemple le rayonnement (non thermique) synchrotron issu des pulsars.

Comment fonctionnent les antennes de radiocommunication ?

D’un point de vue général, les antennes de radiocommunication sont basées à ce jour, sur le principe de la circulation de charge le long d’un conducteur. Autrement dit, il est possible de formuler, que tout corps, quel qu’il soit, parcouru par un courant (qui définit en soi la circulation de charges nommées électrons) rayonne simultanément deux types de champs, l’un est dit électrique, l’autre magnétique. Bien qu’ils n’aient pas les mêmes propriétés, les équations de Maxwell, nous apprennent qu’ils sont indissociables l’un de l’autre. Les variations temporelles de ces deux champs sont identiques à celles du courant qu’il lui donne naissance. Dans la mesure où l’on considère des variations temporelles des courants ou des champs, alors on introduit nécessairement la notion de fréquence. La notion de fréquence est assez simple à appréhender, il s’agit simplement du nombre d’ « oscillations de l’onde radio» durant 1 seconde. Pour obtenir une onde à 1GHz, un courant alternatif doit onduler 1 milliard de fois en 1 seconde. A cette fréquence est associée une longueur d’onde, que l’on pourrait définir simplement comme la longueur physique dans l’espace d’une oscillation.

Lors de la réalisation d’antenne de radiocommunication, bien que ces champs soient interdépendants, il est possible de privilégier la réception de l’un ou de l’autre. Généralement le choix se fait sur la dimension de l’antenne à réaliser au regard de la fréquence du champ EM à produire ou à capter. On favorise davantage la conception d’antennes privilégiant la réception des champs magnétiques à basse fréquence et des champs électrique à hautes fréquences. En réalité, il serait plus juste de dire qu’à basse fréquence, les comportements des champs électriques et magnétiques sont discernables, ce qui n’est plus le cas en haute fréquence, ou seule la notion de puissance (comprise comme une densité de flux d’énergie assimilable au produit1 des champs électrique E ⃗ et magnétique H ⃗) devient prépondérante.

 

En quoi les fréquences jouent-t-elle un rôle dans la conception d’une antenne ?  

Il faut d’abord distinguer deux types d’antennes :

  1. Le premier type inclut à la fois la formation du champ électromagnétique et la direction dans laquelle il doit être émis. Antenne dipôle, antenne patch, antenne à réseaux phasés, etc.
  2. Le second type produit le champ EM par l’intermédiaire d’une cavité et utilise un réflecteur pour guider le champ dans une direction privilégier : les antennes paraboliques

Par définition, si tout corps conducteur parcouru par un courant rayonne, son rayonnement est aussi optimisé par la dimension physique qu’il a au regard de la longueur d’onde à émettre ou à capter. C’est une propriété fondamentale. Il faut voir la longueur d’onde comme la longueur physique d’une oscillation de l’onde dans l’espace. Cette longueur est bien entendu, à une fréquence donnée, identique pour le champ électrique et magnétique. Il faut partir du principe que l’intensité du rayonnement du champ électrique est optimisée lorsque la longueur physique du conducteur rayonnant est égale à la moitié de la longueur d’onde. Dans ce cas précis, la surface métallisé présente un ventre de courant à sa surface (et de ventre de tension à ces extrémités) et on dit alors que le l’élément résonne ou entre en résonnance. Bien entendu, pour qu’une antenne émette un champ électromagnétique optimisé au regard de l’énergie électrique qui lui est fourni, elle ne doit pas répondre qu’à cet unique critère. D’autres effets sont à prendre en considération comme par exemple l’adaptation des impédances. On pourrait résumer cet effet comme une forme d’opposition du milieu aux passages du courant. Il faut généralement faire en sorte que cette opposition soit constante sur l’ensemble du parcours du courant jusqu’à l’antenne. Sinon une partie du courant va se réfléchir vers la source.

Dans le cas d’une antenne parabolique, c’est l’émetteur (généralement une cavité résonnante), qui fait face à la parabole, qui produit le champ électromagnétique idéal. Le réflecteur n‘est là que pour orienter le faisceau dans une direction privilégiée.

On  comprend ainsi pourquoi les antennes, en général, sont élaborées pour une gamme de fréquences d’utilisation particulière (fréquence centrale et bande passante). La longueur physique de l’élément ou des éléments rayonnants (qu’il s‘agissent de conducteurs ou de cavités) étant fixée dès la conception.  Il est bien entendu possible d’élargir leur gamme de fréquence d’utilisation dans une certaine mesure, en modifiant fictivement les propriétés de résonnance des conducteurs utilisés par exemple par l’emploi d’un substrat (servant de support à l’élément rayonnant) à plus grande permittivité que l’air ou encore en augmentant la largeur du conducteur.

Champ rayonné et diagramme d’antenne

Lorsque qu’un champ est produit par un conducteur, il rayonne dans tout l’espace, c’est ce que l’on appelle son diagramme de rayonnement. Toutefois, il est possible de faire en sorte de privilégier les directions d’émission des champs.  Par exemple, l’ajout d’un réflecteur (mais encore de toute forme de métallisation connectée à la masse) derrière un conducteur résonnant permet de limiter son rayonnement à la partie supérieure et de minimiser le rayonnement derrière le plan métallique. Suivant la forme de ce réflecteur, on modifie l’énergie émise dans l’autre direction (plan de masse ou parabole). La mise en réseau de métallisation, comme dans le cas des antennes de réception hertziennes qui arborent nos toits permet aussi de privilégier la captation du rayonnement provenant d’une direction privilégiée et généralement celle dans laquelle le diffuseur se situe. Le diagramme de rayonnement de l’antenne est donc directement conçu pour répondre à l’utilisation que l’on fait de l’antenne. Lorsque l’on doit diffuser sur une large couverture (Radio, télévision, mobile) on va privilégier des antennes qui diffusent dans tout l’espace utile. Par exemple, les antennes 4G, produisent des rayonnements en forme de disque incliné, permettant de couvrir de large zone azimutale, tout en minimisant les émissions au-dessus de l’horizon où elles sont inutiles. En revanche un téléphone mobile 4G qui doit pouvoir capter et émettre dans tout l’espace, ne sachant pas où se situe le relais, aura tendance à privilégier des antennes qui diffusent dans l’ensemble de l’espace.  Enfin une station terrienne d’émission ou de réception satellitaire, privilégiera un rayonnement extrêmement intense dans une direction angulaire unique, celle où se  situe le satellite avec lequel elle souhaite communiquer, et dans ce cas les paraboles sont à ce jour les antennes les plus utilisées.

Les antennes dites « actives » de la 5G c’est quoi ? 

Avant d’introduire les antennes de la 5G, il faut comprendre ce que l’on considère comme une antenne active. Elles sont nommées ainsi pour une raison simple : au lieu de produire un champ électromagnétique dans une direction fixe, leur faisceau est capable de balayer l’espace par des procédés topologiques et d’architecture électronique. Le concept d’antenne active, dite aussi antenne à réseau phasé,  existe depuis plusieurs décennies et a été largement utilisé (et continue à être utilisé) dans le domaine du radar. La téléphonie mobile a donc exploité un concept existant. De nombreux exemples de radars à réseaux phasés existent aujourd’hui, ils sont parfois de dimension réduite, embarqués sur des aéronefs, parfois gigantesques et conçus sur des façades de bâtiments.

On peut dénombrer trois avantages aux antennes actives :

  1. leur faible épaisseur, rendant ces antennes planaires (elles peuvent être conçues sur n’importe quel type de surface).
  2. un rayonnement variable dans chaque direction (au cours du temps) du fait de la rapidité de balayage (électronique) du faisceau.
  3. leur grande directivité (directement proportionnelle au nombre d’éléments qui compose le panneau d’antennes) dans des directions d’intérêt. Cette directivité est une autre façon de décrire leur capacité à concentrer l’intensité de leur rayonnement dans une direction privilégiée.  Par exemple, si le panneau d’antennes est composé de 16 colonnes et de 16 lignes d’éléments rayonnants, alors, il sera possible d’augmenter la puissance rayonnée par le faisceau de l’antenne, de 256 fois dans la direction choisie (par rapport au rayonnement d’un élément).

 

Une antenne à réseau phasé utilise le principe de l’association des champs d’une multitude de sources à une certaine distance. Généralement, donc, ces antennes sont conçues comme une association d’antennes de même forme et de même dimension. Dans ce cas, l’ensemble des antennes constituant le réseau présentent à la fréquence de résonance voulue le même type de rayonnement EM intrinsèque. Les rayonnements produits par chaque élément s’associent en phase pour augmenter le rayonnement de l’antenne globale dans une direction choisie. Pour offrir une grande directivité du faisceau formé par le panneau, certaines caractéristiques topologiques sont à respecter :

  • au regard de l’espace que les éléments doivent avoir entre eux (positionnement dans le panneau) ou de leur longueur d’onde,
  • au regard de la loi d’illumination des éléments rayonnants du panneau :
  • en amplitude lorsqu’il s’agit de modifier la forme du diagramme : hauteur et largeur du lobe principal, écart entre lobe principal et lobe secondaire,
  • en phase lorsqu’il s’agit d’orienter le faisceau électronique dans différentes directions.

 

Quelle différence entre antennes active et passive ?

La différence fondamentale est le rayonnement des antennes. Une antenne passive émet de façon homogène et constante sur les azimuts en minimisant les rayonnements vers le ciel ou vers le sol à l’aplomb de l’antenne, la couverture, comme vu précédemment pourrait être schématisée comme une portion de disque, plus ou moins large, inclinée vers le sol. On peut donc considérer que la puissance globale rayonnée par l’antenne est distribuée sur les azimuts. Par ce biais, tous les utilisateurs qui sont dans cette couverture azimutale peuvent communiquer avec la station de base, mais la puissance reçue par chacun d’entre eux est limitée.

Dans le cas des antennes actives, ce n’est plus le cas, seule la direction où se situe l’utilisateur est visée, il n’y a plus d’émission constante dans le temps sur tous les azimuts, mais uniquement sur l’azimut où se situe le bénéficiaire. Si les antennes actives et passives présentaient les mêmes caractéristiques, on pourrait imaginer que l’énergie reçue par l’utilisateur d’une station équipée d’une antenne active recevrait l’ensemble de l’énergie que l’ensemble des utilisateurs de l’antenne passive pourrait recevoir.

En pratique, la situation est bien plus complexe, car deux situations peuvent apparaitre :

  • La première consiste au fait que l’antenne créé plusieurs faisceaux  indépendants pour couvrir les utilisateurs. Chacun de ces faisceaux est formé par des sous-ensembles de la matrice d’éléments rayonnants et utilise la totalité de la bande passante disponible.
  • La seconde revient à subdiviser la bande passante  (sur laquelle rayonnant l’antenne) en sous-bandes attribuées à chaque utilisateur mais où chaque faisceau formé utilise alors tous les éléments rayonnants du panneau.

Il peut aussi être question parfois d’une combinaison des deux  idées précédentes. Par exemple, en reprenant le cas d’une matrice présentant 256 éléments rayonnants (16 en lignes et 16 en colonne), rien n’empêche d’imaginer que 4 faisceaux soient formés simultanément par 4 sous matrice de 64 éléments (8 en lignes et 8 en colonne) et que donc 4 utilisateurs se partagent  la puissance rayonnée  globale de l’antenne.

 

Pourquoi la 5G nécessite ce genre d’antenne ? 

L’idée première de la 5G pour les applications à très haut débit2 (Enhanced Mobile BroadBand EMBB) est de fournir une grande quantité d’information en un temps très court. Pour que cette prouesse soit possible, il est nécessaire de disposer d’une importante largeur de bande pour écouler le débit attendu.

Une telle contrainte oriente l’usage de telles applications à des fréquences dites de « grande capacité » (>3GHz) où le spectre contigüe y est disponible. Toutefois, comme les pertes de propagation de l’onde radio s’accroissent également avec la fréquence, l’augmentation de la directivité des antennes apparaît incontournable pour compenser ces atténuations et conserver des tailles de cellules raisonnables (entre quelques centaines de mètre à quelques km suivant les fréquences considérées). Par ailleurs, la figure 3 nous permet d’observer qu’une antenne est d’autant plus directive que son gain maximum est élevé. Ainsi, lorsque les utilisateurs à couvrir sont en mobilité, le faisceau directif (et étroit) de l’antenne doit être capable de suivre ce dernier. On parle alors d’antennes intelligentes car le balayage du faisceau doit être réalisé en temps réel, ce qui ne peut être fait qu’électroniquement ; ce qui explique le recours aux antennes actives.

 

 

Les changements technologiques de la 5G par l’ANFR (agence nationale fréquence)

Les changements technologiques de la 5G par l’ANFR (agence nationale fréquence)

La nouvelle génération 5G, rend indispensable l’utilisation de nouvelles portions du spectre radioélectrique. L’obtention de nouvelles fréquences est un pré-requis pour lancer les services 5G. Les bandes identifiées sont plus élevées dans le spectre et permettent des montées en débit très importantes. Avec l’utilisation d’antennes intelligentes et d’un réseau de petites antennes, les forts besoins en connectivité du public et des entreprises auront leur solution. 

De nouvelles bandes de fréquence 5G déjà identifiées

 

  • Les bandes « basses », déjà allouées pour la 2G / 3G / 4G, pourraient être réutilisées pour la 5G.  
  • La bande 3,5 GHz est la première bande 5G offrant un compromis couverture/capacité.
  • La bande 26 GHz, « pionnière 5G », sera principalement utilisée pour des « hot spots ».
  • D’autres bandes hautes seront étudiées lors de la Conférence Mondiale des Radiocommunications en 2019.
LE RÔLE DE L’ANFR 

L’ANFR conduit les négociations européennes et internationales pour identifier les bandes de fréquences 5G. En Europe, deux nouvelles bandes ont déjà été choisies pour la 5G.
Ces négociations ont permis dès 2015 d’harmoniser la bande 3,5 GHz comme bande 5G et de définir les futures bandes candidates pour la 5G comme la bande 26 GHz qui doit faire l’objet d’une harmonisation mondiale en 2019. 

Au niveau national, l’ANFR prépare l’arrivée de la 5G en libérant les bandes de fréquences attribuées à la 5G mais occupées par d’autres utilisateurs. 
Enfin, l’ANFR accompagne les premiers déploiements pilote 5G dans la bande 3,5 GHz des opérateurs de téléphonie mobile et travaille avec l’ensemble des acteurs pour caractériser les réseaux 5G en termes d’exposition du public aux ondes électromagnétiques. 

 

Evolutions technologiques vers des antennes intelligentes

Les réseaux mobiles actuels utilisent des équipements radio appelés « cellules macro » déployés pour assurer la couverture dans les différents territoires. Les antennes diffusent les signaux de manière constante, dans une direction donnée (faisceau).

Le déploiement de la 5G se fera en recourant à des sites « macro » à l’instar des réseaux actuels des opérateurs, mais devrait également s’articuler autour du déploiement de petites antennes installées dans du mobilier urbain.

Pour atteindre les performances annoncées (débits multiplié par 10, latence divisée par 10 et multiples connexions), la 5G reposera notamment sur une nouvelle génération d’antennes, qui orientent les signaux vers les appareils qui en ont besoin. Couplée avec des bandes de fréquences hautes, l’utilisation de ces antennes permettra d’accroître fortement les débits. 

Le rôle de l’ANFR

L’ANFR veille au respect des valeurs limites d’exposition du public aux ondes et gère le dispositif national de surveillance et de mesure des ondes. Un Comité National de Dialogue a été créé par la loi au sein de l’ANFR pour échanger avec les acteurs, partager l’information, la diffuser et favoriser la confiance du public. L’ANFR participe également aux pilotes 5G pour mettre au point les outils relatifs aux contrôles et à la concertation sur l’exposition du public créée par la 5G.

L’ANFR accompagne les premiers déploiements pilote 5G des opérateurs de téléphonie mobile dans la bande 3,5 GHz et travaille avec l’ensemble des acteurs pour caractériser les réseaux 5G en termes d’exposition du public aux ondes électromagnétiques. A l’avenir, les nouvelles bandes 5G (par exemple la 26 GHz) seront plus hautes en fréquences dans les bandes millimétriques, qui correspondent aux bandes de fréquences dont la longueur d’onde est de l’ordre du millimètre. 

Dans ses bandes millimétriques, l’exposition reste localisée à la surface de la peau et l’exposition n’est plus évaluée par le débit d’absorption spécifique (DAS) mais par la densité surfacique de puissance (DSP).

Dans le cadre de la réflexion générale sur l’évaluation de l’exposition du public aux ondes électromagnétiques des réseaux 5G, l’ANFR a publié aujourd’hui deux rapports, l’un sur une présentation générale de la 5G abordée sous l’angle de l’exposition et l’autre sur les déploiements pilotes menés en France pour tester en grandeur nature les modalités d’un déploiement d’antennes 5G à faisceaux orientables dans la bande 3400-3800 MHz :
L’ANFR a également entamé une étude pour analyser des simulations numériques des niveaux d’exposition créés par la téléphonie mobile dans une zone urbaine très dense, le 14e arrondissement de Paris. Le rapport ci-dessous constitue un point d’étape. Il fournit de premiers ordres de grandeur d’exposition selon différents scénarios identifiés avec le suivi des pilotes 5G et après avoir consulté les équipementiers télécoms et les opérateurs de téléphonie mobile.  Les prochaines phases de ces travaux consisteront à affiner les scénarios de déploiement, en jouant sur les technologies employées et les puissances, dans les différentes bandes de fréquences ouvertes à la téléphonie mobile. L’exposition sera ainsi simulée plus précisément. 

Les rayonnements électromagnétiques de la 5G (ANFR)

La lettre de l’ANFR de Juillet 2019 (lien : Newsletter Météorologie) mentionnait et expliquait comment des satellites météorologiques captaient une partie des émissions électromagnétiques naturelles émises par certaines molécules ou par certains corps à une température donnée. Il existe en fait un grand nombre de façon d’émettre des champs électromagnétiques et tous ces champs sont liés à l’émission d’une particule nommée photon. Comme cela avait été présenté dans le Newsletter sur le graviton, à chaque interaction qui régit notre univers est associée une particule, si le graviton est la particule qui caractérise les champs gravitationnels, le photon est la particule qui caractérise le transport de l’énergie des champs électromagnétiques. L’émission de ces photons peut résulter :

  1. De modifications structurelles atomiques ou moléculaires (que la modification soit spontanée ou initiée comme dans la fusion ou la fission nucléaire) 
  2. De la mobilité des porteurs de charge(s) électrique(s), indépendamment du milieu considéré :
    a. L’agitation thermique: rayonnement de corps présentant une température supérieure à 0K (soit environ -273°C)
    b. La circulation dans le milieu : il peut s’agir de conducteur électrique (c’est dans cette dernière catégorie que ce range la plupart des émetteurs/récepteurs qui [envahissent] notre quotidien), tout comme de plasma (cas du rayonnement électromagnétique issu des arcs électriques issus de la foudre).
    c. L’accélération, par exemple le rayonnement (non thermique) synchrotron issu des pulsars.

Comment fonctionnent les antennes de radiocommunication ?

D’un point de vue général, les antennes de radiocommunication sont basées à ce jour, sur le principe de la circulation de charge le long d’un conducteur. Autrement dit, il est possible de formuler, que tout corps, quel qu’il soit, parcouru par un courant (qui définit en soi la circulation de charges nommées électrons) rayonne simultanément deux types de champs, l’un est dit électrique, l’autre magnétique. Bien qu’ils n’aient pas les mêmes propriétés, les équations de Maxwell, nous apprennent qu’ils sont indissociables l’un de de l’autre. Les variations temporelles de ces deux champs sont identiques à celles du courant qu’il lui donne naissance. Dans la mesure où l’on considère des variations temporelles des courants ou des champs, alors on introduit nécessairement la notion de fréquence. La notion de fréquence est assez simple à appréhender, il s’agit simplement du nombre d’ « oscillations de l’onde radio» durant 1 seconde. Pour obtenir une onde à 1GHz, un courant alternatif doit onduler 1 milliard de fois en 1 seconde. A cette fréquence est associée une longueur d’onde, que l’on pourrait définir simplement comme la longueur physique dans l’espace d’une oscillation. 

Lors de la réalisation d’antenne de radiocommunication, bien que ces champs soient interdépendants, il est possible de privilégier la réception de l’un ou de l’autre. Généralement le choix se fait sur la dimension de l’antenne à réaliser au regard de la fréquence du champ EM à produire ou à capter. On favorise davantage la conception d’antennes privilégiant la réception des champs magnétiques à basse fréquence et des champs électrique à hautes fréquences. En réalité, il serait plus juste de dire qu’à basse fréquence, les comportements des champs électriques et magnétiques sont discernables, ce qui n’est plus le cas en haute fréquence, ou seule la notion de puissance (comprise comme une densité de flux d’énergie assimilable au produit1 des champs électrique E ⃗ et magnétique H ⃗) devient prépondérante. 

 

En quoi les fréquences jouent-t-elle un rôle dans la conception d’une antenne ?  

Il faut d’abord distinguer deux types d’antennes :

  1. Le premier type inclut à la fois la formation du champ électromagnétique et la direction dans laquelle il doit être émis. Antenne dipôle, antenne patch, antenne à réseaux phasés, etc.
  2. Le second type produit le champ EM par l’intermédiaire d’une cavité et utilise un réflecteur pour guider le champ dans une direction privilégier : les antennes paraboliques

Par définition, si tout corps conducteur parcouru par un courant rayonne, son rayonnement est aussi optimisé par la dimension physique qu’il a au regard de la longueur d’onde à émettre ou à capter. C’est une propriété fondamentale. Il faut voir la longueur d’onde comme la longueur physique d’une oscillation de l’onde dans l’espace. Cette longueur est bien entendu, à une fréquence donnée, identique pour le champ électrique et magnétique. Il faut partir du principe que l’intensité du rayonnement du champ électrique est optimisée lorsque la longueur physique du conducteur rayonnant est égale à la moitié de la longueur d’onde. Dans ce cas précis, la surface métallisé présente un ventre de courant à sa surface (et de ventre de tension à ces extrémités) et on dit alors que le l’élément résonne ou entre en résonnance. Bien entendu, pour qu’une antenne émette un champ électromagnétique optimisé au regard de l’énergie électrique qui lui est fourni, elle ne doit pas répondre qu’à cet unique critère. D’autres effets sont à prendre en considération comme par exemple l’adaptation des impédances. On pourrait résumer cet effet comme une forme d’opposition du milieu aux passages du courant. Il faut généralement faire en sorte que cette opposition soit constante sur l’ensemble du parcours du courant jusqu’à l’antenne. Sinon une partie du courant va se réfléchir vers la source. 

Dans le cas d’une antenne parabolique, c’est l’émetteur (généralement une cavité résonnante), qui fait face à la parabole, qui produit le champ électromagnétique idéal. Le réflecteur n‘est là que pour orienter le faisceau dans une direction privilégiée. 

On  comprend ainsi pourquoi les antennes, en général, sont élaborées pour une gamme de fréquences d’utilisation particulière (fréquence centrale et bande passante). La longueur physique de l’élément ou des éléments rayonnants (qu’il s‘agissent de conducteurs ou de cavités) étant fixée dès la conception.  Il est bien entendu possible d’élargir leur gamme de fréquence d’utilisation dans une certaine mesure, en modifiant fictivement les propriétés de résonnance des conducteurs utilisés par exemple par l’emploi d’un substrat (servant de support à l’élément rayonnant) à plus grande permittivité que l’air ou encore en augmentant la largeur du conducteur. 

Champs rayonné et diagramme d’antenne

Lorsque qu’un champ est produit par un conducteur, il rayonne dans tout l’espace, c’est ce que l’on appelle son diagramme de rayonnement. Toutefois, il est possible de faire en sorte de privilégier les directions d’émission des champs.  Par exemple, l’ajout d’un réflecteur (mais encore de toute forme de métallisation connectée à la masse) derrière un conducteur résonnant permet de limiter son rayonnement à la partie supérieure et de minimiser le rayonnement derrière le plan métallique. Suivant la forme de ce réflecteur, on modifie l’énergie émise dans l’autre direction (plan de masse ou parabole). La mise en réseau de métallisation, comme dans le cas des antennes de réception hertziennes qui arborent nos toits permet aussi de privilégier la captation du rayonnement provenant d’une direction privilégiée et généralement celle dans laquelle le diffuseur se situe. Le diagramme de rayonnement de l’antenne est donc directement conçu pour répondre à l’utilisation que l’on fait de l’antenne. Lorsque l’on doit diffuser sur une large couverture (Radio, télévision, mobile) on va privilégier des antennes qui diffusent dans tout l’espace utile. Par exemple, les antennes 4G, produisent des rayonnements en forme de disque incliné, permettant de couvrir de large zone azimutale, tout en minimisant les émissions au-dessus de l’horizon où elles sont inutiles. En revanche un téléphone mobile 4G qui doit pouvoir capter et émettre dans tout l’espace, ne sachant pas où se situe le relais, aura tendance à privilégier des antennes qui diffusent dans l’ensemble de l’espace.  Enfin une station terrienne d’émission ou de réception satellitaire, privilégiera un rayonnement extrêmement intense dans une direction angulaire unique, celle où se  situe le satellite avec lequel elle souhaite communiquer, et dans ce cas les paraboles sont à ce jour les antennes les plus utilisées. 

Les antennes dites « actives » de la 5G c’est quoi ? 

Avant d’introduire les antennes de la 5G, il faut comprendre ce que l’on considère comme une antenne active. Elles sont nommées ainsi pour une raison simple : au lieu de produire un champ électromagnétique dans une direction fixe, leur faisceau est capable de balayer l’espace par des procédés topologiques et d’architecture électronique. Le concept d’antenne active, dite aussi antenne à réseau phasé,  existe depuis plusieurs décennies et a été largement utilisé (et continue à être utilisé) dans le domaine du radar. La téléphonie mobile a donc exploité un concept existant. De nombreux exemples de radars à réseaux phasés existent aujourd’hui, ils sont parfois de dimension réduite, embarqués sur des aéronefs, parfois gigantesques et conçus sur des façades de bâtiments. 

On peut dénombrer trois avantages aux antennes actives :

  1. leur faible épaisseur, rendant ces antennes planaires (elles peuvent être conçues sur n’importe quel type de surface). 
  2. un rayonnement variable dans chaque direction (au cours du temps) du fait de la rapidité de balayage (électronique) du faisceau. 
  3. leur grande directivité (directement proportionnelle au nombre d’éléments qui compose le panneau d’antennes) dans des directions d’intérêt. Cette directivité est une autre façon de décrire leur capacité à concentrer l’intensité de leur rayonnement dans une direction privilégiée.  Par exemple, si le panneau d’antennes est composé de 16 colonnes et de 16 lignes d’éléments rayonnants, alors, il sera possible d’augmenter la puissance rayonnée par le faisceau de l’antenne, de 256 fois dans la direction choisie (par rapport au rayonnement d’un élément). 

 

Une antenne à réseau phasé utilise le principe de l’association des champs d’une multitude de sources à une certaine distance. Généralement, donc, ces antennes sont conçues comme une association d’antennes de même forme et de même dimension. Dans ce cas, l’ensemble des antennes constituant le réseau présentent à la fréquence de résonance voulue le même type de rayonnement EM intrinsèque. Les rayonnements produits par chaque élément s’associent en phase pour augmenter le rayonnement de l’antenne globale dans une direction choisie. Pour offrir une grande directivité du faisceau formé par le panneau, certaines caractéristiques topologiques sont à respecter :

  • au regard de l’espace que les éléments doivent avoir entre eux (positionnement dans le panneau) ou de leur longueur d’onde,
  • au regard de la loi d’illumination des éléments rayonnants du panneau : 
  • en amplitude lorsqu’il s’agit de modifier la forme du diagramme : hauteur et largeur du lobe principal, écart entre lobe principal et lobe secondaire,
  • en phase lorsqu’il s’agit d’orienter le faisceau électronique dans différentes directions.

 

Quelle différence entre antennes active et passive ?

La différence fondamentale est le rayonnement des antennes. Une antenne passive émet de façon homogène et constante sur les azimuts en minimisant les rayonnements vers le ciel ou vers le sol à l’aplomb de l’antenne, la couverture, comme vu précédemment pourrait être schématisée comme une portion de disque, plus ou moins large, inclinée vers le sol. On peut donc considérer que la puissance globale rayonnée par l’antenne est distribuée sur les azimuts. Par ce biais, tous les utilisateurs qui sont dans cette couverture azimutale peuvent communiquer avec la station de base, mais la puissance reçue par chacun d’entre eux est limitée.

Dans le cas des antennes actives, ce n’est plus le cas, seule la direction où se situe l’utilisateur est visée, il n’y a plus d’émission constante dans le temps sur tous les azimuts, mais uniquement sur l’azimut où se situe le bénéficiaire. Si les antennes actives et passives présentaient les mêmes caractéristiques, on pourrait imaginer que l’énergie reçue par l’utilisateur d’une station équipée d’une antenne active recevrait l’ensemble de l’énergie que l’ensemble des utilisateurs de l’antenne passive pourrait recevoir.

En pratique, la situation est bien plus complexe, car deux situations peuvent apparaitre :

  • La première consiste au fait que l’antenne créé plusieurs faisceaux  indépendants pour couvrir les utilisateurs. Chacun de ces faisceaux est formé par des sous-ensembles de la matrice d’éléments rayonnants et utilise la totalité de la bande passante disponible. 
  • La seconde revient à subdiviser la bande passante  (sur laquelle rayonnant l’antenne) en sous-bandes attribuées à chaque utilisateur mais où chaque faisceau formé utilise alors tous les éléments rayonnants du panneau.

Il peut aussi être question parfois d’une combinaison des deux  idées précédentes. Par exemple, en reprenant le cas d’une matrice présentant 256 éléments rayonnants (16 en lignes et 16 en colonne), rien n’empêche d’imaginer que 4 faisceaux soient formés simultanément par 4 sous matrice de 64 éléments (8 en lignes et 8 en colonne) et que donc 4 utilisateurs se partagent  la puissance rayonnée  globale de l’antenne. 

 

Pourquoi la 5G nécessite ce genre d’antenne ? 

L’idée première de la 5G pour les applications à très haut débit2 (Enhanced Mobile BroadBand EMBB) est de fournir une grande quantité d’information en un temps très court. Pour que cette prouesse soit possible, il est nécessaire de disposer d’une importante largeur de bande pour écouler le débit attendu. 

Une telle contrainte oriente l’usage de telles applications à des fréquences dites de « grande capacité » (>3GHz) où le spectre contigüe y est disponible. Toutefois, comme les pertes de propagation de l’onde radio s’accroissent également avec la fréquence, l’augmentation de la directivité des antennes apparaît incontournable pour compenser ces atténuations et conserver des tailles de cellules raisonnables (entre quelques centaines de mètre à quelques km suivant les fréquences considérées). Par ailleurs, la figure 3 nous permet d’observer qu’une antenne est d’autant plus directive que son gain maximum est élevé. Ainsi, lorsque les utilisateurs à couvrir sont en mobilité, le faisceau directif (et étroit) de l’antenne doit être capable de suivre ce dernier. On parle alors d’antennes intelligentes car le balayage du faisceau doit être réalisé en temps réel, ce qui ne peut être fait qu’électroniquement ; ce qui explique le recours aux antennes actives.

Levothyrox et autres Médicaments : mise en cause de l’agence du médicament

Levothyrox  et autres Médicaments : mise en cause de l’agence du médicament

 

D’après un rapport remis au ministre de la santé concernant différents médicaments mis en cause comme le Levothyrox :»on déplore des manquements à la transparence et à la réactivité que chacun est en droit d’attendre des autorités de police sanitaire » indique le rapport.   L‘affaire du Levothyrox : le médicament pour la thyroïde dont la nouvelle formule suscite des milliers de plaintes de patients fait l’objet d’une procédure judicaire. Cette nouvelle affaire repose évidemment la question de la pertinence des avis  de l’agence du médicament (Afssaps). Une agence du médicament composé en majorité de personnalités ayant des intérêts dans l’industrie pharmaceutique ou connexe. Ce conflit d’intérêts a été dénoncé à de nombreuses reprises en particulier dans l’affaire du médiator. Un rapport de  Bernard Debré et du  directeur de l’Institut Necker avait aussi mis en exergue les conflits d’intérêts des experts de l’agence du médicament du médicament. Le problème récurrent c’est que cette agence se cale  trop souvent essentiellement sur l’avis de l’industrie pharmaceutique. La formule du médicament Levothyrox, qui est vendue à plus 3,3 millions de personnes en France, été changée en mars dernier pour des raisons de conservation. Mais plus de 9.000 personnes se sont plaintes auprès de l‘Agence nationale de sécurité du médicament et des produits de la santé (ANSM) de ressentir de lourds effets secondaires comme des fatigues intenses, des crampes et des vertiges. La ministre la Santé, Agnès Buzyn, qui avait exclu un retour à l‘ancienne formule, avait promis de revenir sur sa décision. “J‘ai demandé à l‘Agence du médicament qu‘elle fasse en sorte que l‘ancien Levothyrox soit accessible, de façon à ce que ceux qui le réclament puissent le prendre et ce sera disponible dans 15 jours”, avait-t-elle déclaré sur France Inter. Le laboratoire Merck a confirmé dans un communiqué la “réintroduction transitoire en France, en accord avec les autorités de Santé, de l‘ancienne formule du Levothyrox”.

 

Dette SNCF : une très vieille affaire (Clémentine Maligorne AFP agence)

Dette SNCF : une très vieille affaire   (Clémentine Maligorne  AFP agence)

 

Dans une intreview du Figaro,  Clémentine Maligorne  AFP agence)  fait le point sur la problématique de la dette SNCF, une très vieille affaire qui n’a jamais été réglée et qui ne le sera que partiellement.

 

 

• De quelle dette parle-t-on?

 

On parle de la «mauvaise dette» de SNCF Réseau, l’entité du groupe public chargée des infrastructures ferroviaires (entretien, création des lignes…): 46,6 milliards d’euros au 31 décembre 2017. Soit plus que le budget de l’Éducation nationale, premier budget de l’État. Cette dette colossale devrait avoir dépassé la barre des 50 milliards au 1er janvier 2020, date annoncée pour la naissance de la future version de la SNCF. Elle s’alourdit d’environ 3 milliards par an et représente une charge annuelle de 1,5 milliard d’euros (le remboursement des seuls intérêts). C’est cette dette qui pose problème, à cause de son poids faramineux, mais aussi de son évolution.

Il existe une deuxième dette, qui ne doit pas être additionnée à la première. Elle est estimée à 7,9 milliards d’euros pour SNCF Mobilités, l’entité du groupe public chargée de la circulation des trains, dont les comptes sont sains.

• D’où vient la «mauvaise» dette?

C’est un vieil héritage. La dette de la SNCF remonte même à avant la création de la compagnie. Après la Première Guerre mondiale, les différentes compagnies ferroviaires privées s’enfoncent dans les difficultés financières. En 1921, l’État décide alors de les soutenir financièrement en contribuant à un fonds commun. Mais après la crise financière des années 30, ce fonds commun voit ses recettes baisser. En 1937, lorsque l’État décide de nationaliser les chemins de fer en créant la SNCF, il hérite déjà d’une dette de près de 30 milliards de francs, soit environ 23 milliards d’euros. La Seconde Guerre mondiale puis l’extension du rail empêcheront tout retour à l’équilibre.

En 1991, une directive européenne «relative au développement de chemins de fer communautaires» demande aux États membres de réduire l’endettement des entreprises ferroviaires avant l’ouverture à la concurrence. En 1997 est créé RFF, Réseau ferré de France, une nouvelle entité qui a en charge la gestion des infrastructures ferroviaires, mais aussi la gestion financière du réseau. L’essentiel de la dette de la SNCF (20 milliards d’euros) est alors transféré à RFF, afin qu’elle ne soit pas considérée comme de la dette publique au sens des critères de Maastricht. Rebaptisé SNCF Réseau en 2015, RFF est un établissement public à caractère industriel et commercial (Epic) chargé à la fois de la gestion des infrastructures ferroviaires, mais aussi de la gestion financière du réseau. Ce statut donne à cette société une garantie illimitée de l’État, c’est-à-dire permet à la société d’emprunter à taux réduit sur les marchés financiers pour financer sa dette et s’endetter sans problème.

• Pourquoi la dette a continué à gonfler?

Ces dernières années, la SNCF s’est massivement endettée pour développer le réseau ferroviaire français. La construction des lignes à grande vitesse – le prolongement vers Strasbourg de la LGV Est, celui vers Bretagne-Pays de la Loire, le contournement Nîmes-Montpellier et la LGV Sud-est Atlantique vers Bordeaux -, décidées par l’État, représentent, selon la direction, grosso modo les deux tiers de la dette de SNCF Réseau. Les importants efforts consentis ces dernières années pour rénover le réseau continuent d’alourdir la facture, car ils sont en partie financés par de l’endettement supplémentaire. Entre 2010 et 2016, la dette de SNCF Réseau a augmenté de 15 milliards d’euros pour atteindre la somme astronomique de 45 milliards. Et les bons résultats financiers affichés par la SNCF ne suffisent pas à redresser la situation financière déséquilibrée de SNCF Réseau.

• Pourquoi pose-t-elle problème?

La dette de SNCF Réseau est jugée insoutenable au vu des capacités financières du groupe. Au rythme prévu par le contrat de performance signé l’an dernier – que la réforme en cours va rendre caduc -, elle doit dépasser les 62 milliards d’euros en 2026. Elle est par ailleurs incompatible avec la future transformation de la SNCF. Le statut actuel d’établissement public à caractère industriel et commercial (Epic) donne en effet la garantie illimitée de l’État et permet à SNCF Réseau de s’endetter sans problème, tandis que celui de société anonyme, approuvé par l’Assemblée nationale, en fera une entreprise comme les autres – ou presque – sur les marchés. Une fois devenu une société anonyme, SNCF Réseau ne pourrait survivre avec un tel endettement. A contrario, ses marges de manœuvre seraient améliorées après une reprise de la dette, du simple fait de la baisse des frais financiers.

• Quel montant l’État pourrait-il prendre en charge?

L’État s’est engagé sur une reprise progressive d’une partie de la dette. L’exécutif reste assez vague sur la question, se contentant de dire qu’il «prendra ses responsabilités». Jeudi sur TFI, Emmanuel Macron s’est borné à dire que la dette «sera pour partie progressivement reprise à mesure que les réformes» de la SNCF se feront. Il n’a toutefois avancé aucun chiffre. Une prudence également de mise au sein du gouvernement, où cette question est systématiquement éludée. Selon plusieurs acteurs du monde ferroviaire, le montant qui pourrait être repris – ou du moins qui serait nécessaire pour garantir la viabilité de la nouvelle SNCF – avoisinerait les 30 à 35 milliards d’euros.

• Sous quelles conditions l’État prendrait-il en charge cette dette?

Là encore, le flou est maintenu. Recapitalisation du groupe ferroviaire? Rachat d’une partie de la dette? Transfert sur une structure de cantonnement? «Il faudra regarder les modalités techniques», s’est contenté de répondre le chef de l’État lors du JT de 13 heures jeudi. Seules certitudes à ce stade: la reprise de la dette se fera «progressivement», à «mesure que les réformes se font», et commencera «dès le début», a-t-il indiqué. C’est-à-dire dès la transformation de la SNCF en société anonyme, prévue au 1er janvier 2020. Les syndicats ne sont pas de cet avis. Pour eux, cette reprise de la dette doit être un préalable à toute réforme.

• Qu’implique une reprise de la dette?

Tout dépendra du montant repris par l’État. Mais une chose est sûre: cette opération sera compliquée pour le gouvernement, qui s’est engagé à baisser durablement le déficit public, attendu à 2,3% du PIB cette année, et la dette publique, actuellement proche de 97% du PIB. Absorber 30 milliards d’euros, par exemple, ferait bondir le déficit de 1,5 point de PIB. Ce dernier dépasserait alors la barre des 3% exigée par Bruxelles, sous laquelle la France est repassée en 2017 après dix ans de dérapage. Une partie de la dette de la SNCF (environ 10 milliards) est toutefois déjà considérée comme de la dette publique, ce qui réduit la part devant être absorbée. En outre, la trajectoire budgétaire prévue à partir de 2020 est plus accommodante (0,9% de déficit prévu cette année-là). Le fait d’étaler sur plusieurs années la reprise de la dette pourrait-il lui aussi faciliter la tâche de Bercy? Pas sûr. Car les organismes statistiques, Eurostat en tête, risqueraient de comptabiliser ces décaissements sur une seule année…

 

 

 

Levothyrox : l’agence du médicament encore en cause

Levothyrox : l’agence du médicament encore en cause

 

L‘affaire du Levothyrox : le médicament pour la thyroïde dont la nouvelle formule suscite des milliers de plaintes de patients fait l’objet d’une procédure judicaire. Cette nouvelle affaire repose évidemment la question de la pertinence des avis  de l’agence du médicament (Afssaps). Une agence du médicament composé en majorité de personnalités ayant des intérêts dans l’industrie pharmaceutique ou connexe. Ce conflit d’intérêts a été dénoncé à de nombreuses reprises en particulier dans l’affaire du médiator. Un rapport de  Bernard Debré et du  directeur de l’Institut Necker avait aussi mis en exergue les conflits d’intérêts des experts de l’agence du médicament du médicament. Le problème récurrent c’est que cette agence se cale  trop souvent essentiellement sur l’avis de l’industrie pharmaceutique. La formule du médicament Levothyrox, qui est vendue à plus 3,3 millions de personnes en France, été changée en mars dernier pour des raisons de conservation. Mais plus de 9.000 personnes se sont plaintes auprès de l‘Agence nationale de sécurité du médicament et des produits de la santé (ANSM) de ressentir de lourds effets secondaires comme des fatigues intenses, des crampes et des vertiges. La ministre la Santé, Agnès Buzyn, qui avait exclu un retour à l‘ancienne formule, a promis vendredi matin de revenir sur sa décision. “J‘ai demandé à l‘Agence du médicament qu‘elle fasse en sorte que l‘ancien Levothyrox soit accessible, de façon à ce que ceux qui le réclament puissent le prendre et ce sera disponible dans 15 jours”, a-t-elle déclaré sur France Inter. Le laboratoire Merck a confirmé dans un communiqué la “réintroduction transitoire en France, en accord avec les autorités de Santé, de l‘ancienne formule du Levothyrox”. Par ailleurs, Agnès Buzyn a annoncé que “dans un mois, nous aurons des alternatives, c‘est-à-dire d‘autres marques, d‘autres médicaments qui permettront progressivement aux patients de choisir le médicament qui leur convient le mieux”.

Contacts de Sarkosy avec Le Pen d’après l’agence Reuters

Contacts de Sarkosy avec Le Pen d’après l’agence Reuters

Règlement de compte sur le mode  O.K. Corral entre Buisson et Sarkozy. D’après l’agence Reuters Nicolas Sarkozy a eu des contacts avec Jean-Marie Le Pen entre les deux tours de l’élection présidentielle de 2007 par l’entremise de Patrick Buisson et disait partager des valeurs communes avec le Front national, en se fondant sur un livre à paraître jeudi. Patrick Buisson a été condamné en 2014 à verser 10.000 euros de dommages et intérêts provisionnels à Nicolas Sarkozy et à son épouse Carla Bruni pour les avoir enregistrés à leur insu. L’ancien chef de l’Etat, voyant la victoire se profiler en 2007 face à la socialiste Ségolène Royal, aurait dit à son expert en analyse de l’opinion : « Appelle Le Pen. Demande-lui ce qu’il veut. Faut-il que je le reçoive ? S’il faut le recevoir maintenant, tu sais, je le recevrai. Je ne suis pas comme les autres. Je sais prendre mes responsabilités, moi. » Un premier contact aurait été pris le 23 avril, écrit Patrick Buisson dans son livre à charge contre l’ancien président « La Cause du peuple », selon des extraits publiés par L’Express. Le samedi suivant, le conseiller aurait porté à l’ancien président du FN, arrivé en quatrième position au premier tour avec 10,44% des suffrages, le message selon lequel Nicolas Sarkozy, s’il devenait président, s’engagerait à « assurer une représentation équitable des minorités dans les deux assemblées ». Quelques jours plus tard, Jean-Marie Le Pen aurait rappelé Patrick Buisson pour lui lire des extraits du discours qu’il devait prononcer le 1er mai. Déjà, pendant la campagne, le candidat UMP se serait montré très prévenant quand une note de son conseiller l’avait alerté sur les risques d’une absence du leader du FN au premier tour, faute d’avoir obtenu les 500 parrainages nécessaires à une candidature élyséenne, ajoute Patrick Buisson. Selon lui, le candidat UMP aurait donné pour instruction à Alain Marleix, le spécialiste des élections de son parti, de « faire remonter une cinquantaine de signatures d’élus au candidat Le Pen et à lui seul ». Toujours selon Patrick Buisson, Nicolas Sarkozy aurait affirmé en décembre 2005 lors d’une réunion avec des proches : « Les valeurs du Front national sont celles de tous les Français. C’est la manière dont le FN les exprime qui est choquante. Les Français n’aiment pas les plats trop pimentés qui emportent la gueule. » De même, l’ancien chef de l’Etat se serait emporté quand, entre les deux tours de la présidentielle de 2012, son Premier ministre François Fillon avait relevé, dans Les Echos, « l’incompatibilité des valeurs » entre le FN et la droite républicaine. « Qu’est-ce qu’il raconte, Fillon ? Bien sûr que nous avons des valeurs communes avec le FN », aurait-il dit. En revanche, Nicolas Sarkozy, qui parle en connaisseur,  aurait du mépris envers Marine Le Pen, qui succédera à son père en 2011, percevant chez elle des faiblesses stratégiques et se disant sidéré par son manque de culture.

Lepaon (CGT) futur patron de l’Agence de la langue française !

Lepaon (CGT) futur patron de l’Agence de la langue française !

Le reclassement éventuel de Thierry Lepaon ex leader de la CGT comme patron de l’agence de la langue française ne manquera pas de susciter quelques interrogations. Certes il n’est sans doute pas nécessaire de solliciter un agrégé de lettres ou un énarque pour animer la lutte contre l’illettrisme ;  pour autant,  on peut douter sérieusement des compétences de l’intéressé pour diriger une telle agence. En réalité il s’agissait pour le gouvernement de reclasser l’ancien responsable de la CGT et de lui assurer un salaire mais cette possible nomination ne manquera pas de déclencher une polémique. D’une certaine manière c’est un peu comme si l’on confiait la présidence d’une agence de la modernisation économique à Philippe Martinez,  l’actuel patron de la CGT. L’ex-leader de la CGT Thierry Lepaon, poussé à la démission en 2015 après un scandale sur son train de vie, a cependant été missionné par Manuel Valls pour « préfigurer » la future Agence de la langue française pour la cohésion sociale, a-t-on appris jeudi. « Le Premier ministre a désigné Thierry Lepaon, très investi sur le sujet depuis plus de 20 ans, pour mener à bien cette mission de préfiguration » de la nouvelle agence, qui verra le jour le 1er janvier 2017, a annoncé Ericka Bareigts, secrétaire d’État à l’Égalité réelle, dans un communiqué daté de mercredi. En France, près de six millions de personnes rencontrent des difficultés dans la maîtrise du français, dont trois millions de personnes confrontées à l’illettrisme, a rappelé Mme Bareigts. Dans une lettre de mission, adressée le 6 juin à M. Lepaon et dont l’AFP a obtenu copie, Manuel Valls lui demande de remettre « au plus tard le 30 septembre » son « rapport final ». La nouvelle agence, dont l’objectif est notamment « de renforcer la cohérence et l’efficacité des dispositifs » et « d’améliorer la coordination de l’ensemble des acteurs impliqués », devra prendre « appui sur les structures existantes et en particulier l’Agence nationale de lutte contre l’illettrisme (ANLCI) ». Le Premier ministre demande à l’ancien leader cégétiste, âgé de 56 ans, de lui « proposer les regroupements qui (lui) semblent cohérents ». L’Agence de la langue française et l’ANLCI devraient toutefois coexister. Dans un courrier adressé le 12 mai à sa présidente Marie-Thérèse Geffroy, consulté par l’AFP, l’Elysée certifie que « l’existence de l’ANLCI n’est en aucun cas remise en cause par la création de l’Agence de la langue française ». Successeur de Bernard Thibault à la tête de la CGT en 2013, M. Lepaon avait dû quitter son poste de secrétaire général du syndicat en janvier 2015 après des révélations sur le coût exorbitant des travaux réalisés dans son bureau et son appartement de fonction, ainsi que sur le versement d’indemnités de départ de son ancien poste à la CGT Basse-Normandie. L’épisode avait provoqué une crise au sein du premier syndicat français et conduit à l’arrivée à sa tête de Philippe Martinez. Présent en avril au Congrès de la CGT à Marseille, Thierry Lepaon avait été sifflé et hué par les délégués. « Cette période a été difficile », mais la nomination de M. Lepaon  »tourne la page de façon assez respectueuse des uns et des autres », a réagi Céline Verzeletti, membre de la direction de la CGT, interrogée par l’AFP. « La CGT doit être cohérente avec ce qu’elle préconise, il était hors de question de le licencier tant qu’il n’avait pas trouvé un débouché », a-t-elle poursuivi. Ben voyons !

(Avec challenges)

L’Agence du médicament au service du lobby pharmaceutique ?

L’Agence du médicament au service du lobby pharmaceutique ?

 

 

C’est une interrogation qui monte de plus en plus y compris au sein même de l’agence nationale de sécurité du médicament. Pour preuve le de nombreux responsables de cette agence et leur non remplacement. La contradiction vient surtout du fait que c’est l’Europe qui autorise la mise sur le marché des médicaments mais que l’évaluation scientifique est fait réalisée par les Etats. Du coup,  se pose la question de savoir quel est l’objet même de cette agence : un outil administratif ou un outil scientifique destiné à évaluer les médicaments. . «Les gens partent, car il n’y a plus aucune cohérence, plus aucun projet clair», raconte un membre de l’ANSM. Un autre ajoute: «La situation est catastrophique, car la vacance de tous ces postes signifie que la ministre de la Santé ne contrôle plus rien en matière de politique du médicament en France. Elle est incapable de savoir ce qui se passe sur le territoire, tant en termes de sécurité que de contrôle des médicaments disponibles. Or c’est elle, la responsable !» S’il revient à l’Europe de donner les autorisations de mise sur le marché, l’évaluation scientifique des dossiers est encore suivie par les États membres. De son côté, Dominique Martin l’assure: «L’agence est un organisme vivant, les gens bougent, ce n’est pas étonnant.»Dans ce contexte très tendu, la phrase prononcée mercredi par le patron de l’agence lors de la journée du conseil scientifique n’a pas du tout plu à la quinzaine de participants, c’est le moins que l’on puisse dire. À la fin de la présentation des ressources humaines, Annick Alpérovitch, la présidente du conseil scientifique, interroge le directeur de l’agence. Elle lui demande poliment pourquoi il n’a pas été fait mention du travail des scientifiques. Réponse de Dominique Martin, selon trois témoins: «Nous sommes une agence technico-règlementaire, nous n’avons pas besoin de scientifiques de haut niveau.» Un membre du conseil se demande pourquoi les épidémiologistes Annick Alpérovitch et Mahmoud Zureik, directeur de la direction scientifique, n’ont alors pas présenté sur-le-champ leur démission.  Sauf en plein cœur de la tempête Mediator, jamais l’Agence du médicament n’avait connu pareille situation. «C’est simple, l’ANSM est décimée, résume un haut responsable. Le navire prend l’eau de partout.» La nouvelle réorganisation mise en place après la crise du Mediator par Dominique Maraninchi, prédécesseur de l’actuel directeur, Dominique Martin, est très largement responsable de cet état de fait. Aujourd’hui, la liste des postes vacants donne le vertige, non seulement en raison de leur nombre, mais également à cause de leur importance. Ainsi, il n’y a actuellement plus personne au poste pourtant clé de l’évaluation. Cette spécialité permet de dire qu’une molécule chimique est un médicament, qu’elle est plus efficace que dangereuse, à la fois avant et après sa commercialisation. Ce service stratégique n’a donc ni directeur, ni adjoint. Même absence totale de direction au service de la communication. Le dernier directeur, qui venait de l’Institut Curie après avoir passé trois ans chez Novartis, n’est resté que six mois. Par ailleurs, la représentante de l’agence au Prac, le comité européen de pharmacovigilance (chargé de vérifier les effets secondaires), a elle aussi claqué la porte. Au département de la surveillance - le service qui analyse comment sont utilisés les médicaments -, l’un des deux directeurs adjoints a plié bagage au mois d’avril, et, vendredi, trois personnes de cette même direction ont annoncé en même temps qu’elles présentaient leur démission: le chef du pôle de pharmacovigilance, le référent grossesse et le référent bénéfice risque. L’un des agents de pharmacovigilance quitte l’ANSM pour rejoindre lelaboratoire Pierre Fabre. La commission de déontologie de la fonction publique va devoir examiner ce passage du public au privé.

 

(Avec le Figaro)

Agence notation : note AA maintenue pour la France

Agence notation : note AA maintenue pour la France

 

La France conserve sa note AA pour Fitch Ratings (mais aussi pour les autres agences de notation). Une évaluation toutefois assortie d’inquiétudes concernant l’endettement qui a atteint 96 % du produit intérieur brut fin 2015 et qui pourrait encore augmenter en 2016 et 2017  Contre un niveau médian de 37 % des pays classés AA. L’agence de notation précise dans son communiqué que « le niveau élevé de la dette limite la capacité de la France à faire face à des chocs budgétaires », ajoutant que cela « représente la principale faiblesse attachée à la note souveraine » du pays. Après avoir ramené le déficit public à 3,5% du PIB en 2015, soit 0,3 point de mieux que prévu, le gouvernement français vient de confirmer son plan de marche pour les deux années qui viennent, 3,3% en 2016 puis 2,7% en 2017, dans le programme de stabilité dévoilé la semaine passée. Il prévoit en outre une dette publique qui monterait à 96,2% de la richesse nationale cette année et culminerait à 96,5% l’an prochain avant de baisser à 95,4% en 2018.Ces prévisions sont fondées sur un scénario de croissance de l’économie de 1,5% en 2016 comme en 2017. La Commission européenne prévoit elle 1,3% de croissance pour l’économie française en 2016 puis 1,7% en 2017, avec un taux de chômage en baisse mais qui restera au-dessus de 10% l’an prochain. Fitch prévoit pour sa part un déficit budgétaire ramené à 3,3% du PIB l’année prochaine puis un ratio de 2,9% en 2017, l’endettement étant vu à un pic proche de 97% en 2017. En termes de croissance, l’agence de notation voit le PIB français augmenter de 1,4% cette année et en 2016, notant que ses prévisions médianes pour les pays « AA » sont de 1,7% pour 2016 et 2,0% pour 2017. Fitch avait baissé la note de la France en décembre 2014 de AA+ à AA, avec une perspective stable, estimant que la faiblesse de la conjoncture mettait en péril les objectifs de réduction des déficits. Les deux autres grandes agences de notation, Standard & Poor’s et Moody’s notent respectivement la France AA avec perspective négative et Aa2 avec perspective stable, la première ayant confirmé en avril sa note et sa perspective.

(Avec Reuters)

Dégradation de la note financière de la Finlande par une agence

Dégradation de la note financière de la Finlande par une agence

D’une certaine manière le gouvernement de la Finlande est puni par les agences de notation en raison d’une politique d’austérité qui nuit à l’activité économique en tout cas à court terme. Une problématique qui pourrait bien concerner d’autres pays englué dans la croissance molle et qui ne propose d’autres perspectives que davantage de rigueur. D’une certaine manière c’est aussi une remise en cause de la pensée dominante en Europe et de la part d’agences de notation pourtant très libérale, ce qui est un comble. L’agence d’évaluation financière Fitch Ratings a retiré à la Finlande sa note « AAA », la meilleure possible, pour l’abaisser d’un cran vendredi soir à « AA+ ». L’agence d’évaluation financière Fitch Ratings a retiré à la Finlande sa note «AAA», la meilleure possible, pour l’abaisser d’un cran vendredi soir à «AA+».Fitch, deuxième parmi les trois grandes agences de notation à retirer ce «triple A», a invoqué dans un communiqué la «faiblesse économique» de ce pays, qui a connu en 2015 le deuxième taux de croissance le plus faible de la zone euro (0,4%) devant la Grèce. Standard and Poor’s avait déjà pris la même mesure en octobre 2014, maintenant depuis la note à «AA+». Chez Moody’s elle reste de «Aaa» avec perspective «négative». Fitch ne croit pas le gouvernement pro-austérité capable de renverser la tendance à la montée de la dette publique finlandaise: il estime qu’elle atteindra 67,5% du PIB en 2020, soit cinq points de plus qu’en 2015. L’agence ne voit «aucun signe clair de reprise du potentiel de croissance par rapport aux 1,0 à 1,2% à moyen terme, ce qui devrait aboutir à une poursuite de la dynamique défavorable pour la dette publique». La décision de Fitch est un revers pour le Premier ministre centriste Juha Sipilä, ancien homme d’affaires arrivé au pouvoir en mai avec l’ambition de relancer l’envie d’entreprendre et d’assainir les finances publiques. Pour l’agence, son programme de réduction des dépenses publiques a fait du tort à court terme à l’activité économique. «Fitch maintient sa prévision de croissance inchangée à 1% cette année, ce qui reflète une conjoncture extérieure toujours faible et l’incidence de la rigueur budgétaire concentrée en début de mandat», a-t-elle écrit. Depuis le début de la crise financière mondiale en 2008, le nombre d’États capable de garder une note «triple A», celle des emprunteurs extrêmement fiables, a peu à peu diminué. En zone euro, il ne reste plus que l’Allemagne et le Luxembourg.

COP 21 : l’agence de notation Standard & Poor’s note les Etats

COP 21 : l’agence de notation Standard & Poor’s note les Etats

 

 

Même si l’exercice est encore très embryonnaire et très partiel voire partial il est intéressant de constater que l’agence de notation commence à intégrer les conséquences de la hausse du climat sur la notation financière des pays.  Standard & Poor’s est loin de prendre en compte tous les éléments relatifs au réchauffement (ce que reconnaît l’agence) mais a commencé d’évaluer l’impact de la hausse des températures sur le risque souverain des États. Ce risque, gradué par les notes qui vont du fameux AAA à D, reflète la capacité d’un État à rembourser ses dettes, et donc sa bonne santé financière. Sur l’échantillon de 38 pays étudiés, la Thaïlande apparaît comme le plus vulnérable. La multiplication des catastrophes naturelles induite par le réchauffement entraînerait à elle seule une dégradation de 1,8 cran. Un chiffre abstrait, qu’il faut comparer avec une dégradation de 1 cran pour la République dominicaine ou 0,5 cran pour le Vietnam ou les Bahamas, archipel dépassant à peine le niveau de la mer. Pour rendre son estimation plus concrète, S&P’s s’est aussi appuyé sur les données de l’assureur Swiss Re qui évalue les dégâts potentiels des catastrophes naturelles. Dans le cas de la Thaïlande, la valeur des destructions matérielles augmenterait de plus de 4 % par rapport aux scénarios sans réchauffement climatique. L’alourdissement de la facture due au changement climatique serait de 4 % pour les Bahamas, 2,5 % pour la Jamaïque ou près de 2 % pour le Vietnam. Le réchauffement n’aurait qu’un impact «négligeable» sur la notation financière des pays développés, constate S&P’s tandis que les États des Caraïbes et de l’Asie du Sud-Est seraient les plus touchés. L’étude estime que les dommages subis à cause des cyclones augmenteront d’ici 2050, de 45 % aux États-Unis, de 50 % en Nouvelle-Zélande et de 64 % au Japon. Cette hausse est spectaculaire mais le niveau de départ étant bas, l’effet sur les finances publiques de ces pays riches restera faible. L’impact chiffré de l’étude peut sembler somme toute limité. Mais il est partiel, avertit l’agence de notation. Ses experts n’ont en effet pris en compte que deux types de catastrophes naturelles pour lesquelles les modèles climatiques et les bilans des années passées fournissent suffisamment de données: les cyclones tropicaux et les inondations. S&P’s n’a par exemple pas calculé l’impact de l’aggravation des sécheresses, pourtant attendue par les climatologues, mais trop complexe à chiffrer.

Une agence nationale anti-corruption ?

Une  agence nationale anti-corruption ?

Et uen agence de plus, une ; cette fois une agence anticorruption qui fera donc double emploi avec l’administration actuelle dune part, la justice d’autre part. La prochaine étape sera sans doute de créer uen observatoire de la corruption puis un conseil national anti corruption. De qui occuper quelques centaines de fonctionnaires ! Une nouvelle loi anti-corruption donnera les moyens au gouvernement français de contrôler les politiques des entreprises en la matière et de renforcer la protection des lanceurs d’alerte. Le ministre des Finances, Michel Sapin, qui en a présenté mercredi les grandes lignes en conseil des ministres, s’est comme objectif de renforcer la protection des lanceurs d’alerte et de rendre plus transparentes les relations entre les pouvoirs publics et les lobbyistes. Le projet de loi sur « la transparence de la vie économique » sera prêt d’ici la fin de l’année pour être débattu début 2016 au Parlement, précise Bercy dans un communiqué. Il prévoit notamment la création d’une agence nationale de détection et de prévention de la corruption pour contrôler les politiques mises en place par les entreprises. Dotée d’un pouvoir de sanctions, elle sera également chargée d’un rôle de prévention de la récidive. Sa création fait suite à une série de condamnations d’entreprises françaises à l’étranger, comme Alstom fin 2014 et surtout BNP Paribas, sévèrement sanctionnée outre-Atlantique pour avoir violé des embargos américains contre l’Iran, le Soudan et Cuba. L’automne dernier, l’OCDE avait jugé insuffisant l’arsenal français de lutte contre la corruption d’agents publics étrangers, issu notamment d’une première loi Sapin de 1993, et critiqué le peu d’empressement des autorités françaises à poursuivre les entreprises nationales qui s’en rendent coupables. La future agence devrait disposer des moyens de protéger les lanceurs d’alerte, les salariés dénonçant des actes répréhensibles commis par leur entreprise, en saisissant elle-même la justice s’ils hésitent à le faire en leur propre nom.  Cependant en l’état des pratiques internationales, on voit mal désormais comment on pourra vendre des Rafales ou de l’armement.

 

Climat : propositions insuffisante pour l’agence internationale de l’énergie

Climat : propositions insuffisante pour l’agence internationale de l’énergie

Dans un rapport spécial sur l’énergie et le changement climatique, publié lundi 15 juin, l’Agence internationale de l’énergie (AIE) a rappelé que les émissions de gaz à effet de serre issues de la production et de la consommation d’énergie sont d’un niveau « deux fois plus élevé que celles issues de toutes les autres sources d’émissions confondues ». Elles représentent ainsi les deux tiers des émissions liées aux activités humaines. Pour faire diminuer les émissions de gaz à effet de serre issues de l’énergie d’ici à 2020, l’Agence préconise la mise en place de plusieurs mesures:

  • Elle plaide pour augmenter l’efficacité énergétique dans l’industrie, le bâtiment et les transports;
  • Selon elle, il est important de réduire le recours aux centrales électriques au charbon les moins efficaces pour finir par interdire leur construction;
  • L’AIE estime qu’il faudra augmenter les investissements dans les énergies renouvelables de 270 milliards de dollars (241 milliards d’euros) en 2014, à 400 milliards (357 milliards d’euros) en 2030.
  • Pour ne pas encourager le recours aux énergies fossiles, l’institution préconise une suppression progressive des subventions dédiées à ces dernières pour arriver à une suppression définitive de ces aides financières en 2030.
  • Le secteur du pétrole et du gaz, qui commence à se tourner vers les énergies renouvelables, devra réduire ses émissions de méthane, selon l’AIE.
  • Enfin, pour que ces mesures permettent de limiter le réchauffement climatique à 2 degrés, l’Agence souhaite notamment que les objectifs soient révisés tous les cinq ans pour pouvoir « augmenter leurs ambitions », et que des procédures pour contrôler l’atteinte des objectifs dans le secteur de l’énergie soient mises en place.

Mais l’AIE manifeste ouvertement son scepticisme en ce qui concerne la tenue de ces objectifs et met en garde sur le fait que « tout retard pour agir sera coûteux ». Selon l’organisation, les contributions pour la conférence de Paris (COP21) déjà publiées par un certain nombre de pays sont insuffisantes. Elles « montrent que la croissance des émissions liées au secteur énergétique va diminuer » mais seulement à partir de 2030.

 

Sondage Immobilier : frais d’agence trop élevés

Sondage Immobilier : frais d’agence trop élevés

 

D’après un sondage IFOP paru dans  le Figaro ce sont surtout les frais d’agence qui influencent  les Français dans leur choix d’agence. Des frais souvent jugés trop élevés. Des frais situés entre 6 et 7 % mais qui peuvent descendre jusqu’à 3% compte tenu de la crise.   Selon un sondage réalisé par l’IFOP pour le compte du réseau immobilier sans agence Optimhome, une petite majorité des Français (54%) ont une image positive des professionnels de l’immobilier. Et parmi eux seulement 2% des sondés sont très enthousiastes.  Et pourtant, parmi la petite minorité des sondés ayant eu recours aux services d’un professionnel pour vendre un bien immobilier au cours des trois dernières années (8% de l’échantillon), la satisfaction est plutôt au rendez-vous. Ils sont cette fois-ci 83% à y avoir trouvé leur compte et même 39% parmi eux à se déclarer «tout à fait satisfait» de l’expérience. Pas la peine de chercher bien loin les raisons du désamour des Français pour les agents et mandataires immobiliers. C’est visiblement une question d’argent. Près de 60% des sondés place ainsi les frais d’agence dans le trio de tête des critères qu’ils examinent pour choisir un professionnel. La question des honoraires est aussi devenu un argument important de certains nouveaux réseaux qui essaient de mettre en avant des frais réduits. Viennent ensuite l’offre de biens disponibles chez l’agent et l’accompagnement qu’il peut proposer (46%) puis son sens relationnel (36%). Dans cette relation toujours paradoxale, si les Français trouvent le service trop cher, ils ont tout de même des attentes très fortes sur le travail de l’agent immobilier. Si la qualité de son estimation arrive évidemment en tête de ce qu’attendent de lui ses clients, ils sont aussi attentifs sur la vérification de la solvabilité des % compte tenu de la cise. acquéreurs ou la réalisation des visites sans oublier les conseils relatifs aux diagnostics techniques.

« Studio » de 1.6 m2 à Paris : une amende de 20 000 euros pour l’agence et le propriétaire

«  Studio » de 1.6 m2 à Paris  : une  amende de 20 000 euros pour l’agence et le propriétaire

Après 15 ans passé dans un studio- pacard  de 1.6m2, le locataire va donc toucher une indemnité de 20 000 euros. Selon les informations du site 20minutes.fr, la cour d’appel de Paris a finalement alourdi les peines prononcées en première instance, à la fois à l’encontre de la propriétaire qui louait ce bien, mais aussi de l’agence immobilière qui en assurait la gestion. Elles ont été condamnées solidairement à verser un peu plus de 20.000 euros de dommages et intérêts au locataire, contre 10.000 euros en première instance. Soit le double. En tout, cela équivaut à cinq années de loyer remboursées.  «La cour d’appel a estimé que le locataire était en droit de se voir rembourser les loyers versés avant même la rédaction de cet arrêté, se réjouit Aurélie Geoffroy, l’avocate du locataire, contactée par 20Minutes.fr C’est une grande satisfaction.» Dans cette affaire, c’est surtout l’agence immobilière qui a été sanctionnée par la justice. Elle doit s’acquitter de verser les trois quarts des dommages et intérêts, le reste revenant à la propriétaire. «L’agent immobilier aurait dû s’assurer que le bail satisfaisait aux conditions légales», tacle ainsi la cour d’appel.  L’immobilier parisien fourmille de petites histoires sur les «mini» appartements ou studios. Le Figaro rapportait par exemple il y a quelques semaines cette petite annonce comme on en trouve des dizaines et des dizaines sur les sites de recherches de biens immobilier: «Une pièce, une chambre», dans la rue de Maubeuge (Paris 9e) de 6 mètres carrés… à vendre pour 76.000 euros. Soit 12.258 euros le mètre carré, bien au dessus des prix en vigueur dans le quartier. Quant à savoir ce que va faire (l’heureux?) propriétaire de ce bien, c’est un autre mystère: il est en effet interdit de louer un appartement de moins de 9 mètres carrés comme résidence principale, ni comme location saisonnière où la surface minimum doit être de 7 mètres carrés!

La France dégradée par Fitch

La France dégradée par Fitch

 

 

C’est surtout le manque de croissance en France  ( prévion de qui a été sanctionné par l’agence de notation  Fitch car ce manque de croissance (seulement 1% % en 2015 et 1.5% en 2016) ne  permettra pas d’atteindre les objectifs de rééquilibrage des comptes.  Fitch Ratings a donc baissé vendredi la note souveraine de la France d’un cran à « AA » contre « AA+ » auparavant en l’assortissant d’une perspective stable. Fitch ajoute que la faiblesse de l’économie française met en péril les perspectives à la fois de consolidation budgétaire et de stabilisation du ratio d’endettement public. L’agence de notation avait placé la note à long terme « AA+ » de la France en « rating watch negative » le 14 octobre. Dans une note diffusée vendredi matin, les économistes de Société générale estimaient que l’impact sur le marché d’une éventuelle dégradation « devrait être limité ». L’agence Moody’s a quant à elle maintenu le 19 septembre la perspective négative sur la note « Aa1″ qu’elle donne à la France, soit la deuxième meilleure note. Standard and Poor’s a pour sa part baissé la note de la France une première fois en janvier 2012 et une deuxième fois en novembre 2013, à « AA ». L’agence a révisé la perspective de stable à négative le 10 octobre.

 

L’Agence publique pour la création d’entreprises en faillite !! Ou l’efficacité de l’Etat

L’Agence publique pour la création d’entreprises en faillite !! Ou l’efficacité de l’Etat

Exemple significatif de l’efficacité des politiques publiques en direction de l’économie, l’agence publique chargée de la création d’entreprise va tomber en faillite, vraiment un bel exemple de gestion pour encourager l’entreprenariat sur des bases saines. ! . L’Agence pour la création d’entreprises (APCE) sera fixée mercredi sur son avenir. Un conseil d’administration exceptionnel va essayer de trouver une solution pour lui éviter la cessation de paiement. Et il y a urgence. Car l’agence – qui emploie 42 salariés et dont la présidente a décidé de ne pas rempiler au bout de dix-huit mois de mandat – a de quoi tenir pendant encore trois semaines. Au-delà, faute de garanties et de nouveaux bailleurs de fonds, elle mettra la clé sous la porte. En cause? L’État qui, en cherchant par tous les moyens à tailler dans ses dépenses, s’est désengagé cette année de l’APCE, agence créée en 1979 et qui assure une mission d’aide à la création, à la transmission et au développement des entreprises. Et a donc décidé de lui couper les vivres en 2014 alors que sa subvention s’élevait à 3,95 millions sur un budget de… 6, il y a un an. L’agence a certes des ressources propres, grâce aux formations qu’elle dispense ou à la publicité, mais insuffisantes pour assurer son fonctionnement. La balle est dans le camp de Bercy, chargé d’organiser un nouveau tour de table pour remplacer l’État. «Ils y travaillent ardemment», affirme une source proche du dossier. Approchée, Bpifrance a opposé un «niet» catégorique. D’autres, comme Pôle emploi, la Caisse des dépôts, les chambres de commerce, ou l’Ordre des experts-comptables, ont été sollicités et doivent préciser, dans les jours à venir, la façon dont ils pourraient participer, ou non, au tour de table. «L’APCE a aujourd’hui un problème de trésorerie à court terme que nous sommes en train de résoudre, mais elle n’a pas de problème de financement à long terme, tente de déminer le cabinet d’Arnaud Montebourg, le ministre de l’Économie. Le tour de table va être bouclé et la philosophie de l’agence ne sera pas remise en cause.» En tout cas, la grogne monte du côté des entrepreneurs, très attachés à l’agence. «L’APCE va disparaître dans l’indifférence générale», s’insurge la Fédération des autoentrepreneurs, qui a lancé une pétition de soutien sur son site (change.org). Fort de 11 millions de visiteurs uniques par an – autant que celui du ministère de la Défense -, le site Internet de l’APCE est une mine unique d’informations précieuses. «Tout monde y est passé ou y passera. C’est une source de renseignement unique sur les statuts, les taux, les barèmes…, résume Grégoire Leclercq, le président de la Fédération des autoentrepreneurs. Mais à quelques jours de la cessation de paiement, on ne sait toujours pas si Bercy va lui accorder les 3 petits millions manquants.» Même critique du côté du Medef. «Le gouvernement a été léger. Alors que le sujet est sur la table depuis plusieurs mois, il va être réglé dans l’urgence, s’insurge Thibault Lanxade, en charge du pôle entrepreneuriat.

 

Russie : dégradation par l’agence de notation Fitch

Russie : dégradation par l’agence de notation Fitch

Ce n’est pas une sanction à l’égard de Poutine mais simplement la conséquence de sa politique.Une dégradation qui constitue quand même une punition pour la Russie.  Après Standard & Poor’s, c’est donc au tour de l’agence de notation internationale Fitch de dégrader à « négative » la perspective de la Russie. Ce jeudi, Standard & Poor’s avait également justifié son choix par les risques liés aux sanctions occidentales contre Moscou après le rattachement de la Crimée. Ce changement de perspective signifie que l’agence pourrait abaisser prochainement la note de la Russie, fixée pour l’instant à « BBB », ce qui correspond à un émetteur de qualité moyenne mais en mesure de faire face à ses obligations de manière adéquate. « Étant donné que les banques et les investisseurs américains et européens pourraient avoir des réticences à prêter à la Russie dans les circonstances actuelles, l’économie pourrait ralentir davantage et le secteur privé pourrait avoir besoin d’aide publique », a expliqué l’agence. « L’impact direct des sanctions annoncées est pour l’instant mineur, mais l’incorporation de la Crimée dans la Fédération russe va probablement amener l’Union européenne et les États-Unis à élargir les sanctions en réponse », a-t-elle encore indiqué. « Dans le pire des scénarios, les États-Unis pourraient interdire aux institutions financières étrangères de faire des affaires avec les banques et les entreprises russes », s’inquiète l’agence, qui a avancé la date de la révision de la perspective de la Russie, initialement prévue en juillet 2014. Fitch a aussi baissé son estimation de croissance de la Russie à moins de 1% pour 2014 et 2% en 2015, rappelant que la croissance du pays avait déjà ralenti à 1,3% en 2013.  L’Union européenne et les États-Unis ont annoncé vouloir durcir les sanctions envers la Russie, dont la chambre basse du parlement a ratifié jeudi le traité sur le rattachement de la Crimée à la Fédération russe.

 




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol