Archive pour le Tag 'perspective'

Plaidoyer pour metaverse : Vraie perspective ou illusion ?

Plaidoyer pour metaverse : Vraie perspective ou illusion ?

Pour l’instant « metaverse » rencontre quelques difficultés à apparaître comme un projet un peu sérieux et concret. En gros , on nous promet un monde virtuel duplication d’un monde réel dont on aurait supprimé les souffrances. Beaucoup de supputations aussi sans doute l’illusion dans ce projet dont Facebook est à l’origine. Des applications possibles sans doute mais peut-être pas au point de devenir majeures dans la transformation des économies modernes. Les possibilités offertes par  metaverse sont loin de se réduire aux domaines du jeu et de la socialisation estime un playdoyer  de Benoit Peyrichout, cofondateur d’Oceans.ai.

Le metaverse repose sur les technologies suivantes : réalité augmentée (ex. : objets 3D qui viennent s’intégrer dans une pièce), réalité virtuelle (simulation d’un environnement en 3D existant dans le monde physique), blockchain, 5G, IOT (connexion d’objets physiques à internet), industrie 4.0 (qui correspond à la convergence du monde virtuel avec les objets réels) et intelligence artificielle. (Crédits : Reuters)

Le metaverse va fondamentalement changer la manière dont l’économie fonctionne. Les grands acteurs financiers l’ont bien compris. AXA Investment Managers a lancé il y a quelques semaines son fonds thématique sur le metaverse. Il se compose d’environ 250 titres répartis en quatre catégories : jeu, socialisation, travail et facilitateur technologique. Jusqu’à présent, une grande partie de l’attention suscitée par le metaverse s’est concentrée sur les deux premières catégories (jeu et socialisation). Mais c’est en tant que facilitateur technologique que les retombées en termes de création de valeur et d’innovations seront certainement les plus importantes. Certains parlent de « metaverse industriel ». C’est la même idée.

Des applications industrielles nombreuses

L’objectif est de simuler des expériences ou des phénomènes dans le monde virtuel afin de pouvoir apporter une réponse aux problèmes du monde physique. L’exemple le plus emblématique est certainement celui de Nvidia, société cotée américaine spécialisée dans les processeurs graphiques, l’intelligence artificielle et qui a un pied dans le metaverse. En décembre dernier, le PDG du groupe, Jensen Huang, a annoncé vouloir créer un jumeau numérique de la Terre capable de prédire le changement climatique en utilisant l’intelligence artificielle. Ce n’est pas un projet qui pourrait aboutir à court terme. Il faudra peut-être au moins dix ou quinze ans de recherche et d’investissements. Mais supposons que Nvidia réussisse. Cela pourrait permettre d’anticiper et de prévenir les changements climatiques qui vont survenir sur le monde physique, aux entreprises de s’adapter, aux assureurs et à tous les acteurs économiques.

D’autres applications sont possibles. Chez Oceans.ai, nous ambitionnons de créer d’ici quelques années un metaverse qui puisse permettre d’anticiper et de prévoir l’impact de la corrosion sur les infrastructures énergétiques, par exemple. La corrosion, au sens large (aussi bien les pipelines, les conduites de gaz, les infrastructures routières, etc.) a coûté près de 84 milliards d’euros à la France en 2019. C’est l’équivalent de 3,5 % du PIB. Si nous pouvions mieux anticiper la dégradation des matériaux sous l’effet de l’environnement, cela permettrait de réduire les coûts engendrés ainsi que les risques et de renforcer la sécurité des biens.

Dans le même ordre d’idée, Boeing est en train de créer son propre metaverse interne reposant sur des jumeaux numériques afin d’éviter les erreurs de conception sur ses avions. Boeing cherche également à perfectionner la maintenance et l’inspection de ses aéronefs. Le groupe américain utilise les données de maintenance actuelles et historiques et a développé un algorithme d’apprentissage automatique qui, si le projet aboutit, pourrait anticiper les points de fragilité à surveiller sur les avions en priorité. Ce n’est toutefois pas une tâche aisée.

Réglementation et complexité du traitement des données

Le metaverse repose sur les technologies suivantes : réalité augmentée (ex. : objets 3D qui viennent s’intégrer dans une pièce), réalité virtuelle (simulation d’un environnement en 3D existant dans le monde physique), blockchain, 5G, IOT (connexion d’objets physiques à internet), industrie 4.0 (qui correspond à la convergence du monde virtuel avec les objets réels) et intelligence artificielle. L’accès aux données est la clé du succès pour cette dernière. On a coutume de dire que dans l’intelligence artificielle il y a besoin d’importants volumes de données. C’est vrai. Mais ce qui n’est pas souvent mis en avant, c’est que la qualité des données (données continues et cohérentes, par exemple) est encore plus primordiale. Cela permet notamment de créer des systèmes d’exploitation servant d’ossature aux jumeaux numériques que nous avons évoqués.

La qualité des données n’est pas une fin en soi. Il convient également d’avoir à l’esprit tous les besoins en matière de confidentialité des données et les réglementations, encore disparates, qui s’appliquent ici et là dans ce domaine. Contrairement à ce que nous pourrions croire en Europe, nous sommes chanceux. La réglementation va dans le bon sens. Début avril, le Parlement européen a adopté des règles plus souples afin de faciliter le partage des données (intermédiaires neutres pour agréger les données, incitation pour que les acteurs publics partagent leurs données, etc.). Cela devrait permettre de favoriser le climat d’innovation autour de l’intelligence artificielle et donc autour du metaverse. Enfin, ce dispositif devrait être complété prochainement par une loi concernant l’usage des données générées par les objets connectés (actuellement en discussion au niveau des Etats membres). C’est un point également crucial pour l’industrie.

L’enjeu désormais est de canaliser les fonds du private equity davantage vers les thématiques d’innovation dans l’industrie. C’est un challenge en France où les levées sont essentiellement dominées par le segment fintech et, dans une moindre mesure, par la medtech. Dans bien des cas, seul le corporate venture capital (fonds détenus par des grands groupes industriels) avec la Banque Publique d’Investissement (BPI) en appui sont présents. C’est insuffisant si on veut réindustrialiser la France et multiplier les filières d’excellence. Souhaitons que l’actuel locataire de l’Elysée s’attaque à ce sujet également.

E-commerce: Perspective et limite

E-commerce: Perspective et  limite

 

Dans une interview accordée à La Tribune, Vincent Chabault, sociologue à l’Université de Paris, spécialiste du commerce et de la consommation et auteur d’Eloge du magasin (Gallimard, 2020), analyse dans le détail les différentes tendances de la consommation numérique .

 

Intreview de Vincent Chabault, sociologue à l’Université de Paris, spécialiste du commerce et de la consommation et auteur d’Eloge du magasin (Gallimard, 2020), (Crédits : F.Mantovani/Gallimard) ( dans la Tribune)

 La crise sanitaire a amplifié la croissance du e-commerce qui était déjà forte les années précédentes. Les confinements et les contraintes sanitaires qui l’ont accompagnée ont entraîné un fort développement de la demande et de l’offre avec, dans certains secteurs, un véritable coup d’accélérateur. Jusqu’où le e-commerce peut-il aller. Peut-il tuer le commerce « physique » à long terme ?

Vincent Chabault - La crise a en effet accéléré des tendances qui étaient préexistantes. Le gros changement est aussi d’ordre psychologique dans la mesure où, aujourd’hui, la norme du magasin connecté, quelle que soit sa taille, s’est imposée. Pendant la crise, et notamment pendant les deux confinements, il y a eu une forte digitalisation de tous les magasins. Y compris de ceux, comme la grande distribution et surtout le petit commerce, qui se méfiaient de cette révolution numérique car ils ne la maîtrisaient pas. Désormais, ces outils numériques au service du commerce de détail ne sont plus vus comme une menace, mais bel et bien comme un outil de développement économique, surtout en temps de confinement. Dans la grande distribution le « drive » a explosé, notamment pour les produits frais, ce qui n’était pas le cas auparavant. Il a également progressé sous d’autres formes comme les « drives fermiers » au printemps 2020, quand les marchés étaient fermés, organisés avec des circuits courts avec l’aide des chambres d’agriculture et des prestataires numériques comme Cagette.net. Dans les petits commerces, les librairies, les artisans alimentaires, les boucheries… le « click and collect », davantage que la livraison à domicile, s’est renforcé.
 
Aujourd’hui, les magasins sont ouverts. La croissance du e-commerce est-t-elle aussi forte ?
Nous ne sommes pas encore revenus à la normale. Nous constatons néanmoins que dès que les magasins rouvrent en mode non dégradé, quand les routines d’achat reprennent un peu, les services numériques connaissent un reflux. En ce moment, il y a moins de livraisons, moins de « click and collect »… Pour autant, il existe des routines d’achat qui avaient basculé vers le numérique et qui perdurent depuis la réouverture des magasins. On le voit notamment dans l’alimentaire, avec le « drive  voiture », les livraisons à domicile, et, dans des villes comme Paris, le « drive piéton ». Résultat, il y a une polarisation du modèle commercial avec l’émergence de deux logiques de consommation : la première concerne la consommation de flux, de ravitaillement régulier, le « fond de placard »… Là, le numérique sous la forme du « drive » (voiture ou piéton), de la livraison voire du « quick commerce », va encore progresser aux dépens des hypermarchés et des centres commerciaux de périphérie, qui me semblent les plus menacés par l’essor du e-commerce. L’autre logique de consommation correspond à une consommation ponctuelle, d’exception, à forte dimension gastronomique pour les artisans alimentaires ou culturelle pour ce qui concerne les librairies, pour laquelle le magasin conserve sa légitimité pour son rôle de conseil, de relation, d’expertise…Cette polarisation de l’appareil commercial va probablement se renforcer dans les années à venir. S’il ne va pas remplacer le commerce classique, il est clair que pour une certaine forme de consommation, le e-commerce va effectivement progresser énormément aux dépens du réseau classique.
 
Pourquoi cette logique de consommation échappe-t-elle au e-commerce ?
Je pense que le shopping, la flânerie, les courses ponctuelles ont un avenir car la consommation n’est pas qu’une affaire d’économie. Faire du shopping est une activité socio- culturelle. C’est une pratique qui comporte une dimension identitaire et relationnelle forte et elle s’inscrit dans des liens sociaux et des sociabilités. Les adolescents par exemple fréquentent beaucoup les centres commerciaux. Par ailleurs, il faut aussi reconnaître qu’un certain nombre de produits passent difficilement par le e-commerce.

 

Notation de la France : maintien pour Fitch avec perspective négative

Notation de la France : maintien pour Fitch

L’agence de notation Fitch Ratings a maintenu vendredi à «AA» la note de la dette à long terme de la France, assortie encore d’une perspective «négative», faisant état de l’incertitude entourant la trajectoire économique du pays après l’élection présidentielle d’avril 2022.

La note attribuée à la France est la troisième meilleure sur l’échelle de notation de Fitch, qui compte 22 échelons. Elle correspond à un émetteur de haute qualité.

La perspective, elle, reste négative. Cela signale que la notation pourrait être abaissée. «La perspective négative reflète l’incertitude qui entoure la trajectoire de l’endettement public et l’orientation de la politique économique au-delà du cycle des élections présidentielle et législatives au printemps 2022», indique Fitch. L’agence de notation s’attend pourtant à ce qu’il n’y ait «pas de bouleversement significatif dans le cadre de la politique économique de la France». Fitch table, pour la France, sur une croissance du produit intérieur brut (PIB) de 6,1% en 2021, avant un ralentissement à 3,8% en 2022, et à 2,2% en 2023.

En mai 2020, Fitch avait abaissé de «stable» à «négative» la perspective de la note de la dette à long terme de la France, craignant une détérioration des finances publiques et de l’économie face à la crise sanitaire.

La note de la France influence les conditions auxquelles le pays peut emprunter de l’argent sur les marchés financiers. En avril, une autre agence de notation, Standard and Poor’s, avait maintenu sa note de la dette à long terme de la France à «AA», ainsi que la perspective «stable» qui y est attachée, confiante dans sa capacité à renouer avec la croissance et rétablir l’équilibre de ses finances publiques.

Croissance France 2021: jusqu’à 7 % ?

Croissance France 2021:  jusqu’à 7 % ?

En fin d’année, on pourrait légèrement dépasser le niveau d’activité de fin 2019. Pour 2022 par contre il faudra  s’attendre à des chiffres moins dynamiques pour le PIB en raison en particulier de la résurgence de l’inflation.

 

La croissance de la France pourrait bien approcher les 7 % en 2021 soit une progression supérieure à la plupart des autres pays européens. En cause, le dynamisme propre à la France qui compense l’écroulement de 2020 mais aussi un tassement des importations provenant notamment des difficultés logistiques d’approvisionnement.

Selon les prévisions du Fonds monétaire international (FMI), la France fera mieux en 2021 que la Suisse (+3,7%), l’Espagne (+5,7% ou 6,5% selon le gouvernement), l’Italie (+5,8%), les Pays-Bas (+3,8%), le Portugal (+4,4%). Seule la Grèce va flirter avec des niveaux annuels comparables (+6,5%). L’ex membre britannique de l’UE, qui a amorti le Brexit et le Covid-19 coup sur coup va, lui, engranger +6,8%, selon l’institution.

Le troisième trimestre marque tout aussi cette différence. Parmi 11 pays européens dont les données trimestrielles sont disponibles, la France affiche le deuxième taux de croissance le plus important avec 3% (l’Insee anticipait 2,7% et la Banque de France 2,3%), derrière l’Autriche (+3,3%), tandis que l’Italie enregistre 2,6%. L’Allemagne a, elle, plafonné à +1,8%, et  son PIB reste inférieur de 1,1% au niveau du dernier trimestre de 2019, selon l’institut Destatis.

Pour l’instant, l’économie française se montre moins dépendante de ces flux commerciaux paralysés, profitant même du ralentissement pour continuer à exporter mais à importer moins. Si bien qu’au troisième trimestre, la contribution du commerce extérieur à la croissance est positive de 0,6 point de PIB.

En zone euro, la croissance générée reste moindre, à +2,2% au troisième trimestre par rapport au trois mois précédents.

Conséquence de la politique du « quoi qu’il en coûte », comme l’avance le gouvernement d’Emmanuel Macron, ou simple effet de rattrapage, notamment avec une consommation des ménages qui repart ? Selon plusieurs économistes, la France fait moins preuve de résilience dans l’après Covid-19 que de bénéficier encore, en réalité, et de manière différée, des effets de la reprise post pandémie dont elle n’a pas encore fini de consommer tous les fruits.

Perspective inflation : une hausse brutale de 8 à 10 % ?

Perspective inflation : une hausse brutale de 8 à 10 % ?

Pour Jacques Attali, tout porte à croire que l’inflation sera très forte et prendra la forme d’une pente abrupte. Il prévoit une inflation qui passerait de 2 % moyenne des dernières années à plus 8 ou 10 %. La plupart des experts tente cependant de minimiser cette hausse des prix en considérant qu’il s’agit d’une inflation de faible ampleur et de caractère transitoire. Il y a effectivement des aspects conjoncturels dans l’augmentation des prix mais aussi des aspects plus structurels liés à particuliers à la restructuration de l’appareil de production et de la logistique, au exigences environnementales et à la crise des matières premières. On ne pourra non plus rendre compatible une diminution de la consommation de l’électricité est une électrification de nos sociétés. À moins évidemment de sacrifier totalement la croissance, l’emploi et les autres conditions sociales.

Une nouvelle enquête de l’Insee montre un net décrochage de la confiance des ménages. Un signe d’échec pour le gouvernement ? «On est sur des niveaux qui restent élevés »,reconnaît Roland Lescure, président LREM de la commission des affaires économiques de l’Assemblée nationale, qui publie Nos Totems et nos tabous, dépassons-les. « Mais il y a un décrochage, admet le député LREM des Français d’Amérique du Nord. Nous sommes face à un choc inflationniste et, quand l’inflation atteint un pic, il y a un risque de déraillement, d’où les mesures du gouvernement pour éviter que la reprise ne déraille, comme la mise en place du chèque inflation. On est sur la bonne voie, il faut garder l’économie sur les rails.» ( d’après l’Opinion)

 

Ce problème de confiance des ménages pourrait bien se traduire par un refus des Français de dépenser leur épargne. « On en a besoin pour la relance, souligne Roland Lescure. Il faut que les Français remettent l’épargne accumulée au travail et que le “quoi qu’il en coûte” se termine petit à petit. Assurons-nous que ce choc inflationniste soit de courte durée et que la reprise, elle, se fasse dans la durée avec une priorité sur la jeunesse. »

N’est-il pas pour autant difficile de faire campagne sur des chiffres alors que l’on sent que les Français, eux, veulent un récit ? « En effet, confirme Roland lescure, on ne gagnera pas sur un bilan mais c’est mieux d’en avoir un ! Certains avant nous, qui n’en avaient pas, ont même été empêchés de se représenter… Mais nous sommes présents, sur les marchés par exemple, et on présente le bilan. Ce qui marche plutôt bien. »

Fusion nucléaire : perspective pour l’énergie

Fusion nucléaire : perspective pour l’énergie 

. Par Greg De Temmerman, Mines ParisTech (*)

Un laboratoire américain vient d’annoncer de nouveaux résultats en fusion nucléaire « inertielle », avec une production d’énergie de 1,3 mégajoule. Que représente cette avancée pour la fusion, cette « éternelle » énergie du futur ?

Entre le mégaprojet ITER, dont la construction avance mais qui a connu des débuts difficiles, les projets lancés par différents pays, les initiatives privées qui se multiplient et qui annoncent des réacteurs de fusion d’ici 10 ou 15 ans, et les résultats obtenus par le Lawrence Livermore National Laboratory le 8 août 2021, il est difficile d’y voir clair. Voici un petit tour d’horizon pour mettre tout ceci en perspective.

Confinement magnétique ou inertiel : deux voies possibles pour la fusion nucléaire

Il existe deux façons d’utiliser l’énergie nucléaire : la fission qui est à l’œuvre dans les centrales nucléaires actuelles, et la fusion.

La réaction de fusion entre le deutérium et le tritium, deux isotopes de l’hydrogène, produit un neutron et un atome d’hélium. Alors que dans la fission, des atomes lourds d’uranium sont cassés en plus petits atomes pour libérer de l’énergie, la fusion nucléaire est le processus opposé : on transforme des atomes légers en des atomes plus lourds pour libérer de l’énergie. Gregory de Temmerman, Fourni par l’auteur

Un réacteur de fusion est un amplificateur de puissance : la réaction de fusion doit produire plus d’énergie qu’il n’en faut pour chauffer le plasma à la température requise et le confiner. Le record actuel a été obtenu en 1997 par le « Joint European Torus » ou JET au Royaume-Uni, où une puissance de 16 mégawatts a été générée par la fusion magnétique, mais il a fallu 23 mégawatts pour la déclencher.

Obtenir enfin un gain supérieur à 1 et démontrer la faisabilité de la production d’énergie par la fusion est un objectif majeur de différents projets en cours.

Il y a deux voies possibles pour réaliser la fusion nucléaire : le confinement magnétique qui utilise des aimants puissants pour confiner le plasma pendant des durées très longues, et le confinement inertiel qui utilise des lasers très puissants mais très brefs pour comprimer le combustible et le faire réagir. Historiquement, la fusion magnétique a été privilégiée, car la technologie nécessaire pour la fusion inertielle (lasers notamment) n’était pas disponible. Cette dernière nécessite également des gains bien plus élevés pour compenser l’énergie consommée par les lasers.

Les deux plus gros projets sont le National Ignition Facility du Lawrence Livermore National Laboratory (NIF) aux USA et le Laser MégaJoule en France, dont les applications sont principalement militaires (simulations d’explosion nucléaires) et financées par les programmes de défense. Le NIF poursuit également des recherches pour l’énergie.

Le NIF utilise 192 faisceaux laser, d’une énergie totale de 1,9 mégajoule et d’une durée de quelques nanosecondes, pour déclencher la réaction de fusion selon une approche dite « indirecte ». En effet, le combustible est placé à l’intérieur d’une capsule métallique de quelques millimètres, qui, chauffée par les lasers, qui émet des rayons X. Ceux-ci chauffent et compriment le combustible. L’alignement des lasers est plus aisé que si ceux-ci visaient directement la cible, mais seule une partie de leur énergie est convertie en rayons X et sert au chauffage.

Le NIF a récemment fait l’objet d’une forte attention médiatique après un record de production d’énergie obtenu le 8 août 2021. Durant cette expérience, une énergie de 1,3 mégajoule a été produite, la valeur la plus élevée jamais enregistrée par cette approche.

Le gain global de 0,7 égale le record obtenu par JET en 1997 par confinement magnétique, mais si on s’intéresse au bilan énergétique du combustible lui-même (cible d’hydrogène), on comprend l’excitation dans le domaine. Celui-ci a en effet absorbé 0,25 mégajoule (la conversion laser-rayons X entraîne des pertes) et généré 1,3 mégajoule : la fusion a donc généré une bonne partie de la chaleur nécessaire à la réaction, s’approchant de l’ignition. Un réacteur devra atteindre des gains bien plus élevés (supérieurs à 100) pour être économiquement intéressant.

Le confinement magnétique est la voie privilégiée pour l’énergie, car il offre de meilleures perspectives de développement et bénéficie d’un retour d’expérience plus important.

La grande majorité des recherches se concentre sur le tokamak, une configuration inventée en URSS dans les années 1960 où le plasma est confiné sous la forme d’un tore par un champ magnétique puissant. C’est la configuration choisie par ITER, réacteur de démonstration en construction à Cadarache dans le sud de la France, dont l’objectif est de démontrer un gain de 10 – le plasma sera chauffé par 50 mégawatts de puissance et doit générer 500 mégawatts de puissance fusion. Si ce projet titanesque impliquant 35 nations a connu des débuts difficiles, la construction avance à rythme soutenu et le premier plasma est attendu officiellement pour fin 2025, avec une démonstration de la fusion prévue vers la fin des années 2030.

Le Royaume-Uni a récemment lancé le projet STEP (Spherical Tokamak for Electricity Production) qui vise à développer un réacteur connecté au réseau dans les années 2040. La Chine poursuit avec CFETR un ambitieux programme visant à démontrer la production électrique et de tritium dans les années 2040. Enfin, l’Europe prévoit après ITER un démonstrateur tokamak (DEMO) pour les années 2050, ce qui implique un déploiement seulement dans la deuxième partie du siècle.

Une autre configuration – le stellarator – est explorée notamment en Allemagne avec Wendelstein-7X qui démontre de très bons résultats. Si le confinement dans un stellarator est en deçà de ce qu’un tokamak peut atteindre, sa stabilité intrinsèque et les résultats récents en font une alternative sérieuse.

 

Les initiatives privées

En parallèle de ces projets publics, on entend de plus en plus parler d’initiatives privées, parfois soutenues par des grands noms comme Jeff Bezos ou Bill Gates. L’entreprise la plus ancienne (TAE) a été fondée en 1998 mais une accélération s’est produite après 2010 et on compte en 2021 environ une trentaine d’initiatives ayant attiré environ 2 milliards de dollars de capitaux au total. La majorité de ces initiatives promettent un réacteur dans les 10 ou 20 prochaines années et se posent comme une alternative à la lenteur de la filière classique.

Illustration du déploiement de la fusion nucléaire selon deux scénarios, plus ou moins rapides. Fourni par l’auteur

Elles utilisent les développements technologiques récents (aimants supraconducteurs à haute température par ex), ou diverses configurations dont certaines n’avaient jamais été vraiment explorées : General Fusion utilise par exemple des pistons pour compresser le combustible. Si les résultats ne sont pas toujours publiés dans la littérature scientifique, on voit régulièrement des annonces démontrant des progrès réels. Si l’une de ces entreprises venait à démontrer la production d’énergie dans les délais promis, cela pourrait fortement accélérer les possibilités d’utiliser la fusion nucléaire.

Il faut cependant garder en tête que le développement d’un premier réacteur est certes extrêmement important, mais que le déploiement d’une flotte de réacteur prendra du temps. Si on regarde les taux de déploiement du photovoltaïque, de l’éolien, et du nucléaire, on constate que dans leur phase de croissance exponentielle le taux de croissance de la puissance installée était entre 20 et 35 % par an. Si on suppose que la fusion parvient à suivre le même rythme, on voit que la fusion, en suivant la ligne ITER-DEMO, pourrait représenter 1 % de la demande énergétique mondiale (valeur 2019) vers 2090. Si on considère un réacteur dans les années 2030, ce seuil pourrait être atteint vers 2060 et la fusion pourrait jouer un rôle plus important dans la deuxième partie du siècle. La fusion reste donc une aventure au long cours.

_____

(*) Par Greg De Temmerman, Chercheur associé à Mines ParisTech-PSL. Directeur général de Zenon Research, Mines ParisTech.

La version originale de cet article a été publiée sur The Conversation.

Intelligence artificielle et épidémiologie : Une perspective pour la santé publique

 

Deux équipes projets du centre Inria Bordeaux Sud-Ouest ont mis au point un modèle permettant de prédire les conséquences des décisions en matière de santé publique face à une situation pandémique. (Crédits : Inria Bordeaux Sud-Ouest)

LA TRIBUNE – Comment avez-vous mis au point cette plateforme EpidemiOptim ?

MELANIE PRAGUE, chargée de recherche Inria au sein de l’équipe Sistm (1) - La première étape c’est une bonne estimation sur les données de la dynamique de l’épidémie. On a besoin d’un modèle à compartiments SEIR étendu (susceptible-exposé-infectieux-remis) pour la Covid-19. Nous avons d’abord intégré les paramètres de diffusion du virus grâce aux données d’hospitalisations en France, à partir de la base Si-vic (système d’information pour le suivi des victimes d’attentats et de situations sanitaires exceptionnelles). A partir de là, on cherche à reconstruire le modèle qui a abouti à ces données en estimant notamment quel est l’effet du confinement et des différentes stratégies d’intervention non-pharmaceutiques. Cela nous donne un modèle de travail qui nous permet ensuite de simuler toutes les trajectoires que l’on souhaite : que ce serait-il passé s’il n’y avait eu aucun confinement, des confinements plus longs ou tous les deux jours, toutes les deux semaines, etc. L’idée de ce modèle développé par l’équipe Sistm est d’évaluer et de prédire l’efficacité potentielle de tous ces scénarios possibles. S’y ajoute une dimension d’apprentissage par renforcement pour améliorer ces prédictions et tenter d’identifier la stratégie optimale par rapport aux objectifs définis. C’est le travail de l’équipe Flowers.

CLÉMENT MOULIN-FRIER, chargé de recherche Inria au sein de l’équipe Flowers (2) - Cette problématique d’apprentissage par renforcement revient à considérer un agent qui peut agir et percevoir dans un environnement précis. Par exemple, on observe comment un robot réagit en fonction des règles du jeu de Go : à chaque instant ce robot peut émettre une action, mesurer son effet sur l’environnement et recevoir ou pas une récompense. Pour le jeu de Go, l’enjeu est finalement relativement simple : si la partie est gagnée, il y a une récompense, si elle est perdue, il n’y en a pas. Mais le but de l’apprentissage par renforcement est, à partir de l’interaction entre l’agent et l’environnement, de savoir comment cet agent peut apprendre une stratégie d’actions cumulées de façon à obtenir une récompense sur le long terme. C’est cette notion de long terme qui est fondamentale parce qu’à force d’entraînement elle peut amener l’agent à prendre des décisions qui ne génèreront pas de récompense à court terme mais de façon à obtenir une meilleure récompense à long terme.


Comment est-ce que cette logique d’apprentissage se transpose dans votre modèle épidémiologique ?

MP - Nous avons pris un modèle à compartiments qui modélise des effets moyens dans une population donnée en fonction des paramètres de transmission du virus et nous avons fixé deux règles du jeu : réduire autant que possible le nombre de morts, d’une part, et la perte de PIB, qui traduit l’impact économique. Ces deux couts sont représentés par des fonctions des paramètres et des compartiments du modèle épidémiologique. L’objectif fixé au robot est en quelque sorte d’arriver à minimiser simultanément ces deux paramètres sur le long terme.

CMF - Cela implique beaucoup de variables telles que le nombre de personnes infectées ou hospitalisées, le taux de propagation, etc. Le modèle observe ces variables et émet une action - est-ce qu’on confine ou pas la semaine prochaine – qui va changer l’environnement puis, une semaine plus tard, le modèle va émettre à nouveau une action en fonction de l’évolution de ces variables et ainsi de suite. Le but de l’apprentissage par renforcement est, au fur et à mesure, d’affiner cette stratégie de façon à minimiser les deux coûts sanitaires et économiques, y compris en prenant des décisions qui peuvent paraître étonnantes à court terme mais qui sont pertinentes à long terme. D’où la complexité du système.

MF - Parallèlement à cela, on affine au fil du temps les données entrantes des paramètres épidémiologiques pour limiter les incertitudes parce que, depuis un an, on a beaucoup appris sur la diffusion du Covid-19.

Comment fonctionne concrètement ce renforcement ?

CMF - L’algorithme par renforcement a accès à ces données épidémiologiques et commence par essayer des actions aléatoires chaque semaine et regarde le résultat et la récompense associée. L’idée est de réitérer cela plusieurs fois, des milliers de fois, et en fonction de tous ces résultats, l’algorithme sera capable d’améliorer ses stratégies de façon à obtenir une meilleure récompense. L’enjeu étant, in fine, d’identifier la solution optimale. Sachant que chaque simulation ne prend que quelques secondes.

 

Dans quelle mesure cette plateforme permet-elle d’améliorer la prise de décision dans la vraie vie ?

MP - La vocation principale de la plateforme est de fournir un outil d’aide à la décision en matière de santé publique. Il comporte trois aspects : le modèle épidémiologique, le modèle d’apprentissage et les règles et objectif à définir. Dans la réalité, c’est ce 3e aspect qui intéresse les décideurs : faut-il plutôt préserver les vies humaines ou les coûts économiques ? Avec des choix très différents en fonction des pays. De notre côté, nous avons conçu le modèle pour qu’il soit le plus modulable possible et que chacun puisse fixer ses propres objectifs pour effectuer des simulations épidémiologiques en fonction de ces objectifs-là. Mais, aujourd’hui, ce modèle n’a pas été utilisé en conditions réelles par des décideurs politiques. Nous n’en sommes pas encore là ! L’objectif est d’abord de faciliter les collaborations entre les chercheurs en épidémiologie (modèles), les décideurs politiques (fonctions de coût, état des actions) et les spécialistes de l’optimisation (algorithme d’apprentissage).

CMF - Après avoir fait ce travail de modélisation transdisciplinaire, on constate très clairement que le problème est par nature multi-objectifs. C’est-à-dire qu’il y a plusieurs coûts que l’on va chercher à optimiser et qu’ils sont, en général, contradictoires : si on minimise le coût sanitaire, on augmenter le coût économique et vice-versa. Et si on ajoute à ça, par exemple, des coûts sociaux ou psychologiques, ç’est encore plus complexe ! Donc, au final, si on ne poursuit qu’un seul de ces objectifs, la stratégie est relativement simple. Mais si on cherche à combiner plusieurs objectifs, c’est là que c’est à la fois difficile et passionnant à analyser. Et ce qui est aussi apparu clairement c’est que les solutions optimales identifiées par le modèle sont très différentes selon le ou les objectifs recherchés. Finalement, nous en tant que chercheurs, on n’a pas forcément grand-chose à dire sur où est-ce qu’il faudrait placer les différents curseurs. Mais on cherche à permettre aux décideurs politiques de pouvoir simuler en quelques secondes les conséquences prédites de tel ou tel choix. Avec les limites et les précautions inhérentes à un modèle mathématique qui comporte évidemment des incertitudes. Mais si ça permet de proposer une visualisation des conséquences, c’est déjà utile.

Sur ce point, comment avez-vous sélectionné les données qui nourrissent votre modèle ?

MP - Au niveau des variables de coûts, le nombre de décès est très vite arrivé comme la donnée la plus factuelle et évaluable sur une année. Ce qui est beaucoup moins évident pour, par exemple, le taux de saturation des services de réanimation qui dépend d’autres paramètres conjoncturels. Sur le plan économique, on a travaillé avec des économistes pour établir un critère fiable. On aurait évidemment pu faire des choix différents et aussi intégrer plus de fonctions de coûts mais cela n’aurait pas nécessairement entraîné des stratégies fondamentalement différentes.

CMF - D’autant que l’enjeu de ce modèle est aussi son accessibilité en permettant à des gens qui ne sont ni informaticiens, ni épidémiologistes de l’utiliser. Par ailleurs, le choix de ces données entrantes et des objectifs à atteindre relève aussi des décisions politiques.

Après la publication d’un article scientifique, quelle sera la suite des évènements pour cette plateforme?

MP - L’objectif va être d’appliquer la méthodologie développée avec EpidemiOptim à d’autres questions. Ça pourra concerner la stratégie de vaccination, par exemple, l’optimisation de l’allocation des doses vaccinales dans l’hypothèse d’une 3e dose dû à la la perte d’immunité. L’enjeu sera alors de mesurer et de prédire quelles classes d’âge revacciner, à quel rythme, en cherchant toujours à minimiser le nombre de morts et les coûts économiques tout en prenant en compte un nombre de doses contraint. L’idée est donc d’utiliser les mêmes outils pour répondre à des questions différentes !

(1) Flowers est une équipe-projet Inria, commune avec l’université de Bordeaux et Ensta ParisTech
(2) Sistm est une équipe-projet Inria, commune avec l’université de Bordeaux et l’Inserm

Covid-variant Delta : Une perspective de quatrième vague en septembre

Covid-variant Delta : Une perspective de quatrième vague en septembre

En quelques jours le variant Delta qui représentait 20 % des cas en France est passé à 50 %. Il représenterait de l’ordre de 80 % d’ici fin juillet.

Dans son dernier point, Santé Publique France déplore effectivement une « dégradation de la situation, après plusieurs semaines d’amélioration des indicateurs » (jeudi soir, on comptait 4.442 nouvelles contaminations, 70% de plus qu’une semaine plus tôt), et note une « augmentation marquée du taux d’incidence particulièrement chez les 15/44 ans ».

« Il se passe un phénomène assez proche de ce que l’on a connu l’été dernier : le virus touche essentiellement des personnes jeunes, qui font peu de formes graves mais se contaminent », a confirmé le ministre.

Aussi, le conseil scientifique avertit, dans son avis paru vendredi, qu’une « quatrième vague liée au variant Delta pourrait survenir rapidement, avec un retentissement sur le système de soins, malgré un niveau élevé de vaccination », jugé toutefois « insuffisant ».

« L’épidémie ne pourra être contrôlée qu’avec 90% à 95% de personnes vaccinées ou infectées », met en garde l’instance.

Pour l’instant les experts médicaux eux-mêmes recommandent quelques mesures de restriction mais qui n’en sont certainement pas à la hauteur de l’enjeu car sur la tendance en septembre il faudra affronter une véritable quatrième vague provoquée par le brassage des populations de l’été.

Hydrogène : une perspective de division par 10 du prix de la pile à combustible

Hydrogène : une perspective de division par 10 du prix de la pile à combustible

Philippe Rosier, patron de Symbio veut profiter de la dynamique autour de l’hydrogène pour s’imposer en France, mais aussi à l’international, comme un leader de la fabrication de la pile à combustible  (Interview dans la Tribune)

 

 

Le marché de la pile à combustible et de l’hydrogène a été largement bousculé ces trois dernières années, qu’est-ce que cela a changé pour Symbio qui travaille sur cette technologie depuis une dizaine d’années ?

PHILIPPE ROSIER - Pour remettre les choses en perspective, la pile à combustible est une vieille technologie. Je rappelle que la fusée Apollo qui était partie sur la Lune était équipée d’une pile à combustible. Ce qui a changé ces dernières années, c’est le phénomène de transition énergétique et le besoin de solutions technologiques de décarbonation. Cette volonté butte sur un obstacle physique et très concret: l’intermittence des énergies renouvelables et l’impossibilité de stocker l’électricité. C’est dans ce contexte que l’attrait pour la pile à combustible a pris un essor spectaculaire entre 2019 et 2020 avec des plans d’investissements colossaux annoncés par plusieurs États, en France, en Allemagne, aux États-Unis et en Chine. L’hydrogène est ainsi arrivé comme une évidence et une solution. Et de ce point de vue, Symbio est très bien positionné dans la partie mobilité qui sera un des principaux leviers de développement de l’hydrogène ces dix prochaines années. C’est pour cette raison que nous avons décidé de changer notre modèle économique en devenant un équipementier de rang 1.

Selon vous, la pile à combustible est la solution idéale pour décarboner la mobilité de demain.

Elle fera partie de l’équation, c’est-à-dire un complément à l’électro-mobilité à batteries. On voit bien que la voiture électrique telle qu’on la connaît aujourd’hui rencontre de nombreuses limites en fonction des usages comme l’autonomie, la recharge rapide ou le transport de masse. C’est là qu’intervient la pile à combustible. Ce n’est pas un substitut mais un complément qui ne changera pas la pertinence du modèle des batteries pour des usages du quotidien de quelques dizaines de kilomètres.

Vous pensez donc qu’il y a un modèle sur des voitures particulières à pile à combustible: est-ce que ce sera votre priorité ?

Oui, c’est possible dans certains cas d’usage. Mais la priorité de Symbio sera de s’attaquer dans un premier temps au marché des véhicules utilitaires légers. Nous avons signé un contrat avec le groupe Stellantis pour justement équiper leur gamme de VUL. Nous nous intéressons aussi aux bus – nous avons signé l’équipement de 1.500 véhicules avec le constructeurs français Safra  – puis aux poids lourds. La voiture particulière viendra dans un second temps.

De nombreuses études expliquent que le vrai marché de la pile à combustible est situé plutôt sur les poids lourds, c’est ici qu’il existe un modèle économique pertinent, notamment grâce au fameux TCO (coût à l’usage).

La feuille de route de Symbio consiste à être très offensif dans la baisse des coûts pour atteindre la parité avec la technologie diesel sur les VUL à horizon 2025-2026. C’est tout l’objet de notre site de production que nous inaugurerons en 2023 à Saint-Fons (banlieue sud de Lyon, Ndlr). D’ici 2030, nous pensons même atteindre la parité avec la voiture à batterie. Notre stratégie est de diviser les coûts de production par dix. Symbio est en train de se transformer. Ensuite, le TCO ne dépendra pas seulement du coût de la pile à combustible. Il y a un immense enjeu industriel dans le coût de production d’hydrogène vert, c’est-à-dire produit à partir d’énergies renouvelables.

Symbio est aujourd’hui détenu par deux équipementiers français qui fondent énormément d’espoir sur l’hydrogène, Faurecia et Michelin. Un autre grand groupe, le géant Bosch, vient d’annoncer un plan extrêmement ambitieux dans l’hydrogène. Est-ce un danger pour vous ?

Le marché de l’hydrogène sera, à terme, colossal et les choses vont aller très vite, comme le démontre l’annonce du groupe allemand. Cette annonce valide notre stratégie d’accélérer encore, y compris à l’international.

Quels sont vos projets à l’international ?

Nous avons identifié plusieurs marchés très favorables à l’hydrogène. Cela correspond aux pays en avance de phase dans la transition énergétique. Nous avons déjà des équipes commerciales installées à Shanghai et nous ouvrons un bureau cette année en Californie. Je rappelle que les poids lourds diesels seront bannis de cet État américain en 2024. C’est une opportunité extraordinaire pour la pile à combustible.

Les États ont annoncé de nombreux dispositifs de soutien à l’hydrogène. C’est selon vous indispensable ?

Tant que nous n’avons pas atteint la parité avec les autres technologies, en particulier le diesel, ces aides seront indispensables. Il ne s’agit pas seulement d’aides, mais également d’initiatives réglementaires, d’investissements dans les infrastructures de production et de distribution. Ce qui est en jeu, c’est la constitution d’une filière souveraine.

Bitcoin : Une perspective de développement?

Bitcoin : Une perspective de développement?

Etienne Descure,Président de la société d investissement Magellan  explique, dans une tribune au « Monde », qu’en raison de la multiplication par quinze des cours du bitcoin en un an, les cryptomonnaies tendent à devenir un poids lourd de la finance mondiale, mais que la compétition reste ouverte entre la Chine et les Etats-Unis pour dominer le marché.

Une tribune qui reste cependant assez neutre sur l’avenir et la maîtrise des crytomonnaies NDLR

 

Tribune. Deux mille milliards de dollars (environ 1 670 milliards d’euros) : c’est désormais la capitalisation de l’ensemble des cryptomonnaies en avril 2021. A titre de comparaison, cela représente deux fois la valeur de la totalité de l’immobilier parisien, cinq fois celle de la société LVMH, qui est la plus grosse capitalisation européenne, ou… l’ensemble des crédits subprimes qui avaient provoqué une des plus grandes crises financières de l’histoire.

S’il faut se garder de toute extrapolation hâtive (l’ampleur de la crise des subprimes avait en grande partie été causée par la titrisation des créances), le chiffre donne le vertige et illustre le poids que prennent les actifs virtuels dans la finance mondiale.

Institutionnalisation

Historiquement, la majorité des usages de cryptomonnaies se situait en Asie. Cependant, l’évolution des réglementations et des mentalités tend à penser qu’une inversion est en cours : la détention de cryptodevises est encore tolérée en Chine, mais les échanges y sont d’ores et déjà interdits, tandis qu’une institutionnalisation du bitcoin menée par des influenceurs de renom (Elon MuskJack Dorsey) et des acteurs financiers de poids (JP Morgan, PayPal, Visa, Blackrock) est en cours à l’ouest.


L’introduction en Bourse de Coinbase, seconde plate-forme d’échange dans le monde, pour une valeur voisine de celle de BNP Paribas, marque également la confiance des investisseurs dans le développement de ce marché auprès du grand public.

La détention de cryptodevises est encore tolérée en Chine, mais les échanges y sont d’ores et déjà interdits, tandis qu’une institutionnalisation du bitcoin est en cours à l’Ouest

Le bitcoin est le doyen et le roi incontesté des actifs virtuels. Sa valeur représente encore près de 60 % de la capitalisation totale du secteur et l’évolution de son cours oriente majoritairement l’ensemble du marché. L’infrastructure informatique de son réseau reste cependant majoritairement chinoise : on estime qu’environ 65 % à 75 % de la puissance de calcul y résidaient en 2020.

L’immense majorité des serveurs spécialisés pour effectuer les opérations qui régulent le réseau (communément appelées « minage ») est fabriquée en Chine, et l’Etat applique sur ceux-ci des taxes à l’export de 25 %. Les coûts d’électricité qui sont la première charge variable des « mineurs », y sont aussi très compétitifs. L’amortissement du matériel et l’énergie représentant 90 % des coûts des industriels spécialisés dans cette activité peu complexe, le pays y conserve un avantage concurrentiel durable.

Agences de notation Allemagne : S&P confirme la note AAA et sa perspective stable

Agences de notation Allemagne : S&P confirme la note AAA  et sa perspective stable

L’agence S&P Global Rating confirme une nouvelle fois la note AAA de la dette à long terme de l’Allemagne.

 

«L’Allemagne reste l’un des émetteurs de dette souveraine les plus solvables au monde, une appréciation qui n’est pas écornée par l’augmentation de la dette et du déficit induite temporairement l’an dernier par la pandémie», résume l’agence de notation financière dans un communiqué. Celle-ci a aussi maintenu la perspective stable assortie à la note, s’appuyant sur «les formidables réserves budgétaire et externes ainsi que l’efficacité de ses institutions» qui «vont atténuer l’impact de la pandémie et faciliter la réponse politique du gouvernement» pour soutenir l’économie. Ces deux atouts combinés devraient «empêcher de laisser une cicatrice économique plus profonde et de détériorer sa capacité à remplir ses obligations financières au cours des deux-trois prochaines années», estime S&P Global Ratings.

L’agroécologie : une perspective réalisable

L’agroécologie : une perspective réalisable

.Élisabeth Claverie de Saint-Martin, directrice générale déléguée à la recherche et à la stratégie du Cirad, à Montpellier, explique dans la tribune pourquoi l’agro écologie est une perspective réalisable. Elle évoque un scénario « Sain » où le développement de l’agroécologie a une place importante et qui permettrait d’atteindre une sécurité alimentaire et nutritionnelle mondiale durable en 2050.

 

 

Que révèlent les crises épidémiques qui nous frappent sur notre rapport au monde vivant et sur les liens qu’il nous faut faire avec notre agriculture et notre alimentation ?

ELISABETH CLAVERIE DE SAINT-MARTIN, directrice générale déléguée à la recherche et à la stratégie du Cirad - Du point du vue du Cirad, cette crise épidémique était possible, les risques étaient présents. Nous qui travaillons sur les maladies animales, qui sont à l’origine de 75 % des nouvelles maladies infectieuses chez l’être humain, nous savions que certaines de ces maladies pouvaient passer à l’Homme. Nous avions constaté grâce à nos activités, en Asie du Sud-Est notamment, beaucoup d’émergences de maladies nouvelles dans des zones où les modes d’agriculture et les modes de contact entre les animaux sauvages et l’Homme ont changé. L’enseignement principal de cette pandémie, c’est que l’adoption de modes de production plus durables est une urgence ! L’agroécologie n’est pas un rêve inatteignable… Et cela va de pair avec notre mode de consommation, ce que nous mangeons. On a pris l’habitude de penser séparément, mais même si ça a été utile à un moment donné, il faut arrêter de travailler en silo : on ne peut pas travailler sur les systèmes alimentaires sans regarder la biodiversité ou le climat, et inversement. Santé des écosystèmes, santé humaine et animale sont

Croissance États-Unis : perspective légèrement en hausse au second trimestre

Croissance États-Unis : perspective légèrement en hausse au second trimestre

 

Les économistes de Goldman Sachs Group Inc ont repoussé lundi leurs prévisions de PIB américain pour le deuxième trimestre de 10% à 11% et ont déclaré que des mesures budgétaires supplémentaires seraient probablement évaluées à 1,5 billion de dollars, en hausse par rapport à leur estimation précédente de 1,1 billion de dollars.

Sur une base annuelle, ils ont relevé leurs prévisions de croissance 2021 et 2022 de 0,2 point de pourcentage chacun, à 6,8% et 4,5%, respectivement.

Les économistes de la banque ont également déclaré qu’ils avaient avancé leurs prévisions pour la première hausse des taux de la Réserve fédérale du second semestre 2024 au premier semestre à la lumière de la mise à niveau de la prévision de croissance, la baisse plus importante que prévu du taux de chômage en janvier et signes d’une perspective d’inflation «plus ferme».

« Nous prévoyons que le FOMC commencera à réduire ses achats d’actifs au début de 2022″, indique la note.

Évolution de dollar: plutôt une perspective en baisse

Évolution de  dollar: plutôt une perspective en baisse

Beaucoup de stratèges interrogés par Reuters  estiment que l’évolution du dollar devrait s’inscrire dans une tendance baissière.

Après une liquidation qui a commencé l’année dernière, le dollar a augmenté au cours de quatre des cinq dernières semaines et a augmenté de plus de 1% pour l’année, les traders ayant revu les paris lourds contre la devise.

Mais tous les facteurs qui sous-tendent la force du dollar devraient être transitoires, selon le sondage du 1er au 4 février auprès de plus de 70 analystes. Ils ont maintenu leurs prévisions de faiblesse du dollar pour l’année à venir en grande partie inchangées par rapport au sondage de janvier.

Plus de 85%, soit 63 analystes sur 73 ayant répondu à une question supplémentaire, s’attendaient à ce que le dollar reste aux alentours des niveaux actuels ou diminue au cours des trois prochains mois. Seuls 10 s’attendaient à ce qu’il monte d’ici.

«Il y a beaucoup plus d’inconvénients pour le dollar, et notre perspective à plus long terme est pour la faiblesse du dollar, pas pour la force du dollar», a déclaré Steve Englander, responsable de la recherche mondiale sur les devises G10 et de la stratégie macro-américaine de Standard Chartered.

«Les attentes des investisseurs au début de l’année ont fini par quelque peu dérailler, mais dans ce cas, nous pensons temporairement.»

 

L’euro pour sa part, qui a perdu plus de 1,5% pour l’année et s’échangeait près de ses plus bas de neuf semaines contre le dollar jeudi, devrait récupérer toutes ces pertes et gagner plus de 4,0% au cours des 12 prochains mois.

L’euro devrait se raffermir à 1,23 $ en six mois et à 1,25 $ en un an. Il changeait de mains autour de 1,20 $ jeudi.

Cela est largement attribué aux inquiétudes de la Fed quant au rythme de la reprise, mettant encore plus de poids derrière sa promesse de maintenir la politique monétaire dans une position «accommodante» pour les mois, voire les années à venir.

«L’euro / dollar n’a pas atteint 1,24 dollar parce que l’Europe était soudainement merveilleuse. L’euro est passé à 1,24 $ à cause de la Fed », a déclaré Kit Juckes, responsable de la stratégie FX chez Société Générale.

«Environ 90% de cela (le mouvement de l’euro) est du côté américain de l’équation, et cela n’a pas changé. Ce qui a changé, c’est que nous sommes allés trop vite et que c’est une correction.

Et ce n’est pas seulement contre les principales devises – le dollar devrait également s’affaiblir par rapport aux devises des marchés émergents dans l’année à venir. [EMRG / POLL]

«Une grande partie de l’exceptionnalisme du dollar est liée à sa rareté. La perspective est maintenant qu’il n’y aura pas de pénurie de dollars et en fait il y aura une abondance à perte de vue », a déclaré Englander de Standard Chartered.

«La Fed va y être forcée (en fournissant des liquidités en dollars), car elle sait ce qui se passera si elle augmente les taux d’intérêt à long terme ou permet aux taux à long terme de remonter.

Dollar: une perspective de stabilisation dans une tendance légèrement baissière

Dollar: une perspective de stabilisation dans une tendance légèrement baissière

Alors que Trump n’avait cessé de tempêter contre la valorisation excessive du dollar, son successeur Biden estime qu’il ne fera pas du taux de change une arme stratégique. Notons que le dollar avait quand même perdu 7 % en 2020. La perspective c’est que le billet vert continue de s’affaiblir mais progressivement compte tenu des déséquilibres structurels de son commerce extérieur. Mais une baisse toujours un peu compensée par le caractère refuge de la monnaie américaine utilisée par ailleurs de manière massive lors des échanges commerciaux.

 

Finalement de nombreux analystes s’attendent toujours à ce que la devise reprenne sa marche à la baisse progressive en 2021.

Une augmentation des dépenses budgétaires ainsi qu’une politique monétaire ultra-facile, sabreront toute tentative de reprise plus soutenue, a écrit l’analyste de la Commonwealth Bank of Australia Kim Mundy dans une note.

Salaires des cadres : baisse en perspective (APEC)

Salaires des cadres : baisse en perspective (APEC)

La perspective d’une baisse du salaire médian des cadres en 2020 constitue une première, en tout cas depuis 2009 -et caractérise la tendance

Selon une enquête de l’APEC, a près deux années très dynamiques, en 2017 et 2018, le salaire médian s’est « stabilisé à 50.000 euros » à la fin de l’an dernier (fixe + variables. La rémunération moyenne a, elle, progressé de 2,5 % en 2019 pour atteindre 57.100 euros. Un seul secteur – banque assurance et immobilier – a connu une baisse de sa rémunération médiane, après cependant une forte progression les deux années précédentes. Le secteur des équipements électriques et électroniques est celui qui a connu la plus forte progression (+5,8 %), suivi par les industries chimiques à +4,4 %. Si bien que la progression globale de l’industrie a talonné celle des services, premier secteur employeur de cadres (+1,9 % contre +2,1 %).

 

Dupond-Moretti à la justice : le gros coup de com et conflit en perspective

Dupond-Moretti à la justice : le gros coup de com et conflit en perspective

 

Il  n’y a pas vraiment de changement extraordinaire dans ce ;  on reprend surtout les anciens avec quelques nouveautés pour donner l’impression que ça bouge. La nomination de Gérald Darmanin à l’intérieur n’est pas vraiment une surprise car l’intéressé lui-même visait  depuis longtemps ce poste stratégique dans une carrière politique t. La surprise vient surtout de la nomination au gouvernement d’Eric Dupond-Moretti, avocat pénaliste spécialiste des causes difficiles, dont les Français connaissent le visage et la voix via les médias et des prises de position parfois détonantes.

D’une certaine manière, il y a même une provocation d’avoir choisi un avocat populiste et radical,  spécialiste des critiques de l’appareil judiciaire. Encore dernièrement, il venait de prendre l’initiative de déposer une plainte dans le cas de l’affaire du paquet  national financier pour avoir sans doute été écouté. Dupond Moretti n’a pas manifesté un grand état d’âme en retirant sa plainte si tôt sa nomination comme ministre de la justice.

Des convictions fortes mais qui évoluent selon les circonstances et les causes. La défense de la veuve ou du truand chaque fois que cela peut servir la réputation médiatique même si c’est complètement contradictoire. Il faudra prévoir des heurts avec l’appareil judiciaire qui voit venir en quelque sorte un étranger qui avance plutôt avec des gros sabots qu’avec des chaussons de danse classique.  On sera en particulier très attentif à la manière dont le parquet pourra plus ou moins enterrer  tel ou tel dossier politiquement sensible et il n’en manque pas.

Coronavirus: AstraZeneca discute déjà du volume de vaccins et du prix avant toute perspective de vaccins.

Coronavirus: AstraZeneca discute déjà du volume de vaccins et du prix avant toute perspective de vaccins.

 

On ne sait pas si les recherches de l’industriel Astra Zeneca aboutiront, en tout cas le directeur général pharmaceutique britannique montre ses qualités d’homme de marketing puisque pratiquement il a déjà entamé des discussions au pour vendre son éventuel vaccin au  Japon, la  Russie, au Brésil et à la Chine sur des contrats d’approvisionnement pour son candidat vaccin contre le coronavirus,. Parallèlement la même industrie pharmaceutique négocie aussi avec l’union européenne jusqu’à 400 millions de doses et cela paraît- il à prix coûtant. (dont on ignore le coût!). De quoi attirer évidemment les capitaux publics et les faire contribuer aux efforts de recherche dont les bénéfices iront au final aux actionnaires. Notons que toutes ces informations sont surtout le fait de dirigeants ou de directeur marketing des grandes industries pharmaceutiques et que les gouvernements comme les vrais laboratoires de recherche indépendants ( il en existent  ) ne se prononcent pas. Et pour cause, la perspective d’un vaccin est peut-être encore lointaine : plusieurs mois, voire plusieurs années si le virus mute. En tout cas, le capitalisme a trouvé la son nouveau champ de développement : la santé et surtout les inquiétudes qu’elle suscite aussi bien chez les patients que parmi les gouvernements.

AstraZeneca, qui a également signé un accord pour fournir à l’Union européenne jusqu’à 400 millions de doses de vaccin à prix coûtant, s’apprête à publier prochainement les résultats de la première phase de tests sur le produit.

Pascal Soriot, directeur général du laboratoire, a indiqué au cours d’une téléconférence que les autorités britanniques de régulation avaient approuvé le lancement de la phase III des tests au vu de résultats des premières études jugés suffisants en terme d’efficacité et de sécurité.

S&P: la note stable AA de la France avec perspective stable

  • S&P:  la note stable AA de la France avec perspective stable
  • L’agence a maintenu la perspective stable de la note de la France, car elle «reflète nos attentes que les récentes réformes économiques, budgétaires et structurelles prises par le gouvernement ont amélioré les capacités économiques de la France de faire face aux conséquences de l’épidémie de Coviv-19», a-t-elle indiqué dans un communiqué. S&P s’attend à ce que la France connaisse cette année une récession de -1,7%, comme elle l’avait déjà indiqué il y a une semaine, «avant un rebond de la croissance en 2021».
  • Elle prévoit toutefois une dégradation du déficit budgétaire à 4,9%, soit nettement plus que ce qu’a prévu le gouvernement (3,9%) après l’annonce de ses premières mesures pour soutenir l’économie face à la crise. A la mi-février, l’agence de notation financière Moody’s avait également laissé inchangée la note de la France à Aa2, mais avait abaissé la perspective de positive à stable, en raison de l’efficacité moins forte que prévu des mesures fiscales pour enrayer le creusement du déficit public.
  • Le ministre des Finances Bruno Le Maire avait reconnu lundi que la récession qui frapperait la France cette année serait beaucoup forte que -1%, le niveau estimé au début de la période de confinement. Avant la crise du coronavirus, le gouvernement tablait sur +1,3% de croissance en 2020. Le ministre chargé du budget Gérald Darmanin avait aussi reconnu que le déficit public de la France en 2020 serait «sans doute» supérieur à 3,9%.

Perspective ou utopie: L’autonomie alimentaire des villes ?

Perspective ou utopie: L’autonomie alimentaire des villes ?

 

Une interview intéressante de  l’urbaniste Sabine Becker et le chercheur François Rouillay à l’occasion de la sortie de leur livre publié le 11 février intitulé « En route pour l’autonomie alimentaire ». Cependant, le  concept d’agriculture urbaine qu’ils prônent semblent faire l’impasse sur  l’existence des campagnes qui comme les villes structurent notre pays. On ne saurait réduire l’aménagement du territoire aux seules zones fortement agglomérées même entourées  de jardins supposés nourrir la population. Une vision assez réductrice voire caricaturale  de l’aménagement du territoire. Un concept d’agriculture urbaine d’abord utopique ensuite qui légitime une vision concentrationnaire d’un aménagement du territoire sous domination des villes. Une vision assez écolo bobo.  ( Interview dans la tribune)

 

 

La notion d’autonomie alimentaire, à laquelle vous consacrez votre livre, est de plus en plus souvent évoquée dans le débat public autour de l’alimentation. Qu’est-ce qu’elle désigne?

 

SABINE BECKER et FRANÇOIS ROUILLAY - Liée à la nécessité d’une alimentation respectueuse du vivant, l’autonomie alimentaire renvoie à la perspective d’une « terre d’avenir » sur le territoire: c’est-à-dire d’une terre vivante en capacité de nourrir et maintenir en bonne santé ses enfants. Trois idées sont donc imbriquées dans cette notion: le respect du sol et de la biodiversité, le maintien de la santé, et une alimentation nécessairement locale.

Elle vise à restaurer le lien entre producteurs et mangeurs, qui aujourd’hui est coupé à deux endroits. Les producteurs sont en effet exposés à une concurrence mondialisée. Leurs produits voyagent des centaines, voire des milliers, de kilomètres avant d’atteindre les mangeurs, et sont parfois massivement gaspillés. Les producteurs ne voient donc plus la nourriture au travers du territoire et de leurs habitants, mais des comptes d’exploitation et des marchés. Les consommateurs pour leur part regardent la nourriture par le biais de la publicité, du temps pressé, de leur four à micro-ondes… Ils ne prennent plus le temps de travailler des produits bruts et de rencontrer les producteurs. Ils cherchent une facilité nutritive accentuée par les colorants, les exhausteurs de goût. Il faut donc un changement de regard pour induire un changement de comportement.

 

Quelle est justement l’utilité politique – en entendant le mot « politique » au sens large – de cette notion d’autonomie alimentaire?

Elle peut notamment permettre de transformer positivement les politiques d’aménagement du territoire. Pendant les 50 dernières années, l’étalement urbain a eu lieu au mépris du respect des zones de production de nourriture autour des villes. Les villes, qui auparavant étaient autosuffisantes, dépendent désormais de la chaîne alimentaire mondialisée pour se nourrir. Elles ne disposent plus que de trois jours de stock d’aliments en moyenne. Mais les risques de rupture de cette chaîne mondialisée sont divers: incendies, inondations, conflits sociaux, maladies… On peut donc affirmer que les villes sont aujourd’hui en situation d’insécurité alimentaire.

Les maires des communes ont ainsi la responsabilité politique de prendre des mesures pour assurer la sécurité alimentaire de leurs villes, pour en garantir la résilience en cas de rupture de la chaîne alimentaire, en créant, à côté des zones d’activité économique ou commerciale, des zones d’activité nourricière. Ils n’ont d’ailleurs besoin d’aucune autorisation pour faire cela. Ils peuvent acquérir des terres, comme l’a fait à Val-de-Reuil la Communauté d’agglomération Seine-Eure, afin de développer une agriculture biologique sur 110 hectares situés sur le périmètre de protection de captage de sa ressource en eau. La collectivité a même transformé un ancien bâtiment industriel, de 10.000 mètres carrés, en « pôle alimentaire », où les producteurs commercialisent leurs produits, les conditionnent, partagent des outils agricoles, organisent des cours de cuisine… En un an, cela a permis de recréer les 59 emplois détruits à cause de la fermeture de l’ancienne usine.

 

Tout repose donc sur les épaules des maires?

S’alimenter est l’affaire de tous. La partie se joue donc à quatre: l’apprentissage et l’organisation des 21 actions que nous suggérons dans notre livre réunissent élus locaux, monde économique, paysans et habitants. L’association Réseau Cocagne a par exemple créé 102 fermes biologiques d’insertion et 6 structures agroalimentaires autour de la France. Elles emploient plus de 5.600 personnes et génèrent 16,3 millions d’euros de chiffre d’affaires annuels par la seule vente de légumes. A Amiens et Bayonne, les habitants retournent le gazon des HLM pour y construire des potagers.

La transition alimentaire implique d’ailleurs la transition agricole. Et dans cette transition les paysans, qui aujourd’hui vivent une crise terrible, doivent être accompagnés. Les structures de maraîchage du futur seront participatives et écologiques. C’est déjà le cas au Québec, ou des communautés de communes achètent des terres et y emploient des formateurs qui apprennent aux enfants, aux personnes en insertion, aux citoyens, à cultiver, conserver et cuisiner les produits.

Mais l’agriculture urbaine peut-elle vraiment nourrir les villes dans un monde de plus en plus urbanisé et où la population ne cesse de croître?

Afin d’assurer l’autonomie alimentaire des villes il faut inclure le territoire autour, celui compris dans un rayon permettant de les approvisionner en une heure. Et déjà aujourd’hui, 75% de la production agricole mondiale vient de petites exploitations.

Mais le développement de nouvelles techniques de régénération végétale permet désormais d’augmenter significativement la productivité de l’agriculture urbaine, et donc de mener des expériences de production intéressantes sur de petites surfaces, de mettre à profit les interstices cultivables. Des chercheurs à Rennes ont ainsi constaté que l’agriculture urbaine peut apporter beaucoup à l’autonomie alimentaire des villes, en permettant de réduire le périmètre d’approvisionnement. Sans compter ses autres atouts: l’éducation, la réduction des pollutions, la régénération des sols.

Cette autonomie alimentaire peut-elle coexister avec une économie mondialisée?

Oui, mais elle représente un monde séparé, fondé non plus sur la compétition, les marchés, les valeurs monétaires, mais sur le partage, la coopération, la proximité, le respect du vivant. Il s’agit tout d’abord de débrancher de la prise de la mondialisation, en se nourrissant sobrement. Ensuite, l’apprentissage de l’autonomie et de la coopération peut inspirer la mise en place d’autres biens, services, voire de systèmes monétaires locaux. Le partage créé l’abondance. Alors, les vents des marchés et de la finance peuvent passer au-dessus de ce monde sans impact.

À la veille des municipales, trouvez-vous que les Français sont demandeurs d’une telle transition?

Cela fait des années que nous suivons ces thématiques Et depuis quelques mois, nous avons constaté un véritable bond dans l’intérêt qu’elles suscitent. Deux thèmes reviennent en force dans quasiment tous les débats locaux en vue des municipales: l’environnement et l’alimentation.

Ces mêmes Français vous semblent-ils prêts à faire les sacrifices impliqués par l’autonomie alimentaire?

Toute transition conduit nécessairement à faire des choix. Retrouver le lien avec le sol et l’assiette demande de travailler davantage au profit du vivre ensemble que de la productivité. Et au départ, il y a certes un acte de courage, inhérent à la prise de conscience individuelle et collective de la nécessité d’un changement de cap. Mais les « sacrifices » demandés par le parcours de l’autonomie alimentaire ne sont pas si importants: on peut bien se passer de café ou de bananes… Il nous rend d’ailleurs en retour d’autres formes de confort, en dessinant des territoires où les gens ont envie de s’installer car la qualité de vie y est meilleure.

 Crise climatique : un coût  15.000 milliards de dollars d’ici 2050

D’après  étude  de WWF, d’ici 2050,si  rien n’est fait pour endiguer le déclin de la nature, la crise  pourrait se chiffrer à au moins 479 milliards de dollars par an en termes de PIB mondial, soit près de 15. 000 milliards d’ici à 2050. C’est ce que révèle cette étude menée dans 140 pays en collaboration avec les experts des universités américaines de Purdue et du Minnesota. Un travail de deux ans de recherche et de développement grâce à la contribution inédite de scientifiques, économistes et experts politiques du monde entier.

En revanche, des efforts ambitieux pour protéger et restaurer la nature amélioreront considérablement les résultats économiques. Il est encore possible d’inverser la tendance, avec une meilleure utilisation des terres et en préservant mieux les écosystèmes et la biodiversité», stipule le rapport. Les experts évaluent une augmentation du PIB mondial à 490 milliards de dollars par an si les États se tournent vers ces systèmes plus durables et conservent «les services écosystémiques des milieux naturels».

Les plus importantes pertes économiques – 327 milliards de dollars par an – seraient dues à l’érosion des côtes..

Les autres services fournis par la nature seront également durement impactés si rien n’est fait. Le rapport chiffre les pertes inhérentes à la déforestation à 128 milliards de dollars: avec des forêts réduites à peau de chagrin, c’est tout autant d’arbres qui n’aspirent pas de CO2 et ne joueront donc plus leur rôle naturel de réducteur de carbone. Les secteurs alimentaires et agricoles pourraient eux, connaître «des hausses de prix pour des produits comme le bois (+8%), le coton (6%), les graines oléagineuses (+4%) ou encore les fruits et les légumes (+3%)». Une montée des prix vertigineuse qui s’explique par la raréfaction de l’eau (quatre personnes sur dix en souffrent déjà dans le monde selon l’ONU), et la disparition des insectes pollinisateurs.

123



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol