Archive pour le Tag 'quelle'

Page 6 sur 12

France 2022 : quelle transformation publique

France 2022  : quelle  transformation publique

 

OPINION. Après une crise sans précédent qui a remis en cause la manière de gérer l’action publique, il est nécessaire de réimaginer la nature d’un quinquennat de transformation. Par Olivier Bouet, Directeur EY Consulting secteur public et Guéric Jacquet, Associé EY-Parthenon secteur public (dans la Tribune)

 

Depuis 2017, les initiatives en matière de transformation publique ont été fortes : lancement de la démarche CAP 2022 de refonte des politiques publiques, financement de réformes structurelles via un fonds interministériel de 1 milliard d’euros, lancement d’une stratégie globale de transformation publique, portage au plus haut niveau de l’État… Cela s’est traduit à la fois par la mise en place de réformes d’ampleur (prélèvement à la source, maisons France Service, ENA, mis en place du droit à l’erreur) mais aussi par une appréciation positive historique des services publics, à plus de 51% par les Français en 2020 (Institut Paul Delouvrier).

Pourtant, la crise sanitaire et économique a limité les résultats des réformes : les réductions de postes ont été reportées, le déficit public s’est accru et les difficultés d’exécution des politiques de proximité ont été mises en lumière. Après une crise sans précédent qui a remis en cause la manière de gérer l’action publique (gestion de crise, télétravail, plans de relance, articulation entre État et collectivités locales…), il est nécessaire de réimaginer la nature d’un quinquennat de transformation publique ambitieux, articulé autour de 5 grands piliers.

Une grande politique de simplification et de dérégulation des normes

En sortie de crise, l’État est appelé à changer de paradigme pour simplifier la vie des Français. La création d’une mission gouvernementale de simplification du stock de lois, règlements et dispositifs, issue de la fusion des nombreux comités et conseils de simplification, pouvant se traduire par exemple en réécrivant les codes existants, ou en pilotant la suppression, par les ministères, de 10% des normes afférentes à leurs domaines d’intervention.

Une transformation digitale massive et qui touche le cœur de métier

Selon nos analyses, pour 3 milliards d’euros investis sur 5 ans, un ROI significatif de 12 milliards d’euros de gains de productivité annuels peut être espéré. Au-delà de l’impact majeur que le numérique a sur les grands métiers de la Fonction publique, les gains de productivité issus du recours aux nouvelles technologies touchent à la fois les fonctions de back-office (RH, IT, finance) et le cœur de métier (enseignement, police, justice…) à l’instar des entreprises privées qui ont engagé ces transformations massives.

L’extension de la dynamique de transformation publique à toutes les fonctions publiques

Après une décennie de réforme de l’administration d’État, il est prioritaire d’inclure les opérateurs de l’État dans l’effort collectif de rationalisation, ou le lancement de de nouveaux programmes de mutualisation entre l’État et les collectivités, sur le modèle des centres de service partagés de fonctions support. D’ailleurs, lorsqu’on interroge les Français sur les dépenses qui pourraient baisser, ils citent pour 50% d’entre eux la masse salariale et les effectifs des collectivités (IFOP- EY-Acteurs Publics, novembre 2022), qui ont atteint 1,9 million d’employés en 2020.

Un nouveau mode de délivrance des services publics par les entreprises et les associations pour réallouer des moyens vers les priorités de politique publique

Réinterroger le périmètre d’intervention de la puissance publique nécessite l’acceptation d’un nouveau mode de délivrance des services publics, par les entreprises et les associations, si ces acteurs peuvent produire des services de meilleure qualité et à moindre coût (via par exemple l’externalisation de fonctions administratives et de contrôle). À l’instar des lois de dérégulation de 2015, il est possible de créer de nouveaux marchés rentables au service de la croissance économique à qualité de service égale, et permettant la réallocation de crédits publics vers les priorités gouvernementales.

Un investissement massif dans les RH pour redonner des perspectives de formation et de carrière aux agents publics

Aujourd’hui, un agent public reçoit en moyenne 30 heures de formation continue par an là où un actif du secteur privé en reçoit 2,5 fois plus. C’est pourquoi il est désormais urgent d’accélérer le programme de formation, notamment dédié aux usages numériques, pour que chaque agent et chaque manager réussisse le tournant de la révolution digitale, et construire un plan de reconversion pour préparer les agents aux métiers et compétences de demain.

En combinant ces piliers à une forte volonté politique, une gouvernance au plus haut niveau et une focalisation des efforts sur quelques sujets clés plutôt que de multiples petites réformes, la transformation publique pourra permettre de rendre des services publics plus efficaces.

Covid 19 France : 200 000 cas au premier de l’an ? quelle stratégie ?

Covid 19 France : 200 000 cas au premier de l’an  ? quelle stratégie ?

Sur la tendance, on  pourrait bien atteindre les 200 000 cas dans les premiers jours de janvier 2022. Hier , le Royaume-Uni déjà dépassé les 100 000 cas tandis que la France atteignait 94 000 cas le 24 décembre. Le problème principal concerne évidemment le risque de blocage total des hôpitaux du fait  de l’augmentation du nombre de malades en soins intensifs. Un autre risque menace aussi la France et d’autres pays à savoir l’incapacité devant le nombre à pouvoir dénombrer le cas exact de contaminés Déjà avec près de 100 000 cas les laboratoires sont largement débordés. Avec le double de cas ils seraient incapables d’assurer dans les mêmes délais les résultats des analyses.Par ailleurs on constate déjà un manque chronique d’autotest dans les pharmacies

De toute évidence, la stratégie de lutte contre le virus uniquement centré sur le vaccin montre ses limites mêmes si la vaccination obligatoire est incontournable. Il faudra ajouter d’autres mesures restrictives et limiter la mobilité et l’accès à certaines activités.

Justement ce que se refuse à faire les pouvoirs publics qui ne veulent surtout pas contrarier une population déjà parfois rétive aux mesures plus sévères.

Mais des formes de reconfinement seront incontournables, elles s’imposent d’ailleurs un peu partout progressivement dans le monde.

Covid France : 200 000 cas au premier de l’an ? quelle stratégie

Covid France : 200 000 cas au premier de l’an  ? quelle stratégie

Sur la tendance, on  pourrait bien atteindre les 200 000 cas dans les premiers jours de janvier 2022. Hier , le Royaume-Uni déjà dépassé les 100 000 cas tandis que la France atteignait 92 000 cas. Le problème principal concerne évidemment le risque de blocage total des hôpitaux du fait  de l’augmentation du nombre de malades en soins intensifs. Un autre risque menace aussi la France et d’autres pays à savoir l’incapacité devant le nombre à pouvoir dénombrer le cas exact de contaminés Déjà avec près de 100 000 cas les laboratoires sont largement débordés. Avec le double de cas ils seraient incapables d’assurer dans les mêmes délais les résultats des analyses.Par ailleurs on constate déjà un manque chronique d’autotest dans les pharmacies

De toute évidence, la stratégie de lutte contre le virus uniquement centré sur le vaccin montre ses limites mêmes si la vaccination obligatoire est incontournable. Il faudra ajouter d’autres mesures restrictives et limiter la mobilité et l’accès à certaines activités.

Justement ce que se refuse à faire les pouvoirs publics qui ne veulent surtout pas contrarier une population déjà parfois rétive aux mesures plus sévères.

Mais des formes de reconfinement seront incontournables, elles s’imposent d’ailleurs un peu partout progressivement dans le monde.

Finances publiques- Quelle soutenabilité de la dette

Finances publiques-Quelle soutenabilité de la dette 

 

Le nouvel outil de l’OFCE, Debtwatch, permet d’établir plusieurs scénarios qui tiennent compte d’une éventuelle remontée des taux d’intérêt. Par Xavier Timbeau, Sciences Po ; Elliot Aurissergues, Sciences Po et Éric Heyer, Sciences Po (dans la Tribune, extrait)

 

Des scénarios intéressants qui permettent  une approche méthodologique plus pointue de la dette et son évolution selon environnement. Reste cependant le problème central, le maintien de taux d’intérêt bas par les banques centrales qui viendraient s’opposer à la prise en compte par les marchés de l’inflation réelle . La question se pose est de savoir si les banques centrales peuvent maintenir des taux bas par exemple de 2 % si l’inflation était trois à quatre fois supérieures. NDLR

 

Le financement des mesures d’urgence face à la pandémie de la Covid-19 a conduit à élever le niveau de la dette publique en France à près de 120 % du PIB, soit près de 20 points de plus en un an. Cela effraie, mais il ne faut pas paniquer pour autant. Et pour ne pas paniquer, rien de tel qu’une approche raisonnée. C’est pourquoi nous proposons Debtwatch et une nouvelle approche de la soutenabilité de la dette.

La méthode est de simuler le plus grand nombre d’évolutions possibles de la dette publique, en jouant sur les hypothèses à la base de chaque simulation. Ces hypothèses peuvent s’appuyer sur des régularités du passé (la loi d’Okun, la courbe de Phillips, etc.) ou sur des a priori, fondés ou non. Elles peuvent quantifier des risques (plus ou moins de croissance) comme des engagements sur d’autres politiques (les politiques monétaires ou la croissance qui découlerait d’un plan d’innovation).

L’application Debtwatch est ainsi conçue pour faire fonctionner un modèle économique qui traduit ces hypothèses et utilise la puissance de calcul moderne pour mettre à la disposition de tous les moyens de raisonner sur les dettes publiques de 15 grands pays développés. Le but de tous ces calculs est de déterminer les efforts nécessaires pour atteindre une cible en un temps donné et de juger de l’acceptabilité des hausses d’impôt, des baisses de dépenses ou de l’évolution du chômage.

La modélisation, les simulations et les données historiques nous livrent aujourd’hui quelques enseignements :

D’abord, la dette publique est élevée dans beaucoup de pays, à des niveaux jamais atteints presque partout. Ce n’est pas une fatalité, puisque certains pays échappent à la dette, en particulier l’Allemagne. Mais si la dette est presque partout au plus haut, la charge d’intérêt est presque partout au plus bas. En France, il faut remonter à 1980 pour retrouver une charge d’intérêt aussi basse qu’aujourd’hui en % du PIB. En 1980, la dette publique était de 20 % du PIB ! Avant 1980, aussi loin que remontent les comptes nationaux publiés par la France (1949), la charge d’intérêt représentait en moyenne 1 point de PIB, pas très loin de l’étiage actuel.

La clef de ce mystère est la chute vertigineuse des taux d’intérêt amorcée avec le passage à l’euro, mais surtout conséquence de la baisse de l’inflation et du ralentissement progressif de la croissance économique depuis la fin du rattrapage économique de la France de l’après-guerre. Nous sommes passés d’une situation de croissance nominale forte (prix comme volume) à une période de croissance faible. Là où la dette coûtait cher mais restait soutenable en raison de la croissance, nous sommes maintenant dans une période de croissance faible, voire très faible, et donc de dette élevée mais dont la charge d’intérêt reste réduite.

On pourrait penser que c’est artificiel, et que les taux d’intérêt vont remonter, qu’ils sont très bas parce que la politique monétaire non conventionnelle de la Banque centrale européenne (BCE). Il y a du vrai, mais nous sommes aussi dans une période dans laquelle il existe peu d’actifs sûrs, la tentative de produire des actifs synthétiques appuyés sur les titres privés s’étant soldée par un échec aux proportions dantesques (la crise de 2008 peut d’ailleurs se résumer à ça) et le nombre de fournisseurs d’actifs sûrs publics se réduisant plutôt dans le monde.

L’euro, sa banque centrale, son droit supra-national, et la cohésion à peine forcée entre les États restent les piliers d’une stabilité que s’arrachent les fonds de pension de toute la planète. Ils doivent assurer le capital de leurs épargnants pour des périodes allant jusqu’à 40 ans ; et ils n’ont pas beaucoup de choix. En tout cas, leur besoin d’actifs – plusieurs fois le PIB mondial – laisse de la marge pour les passifs publics. Ainsi, les taux souverains sont bas et c’est un privilège exorbitant dont il ne faut pas se priver d’user.

Debtwatch nous permet de préciser tout cela : stabiliser la dette publique de la France au niveau actuel, en ramenant la part des dépenses publiques dans le PIB à ce qu’elles étaient en 2009, c’est-à-dire en effaçant toutes les traces du « quoiqu’il en coûte », tout en maintenant les taux souverains à un niveau très bas – prolongeant la situation de pénurie d’actifs sûrs – ne demande aucun ajustement particulier (c’est la simulation que vous pouvez reproduire et modifier en tapant « pgtgv » dans la barre de recherche de Debtwatch, un outil ouvert car le débat sur la dette publique doit être transparent et ouvert : le code de Debtwatch est donc librement accessible).

C’est acceptable socialement et possible économiquement. Si les taux souverains venaient à augmenter et s’établissaient à 3,6 points par an (contre 0,2 % par an aujourd’hui), la charge d’intérêt remonterait au cours des prochaines 30 années lentement, du fait d’une maturité plutôt longue de la dette publique française, mais resterait plus faible que le poids des intérêts d’avant l’euro (simulation « kxyor » sur Debtwatch). Il faut de la défiance des marchés financiers, et donc une crise profonde en zone euro, pour construire des scénarios plus durs.

Réduire la dette publique est en revanche très coûteux. Pour ramener la dette publique à la situation d’avant l’épidémie, il faudrait augmenter les impôts (ou réduire les dépenses) de plus de 3 points de PIB, un peu moins que la moitié de la TVA (« fsunl »).

Certes, au bout de quelques années, on pourra les réduire à nouveau (l’arithmétique de la dette est désagréable) mais l’effort apparaît conséquent. Et la protection contre une hausse de taux est assez faible, puisque, l’économie d’intérêts en cas de hausse des taux souverains à 3,6 points ne serait que de 0,6 point de PIB. C’est aujourd’hui 15 milliards d’euros, soit la moitié de la dépense publique pour la culture et les cultes. Ce n’est pas rien, mais c’est ce qu’il faut mettre en regard du coût correspondant.

Enfin, notons qu’un retour à 60 % du PIB de dépense publique demanderait du sang et des larmes ( « eqiot »).

Il nous prémunirait contre 1,8 point de PIB de charge d’intérêt en plus, soit un cinquième des sommes perçues au titre de l’impôt sur le revenu et la CSG. À vous de juger si cela en vaudrait la peine.

______

(*) Par Xavier Timbeau, Économiste à l’Observatoire français des conjonctures économiques (OFCE), Sciences Po ; Elliot Aurissergues ; Chargé d’étude à l’OFCE, Sciences Po et Éric Heyer, Directeur à l’OFCE, Sciences Po.

La version originale de cet article a été publiée sur The Conversation.

Xavier Timbeau, Elliot Aurissergues et Éric Heyer

Quelle soutenabilité de la dette

Quelle soutenabilité de la dette 

 

Le nouvel outil de l’OFCE, Debtwatch, permet d’établir plusieurs scénarios qui tiennent compte d’une éventuelle remontée des taux d’intérêt. Par Xavier Timbeau, Sciences Po ; Elliot Aurissergues, Sciences Po et Éric Heyer, Sciences Po (dans la Tribune, extrait)

 

Des scénarios intéressants qui permettent  une approche méthodologique plus pointue de la dette et son évolution selon environnement. Reste cependant le problème central, le maintien de taux d’intérêt bas par les banques centrales qui viendraient s’opposer à la prise en compte par les marchés de l’inflation réelle . La question se pose est de savoir si les banques centrales peuvent maintenir des taux bas par exemple de 2 % si l’inflation était trois à quatre fois supérieures. NDLR

 

Le financement des mesures d’urgence face à la pandémie de la Covid-19 a conduit à élever le niveau de la dette publique en France à près de 120 % du PIB, soit près de 20 points de plus en un an. Cela effraie, mais il ne faut pas paniquer pour autant. Et pour ne pas paniquer, rien de tel qu’une approche raisonnée. C’est pourquoi nous proposons Debtwatch et une nouvelle approche de la soutenabilité de la dette.

La méthode est de simuler le plus grand nombre d’évolutions possibles de la dette publique, en jouant sur les hypothèses à la base de chaque simulation. Ces hypothèses peuvent s’appuyer sur des régularités du passé (la loi d’Okun, la courbe de Phillips, etc.) ou sur des a priori, fondés ou non. Elles peuvent quantifier des risques (plus ou moins de croissance) comme des engagements sur d’autres politiques (les politiques monétaires ou la croissance qui découlerait d’un plan d’innovation).

L’application Debtwatch est ainsi conçue pour faire fonctionner un modèle économique qui traduit ces hypothèses et utilise la puissance de calcul moderne pour mettre à la disposition de tous les moyens de raisonner sur les dettes publiques de 15 grands pays développés. Le but de tous ces calculs est de déterminer les efforts nécessaires pour atteindre une cible en un temps donné et de juger de l’acceptabilité des hausses d’impôt, des baisses de dépenses ou de l’évolution du chômage.

La modélisation, les simulations et les données historiques nous livrent aujourd’hui quelques enseignements :

D’abord, la dette publique est élevée dans beaucoup de pays, à des niveaux jamais atteints presque partout. Ce n’est pas une fatalité, puisque certains pays échappent à la dette, en particulier l’Allemagne. Mais si la dette est presque partout au plus haut, la charge d’intérêt est presque partout au plus bas. En France, il faut remonter à 1980 pour retrouver une charge d’intérêt aussi basse qu’aujourd’hui en % du PIB. En 1980, la dette publique était de 20 % du PIB ! Avant 1980, aussi loin que remontent les comptes nationaux publiés par la France (1949), la charge d’intérêt représentait en moyenne 1 point de PIB, pas très loin de l’étiage actuel.

La clef de ce mystère est la chute vertigineuse des taux d’intérêt amorcée avec le passage à l’euro, mais surtout conséquence de la baisse de l’inflation et du ralentissement progressif de la croissance économique depuis la fin du rattrapage économique de la France de l’après-guerre. Nous sommes passés d’une situation de croissance nominale forte (prix comme volume) à une période de croissance faible. Là où la dette coûtait cher mais restait soutenable en raison de la croissance, nous sommes maintenant dans une période de croissance faible, voire très faible, et donc de dette élevée mais dont la charge d’intérêt reste réduite.

On pourrait penser que c’est artificiel, et que les taux d’intérêt vont remonter, qu’ils sont très bas parce que la politique monétaire non conventionnelle de la Banque centrale européenne (BCE). Il y a du vrai, mais nous sommes aussi dans une période dans laquelle il existe peu d’actifs sûrs, la tentative de produire des actifs synthétiques appuyés sur les titres privés s’étant soldée par un échec aux proportions dantesques (la crise de 2008 peut d’ailleurs se résumer à ça) et le nombre de fournisseurs d’actifs sûrs publics se réduisant plutôt dans le monde.

L’euro, sa banque centrale, son droit supra-national, et la cohésion à peine forcée entre les États restent les piliers d’une stabilité que s’arrachent les fonds de pension de toute la planète. Ils doivent assurer le capital de leurs épargnants pour des périodes allant jusqu’à 40 ans ; et ils n’ont pas beaucoup de choix. En tout cas, leur besoin d’actifs – plusieurs fois le PIB mondial – laisse de la marge pour les passifs publics. Ainsi, les taux souverains sont bas et c’est un privilège exorbitant dont il ne faut pas se priver d’user.

Debtwatch nous permet de préciser tout cela : stabiliser la dette publique de la France au niveau actuel, en ramenant la part des dépenses publiques dans le PIB à ce qu’elles étaient en 2009, c’est-à-dire en effaçant toutes les traces du « quoiqu’il en coûte », tout en maintenant les taux souverains à un niveau très bas – prolongeant la situation de pénurie d’actifs sûrs – ne demande aucun ajustement particulier (c’est la simulation que vous pouvez reproduire et modifier en tapant « pgtgv » dans la barre de recherche de Debtwatch, un outil ouvert car le débat sur la dette publique doit être transparent et ouvert : le code de Debtwatch est donc librement accessible).

C’est acceptable socialement et possible économiquement. Si les taux souverains venaient à augmenter et s’établissaient à 3,6 points par an (contre 0,2 % par an aujourd’hui), la charge d’intérêt remonterait au cours des prochaines 30 années lentement, du fait d’une maturité plutôt longue de la dette publique française, mais resterait plus faible que le poids des intérêts d’avant l’euro (simulation « kxyor » sur Debtwatch). Il faut de la défiance des marchés financiers, et donc une crise profonde en zone euro, pour construire des scénarios plus durs.

Réduire la dette publique est en revanche très coûteux. Pour ramener la dette publique à la situation d’avant l’épidémie, il faudrait augmenter les impôts (ou réduire les dépenses) de plus de 3 points de PIB, un peu moins que la moitié de la TVA (« fsunl »).

Certes, au bout de quelques années, on pourra les réduire à nouveau (l’arithmétique de la dette est désagréable) mais l’effort apparaît conséquent. Et la protection contre une hausse de taux est assez faible, puisque, l’économie d’intérêts en cas de hausse des taux souverains à 3,6 points ne serait que de 0,6 point de PIB. C’est aujourd’hui 15 milliards d’euros, soit la moitié de la dépense publique pour la culture et les cultes. Ce n’est pas rien, mais c’est ce qu’il faut mettre en regard du coût correspondant.

Enfin, notons qu’un retour à 60 % du PIB de dépense publique demanderait du sang et des larmes ( « eqiot »).

Il nous prémunirait contre 1,8 point de PIB de charge d’intérêt en plus, soit un cinquième des sommes perçues au titre de l’impôt sur le revenu et la CSG. À vous de juger si cela en vaudrait la peine.

______

(*) Par Xavier Timbeau, Économiste à l’Observatoire français des conjonctures économiques (OFCE), Sciences Po ; Elliot Aurissergues ; Chargé d’étude à l’OFCE, Sciences Po et Éric Heyer, Directeur à l’OFCE, Sciences Po.

La version originale de cet article a été publiée sur The Conversation.

Xavier Timbeau, Elliot Aurissergues et Éric Heyer

Quelle inflation ?

Quelle inflation ? 

 

Qu’elle soit souhaitable ou non, la hausse des prix entraîne avant tout une forme de redistribution différente des revenus et réoriente les comportements des agents économiques, note l’économiste Antoine Levy dans une tribune au « Monde ».

 

Tribune.

 

La crainte d’un retour de l’inflation prend régulièrement, dans le débat public, une dimension morale et quasi religieuse. Pour ses détracteurs, elle serait une forme de dépravation monétaire, privant les vertueuses fourmis du fruit de leur épargne au profit des cigales imprévoyantes. Pour d’autres, elle serait le signal avancé d’une économie florissante et de l’abandon des carcans idéologiques qui auraient bridé les pays avancés depuis quarante ans. Déterminer si l’inflation est une menace requiert pourtant de s’affranchir de ces jugements de valeur.

Les pressions inflationnistes actuelles sont en partie le fruit d’une tension généralisée sur les désormais célèbres « chaînes de valeur » : des goulets d’étranglement sont apparus çà et là sur les approvisionnements en raison de la réouverture post-Covid des économies, de la réallocation des emplois entre entreprises et du « rattrapage » après des mois de restrictions. Mais considérer l’offre sans se préoccuper de la demande serait trompeur. L’inflation est aussi le résultat du stimulus fiscal et monétaire direct sans précédent qui, depuis mars 2020 dans les pays avancés, a préservé le pouvoir d’achat des citoyens alors même que la production s’y contractait fortement. Cette déconnexion entre production et consommation a joué un rôle essentiel d’amortisseur social, abritant le niveau de vie du choc direct de la pandémie. Mais elle a aussi créé un déséquilibre entre offre et demande, qui pouvait difficilement manquer de peser sur le niveau des prix.

 

Ces tensions inflationnistes vont durer plus longtemps que ne le prévoyaient initialement les banques centrales. Par souci de crédibilité, il est improbable que ces mêmes institutions laissent filer une hyperinflation dont certains s’inquiètent déjà. Néanmoins, leur lenteur à reconnaître le niveau actuel de la hausse des prix indique leur réticence à agir préventivement. Attentives à éviter une hausse trop rapide des taux d’intérêt qui déstabiliserait les marchés de la dette publique, elles préfèrent courir le risque de prendre du retard sur l’inflation plutôt que d’être rendues responsables d’une nouvelle récession.

On peut donc imaginer pendant quelques années une inflation stabilisée à un niveau plus élevé que prévu, avec deux effets essentiels : la redistribution des ressources existantes et la modification des incitations économiques.

Favorable aux propriétaires

L’inflation est, en premier lieu, une forme de redistribution. Une vieille plaisanterie, reprise par le professeur Dani Rodrik, de l’université Harvard, dans son ouvrage Peut-on faire confiance aux économistes ? (De Boeck, 2017), affirme que « la réponse correcte à n’importe quelle question en économie est : cela dépend ». L’interrogation aujourd’hui sur toutes les lèvres, « faut-il avoir peur de l’inflation ? », ne fait pas exception.

Quelle huile alimentaire choisir ?

Quelle huile alimentaire choisir ?

 

 

Cet article est issu du magazine Sciences et Avenir – La Recherche n°896 daté octobre 2021.(extrait)

Olive, chanvre, avocat, soja. Une mer d’huiles envahit nos placards, apportant de nouvelles saveurs et une touche d’exotisme à nos plats, quand auparavant, une unique bouteille au contenu jaune pâle, pour tous usages et au goût neutre, trônait dans la cuisine. Voilà déjà plus de 7000 ans que dans le bassin méditerranéen, le fruit de l’olivier est broyé pour en extraire l’huile. Source d’énergie, constituant majeur de nos cellules et hormones, le « gras » est indispensable à notre organisme.

Selon l’Agence nationale de sécurité sanitaire des aliments (Anses), les lipides doivent représenter 35 à 40 % des apports énergétiques fournis par l’alimentation, soit 90 g par jour pour un adulte sachant qu’une cuillère à soupe d’huile en apporte environ 15 g. Toutefois aucune huile ne possède une composition nutritionnelle parfaite. Il faut donc jouer de leur complémentarité et en avoir plusieurs sortes pour couvrir nos besoins journaliers.

Les plus convoités sont les acides gras polyinsaturés, dont l’acide alpha-linolénique (ALA) (ou oméga-3) et l’acide linoléique (ou oméga-6). Ils sont dits essentiels car l’organisme ne sait pas les fabriquer et doit les puiser dans l’alimentation, permettant de fluidifier le sang, prévenir les maladies cardio-vasculaires et lutter contre le vieillissement. Les huiles de noix et de colza en apportent de bonnes quantités (respectivement 12 g/100 g et 7,5 g/100 g), et une cuillère à café d’huile de cameline suffit à couvrir nos besoins quotidiens en ALA (2 g/jour).

Les huiles de pépin de raisin et de tournesol sont riches en oméga-6 (respectivement 63,7 g/100 g et 56,3 g/100 g), mais attention à ne pas en abuser car en excès, ces acides gras ont un effet pro-inflammatoire. L’acide oléique (ou oméga-9), un acide gras mono-insaturé (AGPI) aux effets neutres sur la santé, est présent en quantité dans les huiles d’olive (75 g/100 g d’oméga-9), de noisette (72,7 g/100 g), de colza (55,2 g/100 g), d’avocat (50,3 g/100 g). Les acides gras saturés se retrouvent dans les huiles de palme (49,3 g/100 ) et de coprah (86,5 g/100 g), selon la table nutritionnelle Ciqual de l’Anses.

Allemagne : quelle instabilité politique ?

Allemagne : quelle instabilité politique ?

 

À écouter les experts français , l’Allemagne risque de rentrer dans une longue période d’instabilité politique. Aujourd’hui effectivement personne ne peut prédire le type d’alliance qui permettra de désigner un chancelier et le gouvernement allemand. Ce qui est certain c’est que les conservateurs de  Merkel ont enregistré une belle claque. Pour autant ni les conservateurs ni les sociaux démocrates ne peuvent envisager de diriger le gouvernement sans une alliance soit avec les écolos soient avec les libéraux ou les deux.

Il est vrai que les négociations risquent d’être longues pour se mettre d’accord sur un programme politique et sur l’attribution des principales responsabilités gouvernementales. Des négociations qui pourraient durer plusieurs mois. Ceci étant cette instabilité temporaire n’est pas nouvelle et chaque fois l’Allemagne a su la surmonter avec des alliances qui en France seraient contre nature est totalement impossible. Conservateurs et sociaux-démocrates ont déjà gouverné ensemble. Les écolos ont déjà été associés au gouvernement. La différence entre la France et l’Allemagne c’est qu’outre-Rhin les partis ont presque tous ( extrême droite excepté) une culture de gouvernement.

Il en va différemment en France ou extrême droite, extrême-gauche, écolos sont davantage des parties d’agitation et de protestation que des candidats à la gestion.

Selon des résultats officiels provisoires, les sociaux-démocrates ont recueilli 25,7 % des suffrages (+ 5 % par rapport au scrutin de 2017), contre 24,1 % pour la CDU qui accuse un score historiquement bas, inférieur de 9 points à celui récolté quatre ans auparavant. Le parti d’Angela Merkel ne renonce pas néanmoins à former une coalition alternative avec l’aide des deux mêmes formations, les Grünen et le FDP. Ces derniers ont obtenu respectivement 14,8 % et 11,5 % des voix.

Ce qui différencie la France et l’Allemagne c’est que les parties Allemands, eux, sont tous candidats à une alliance dans l’intérêt général du pays. En France voit mal comment l’extrême gauche, la droite, la gauche républicaine et les écolos pourraient envisager la moindre union.

Observant aussi que Angela Merkel restera à la manœuvre tant que le nouveau gouvernement ne sera pas . Un gage de continuité.

Environnement–Climat et marché : quelle compatibilité ?

Environnement–Climat et marché : quelle compatibilité ?

Face à l’idée prônée par le Prix Nobel Jean Tirole que la « bonne » économie consiste à combiner le jeu des intérêts particuliers, Benjamin Coriat , Économiste, développe dans son essai un modèle qui permettrait d’organiser une gestion durable et partagée des biens nécessaires à la vie de tous.( analyse du Monde, extrait)

 

 L’économiste Benjamin Coriat est l’un des principaux commentateurs et diffuseurs en France des idées d’Elinor Ostrom. L’Américaine, décédée en 2012, avait reçu le prix Nobel d’économie en 2009 pour ses travaux théoriques et empiriques sur la façon dont les communautés humaines gèrent ce que les Anglo-Saxons appellent les commons, et que l’on traduit en français de façon ambiguë soit par « les biens communs » (la nature, l’air, l’eau, le climat, l’énergie – tout objet dont l’appropriation par les uns prive les autres), soit par « le bien commun » au singulier (tout ce qui fait progresser le bonheur de l’humanité). Aussi son sang n’a-t-il fait qu’un tour lorsque Jean Tirole a publié, en 2016, Economie du bien commun (PUF), un essai dans lequel il tente de mettre ses travaux à portée du public. Pour le Prix Nobel d’économie (2014) en effet, « l’économie est au service du bien commun ; elle a pour objet de rendre le monde meilleur ».

Mais le fil rouge de son approche du bien commun n’en reste pas moins l’idée que la bonne économie consiste à combiner le jeu des intérêts particuliers. Or comme chacun cherche à obtenir un optimum de richesse pour lui-même, ce bien commun ne peut être atteint que sous ce que Tirole appelle le « voile de l’ignorance », qui empêche chacun d’agir rationnellement au mieux de ses intérêts, et permet aux marchés régulés d’atteindre un optimum collectif. Par exemple en incitant consommateurs et entreprises à accomplir la transition énergétique en organisant un marché du carbone où s’échangeraient des quotas de CO2.

C’est précisément ce que réfute Benjamin Coriat, pour qui le jeu, même régulé, des intérêts égoïstes ne peut que conduire à la catastrophe, et pour qui la justification de la recherche du bien commun par le « voile de l’ignorance » n’est qu’une pirouette rhétorique. Il est vrai que le cas du marché carbone européen tel qu’il a fonctionné jusqu’ici, décortiqué par l’auteur, n’est pas convaincant.

Aussi l’économiste préfère montrer que les solutions proposées par Elinor Ostrom restent le meilleur moyen d’éviter la catastrophe climatique. A savoir un modèle d’économie « polycentrée », qui permettrait à chaque niveau de collectivité humaine d’organiser à son échelle une gestion sobre, durable et partagée des biens nécessaires à la vie de tous, sans qu’aucune appropriation privée ni aucun niveau politique supérieur ou aucune « règle de marché » surplombante ne vienne l’entraver, mais plutôt l’appuyer.

Climat et marché : quelle compatibilité ?

Climat et marché : quelle compatibilité ?

Face à l’idée prônée par le Prix Nobel Jean Tirole que la « bonne » économie consiste à combiner le jeu des intérêts particuliers, Benjamin Coriat , Économiste, développe dans son essai un modèle qui permettrait d’organiser une gestion durable et partagée des biens nécessaires à la vie de tous.( analyse du Monde, extrait)

 

 L’économiste Benjamin Coriat est l’un des principaux commentateurs et diffuseurs en France des idées d’Elinor Ostrom. L’Américaine, décédée en 2012, avait reçu le prix Nobel d’économie en 2009 pour ses travaux théoriques et empiriques sur la façon dont les communautés humaines gèrent ce que les Anglo-Saxons appellent les commons, et que l’on traduit en français de façon ambiguë soit par « les biens communs » (la nature, l’air, l’eau, le climat, l’énergie – tout objet dont l’appropriation par les uns prive les autres), soit par « le bien commun » au singulier (tout ce qui fait progresser le bonheur de l’humanité). Aussi son sang n’a-t-il fait qu’un tour lorsque Jean Tirole a publié, en 2016, Economie du bien commun (PUF), un essai dans lequel il tente de mettre ses travaux à portée du public. Pour le Prix Nobel d’économie (2014) en effet, « l’économie est au service du bien commun ; elle a pour objet de rendre le monde meilleur ». 

Mais le fil rouge de son approche du bien commun n’en reste pas moins l’idée que la bonne économie consiste à combiner le jeu des intérêts particuliers. Or comme chacun cherche à obtenir un optimum de richesse pour lui-même, ce bien commun ne peut être atteint que sous ce que Tirole appelle le « voile de l’ignorance », qui empêche chacun d’agir rationnellement au mieux de ses intérêts, et permet aux marchés régulés d’atteindre un optimum collectif. Par exemple en incitant consommateurs et entreprises à accomplir la transition énergétique en organisant un marché du carbone où s’échangeraient des quotas de CO2.

C’est précisément ce que réfute Benjamin Coriat, pour qui le jeu, même régulé, des intérêts égoïstes ne peut que conduire à la catastrophe, et pour qui la justification de la recherche du bien commun par le « voile de l’ignorance » n’est qu’une pirouette rhétorique. Il est vrai que le cas du marché carbone européen tel qu’il a fonctionné jusqu’ici, décortiqué par l’auteur, n’est pas convaincant.

Aussi l’économiste préfère montrer que les solutions proposées par Elinor Ostrom restent le meilleur moyen d’éviter la catastrophe climatique. A savoir un modèle d’économie « polycentrée », qui permettrait à chaque niveau de collectivité humaine d’organiser à son échelle une gestion sobre, durable et partagée des biens nécessaires à la vie de tous, sans qu’aucune appropriation privée ni aucun niveau politique supérieur ou aucune « règle de marché » surplombante ne vienne l’entraver, mais plutôt l’appuyer.

Climat : Quelle civilisation techniquement soutenable ?

Climat : Quelle civilisation techniquement soutenable ?

Dans l’industrie, sur la question du réchauffement climatique, le professeur d’économie Christian Le Bas démontre, dans une tribune au « Monde », qu’il est vain de vouloir opposer les low-tech aux high-tech, car il faut conjuguer les deux.

 

Christian Le Bas,Professeur d’économie à Esdes Institute of Sustainable Business and Organizations Lyon Business School et UR Confluence, Sciences & Humanités – Université catholique de Lyon

Tribune

Dans l’industrie, sur la question du réchauffement climatique, le professeur d’économie Christian Le Bas démontre, dans une tribune au « Monde », qu’il est vain de vouloir opposer les low-tech aux high-tech, car il faut conjuguer les deux.

Les travaux sur les types de technologies permettant d’affronter en particulier l’impérieuse question du réchauffement climatique et de créer les bases d’une (nouvelle) économie soutenable d’après-crise ont fait resurgir une polarisation des débats sur des positions extrêmes entre les partisans du tout low-tech et les tenants de toujours plus de high-tech. Dans son livre L’Age des low tech (Seuil 2014), Philippe Bihouix défend l’idée d’une civilisation techniquement soutenable.

La thèse centrale est que les solutions à la crise environnementale et sociale ne doivent pas être recherchées « dans toujours plus d’innovations, de hautes technologies, de métiers à valeur ajoutée, de numérique… » On doit « au contraire nous orienter, au plus vite et à marche forcée, vers une société essentiellement basée sur des basses technologies, nettement plus économes en ressources et maîtrisables localement ».

 

L’économie circulaire n’aurait pas plus de valeur écologique aux yeux de l’auteur. Le livre se caractérise également par une forte critique de l’innovation. Or, les secteurs de basses technologies peuvent être extrêmement innovants, contrairement à ce que le livre laisse supposer. Et toute innovation n’est pas (loin de là) high-tech !

Une autre attitude extrême est celle qui consiste à refuser, en quelque sorte par principe, les solutions low-tech. Un bon exemple de ce point de vue a été récemment fourni par Les Sept Ecologies, de Luc Ferry (L’Observatoire. 2021). L’auteur parle du « retour au low-tech », du « retour au terroir et au low-tech » , « du retour en arrière aux low-tech ». Celles-ci sont irrémédiablement associées au passé, or, rien n’est plus faux. Les low-tech nous sont contemporaines.

Des secteurs industriels entiers sont low-tech tels que le textile et l’habillement, et l’agroalimentaire. Luc Ferry voit dans les technologies low-tech des secteurs peu innovants alors que l’innovation technologique y est présente et rapide. Elle est ainsi associée à la production pour de nouveaux marchés, à l’amélioration de la qualité des biens, à l’adaptation aux nouveaux goûts.

Afghanistan: après la débâcle qu’elle approche européenne commune ? (Manfred Weber)

Afghanistan: après la débâcle qu’elle approche européenne commune ? (Manfred Weber)

 Pour  Manfred Weber député allemand au Parlement européen, président du groupe Parti populaire européen (PPE),  face au flux migratoire prévisible, « il est fondamental que les Etats membres s’accordent sur une approche commune », plaide notamment le président du groupe PPE au Parlement européen(Tribune dans l’Opinion)

Débâcle. Chaos. Désastre absolu. Tragédie. Les mots manquent pour décrire les événements qui se trament en Afghanistan depuis que, au cœur de l’été, nous avons appris, ébahis, la prise de Kaboul, en à peine dix jours, par les Talibans.

Alors que le délai accordé pour les évacuations touche à sa fin, et que grâce au courage de nos forces présentes sur le terrain, les personnes devant être évacuées ont, pour la plupart, pu être mises à l’abri, des questions importantes devront être posées très prochainement, à nos amis américains notamment : comment est-il possible qu’après les milliards d’euros investis, l’envoi de tant de nos soldats et de personnel civil, l’Afghanistan se soit effondré si rapidement ? Comment une armée de 300 000 hommes, financée par la première puissance mondiale, a-t-elle pu se rendre sans combattre ? Comment se fait-il que nous ayons été, à ce point, pris de court ?

Par ailleurs, nous devons, de toute urgence, mener une réflexion approfondie sur les conséquences, pour l’Europe, de la situation en Afghanistan, et sur les actions à prendre. Celle-ci devra s’articuler autour de trois axes.

Tout d’abord, la débâcle occidentale en Afghanistan a mis en lumière de manière crue la très grande dépendance des Européens vis-à-vis des Etats-Unis. La situation créée par le retrait des troupes américaines et la mise au pied du mur des Européens par leurs alliés montrent bien que l’Europe ne peut plus compter sur les Etats-Unis pour jouer le rôle de gendarme du monde. Il est temps pour l’Europe de prendre son destin en main et d’assurer sa sécurité par elle-même. C’est pourquoi nous devons de toute urgence renforcer notre défense européenne commune.

Age noir. Deuxièmement, on peut désormais craindre un afflux massif de migrants (500 000 en 2021, selon l’ONU). Si nous, Occidentaux, avons le devoir moral de protéger et accorder l’asile aux ressortissants afghans qui ont travaillé pour nous, une chose est également très claire : l’Europe n’a pas vocation à accueillir toutes les personnes qui cherchent à fuir le régime des Talibans. Nous devons tout faire pour éviter une nouvelle vague migratoire similaire à celle que nous avons connue en 2015. Il nous faudra pour cela travailler en partenariat étroit avec les pays du voisinage de l’Afghanistan, afin que des solutions puissent être trouvées pour les réfugiés. Il est fondamental que les Etats membres s’accordent sur une approche commune.

Enfin, alors que l’ère de deux décennies d’expérience démocratique en Afghanistan touche hélas à sa fin, la responsabilité de la communauté internationale est de tenter de préserver les progrès majeurs qu’ont représenté les vingt dernières années en matière de droits des femmes et d’accès des filles à l’éducation dans le pays. Nous devons faire tout ce qui est en notre pouvoir et faire pression sur le nouveau régime pour éviter aux femmes afghanes un retour à l’âge noir du premier règne des talibans.

Manfred Weber est député allemand au Parlement européen, président du groupe Parti populaire européen (PPE). Retrouvez sa chronique chaque semaine sur lopinion.fr en alternance avec celle de Dacian Ciolos, président du groupe Renew Europe.

 

 

COVID-19: quelle efficacité des vaccins contre le variant delta ?

 

COVID-19: quelle efficacité des vaccins contre le variant delta ?

Il semble bien que des scientifiques éprouvent quelques difficultés à apprécier le taux d’efficacité des vaccins notamment vis-à-vis du variant Delta. De nombreux laboratoires militent déjà depuis plusieurs mois pour une piqûre de rappel. Des politiques se sont engagées avec des promesses de troisième dose.

Comme déjà indiqué, les scientifiques sont plus circonspects. Les laboratoires ont évidemment intérêt à justifier une troisième dose pour assurer leur carnet de commandes et perpétuer leurs énormes profits.

Certains politiques pratiquent la fuite en avant en raison du contexte électoral. D’autres sont tout simplement à la botte de l’industrie pharmaceutique. Reste qu’un vaccin contre le Covid  perd naturellement de son efficacité avec le temps. Une troisième dose sera sans doute nécessaire mais il est difficile de savoir si c’est au bout de six mois, d’un an ou davantage. En outre il faut tenir compte aussi de l’état pathologique de chacun.

« Il faut tenir compte du facteur temps », note aussi Renaud Piarroux, épidémiologiste et chef du service parasitologique de la Pitié Salpêtrière (AP-HP) sur notre plateau mercredi, « parce que cette étude a été réalisée aux États-Unis, sur du personnel médical qui a été vacciné assez tôt. On est maintenant à 6, 7, 8 mois après la vaccination ».

Energie Hydrogène : quelle perspectives pour la voiture électrique ?

Energie Hydrogène : quelle perspectives pour la voiture électrique ?

Le handicap des voitures électriques c’est évidemment l’énorme poêle mort des batteries aussi la question de la performance sans de la problématique écologique.( Extraction des métaux et Recyclage). D’où l’idée d’utiliser l’hydrogène via des piles à combustible. Un article des Échos rappelle la problématique.

La pile à combustible va désormais concurrencer les batteries dans les véhicules électriques. Reste à faire baisser les coûts, produire de l’hydrogène propre et mailler le territoire de stations.

Le véhicule électrique à batteries rechargeables pourrait-il être envoyé à la retraite de façon prématurée ? Certes, il s’en est vendu quelque 2,2 millions l’an dernier, mais malgré les énormes investissements des constructeurs, les ventes ne décollent pas vraiment et les batteries sont toujours pointées du doigt : coût environnemental élevé, autonomie trop limitée et temps de recharge trop long. En face, le véhicule fonctionnant avec une pile à combustible alimentée en hydrogène sort à peine des limbes mais présente de sérieux atouts. L’Agence internationale de l’énergie (AIE), longtemps réservée sur l’hydrogène, a publié en juin dernier un rapport qui lui est très favorable, notamment dans le domaine des transports : « Le moment est venu d’exploiter le potentiel de l’hydrogène pour jouer un rôle clef dans un environnement énergétique propre, sûr et sécurisé. »

La Californie vise un million de véhicules électriques à hydrogène à l’horizon 2030. Même objectif pour la Chine, qui possède pourtant la moitié du parc mondial de véhicules électriques mais met désormais le cap sur l’hydrogène. C’est aussi une priorité nationale au Japon et en Corée. Car après une vingtaine d’années pour mettre au point la technologie, les premiers véhicules commerciaux, ceux de Toyota et de Hyundai, ont été lancés en 2014. Aujourd’hui la réglementation s’est adaptée et les arguments écologiques de la pile à combustible font mouche. Elle produit de l’électricité à partir de l’hydrogène embarqué dans un réservoir et de l’oxygène de l’air. Si bien que le véhicule ne produit ni gaz à effet de serre ni particule et ne rejette que de l’eau. En outre, faire un plein d’hydrogène prend 3 minutes au plus.

Encore faut-il avoir une station sous la main. C’est le point crucial. Le Japon et l’Allemagne ont déjà installé plusieurs dizaines de stations, tout comme la Californie et la Chine, qui prévoient d’en avoir un millier à l’horizon 2030. La France est plus timide et ne voit aujourd’hui circuler que 400 véhicules. Lancé par Nicolas Hulot, le plan national de déploiement de l’hydrogène pour la transition écologique privilégie les projets de transports en commun et de flotte captive. A l’image de Versailles, des Hauts-de-France ou de Pau où des bus fonctionnant à hydrogène entrent en service. « L’usage du véhicule hydrogène par les particuliers n’est pas prioritaire à cause du maillage de stations qu’il exige. Mieux vaut se concentrer sur les applications spécifiques comme les flottes, les professionnels ou les bus », justifie Maxime Pasquier, spécialiste du sujet à l’Ademe. Une approche trop timide pour les partisans de l’hydrogène au premier rang desquels l’Association française pour l’hydrogène et les piles à combustible (Afhypac). « L’hydrogène règle le problème de la voiture électrique et des problèmes posés par les batteries. Avec 2 milliards d’euros, soit le tiers du coût d’une ligne TGV, on construit un réseau d’un millier de stations. C’est d’abord un choix politique », s’agace Pierre-Etienne Franc, vice-président hydrogène énergie chez Air Liquide.

 Pas si simple, réplique Maxime Pasquier : « Les énergéticiens ont évidemment intérêt à distribuer de l’hydrogène. Encore faut-il le faire dans de bonnes conditions environnementales. Il faut avoir une vision globale depuis la production de l’énergie primaire jusqu’à la consommation. » En effet l’hydrogène, essentiellement produit à partir de gaz naturel, ne constitue pas encore la panacée écologique. Sans parler du rendement de la pile à combustible qui est inférieur à celui d’une batterie. Conséquence, en intégrant les émissions liées à la production d’hydrogène, une voiture à pile à combustible dégage autant de CO2 qu’une automobile à moteur thermique.

Cependant, les choses pourraient évoluer très vite puisque l’on sait produire un hydrogène « vert », certes plus cher, grâce à l’électrolyse. « Il n’y a pas de verrou technologique et les coûts vont baisser avec le passage à l’échelle industrielle », assure Florence Lambert, directrice du CEA-Liten. D’autant que les scientifiques travaillent déjà sur la technologie suivante, l’électrolyse à haute température. Dans son projet Zero Emission Valley, qui porte sur 20 stations et un millier de véhicules, la région Auvergne-Rhône-Alpes prévoit ainsi de produire l’hydrogène grâce à 15 électrolyseurs répartis sur le territoire.

L’autre atout majeur de la voiture à hydrogène, c’est l’absence de particules. « Cela permet de résoudre immédiatement un gros problème de santé publique dans une ville comme Paris », insiste Mathieu Gardies, cofondateur de Hype. La jeune entreprise, soutenue par Air Liquide et qui a passé un partenariat avec Toyota, possède une flotte de 120 taxis à hydrogène Mirai et devrait en faire rouler 600 dès l’année prochaine . « L’hydrogène, c’est le pétrole de demain sans l’inconvénient de la géopolitique. La France a un véritable savoir-faire industriel avec beaucoup de brevets au CEA mais aussi au CNRS. Il faut y aller car le monde ne va pas attendre », analyse Florence Lambert.

L’hydrogène vert pourrait aussi devenir plus abondant et moins cher de 30 % d’ici à 2030 grâce aux énergies renouvelables, estime l’AIE. « Les prix de l’électricité solaire ou éolienne ont tellement baissé que des pays pourraient en consacrer une partie à produire de l’hydrogène », prédit Paul Lucchese, pionnier du secteur au sein du CEA et président de l’Hydrogen Implementing Agreement (HIA) au sein de l’Agence internationale de l’énergie (AIE) : « Le Japon passe déjà des accords avec la Nouvelle-Zélande, le Chili ou Brunei. »

L’intérêt des pays émergents

Quant à la pile à combustible, elle devrait aussi voir ses coûts baisser, estime Pierre Forté, fondateur de la société Pragma Industries, spécialiste du vélo à hydrogène (voir ci-dessous) : « Le coût d’une batterie est lié pour 70 % au prix de ses matériaux quand celui d’une pile à combustible dépend pour 90 % de son processus de fabrication. Sous réserve qu’une rupture intervienne dans le monde des batteries, je suis donc persuadé que les piles à combustible seront à terme beaucoup moins chères. »

L’avenir de l’hydrogène dans la mobilité dépendra pourtant d’abord des infrastructures. « Je ne crois pas à un développement massif dans le véhicule léger à un horizon visible, en raison des coûts de déploiement pour assurer un réseau dense de stations de recharge. Il faudrait pour cela des volontés politiques coordonnées à un niveau international », estime Patrice Geoffron, professeur au Laboratoire d’économie de Dauphine et spécialiste de l’énergie. On pourrait voir une répartition des rôles : au véhicule à batterie la mobilité urbaine et à celui à hydrogène les trajets longue distance.

A moins que les réseaux électriques finissent par jouer les arbitres. « Dans bien des pays émergents on pousse l’hydrogène en avant car les réseaux électriques ne sont pas suffisamment stables pour assurer la recharge des batteries », observe Fabio Ferrari, président de Symbio, un fabricant de piles à combustible créé à partir de recherches menées aux CEA, filiale de Michelin et dont Faurecia devrait devenir coactionnaire d’ici la fin de l’année. Un problème qui pourrait à long terme s’étendre aux pays européens, estime Paul Lucchese : « C’est un aspect qu’on oublie, mais qu’adviendra-t-il lorsque des millions de véhicules électriques auront besoin d’une recharge rapide ? »

Il fut l’une des vedettes du G7 de Biarritz au mois d’août dernier. Développé et fabriqué parPragma Industries, une jeune entreprise locale, Alpha est le premier vélo fonctionnant grâce à l’hydrogène. Le système est logé dans le cadre. La bonbonne de gaz alimente la pile à combustible qui fournit l’électricité au petit moteur placé au niveau du moyeu, comme sur n’importe quel vélo électrique. Pragma,mis en avant par la région Nouvelle-Aquitaine, a profité de l’événement pour mettre 200 vélos à disposition des participants. Un succès puisqu’ils ont parcouru près de 4.500 kilomètres en quatre jours. Avec une autonomie de 150 kilomètres et bientôt 200 kilomètres pour un prix de 7.000 euros, qui va descendre à 4.000 euros l’an prochain, ils ne sont pas destinés aux particuliers. « Nous ne vendons pas seulement un vélo mais un écosystème complet de mobilité durable », résume Pierre Forté, le fondateur de l’entreprise. Pragma Industries a ainsi déjà vendu une centaine de vélos et des bornes de rechargement à plusieurs municipalités comme Bayonne, Saint-Lô, Cherbourg ou Chambéry. Quant aux 200 vélos présentés à Biarritz, ils ont été acquis par le groupe Engie Cofely. « Grâce au coup de projecteur du G7, nous avons beaucoup de contacts provenant du Kazakhstan, d’Inde, de Chine ou du Mexique, dans lesquels le réseau est insuffisant pour recharger les vélos électriques classiques », assure Pierre Forté.

Quatrième vague de Covid-19: Quelle ampleur ?

 

Quatrième vague de Covid-19: Quelle ampleur ?

     

Philippe Amouyel, professeur de santé publique au CHU de Lille, et Jérémie Guedj, chercheur à l’Inserm, passent au crible le variant delta, responsable de la quatrième vague de Covid-19 S’inquiètent de la vitesse de propagation de la quatrième vague Covid ( dans l’Opinion )

 

On compte en moyenne 19 000 cas positifs au Covid-19 chaque jour, en hausse d’environ 90 % sur une semaine. Les admissions en soins critiques augmentent de 73 % par rapport à la semaine dernière.Les experts considèrent à juste titre que la vaccination et les mesures barrières situent les meilleurs moyens de lutter contre le virus.. Reste que cette réflexion demeure pour l’instant pertinente pour les pays développés. En effet, il faudra au moins plusieurs années pour vacciner l’ensemble de la population mondiale. Actuellement seulement 20% de  de la population sont vaccinés dans les pays pauvres. Un temps largement suffisant pour développer de nouveaux variants encore plus contaminants qui viendront y compris y compris dans les pays développés.

 

« Si on continue à se vacciner au rythme où on se vaccine, les simulations et les modélisations de l’institut Pasteur à Paris montrent que finalement, la crainte que l’on avait d’atteindre d’ici trois semaines 4 000 hospitalisations quotidiennes pourrait tomber aux alentours de 2 500 et que si en plus un certain nombre de mesures barrières comme le pass sanitaire sont bien respectées, on pourrait espérer 2 000 », explique à l’Opinion Philippe Amouyel, professeur de santé publique au CHU de Lille.

Particulièrement forte, la quatrième vague s’explique par la présence du variant delta qui représente désormais 90% des cas, selon le site CovidTracker.

« Il se répand très vite mais il ne semble pas être plus virulent, c’est-à-dire entraîner des formes beaucoup plus graves que ce que l’on connaît jusqu’à présent, analyse Philippe Amouyel. Il entraîne des formes graves, la vaccination protège notamment contre ces formes graves, mais pour l’instant, pas apparemment de différence avec le variant alpha (britannique) si ce n’est cette contamination beaucoup plus grande qui amène bien sûr plus de gens en hospitalisation à un certain moment. »

Selon une étude chinoise publiée sur le site de la revue Nature, les personnes infectées par le variant delta auraient une charge virale jusqu’à 1 260 fois supérieure à celle des personnes infectées par la souche d’origine.

Une donnée reprise par le ministre de la Santé Olivier Véran au Sénat le 22 juillet : « La charge virale, c’est-à-dire la capacité, une fois que vous êtes infecté, à projeter vous même du virus serait 1 000 fois supérieure avec le variant delta qu’avec les variants précédents. »

« Les vaccins ARN (Pfizer, Moderna) en particulier, ont une très bonne efficacité, rappelle Jérémie Guedj de l’Inserm. En premier lieu contre les formes graves, c’est-à-dire l’hospitalisation. Mais ils ont même une efficacité contre les formes juste symptomatiques et ils gardent une efficacité extrêmement importante contre les infections asymptomatiques. Et là, si on revient à nos histoires de charge virale, une des raisons pour lesquelles ils marchent si bien, c’est que même un individu qui est infecté quand il est vacciné, sa charge virale, sa quantité de virus, va être nettement plus faible qu’un individu qui aurait été infecté mais qui ne serait pas vacciné.Et on estime que des individus vaccinés mais infectés vont avoir un risque de transmission qui va diminuer de 50% par rapport à un individu qui serait infecté mais non vacciné. Et donc ça  à avoir une infection moins symptomatique, une infection qui va être plus rapidement éliminée par l’organisme et qui va éviter d’aller vers tout cet emballement du système immunitaire qui peut aboutir, dans ces formes graves, à l’hospitalisation. »

1...45678...12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol