Archive pour le Tag 'siècle'

Le socialisme, écologie du XXIe siècle !!!

Le socialisme, écologie du XXIe siècle !!!

 

Le socialisme doit au prix d’un travail théorique, intégrer le paradigme écologique, analyse, dans une tribune pour « Le Monde », Patrick Vieu, ancien conseiller « environnement et territoires » de François Hollande.

Effectivement il y a de quoi s’interroger par rapport à une idéologie qui a surtout privilégié le productivisme et contesté le droit de la biodiversité sur le droit social. En outre en France le socialisme s’est perdu dans les terrains mouvants social libéralisme. Il pourrait tout autant se perdre maintenant dans un paradigme écologique le conduisant vers le gauchisme.

 

Forts de leurs résultats aux dernières élections municipales, départementales et régionales, les socialistes rêvent de redevenir la force centrale d’une grande alliance majoritaire « de la gauche et des écologistes ».

Ainsi, le Parti socialiste (PS) a-t-il opéré sa conversion à la « social-écologie ». S’il continue, dans son projet, de revendiquer le « primat de l’humanisme et de la justice sociale », c’est pour affirmer « la nécessité de donner une actualité à ces combats en intégrant pleinement le paradigme écologique pour construire le socialisme du XXIe siècle ».

Au-delà des mots, le socialisme est-il en mesure de véritablement « intégrer » le paradigme écologique ? Avant d’être politique ou technique, la question est philosophique. Et si elle mérite d’être posée, c’est que le socialisme et l’écologie politique, nés dans des contextes radicalement différents, reposent sur des hypothèses fondamentalement divergentes.


On peut caractériser l’écologie politique par quelques traits qui en forment la matrice intellectuelle et sont autant de critiques adressées à l’ordre contemporain. L’écologie politique s’inscrit d’abord en faux contre l’anthropocentrisme qui fait de l’homme le maître et possesseur d’une nature conçue comme une « ressource » utile. Elle récuse le modèle productiviste engendré par un capitalisme prédateur à l’origine des désastres écologiques actuels, et dénonce l’autonomie de la technique moderne qui, par un processus auto-entretenu, expose l’humanité au risque de sa propre destruction.

Elle exige ainsi de repenser la responsabilité de l’homme envers la nature et les générations futures. A l’individualisme possessif de la société libérale, elle oppose une pensée de la globalité, dans laquelle les fins de l’individu n’ont de signification morale qu’indexées au bien du « tout » : espèce, communauté, société, humanité. Enfin, l’écologie politique attribue à la verticalité des structures institutionnelles la confiscation de la décision publique au détriment des citoyenLe socialisme, dont les origines intellectuelles puisent à l’héritage des Lumières, tombe sous le coup de ces critiques. Au prisme de l’écologie politique, la vision socialiste des rapports de l’homme à la nature ne le distingue guère de l’idéologie libérale.

Comme le libéralisme, le socialisme a toujours lié l’idéal d’autonomie à celui de l’abondance matérielle. Jamais il n’a séparé cet idéal de l’espérance dans le progrès scientifique et technique, la production de richesses et l’attachement à la propriété. L’humanisme, qui constitue l’ADN du socialisme, exclut de reconnaître des droits à des entités non humaines. Si la nature doit être préservée, ce n’est pas en raison de sa valeur intrinsèque, mais de celle que l’homme lui attribue. Enfin, si les socialistes entendent rééquilibrer les pouvoirs de l’Etat, c’est davantage dans le cadre d’une démocratie représentative décentralisée que dans celui d’une démocratie directe dont ils se sont toujours méfiés.

Contrat de défense du siècle : rappel des ambassadeurs en Australie et aux États-Unis

Contrat de défense du siècle : rappel des ambassadeurs en Australie et aux États-Unis

 

Après la claque reçue à propos de l’annulation de la commande de sous-marins australiens, appelée contrat du siècle, la France devait évidemment de réagir même symboliquement. Avec un peu de retard, le gouvernement a rappelé ses ambassadeurs d’Australie et des États-Unis.

Reste cependant au-delà de cette annulation de commande la question plus générale de la solidité de l’alliance atlantique qui apparaît de plus en plus comme un parapluie percé. Témoin très récemment aussi cette débandade en Afghanistan.

«Cette décision exceptionnelle est justifiée par la gravité exceptionnelle des annonces effectuées le 15 septembre par l’Australie et les États-Unis», a dit dans un communiqué le ministre des Affaires étrangères, Jean-Yves Le Drian.

«L’abandon du projet de sous-marins de classe océanique qui liait l’Australie à la France depuis 2016, et l’annonce d’un nouveau partenariat avec les États-Unis visant à lancer des études sur une possible future coopération sur des sous-marins à propulsion nucléaire, constituent des comportements inacceptables entre alliés et partenaires, dont les conséquences touchent à la conception même que nous nous faisons de nos alliances, de nos partenariats et de l’importance de l’indopacifique pour l’Europe», a aussi dit le ministre.

Biden et Johnson torpillent le marché du siècle de sous-marins pour l’Australie

Biden et Johnson torpillent le marché du siècle de sous-marins pour l’Australie

 

 

Après l’accord stratégique de défense entre les États-Unis, l’Australie et le Royaume-Uni («AUKUS» )  , l’Australie a annulé le contrat du siècle des sous-marins que devait fournir la France. Ce partenariat de sécurité conduit l’Australie à annuler sa commande à la France

 

«La décision que nous avons prise de ne pas continuer avec les sous-marins de classe Attack et de prendre un autre chemin n’est pas un changement d’avis, c’est un changement de besoin», a déclaré Scott Morrison, qui a également annoncé l’achat de missiles américains Tomahawk.

 

 

Ouvrir la fonction publique aux enjeux du XXIe siècle ?

Ouvrir la fonction publique aux enjeux du XXIe siècle ?

Il faudrait ouvrir la fonction publique aux meilleures compétences et donc pour cela distinguer cette fonction publique du statut de fonctionnaire. André Loesekrug-Pietri, président de la Joint European Disruptive Initiative (JEDI), estime dans une tribune au JDD que l’administration française doit s’inspirer des exemples de l’étranger pour se régénérer et répondre aux défis du XXIe siècle.

 

tribune

 

 

  »L’administration est l’emblème de l’État moderne – comme le dit Bourdieu, de l’État bureaucratique qui a substitué au Prince des clercs administrant la res publica. On commente beaucoup la décision du Président de remplacer l’ENA par un Institut du service public, plus représentatif de la société. Mais le problème n’est-il pas ailleurs? Dans les carrières à 100% publiques et la quasi-absence de ponts entre haute fonction publique et… reste du monde?

La pandémie l’a montré, les administrations nationales et européennes semblent déconnectées de l’agilité et de l’expertise requises pour les défis de notre temps : sciences, logistique, digital, ressources humaines. Le XXIe siècle est celui d’une double exigence : les compétences requises, de plus en plus pointues ; et la capacité à appréhender tous les angles, politiques, technologiques, économiques ou sociétaux grâce à un travail en écosystème, régalien-société civile, national-international.

Il faut observer la montée en compétences de l’administration américaine

Aux États-Unis, quand on parle de spoil system, on retient que le Président change un grand nombre de fonctionnaires pour s’assurer efficacité et loyauté. On oublie l’avantage clé, un immense appel d’air avec des compétences qui auront su se régénérer dans les mondes technologique, économique, académique. Rien de cela à Bruxelles, Berlin ou Paris où l’on voit des hauts fonctionnaires dévoués mais où l’on passe de la recherche à l’agriculture ou du budget au digital sans en avoir ni l’expérience ni parfois l’expertise. Mécanisme doublement pernicieux car il exclut violemment tout corps étranger qui se serait égaré par envie de servir le bien public.

Il faut observer la montée en compétences de l’administration américaine – qui va puiser auprès des plateformes tech les as de l’antitrust, dans les labos les stratèges de l’innovation, dans la défense certains grands diplomates. Les conflits d’intérêts sont réduits par la vigilance continue du Sénat. Grâce à ce nouveau souffle, l’administration Biden signe le retour de la superpuissance américaine, sur les sujets où la France et l’Europe n’ont pas assez poussé leurs pions ces quatre dernières années : la technologie, le climat, l’espace, la géopolitique.

Voilà l’enjeu du prochain quinquennat et de la conférence pour l’avenir de l’Europe : reformer l’État non par une approche simplement budgétaire ou organisationnelle, mais en ouvrant largement ses portes aux meilleures compétences. Une renaissance de l’État. »

 

XXIe siècle : le temps d’une nouvelle gestion des risques

XXIe siècle : le temps d’une nouvelle gestion des risques

Dans un long entretien accordé à La Tribune, Denis Kessler, PDG du groupe de réassurance SCOR revient sur la séquence de la pandémie, son impact sur les métiers de la (ré)assurance et les enseignements qu’il conviendrait de tirer de cette crise sanitaire exceptionnelle. Il dénonce l’impréparation des pouvoirs publics face à un risque pourtant identifié de longue date. Il assure ne pas craindre l’inflation dont il attend pourtant le retour, car Scor est bien armé face au risque de hausse des taux, affirme-il.

 

 

LA TRIBUNE – Les assureurs et les réassureurs n’ont-ils pas été pris en défaut en ne prévoyant pas l’aléa de la pandémie ?

DENIS KESSLER- La propagation de maladies infectieuses figurait en bonne place dans la cartographie des risques identifiés, étudiés et modélisés par les assureurs et réassureurs bien avant la pandémie de Covid-19. SCOR a développé son propre modèle de quantification du risque pandémique dès 2007.

Durant les dernières années, la réglementation prudentielle a aussi contribué au développement de la connaissance et de la modélisation de ce risque par les (ré)assureurs. Ceux-ci doivent ainsi, selon les règles prudentielles en vigueur en Europe depuis 2016, chiffrer le coût d’une pandémie bicentenaire – c’est-à-dire dont la « période de retour » probabiliste est de 200 ans – et démontrer qu’ils peuvent absorber cette charge : c’est l’un des tests de solvabilité. SCOR a d’ailleurs procédé, en 2013, à l’émission d’une obligation catastrophe pour se couvrir contre une hausse importante de la mortalité aux États-Unis (« mortality bond » ou « pandemic bond »). Et nous avons organisé avec l’Institut Pasteur un colloque international sur le risque de pandémie en… juin 2018 ! En résumé, le suivi et la gestion du risque pandémique faisaient déjà partie intégrante de notre gestion des risques lorsque l’épidémie de Covid-19 s’est déclarée.

Les (ré)assureurs n’ont donc pas été pris « par surprise » par la survenance du choc pandémique, qui était bien dans « l’espace » des scénarios qu’ils étudient et modélisent, et dont le risque était quantifié tant en termes de probabilité que de gravité. En revanche, les (ré)assureurs avaient sous-estimé l’ampleur de l’impact des décisions prises par les pouvoirs publics – confinements, couvre-feux, fermetures administratives… – pour enrayer la diffusion du virus.

Ces mesures, qui in fine ont limité ou arrêté l’activité économique et entraîné des pertes d’exploitation considérables pour les entreprises, ont très fortement impacté l’exposition des assureurs et réassureurs à la crise de la Covid-19. Conséquence : à ce jour, près de 90% du coût de la pandémie concerne la (ré)assurance de dommages et de responsabilité, quand seulement 10% de ce coût concerne la (ré)assurance de personnes… C’est une situation quasi symétrique à celle qui était anticipée et modélisée jusqu’à présent ! Les décisions prises par les pouvoirs publics ont de facto profondément transformé la nature du risque pour les (ré)assureurs.

Vous me permettrez de souligner que s’il y a eu un acteur pris totalement par surprise, ce sont bien les pouvoirs publics : rien n’était prêt ! Comment voulez-vous dans ce cas que l’on puisse nous même anticiper ce qu’ils allaient mettre en œuvre ?

Cette intervention des États n’était-elle pas prévisible ?

Comment voulez-vous modéliser les décisions politiques ? Vous me permettrez de souligner que s’il y a eu un acteur pris totalement par surprise, ce sont bien les pouvoirs publics : rien n’était prêt ! Comment voulez-vous dans ce cas que l’on puisse nous même anticiper ce qu’ils allaient mettre en œuvre ?

Contrairement aux catastrophes naturelles, ces décisions n’obéissent pas à des « lois de la nature ». Elles sont stochastiques, un peu aléatoires, évolutives, beaucoup de tâtonnements … Au demeurant, le fait que les mesures prises face à la pandémie de Covid-19 sont très différentes d’un pays à l’autre – alors que ces derniers sont confrontés à des situations très similaires – en atteste !

Rappelons ici que certains pays n’ont mis en place aucun confinement… Même dans l’Europe des 27, il y a eu 27 façons différentes de gérer la crise ! Et au sein d’un pays donné, une alternance politique peut complètement modifier les mesures mises en œuvre. Comment pouvait-on par exemple modéliser le résultat des élections présidentielles aux États-Unis, et quantifier ex ante ses conséquences sur la mise en œuvre de la campagne de vaccination outre-Atlantique ? La modélisation des décisions administratives et politiques lato sensu est strictement impossible car celles-ci comportent une part d’incertitude radicale et irréductible.

Quelles leçons tirez-vous, en tant que (ré)assureur, de cette crise ?

En tant que réassureur, la plus grande leçon tirée de cette crise tient au fait que la sinistralité du choc de la pandémie de Covid-19 est bien plus concentrée sur la (ré)assurance des biens et de responsabilité que sur la (ré)assurance de personnes.

Une autre « surprise » tient au fait que les (ré)assureurs ont été voués aux gémonies par de nombreux commentateurs et responsables politiques parce qu’ils ne proposent pas de protection contre les conséquences économiques de la pandémie, notamment les pertes d’exploitation des entreprises consécutives aux fermetures administratives et au confinement de la population.

Si le marché de l’assurance ne propose pas de telle protection, c’est évidemment pour des raisons de fond, qui tiennent à la nature même de ce risque. De fait, celui-ci est intrinsèquement non assurable, pour trois raisons principales.

D’abord, il est « sériel ». Quasiment tous les agents économiques sont touchés concomitamment, ce qui crée un problème manifeste de mutualisation des risques, alors même qu’il s’agit du principe cardinal de l’assurance. Le corollaire de ce caractère sériel est que la taille du risque est colossale. Comment voulez-vous « assurer » un pourcentage significatif du PIB d’un pays ?

Ensuite, ce risque comporte une composante endogène très forte, dans la mesure où il est très dépendant de décisions politiques. Son ampleur est déterminée par une myriade de variables directement contrôlées par les pouvoirs publics : la mise en œuvre ou non d’un confinement ; le cas échéant pour quelle durée ; le choix des commerces et entreprises qui peuvent continuer à exercer leur activité, totalement ou partiellement, et de ceux dont l’activité doit être entièrement mise à l’arrêt ; la nature et l’étendue des amortisseurs de la crise – tels le chômage technique ou partiel – mis en place pour éviter le déchirement du tissu économique, etc.

Le problème réside dans le fait que ces décisions politiques ne sont intrinsèquement ni anticipables ni modélisables… ce qui rend l’évaluation du risque et le calcul éventuel de la prime d’assurance impossibles.

Enfin, la dernière raison, plus technique, de non-assurabilité de ce risque tient à de possibles phénomènes d’antisélection et d’aléa moral. L’antisélection est l’effet par lequel seuls les agents économiques les plus exposés s’assurent, ce qui réduit l’effet de mutualisation. En l’espèce, seules les entreprises des secteurs les plus touchés – hôtellerie, restauration, tourisme… – achèteraient une protection (sauf à ce qu’elle soit obligatoire, ce qui poserait des questions d’acceptabilité). Celles appartenant à un secteur épargné – par exemple l’e-commerce – n’auraient aucun intérêt à s’assurer.

L’aléa moral est l’effet par lequel le risque est augmenté par une modification du comportement des agents économiques dès lors qu’une assurance joue le rôle de filet de protection. En l’espèce, la couverture du coût du confinement par des tiers (les assureurs) créerait un problème d’aléa moral manifeste au niveau des pouvoirs publics, qui n’assumeraient plus le coût économique des décisions qu’ils prennent alors même qu’ils décident des voies et moyens pour faire face à la crise sanitaire et qu’ils sont in fine responsables de sa gestion ! Une telle situation pourrait de fait inciter les pouvoirs publics à mettre en œuvre des mesures plus coûteuses économiquement dont la charge insupportable incomberait aux assureurs et aux réassureurs.

Bercy et les assureurs ont pourtant imaginé un dispositif permettant une mutualisation des risques, mais qui a fait long feu face à la cotisation obligatoire…

Aucun pays au monde n’est arrivé à ce jour à mettre au point un mécanisme de prise en charge par l’assurance des pertes d’exploitation en cas de pandémie. Ce n’est pas surprenant. Il ne s’agit pas de « mauvaise volonté » de la part des assureurs, mais d’impossibilité technique et économique. Le risque des conséquences économiques d’une pandémie est sériel – tant dans l’espace que dans le temps -, endogène, non modélisable et sujet à l’aléa moral et à l’antisélection. Conséquence : il n’est pas assurable. Je l’ai écrit au début de cette crise – il y a plus d’un an – et je n’ai encore trouvé personne pour démontrer le contraire.

Le risque cyber présente-t-il des points communs avec le risque de pandémie ?

Ces deux risques présentent effectivement de nombreux points communs. Ce n’est d’ailleurs pas un hasard si l’on recourt aussi au terme de « virus » en informatique ! Le risque cyber est lui aussi sériel, notamment du fait de l’essor des objets connectés. A l’instar du risque pandémique, c’est un risque quasi-impossible à territorialiser. Et le risque cyber présente également un caractère endogène : sa nature peut être profondément modifiée par les mesures de prévention mises en œuvre (ou pas) par les assurés… Enfin, même s’il n’est pas à proprement parler non modélisable, le risque cyber est difficile à quantifier et à modéliser, non seulement en raison de ce caractère endogène mais aussi, plus fondamentalement, en raison du manque de données et de sa nature très évolutive, qui limite notre capacité à l’évaluer prospectivement à partir de la seule observation de la sinistralité passée.

Que répondez-vous aux assureurs qui dénoncent une plus grande frilosité des réassureurs face à la montée des risques ?

Il convient ici de rappeler une évidence : c’est en (ré)assurant que les (ré)assureurs créent de la valeur… De ce point de vue, accuser les (ré)assureurs de ne pas vouloir assurer des risques par « frilosité » ou par « mauvaise volonté » est aussi ubuesque que d’accuser un boulanger de ne pas vouloir vendre plus de pain !

Si le marché de la (ré)assurance ne propose pas de protection pour un risque donné, c’est simplement que les conditions d’assurabilité de ce risque ne sont pas réunies.

La volonté – et vocation – du (ré)assureur est de déplacer la frontière de l’assurabilité. Il faut toutefois insister sur le fait que l’expansion de la sphère des risques assurables ne relève pas de la seule responsabilité de ce dernier. Les assurés – et les risk managers - ont notamment un rôle essentiel à jouer pour la collecte et le partage d’informations, l’échange d’expertise, la quantification du dommage, mais aussi la mise en œuvre active de mesures de prévention et de contrôle, afin de réduire la probabilité de survenance du risque et en maîtriser la gravité en cas de survenance.

A défaut, l’offre de (ré)assurance ne peut structurellement qu’être inférieure à la demande de (ré)assurance. Ce déséquilibre se traduit donc par une situation sous-optimale, où la (ré)assurance est très onéreuse – avec des conditions de couverture restrictives – sinon même indisponible. Réunir les conditions d’assurabilité face aux risques modernes requiert donc une sorte de cogestion du risque entre ses porteurs – les (ré)assureurs – et ceux qui y font face.

Ce partage de responsabilités est la condition sine qua non pour déplacer positivement la frontière de l’assurabilité et donc réduire le déficit de couverture assurantielle – le protection gap - qui est toujours considérable à l’échelle mondiale.

Le XXIe siècle sera celui du risk management… ou ne sera pas.

Le XXIe siècle sera-t-il le siècle des catastrophes ?

L’univers des risques est de facto à la fois en expansion et en mutation. Il croît et se transforme de façon permanente, avec, d’une part, l’innovation technologique et le progrès scientifique ; et, d’autre part, la globalisation et le développement des activités humaines, qui entraînent notamment l’apparition d’interdépendances de plus en plus complexes. L’univers des risques doit donc être appréhendé et analysé de manière holistique. Les risques sont de plus en plus sériels, globaux. Beaucoup de risques ne sont plus circonscrits dans le temps et dans l’espace comme cela était traditionnellement le cas.

Mais attention à ne pas sombrer pour autant dans le catastrophisme ! Il faut garder confiance en la capacité de l’intelligence humaine à gérer les risques et à relever les défis afférents.

Je suis fondamentalement positiviste, je dirais même comtiste. Nous traversons une période extraordinaire et très féconde sur les plans scientifique et technologique : informatique quantique, intelligence artificielle, big datamachine learning, robots, blockchain, nanotechnologies, recherche génétique… Même s’ils multiplient aussi les risques auxquels nos sociétés doivent faire face, tous ces développements sont intrinsèquement très positifs.

J’insiste sur le fait que le principe de prévention est plus important que le principe de précaution. Si ce dernier signifie qu’il faut s’abstenir de développer des technologies dès lors qu’il existe une incertitude sur leurs conséquences, alors le principe de précaution est lui-même dangereux, dans la mesure où il pourrait ralentir le progrès scientifique et l’innovation !

La bonne attitude est de gérer activement les risques à tous les niveaux : favoriser une culture des risques ; généraliser le « risk management » tant au niveau individuel qu’au niveau collectif ; investir dans la compréhension des risques ; développer la prévention pour diminuer la probabilité de survenance et la gravité des risques ; et favoriser le partage des risques, y compris via des partenariats public-privé. Le XXIe siècle sera celui du risk management… ou ne sera pas.

Quel est votre scénario pour 2021 ?

La crise de la Covid-19 est toujours en cours, et il est impossible de prédire avec certitude son évolution future. SCOR a développé un modèle épidémiologique compartimental permettant de modéliser le développement de la mortalité liée à la Covid-19 en fonction de plusieurs hypothèses – comme par exemple la durée des confinements, le degré de rigueur dans l’application de la distanciation sociale, la rapidité de mise en œuvre des campagnes de vaccination, ou encore l’efficacité desdits vaccins – et de mesurer l’impact de ces différents paramètres sur la gravité et la durée du phénomène pandémique dans les différentes régions du monde.

Sur la base de ce modèle que nous avons constamment amélioré depuis maintenant plus d’un an, et en nous appuyant sur une fourchette plausible pour les différents paramètres, nous prévoyons une réduction très sensible du nombre de décès liés à la pandémie d’ici la fin du troisième trimestre 2021. La véridicité de cette projection dépend toutefois très largement de la mise en œuvre des campagnes de vaccination et leur acceptation par la population, qui sont encore sujettes à de nombreuses inconnues, ainsi que l’apparition éventuelle de nouveaux variants.

Personne n’est en mesure de prédire si une accélération de l’inflation, et des taux d’intérêt, va se produire. Ce qui est clair, c’est que la probabilité d’un tel scénario a augmenté sensiblement durant les derniers mois

Sur un plan plus économique, craignez-vous un retour de l’inflation ?

Personne n’est en mesure de prédire si une accélération de l’inflation, et des taux d’intérêt, va se produire. Ce qui est clair, c’est que la probabilité d’un tel scénario a augmenté sensiblement durant les derniers mois, particulièrement aux États-Unis. Nous ne craignons pas ce scénario à SCOR, pour une raison simple : le Groupe y est pleinement préparé !

A l’actif, nous poursuivons une stratégie d’investissement prudente, caractérisée par une appétence limitée aux risques de marché. Notre portefeuille obligataire, qui constitue l’essentiel des placements du Groupe, est de très bonne qualité, avec une note de crédit moyenne de A+, et bénéficie d’une duration courte. Ainsi, notre portefeuille de placements est très liquide, avec 8,4 milliards d’euros de cash-flows financiers attendus au cours des 24 prochains mois, qui pourraient être réinvestis à des conditions de marché plus avantageuses si l’inflation, et partant, les taux, venaient à monter.

Au passif, nous ne sommes que très faiblement exposés au risque d’inflation. Nos engagements en matière de réassurance vie, qui sont concentrés sur la couverture des risques dits « biométriques » ‒ mortalité, longévité, dépendance, santé, etc. ‒, ne sont pas affectés. Pour ce qui est de nos engagements en matière de (ré)assurance de dommages et de responsabilité, ils seraient certes impactés par une accélération de l’inflation, mais de manière contenue dans la mesure où notre portefeuille de risques est essentiellement constitué de lignes à développement court, et non de lignes à développement long.

Au global, la remontée des taux d’intérêt serait une bonne nouvelle pour le groupe SCOR, qui verrait tant sa solvabilité que sa rentabilité s’élever.

J’ajoute que, dans un scénario de remontée brutale de l’inflation et des taux d’intérêt, le passif de SCOR serait exposé à un risque de liquidité quasi nul. Pour ce qui est de notre activité de (ré)assurance de dommages et de responsabilité, il y a deux raisons à cela.

D’une part, cette activité est structurellement en situation de cash-flow positif, car elle bénéficie d’un cycle inversé de production : les primes sont encaissées avant paiement des sinistres éventuels. D’autre part, le passif correspondant qui figure à notre bilan se caractérise par une grande « viscosité » : il ne peut être « retiré » que si nos clients (ré)assurés subissent un dommage leur donnant droit à une indemnisation. L’activité de (ré)assurance de dommages et de responsabilité n’est donc pas associée à un risque de « course aux guichets » (bank run) ‒ c’est-à-dire de retrait massif et soudain des passifs ‒, pouvant générer une crise de liquidité. De même, pour ce qui est de notre activité de réassurance vie, nous ne sommes pas exposés à un risque de liquidité du fait de notre concentration exclusive sur les risques biométriques.

Alors que le gouvernement vient de décider de prolonger les mesures de restrictions pour le mois d’avril, que pensez-vous de la réaction des pouvoirs publics, qui a privilégié la vie à l’économie ?

La décision des pouvoirs publics de privilégier le « tout-sanitaire » à l’économie est manifeste, et attestée par le désormais célèbre « quoi qu’il en coûte »… D’autres pays ont fait un arbitrage plus équilibré et plus judicieux.

Ce qui me frappe, je le répète, c’est d’une part l’impréparation et d’autre part le manque flagrant d’efficacité des pouvoirs publics pour gérer la crise sanitaire.

La pandémie a pris de court toutes les institutions concernées en France : les hôpitaux n’étaient pas préparés, les capacités de dépistage sont restées longtemps quasi inexistantes, les masques sont restés longtemps indisponibles, les modalités du confinement n’avaient pas été prévues… Et aujourd’hui, nous faisons face à une pénurie de vaccins !

Le « risk management » public a été à l’évidence défaillant. Nous en avions déjà la démonstration avant la crise sanitaire, comme en atteste la situation chronique de déficit public dans laquelle le pays se trouve depuis plus de 40 ans. L’Etat se borne depuis trop longtemps à un rôle principalement curatif, réactif. Et, de fait, il semble toujours agir dans l’urgence.

Il doit désormais impérativement donner la priorité à la prévention et à la protection. Il est pleinement légitime pour organiser la prévention, pour garantir la sécurité des citoyens. Cela relève d’ailleurs de sa responsabilité régalienne. A l’avenir, l’Etat devra davantage recourir à la technologie pour être efficace.

Le monde a-t-il changé avec cette crise ?

La violence de ce choc et son universalité, tant par son caractère global que par la multi-dimensionalité de ses conséquences – sanitaires, sociales, économiques, financières, géopolitiques – auront à l’évidence une grande résonance dans de multiples domaines.

J’ai écrit il y a un an que ce choc pourrait déplacer significativement et durablement « l’axe » autour duquel la Terre tournait jusqu’à présent. Ma conviction n’a pas changé, elle a même été renforcée : le cours de l’Histoire sera substantiellement modifié par cette crise globale, qui remet en cause nombre de nos convictions et appelle l’élaboration de solutions originales dans de nombreux domaines. Il va falloir réinventer le monde !

GEL: « la CATASTROPHE AGRONOMIQUE DU SIECLE » ( DENORMANDIE)

GEL: « la CATASTROPHE AGRONOMIQUE » ( DENORMANDIE)

A juste titre le ministre de l’agriculture a considéré que le dernier épisode de Joël constitué la catastrophe agronomique du siècle. En cause une nature très en avance du fait de la douceur exceptionnelle de mars et brutalement surprise par le froid intervenu en avril ces derniers jours et qui devrait d’ailleurs se reproduire aussi cette semaine. Les productions les plus touchées concernent les activités viticoles, arboricoles mais aussi d’autres

« Ce sont plusieurs centaines de milliers d’hectares – je dis bien centaines de milliers d’hectares – qui ont été impactés », a déclaré lundi le ministre de l’Agriculture sur le plateau d’Audition Publique pour LCP, Public Sénat et Le Figaro. « En termes d’argent, ce sera très significatif », a-t-il ajouté, à propos des futures pertes.

Plusieurs centaines de milliers d’hectares de cultures ont été impactés par le brutal épisode de gel qui a suivi la forte hausse des températures enregistrée au mois de mars. C’est « un épisode d’une extrême violence qui a causé des dégâts extrêmement significatifs », avait souligné Julien Denormandie vendredi, en visite dans un vignoble de Parçay-Meslay (Indre-et-Loire), près de Tours.

Avec -3°C prévus localement mardi et mercredi en France, de nouvelles gelées matinales sont attendues cette semaine.

Procès Environnement : « L’affaire du siècle » ?

Procès Environnement : « L’affaire du siècle » ?

 

 

Ce qu’on qualifie l’affaire du siècle concernant l’action judiciaire entreprise au tribunal administratif pour faire condamner l’État pour non-respect des engagements concernant l’environnement est évidemment un événement. Reste qu’il ne faut pas sacrifier à l’emphase sémantique, tout ne changera pas après le jugement du tribunal administratif. Il faudra bien d’autres décisions judiciaires sans doute mais aussi des actions concrètes par secteur d’activité et avec les acteurs économiques et pas seulement les écolos bobos. Il ne suffit pas en effet de loi de décrets ou d’orientation centralisée pour modifier une problématique aussi complexe que celle du rappeur entre l’environnement et la vie quotidienne.

 

Cette action en justice climatique qui résonnera bien au-delà des frontières de la France doit absolument aboutir, expliquent, dans une tribune au « Monde », les principaux auteurs d’actions en justice climatiques à travers le monde. Mais que signifie aboutir ? Comme l’avait déjà fait le conseil d’État adressé des remontrances au gouvernement et le mettre en demeure d’agir davantage ? Sans doute mais ce sera bien insuffisant pour mettre en œuvre une politique concrète articulant aspects environnementaux, économiques et sociaux.

Tribune. 

 

La question de savoir si nous serons collectivement en mesure de répondre au dérèglement climatique est bel et bien l’affaire de notre siècle. Car le climat nous concerne toutes et tous, avec d’importants impacts sur les écosystèmes, notre santé, notre capacité à vivre sur cette planète, et évidemment sur nos économies et nos modèles politiques.

Mais aussi, sur la justice sociale, car il devient de plus en plus évident que nous ne sommes pas tous touchés de la même manière par les modifications du climat, à travers le monde, ainsi que sur nos territoires ; et que de la même manière, nous ne sommes pas équitablement protégés. Les Etats n’ont pas plus le droit de violer les droits fondamentaux des citoyens que de ne pas agir pour le climat. Il s’agit d’un seul et même combat.

Le climat est donc une affaire de justice, et pas seulement des politiques. Ou pour le dire plus clairement : si les moyens et méthodes d’action pour le climat relèvent bien de choix politiques, agir pour le climat devrait déjà être compris partout comme une obligation s’imposant aux autorités publiques, et plus encore au sein des démocraties et états de droit.

Mille actions en justice

C’est ce que chacun d’entre nous défend dans son pays, c’est aussi ce que les jeunes Portugais défendent face à une trentaine d’Etats européens dont on attend encore une réaction politique à la hauteur de l’enjeu climatique. Au cours des dix dernières années, plus de mille actions en justice climatique ont été recensées à travers le monde. Parmi elles, celle de Urgenda a emporté victoire sur victoire depuis 2015, jusqu’à la toute dernière, en décembre 2019, devant la Cour Suprême néerlandaise.

Cette décision, de la plus haute juridiction d’un des Etats membres de l’Union européenne (UE), devrait inspirer les tribunaux du monde entier. Dans son arrêt, la Cour suprême néerlandaise a estimé que, sur la base des droits humains fondamentaux, les Pays-Bas ont le devoir de faire leur juste part dans la lutte contre la crise climatique et doivent donc réduire leurs émissions plus rapidement que ce à quoi la politique de l’époque était disposée à s’engager. Les droits et principes appliqués par la Cour suprême néerlandaise sont universels. Concomitante du lancement de « L’affaire du siècle », elle doit aussi éclairer la décision qui sera celle des juges français.

Les Etats n’ont pas plus le droit de violer les droits fondamentaux des citoyens que de ne pas agir pour le climat. Il s’agit d’un seul et même combat

Environnement : « L’affaire du siècle » ?

Environnement : « L’affaire du siècle » ?

 

 

Ce qu’on qualifie l’affaire du siècle concernant l’action judiciaire entreprise au tribunal administratif pour faire condamner l’État pour non-respect des engagements concernant l’environnement est évidemment un événement. Reste qu’il ne faut pas sacrifier à l’emphase sémantique, tout ne changera pas après le jugement du tribunal administratif. Il faudra bien d’autres décisions judiciaires sans doute mais aussi des actions concrètes par secteur d’activité et avec les acteurs économiques et pas seulement les écolos bobos. Il ne suffit pas en effet de loi de décrets ou d’orientation centralisée pour modifier une problématique aussi complexe que celle du rappeur entre l’environnement et la vie quotidienne.

 

Cette action en justice climatique qui résonnera bien au-delà des frontières de la France doit absolument aboutir, expliquent, dans une tribune au « Monde », les principaux auteurs d’actions en justice climatiques à travers le monde. Mais que signifie aboutir ? Comme l’avait déjà fait le conseil d’État adressé des remontrances au gouvernement et le mettre en demeure d’agir davantage ? Sans doute mais ce sera bien insuffisant pour mettre en œuvre une politique concrète articulant aspects environnementaux, économiques et sociaux.

Tribune. 

 

La question de savoir si nous serons collectivement en mesure de répondre au dérèglement climatique est bel et bien l’affaire de notre siècle. Car le climat nous concerne toutes et tous, avec d’importants impacts sur les écosystèmes, notre santé, notre capacité à vivre sur cette planète, et évidemment sur nos économies et nos modèles politiques.

Mais aussi, sur la justice sociale, car il devient de plus en plus évident que nous ne sommes pas tous touchés de la même manière par les modifications du climat, à travers le monde, ainsi que sur nos territoires ; et que de la même manière, nous ne sommes pas équitablement protégés. Les Etats n’ont pas plus le droit de violer les droits fondamentaux des citoyens que de ne pas agir pour le climat. Il s’agit d’un seul et même combat.

Le climat est donc une affaire de justice, et pas seulement des politiques. Ou pour le dire plus clairement : si les moyens et méthodes d’action pour le climat relèvent bien de choix politiques, agir pour le climat devrait déjà être compris partout comme une obligation s’imposant aux autorités publiques, et plus encore au sein des démocraties et états de droit.

Mille actions en justice

C’est ce que chacun d’entre nous défend dans son pays, c’est aussi ce que les jeunes Portugais défendent face à une trentaine d’Etats européens dont on attend encore une réaction politique à la hauteur de l’enjeu climatique. Au cours des dix dernières années, plus de mille actions en justice climatique ont été recensées à travers le monde. Parmi elles, celle de Urgenda a emporté victoire sur victoire depuis 2015, jusqu’à la toute dernière, en décembre 2019, devant la Cour Suprême néerlandaise.

Cette décision, de la plus haute juridiction d’un des Etats membres de l’Union européenne (UE), devrait inspirer les tribunaux du monde entier. Dans son arrêt, la Cour suprême néerlandaise a estimé que, sur la base des droits humains fondamentaux, les Pays-Bas ont le devoir de faire leur juste part dans la lutte contre la crise climatique et doivent donc réduire leurs émissions plus rapidement que ce à quoi la politique de l’époque était disposée à s’engager. Les droits et principes appliqués par la Cour suprême néerlandaise sont universels. Concomitante du lancement de « L’affaire du siècle », elle doit aussi éclairer la décision qui sera celle des juges français.

Les Etats n’ont pas plus le droit de violer les droits fondamentaux des citoyens que de ne pas agir pour le climat. Il s’agit d’un seul et même combat

Climat: le procès du siècle ?

Climat: le procès du siècle ?

«L’Affaire du siècle» arrive jeudi 14 janvier devant la justice, une étape clé pour les défenseurs du climat qui espèrent la reconnaissance d’une défaillance de l’État dans la lutte contre le réchauffement.

Deux ans après le lancement de cette procédure, accompagnée de 2,3 millions de signatures d’une pétition en ligne sans précédent, les quatre ONG requérantes – Notre Affaire à tous, Greenpeace France, Fondation Nicolas Hulot et Oxfam France – retrouvent les représentants de l’État devant le tribunal administratif de Paris.

Le problème c’est que la procédure risque d’être très longue. Elle pourrait donner lieu aussi à une sorte de jugement à la Pyrrhus avec reconnaissance de certaines responsabilités à l’Etat mais avec des injonctions très théoriques de se mettre en conformité avec les engagements en matière d’émissions polluantes.

Un jugement un peu sur le mode du conseil d’État.

En novembre dernier, le Conseil d’État, dans une décision qualifiée d’«historique» par les défenseurs de la planète, a lui-même noté que la France, qui s’est engagée à réduire de 40% ses émissions d’ici 2030 par rapport à 1990, a dépassé les budgets carbone qu’elle s’était fixés. Et la plus haute juridiction administrative française, saisie par la commune de Grande-Synthe qui s’estime menacée de submersion sur le littoral du Nord, a donné trois mois à l’État pour justifier de ses actions en matière de réduction des émissions de CO2.

Cette décision, qui s’ajoute à celle de la même juridiction ayant donné en juillet six mois à l’État pour agir contre la pollution de l’air sous peine d’une astreinte record

« Schengen : pour des règles communes dignes du XXIe siècle »

« Schengen : pour des règles communes dignes du XXIe siècle »

 

Dacian Ciolos , député européen, estime indispensable de clarifier les règles de Schengen dans une chronique à l’Opinion

 

Timidement, les 440 millions d’Européens ont retrouvé la possibilité de franchir librement les frontières intérieures de l’espace européen. Les formulaires administratifs à remplir exigeant des raisons impérieuses pour les traverser et les longues files de voitures et de camions nous ont rappelé la valeur de ce droit fondamental qu’est la libre circulation, droit écorné par des mois de restrictions, rendues nécessaires par la crise du Coronavirus.

L’unité européenne passe par un retour à un espace Schengen pleinement fonctionnel, tirant les leçons de la crise. Aucun Etat ne peut être laissé en quarantaine à l’écart de cette liberté. C’est une des clefs de la résilience de nos pays.

Plus que jamais, l’interdépendance économique des Etats membres est une réalité manifeste, y compris à travers des travailleurs qui ne font jamais la Une des journaux : les travailleurs saisonniers, pourtant indispensables pour les secteurs agricole et alimentaire, le transport, la construction, les services sociaux, le tourisme, mais aussi d’autres secteurs moins connus pour cela tels que certains services informatiques, de soin aux personnes ou bien d’autres.

Ces travailleurs ont été le symbole d’une Europe plus que nécessaire et interdépendante, mais aussi des limites et des dérives dès lors que nous ne disposons pas de règles suffisamment claires, appliquées uniformément. Comme souvent, ce n’est pas l’excès d’Europe, mais le manque d’Europe qui nous fait défaut.

La mort, le 11 avril, de Nicolae Bahan, cueilleur d’asperges en Allemagne a mis le doigt et alerté l’opinion publique sur les conditions désastreuses dans lesquelles travaillent certains saisonniers. Ils ont été, eux aussi, aux côtés de nos agriculteurs, des maillons stratégiques de notre sécurité alimentaire quotidienne pendant la crise.

Manque de coordination entre les organismes de santé, méconnaissance des droits sociaux de base, non-respect du principe d’égalité des droits entre salariés sans discrimination de nationalité sont quelques-unes des failles mises en lumière

Normes sociales. Manque de coordination entre les organismes de santé, méconnaissance des droits sociaux de base, non-respect du principe d’égalité des droits entre salariés sans discrimination de nationalité, défauts dans la mise en œuvre des règles existantes, et manque de coordination avec les partenaires sociaux des pays d’accueil sont quelques-unes des failles mises en lumière. Celles-ci étaient bien connues avant la crise mais, avec la pandémie, elles ont entraîné des drames.

Pour les salariés, comme pour les employeurs, il est urgent d’offrir la clarté nécessaire, les règles et les modalités administratives simples et digitalisées dignes du XXIe siècle.
Le plan de reconstruction ouvre un vaste chantier européen. Il nous permettra tous ensemble de relancer nos économies et d’être plus forts. Il passe par de l’investissement massif dans nos secteurs stratégiques, mais aussi par l’approfondissement du projet européen, y compris des droits et normes sociales au bénéfice de l’ensemble des Européens quel que soit leur pays d’origine.

Dacian Ciolos est député européen, président du groupe centriste et libéral Renew Europe depuis 2019. Il est ancien Premier ministre de Roumanie. Sa chronique «Europa» est publiée en alternance avec celle de Manfred Weber, président du groupe PPE, chaque dimanche sur lopinion.fr et le lundi dans le journal.

Commissariat au Plan : inapproprié au XXIe siècle !

Commissariat au Plan : inapproprié au XXIe siècle ! 

Un article très révélateur de Corinne Lepage, écolo ancienne ministre, qui démontre l’inconsistance et les contradictions de la pensée économique de l’auteur. Citons le principale: « pour qu’il y ait plan, encore faut-il savoir où on veut aller. » Or précisément le plan vise à dégager des scénarios de prospective pour indiquer la direction, éclairage précisément encore plus nécessaire  quand l’horizon est un peu complexe. Ce texte est un tissu de contradictions et met en évidence l’indigence de la réflexion économique de certains écolos de gauche mais aussi de droite (comme Corinne Lepage). Une tribune dans le très droitier site du Huffington post.

 

Tribune

L’annonce de recréer un Commissariat au Plan avec un poste de haut-commissaire offert à une personnalité politique, de surcroît maire en exercice, a beaucoup surpris.

On rappellera que le Commissariat au Plan, tel qu’on l’a connu dans les années 1960 sous le vocable d’ardente obligation, était parfaitement justifié par la nécessité de reconstruire la France d’après-guerre. À l’époque, les dirigeants savaient parfaitement ce qu’ils voulaient faire mais avaient besoin de planifier les investissements, ce qui justifiait des périodes quinquennales se succédant les unes aux autres. La suppression du Commissariat au Plan, partiellement remplacé par une forme de think-thank, a correspondu à une triple convergence entre la décentralisation en 1982, la perte de capacités de l’État sur le plan économique et l’envahissement du néolibéralisme et de l’hyper-financiarisation de l’économie.

Alors pourquoi recréer un Commissariat au Plan?

Il est indéniable que la France a besoin d’un projet solide de construction de la transition économique, écologique, sociale et sociétale. Le gouvernement navigue à vue et personne n’est capable de définir ce qu’est aujourd’hui le projet pour la France -en espérant qu’il n’y ait pas un projet secret de financiarisation croissante de notre économie. Dans ces conditions, un Commissariat au Plan est totalement inapproprié puisque pour qu’il y ait plan, encore faut-il que l’on sache où on veut aller avec un projet précis.

 

Ce n’est évidemment pas le cas et cela pour deux raisons majeures: la situation d’incertitude qui est beaucoup plus grande que celle que nous avons connue par le passé est un premier frein; de même qu’il y a nécessité d’inventer pour construire une société résiliente qui puisse affronter les transformations rapides qu’elle va connaître. Sur le premier point, même si l’histoire n’a jamais été écrite d’avance, la transformation accélérée du monde sur le plan physique comme sur le plan technologique sans oublier les tensions géostratégiques et toutes les formes de criminalité imposent de travailler sur des scénarios (comme par exemple ceux de l’institut des futurs souhaitables de Mathieu Baudin). L’imagination est donc un outil majeur à laquelle il faut ajouter une parfaite connaissance de l’histoire. Le deuxième point découle directement du premier puisque le projet doit être constamment adaptable ce qui signifie que l’adaptabilité doit être autant celle des hommes que des choix effectués. Autrement dit, il faut savoir dire en même temps ce que nous souhaitons devenir, quelle est la ligne directrice mais aussi comment nous allons pouvoir le faire dans un avenir fluctuant.

De plus, un haut-commissariat au projet ne va pas sans poser une question politique majeure. N’est-ce pas en réalité la tâche du Président de la République que de porter un projet de long terme et de le faire appliquer par son gouvernement? Dès lors, la désignation d’un haut-commissaire pour inventer le projet France sur le moyen et long terme est non seulement une forme d’échec démocratique mais également un risque technocratique. Comme l’a souligné Erwan le Noan dans L’Opinion du 23 août 2020, les organismes chargés de penser le long terme auprès de l’État mobilisent déjà 824 personnes et 3,6 millions d’euros, sans compter le centre d’analyse stratégique. Aussi, sauf à créer un comité Théodule supplémentaire, un haut-commissariat au projet France ne pourrait se concevoir que dans une refonte globale de tous les organismes existants. Ce qui implique un haut-commissaire répondant sur le plan intellectuel comme sur le plan de l’image à ce que la France peut imaginer de son avenir.

 

Dans la mesure où à l’évidence, “nous ne pouvons pas résoudre nos problèmes avec la même pensée que nous avions quand nous les avons créés” (Einstein), la mission d’un haut-commissariat ne peut se faire que dans la co-construction avec les territoires. Ce n’est pas l’œuvre d’un homme comme au temps de Jean Monnet en 1946, c’est avec une coopération avec les communes, les départements et les régions que la transformation de notre pays pourra se faire. En prenant en compte les atouts et inconvénients de chacun de ces territoires. Pour ce faire, la puissance publique dispose des fonds européens en partenariat avec les régions, elle a des outils comme les CPER.

Pourtant, la puissance publique ne tient pas toujours parole et les retards de financement sont nombreux sur les territoires. Pour éviter les projets anachroniques du nucléaire, des incinérateurs, des autoroutes, c’est par la norme climato-compatible et l’acceptation de nos concitoyens que nous pourrons réellement faire entrer la France dans le XXIe siècle avec seulement 20 ans de retard.

 

Une catastrophe climatique: + 3 à 5 degrés en plus d’ici la fin du siècle

Une catastrophe climatique:  + 3 à 5 degrés en plus d’ici la fin du siècle

A lors qu’on ergote encore sur les mesures à prendre que la COP 21 reste au stade du slogan de marketing politique sans effet y compris en France, une catastrophe se  prépare pour la fin du siècle. En cause évidemment une financiarisation mondiale de l’économie incompatible avec la problématique environnementale. Le Record de chaleur est confirmé pour 2019 par   l’organisation météorologique mondiale qui  prévoit une augmentation de trois à 5° la fin du siècle. La température moyenne mondiale a gagné entre 1,05°C et 1,2°C l’an dernier par rapport à l’ère préindustrielle, confirme l’Organisation météorologique mondiale.

Des  scientifiques de Météo France avaient déjà  présenté les scénarios de changement climatique en France jusqu’en 2100 dans un rapport intitulé Le climat de la France au 21e siècle..  En métropole dans un horizon proche entre 2021 et 2050, les chercheurs projettent une hausse des températures moyennes entre 0,6 et 1,3 °C, une augmentation du nombre de jours de vagues de chaleur en été (surtout dans le quart Sud-est) ainsi qu’une diminution du nombre de jours anormalement froids en hiver sur l’ensemble de la France.

Puis, d’ici la fin du siècle entre 2071 et 2100, les tendances s’accentueraient encore. Les scientifiques observent une forte hausse des températures moyennes pouvant atteindre de 2,6 °C à 5,3°C en été, des vagues de chaleur pouvant dépasser 20 jours dans le Sud-Est mais aussi la poursuite de la diminution des extrêmes froids Les scénarios sont en effet alarmants : des épisodes de sécheresse plus nombreux sont à prévoir ainsi qu’un renforcement des précipitations extrêmes sur une large partie du territoire.

Pour  l’Organisation météorologique mondiale (OMM), l’agence des Nations unies pour la météorologie. La température moyenne sur l’ensemble du globe a affiché une hausse comprise entre 1,05°C et 1,2°C l’an dernier par rapport à l’ère préindustrielle, selon les cinq sources différentes compilées par l’OMM. L’agence de Genève utilise deux jeux de données en provenance des États-Unis, fournies par l’Institut Goddard de la Nasa et celles de l’administration américaine pour l’océan et l’atmosphère (NOAA), les informations communiquées par le bureau britannique de météorologie (Met Office) regroupées avec celles de l’université East Anglia. Enfin, l’OMM compile les statistiques japonaises et celles en provenance de l’Union européenne fournies par Copernicus et le Centre européen de prévision météorologique à moyen terme. Ce dernier était arrivé aux mêmes conclusions la semaine dernière.

La température moyenne l’an dernier a toutefois été un peu inférieure à celle de 2016, qui avait été aggravée par un fort phénomène climatique El Niño.

L’OMM précise que la moyenne sur les cinq dernières années est la plus haute mesurée, comme celle sur la dernière décennie. Chaque période de dix ans bat le record de la précédente décennie depuis le début des années 1980. «Malheureusement, nous nous attendons à voir de nombreux phénomènes météorologiques extrêmes en 2020 et au cours des prochaines décennies, alimentés par des niveaux records de gaz à effet de serre qui emprisonnent la chaleur dans l’atmosphère», prévient le secrétaire général de l’OMM, Petteri Taalas. La concentration de CO2

dans l’atmosphère a atteint un nouveau pic depuis le début de l’ère industrielle en 2019.

En outre, «plus de 90 % de la chaleur excédentaire (liée au réchauffement) est stockée dans les mers du monde entier, où elle s’accumule et provoque des augmentations de température de l’océan», estiment des chercheurs américains dans la revue Advances in Atmospheric Sciences. Ils soulignent que la température a encore augmenté l’an dernier, comme ce fut le cas au cours des années précédentes.

 

Climat : 2019 , un record qui annonce + 3 à 5 degré en plus d’ici la fin du siècle

Climat : 2019 , un record qui annonce + 3 à 5 degré en plus d’ici la fin du siècle

Record confirmé par l’organisation météorologique mondiale et perspectives d’augmentation de trois à 5° la fin du siècle. La température moyenne mondiale a gagné entre 1,05°C et 1,2°C l’an dernier par rapport à l’ère préindustrielle, confirme l’Organisation météorologique mondiale.

Des  scientifiques de Météo France avaient déjà  présenté les scénarios de changement climatique en France jusqu’en 2100 dans un rapport intitulé Le climat de la France au 21e siècle..  En métropole dans un horizon proche entre 2021 et 2050, les chercheurs projettent une hausse des températures moyennes entre 0,6 et 1,3 °C, une augmentation du nombre de jours de vagues de chaleur en été (surtout dans le quart Sud-Est) ainsi qu’une diminution du nombre de jours anormalement froids en hiver sur l’ensemble de la France.

Puis, d’ici la fin du siècle entre 2071 et 2100, les tendances s’accentueraient encore. Les scientifiques observent une forte hausse des températures moyennes pouvant atteindre de 2,6 °C à 5,3°C en été, des vagues de chaleur pouvant dépasser 20 jours dans le Sud-Est mais aussi la poursuite de la diminution des extrêmes froids Les scénarios sont en effet alarmants : des épisodes de sécheresse plus nombreux sont à prévoir ainsi qu’un renforcement des précipitations extrêmes sur une large partie du territoire.

Pour  l’Organisation météorologique mondiale (OMM), l’agence des Nations unies pour la météorologie. La température moyenne sur l’ensemble du globe a affiché une hausse comprise entre 1,05°C et 1,2°C l’an dernier par rapport à l’ère préindustrielle, selon les cinq sources différentes compilées par l’OMM. L’agence de Genève utilise deux jeux de données en provenance des États-Unis, fournies par l’Institut Goddard de la Nasa et celles de l’administration américaine pour l’océan et l’atmosphère (NOAA), les informations communiquées par le bureau britannique de météorologie (Met Office) regroupées avec celles de l’université East Anglia. Enfin, l’OMM compile les statistiques japonaises et celles en provenance de l’Union européenne fournies par Copernicus et le Centre européen de prévision météorologique à moyen terme. Ce dernier était arrivé aux mêmes conclusions la semaine dernière.

La température moyenne l’an dernier a toutefois été un peu inférieure à celle de 2016, qui avait été aggravée par un fort phénomène climatique El Niño.

L’OMM précise que la moyenne sur les cinq dernières années est la plus haute mesurée, comme celle sur la dernière décennie. Chaque période de dix ans bat le record de la précédente décennie depuis le début des années 1980. «Malheureusement, nous nous attendons à voir de nombreux phénomènes météorologiques extrêmes en 2020 et au cours des prochaines décennies, alimentés par des niveaux records de gaz à effet de serre qui emprisonnent la chaleur dans l’atmosphère», prévient le secrétaire général de l’OMM, Petteri Taalas. La concentration de CO2

dans l’atmosphère a atteint un nouveau pic depuis le début de l’ère industrielle en 2019.

En outre, «plus de 90 % de la chaleur excédentaire (liée au réchauffement) est stockée dans les mers du monde entier, où elle s’accumule et provoque des augmentations de température de l’océan», estiment des chercheurs américains dans la revue Advances in Atmospheric Sciences. Ils soulignent que la température a encore augmenté l’an dernier, comme ce fut le cas au cours des années précédentes.

 

Le siècle du populisme (Rosanvallon)

Le siècle du populisme ( Rosanvallon)

le phénomène du populisme abordé de face par Pierre Rosanvallon (d’après le site philimag.com .)

«  On a pris l’habitude de la nommer, faute de mieux, le « populisme ». Elle fait beaucoup parler d’elle depuis qu’en Europe et ailleurs, elle a déferlé sur plusieurs démocraties et menace presque toutes les autres. Les réactions qu’elle suscite sont habituellement de deux ordres. Certains sont frappés de stupeur devant ce qui leur semble relever d’une aberrante régression, tant politique qu’intellectuelle. Ceux-ci ne cessent de nous avertir des graves dangers qui nous guettent. D’autres, au contraire, accueillent ce mouvement comme une aubaine et relancent la rhétorique de l’opposition entre le peuple et les élites – c’est le cas de Michel Onfray avec Grandeur du petit peuple chez Albin Michel qui rassemble ses chroniques sur les « gilets jaunes ». Ils y voient un sursaut salutaire de liberté et de justice qui offre l’occasion inespérée de reprendre un pouvoir confisqué par quelques privilégiés.

L’ouvrage de Pierre Rosanvallon obéit à une autre démarche : son ambition est d’élaborer la théorie politique qui manque à toutes les analyses du populisme et permet de l’inscrire dans l’histoire. Il s’agit, pour l’historien, de le prendre au sérieux et de l’observer dans sa spécificité : le populisme n’est pas un épiphénomène (ou un accident de parcours) dans la marche triomphante de la démocratie libérale – celle-là même que l’on a prise pour la forme achevée de la « fin de l’histoire » –, il redessine notre manière de concevoir et de faire de la politique. Et si le XXIe siècle était, effectivement, le siècle du populisme ?

Avant d’en arriver là, encore faut-il s’assurer que l’on parle d’une réalité unifiée. Or la difficulté est de taille tant les formes du populisme sont variées. Qu’y a-t-il de commun au Venezuela de Chavez, aux Philippines de Duterte, à la Hongrie d’Orbán, aux Brexiters et à tous les autres mouvements qu’on affuble du nom de populisme ? Donald Trump et Jean-Luc Mélenchon, même combat ? Pour tenter de mieux approcher cet « Objet Politique Non Identifié », Rosanvallon commence par en faire ce qu’il appelle l’« anatomie » et qu’il refuse de réduire à la seule logique de la distinction entre « eux » et « nous ». Parmi les caractéristiques qu’il relève : un goût pour l’expression directe qui va jusqu’à sacraliser le référendum, un rejet virulent de tous les corps intermédiaires (élus, médias, etc.) accusés d’éloigner les peuples des lieux de pouvoir, une défense du souverainisme ou, sur le plan économique, du national-protectionnisme.

De façon remarquable, l’auteur de La Contre-Démocratie (Seuil, 2006) précise que si le populisme est protestataire et « illibéral » – terme qu’il a lui-même employé –, cela ne signifie pas qu’il soit antidémocratique. En retrouvant ses filiations dans d’autres « moments populistes » français, notamment sous le Second Empire, Rosanvallon le théorise même comme une forme d’authentique expression de la démocratie et non comme une pathologie dont elle souffrirait. C’est à ce moment que les analyses de Rosanvallon sont les plus intéressantes, lorsqu’il réexamine les « indéterminations » de l’idéal démocratique, par exemple la notion de « peuple souverain », qui rendent ce régime structurellement « inachevé ». Si le populisme n’apporte que des réponses simplistes, il a au moins le mérite d’obliger la démocratie à se critiquer et à se réinventer. Au lieu de s’en remettre au référendum, qui n’offre selon lui qu’une souveraineté impuissante, Rosanvallon en appelle plutôt à complexifier la démocratie, à l’élargir, à la généraliser, à la démultiplier et à la rendre interactive sous la vigilance de « l’œil » du peuple (destiné à compléter sa « voix »). Le populisme, enfant terrible de nos démocraties désenchantées, pourrait finalement en être le ferment.

 

 

Aussi bien, avance le professeur honoraire au Collège de France, peut-être le populisme ne paraît-il insaisissable que parce qu’il relève d’un « nouveau langage », lequel est indispensable « pour qualifier une dimension inédite du cycle politique qui s’est ouvert au tournant du XXIe siècle ». Il s’emploie ainsi à repérer quelques-uns des traits caractéristiques du phénomène, davantage qu’il ne cherche à désigner une essence invariable : le populisme relève d’abord d’une dynamique plus ou moins fantasmée, selon les pays, de reprise du pouvoir sur une élite supposée corrompue par un peuple supposé vertueux ; une dynamique qu’il faut attraper en quelque sorte au vol, sans perdre de vue ses mutations, ses tendances, les perspectives qu’elle dessine. »

 

« Le Siècle du populisme. Histoire, théorie, critique », de Pierre Rosanvallon, Seuil, « Les livres du nouveau monde », 280 p., 22 €.

 

Transformation numérique de l’administration :changer de paradigme et de siècle

Transformation numérique de l’administration :changer de paradigme et de siècle

La critique de la Cour des Comptes vis-à-vis de la diffusion du numérique dans l’administration est sévère. Première observation la vision est encore très insuffisante. Deuxièmement on se borne essentiellement à numériser les procédures existantes alors qu’il conviendrait sans doute de changer l’approche et la nature des procédures. Troisièmement, l’administration pénètre le numérique sur la pointe des pieds avec crainte et confie d’ailleurs l’essentiel des procédures d’information informatisée à la sous-traitance qui évidemment se régale en termes de profit mais aussi de maîtrise. En effet, il manque aussi dans l’administration de sérieuses compétences numériques et au-delà une culture numérique. Enfin chaque administration ou service bricole son propre système dans des délais par ailleurs tellement long qu’ils rendent obsolète la numérisation. Enfin et peut-être surtout les systèmes des différents services et administrations sont incapables de communiquer entre eux. Bref dans leur rapport à la numérisation, l’administration doit changer de paradigme et de siècle. Mais si le rapport valide la stratégie que l’État mène depuis 2011 et a amplifié en 2014, la Cour des comptes estime surtout que cette transformation est trop lente, s’exerce sur un périmètre trop étroit, et doit s’accompagner d’investissements massifs, à la fois humains et financiers. « La démarche doit être amplifiée. Il reste à lever les contraintes fortes qui pèsent sur les administrations et qui ralentissent cette transformation [...] Un important effort de rattrapage doit être réalisé ». Ces contraintes sont bien identifiées : des « choix technologiques anciens » (le logiciel libre n’est pas assez généralisé), « l’externalisation massive » des systèmes d’information de l’État qui a conduit à une « perte de compétences » des agents, et surtout un problème de « culture numérique »: « Il faut faire connaître le potentiel et les méthodes de la transformation digitale au-delà des sphères spécialisées. La révolution numérique ne se réduit pas à la numérisation des procédures existantes ». Ainsi, le rapport note que la stratégie d’État plateforme doit « dépasser la simple dimension technologique » pour « faire évoluer l’action publique vers un modèle reposant sur des « communs numériques » (données, logiciels, services numériques, API) qui s’intègrent pour offrir d’autres services de manière plus agile et réactive« . La Cour déplore l’absence d’état des lieux du recours au logiciel libre, ou encore la difficile mise en place de la plupart des grands projets numériques de l’État. Leur durée (6 ans en moyenne) est estimée « excessive » car elle « s’accommode mal avec le rythme d’évolution des technologies et celui de la rotation des chefs de projet« . Par exemple, le projet le plus ancien, SAIP (le dispositif de protection des populations) est englué depuis… 17 ans (!) alors que l’enjeu est pourtant essentiel pour la sécurité du pays.

Démographie : 11 milliards à la fin du siècle

Démographie : 11 milliards à la fin du siècle

Selon une étude publiée par l’Institut national d’études démographiques (Ined) ce mercredi, la démographie de la planète a été multipliée par 7 au cours des derniers siècles et devrait continuer à croître jusqu’à atteindre  »peut-être 11 milliards à la fin du XXIe siècle». A noter surtout l’accroissement de la population de l’Afrique ». Comptant 1,25 milliard d’habitants en 2017, les projections de l’Ined indiquent que le continent pourrait avoisiner les 2,5 milliards d’habitants en 2050, et la population pourrait être multipliée par plus de trois pour atteindre 4,4 milliards d’ici 2100. Le rythme de croissance de la population mondiale devrait ralentir dans les années à venir. La principale explication avancée par l’institut repose sur une diminution de la fécondité. Le nombre d’enfants par femme se situe actuellement à 2,5 contre 5 enfants en 1950.  Au niveau des pays, le classement mondial des pays les plus peuplés durant les trois prochaines décennies pourrait bien changer. Si la Chine (1,38 milliard d’habitants), l’Inde (1,352 milliard d’habitants) et les Etats-Unis (325 millions d’habitants) occupent les trois premières places du podium, l’Empire du Milieu pourrait bien être dépassé par le géant indien. D’après l’institut de recherches, l’Inde pourrait compter 1,67 milliard d’habitants d’ici 2050 dépassant largement la Chine avec 1,343 milliard la même année. Enfin pour la France, les prévisions sont plutôt optimistes. Les chercheurs de l’Ined ont ainsi prévu que la population passerait de 65 millions d’habitants (France métropolitaine) à 72 millions d’ici 2050. Ces chiffres indiquent que la récente baisse de la natalité mentionnée par l’Ined ne devrait pas se poursuivre dans les années à venir.

 

Réchauffement climatique : Pics à 50° C en France d’ici la fin du siècle

Réchauffement climatique : Pics à 50° C en France d’ici la fin du siècle

 

Ce qui ressort d’une étude menée par le CREFACS en collaboration avec Météo-France. Interview de Beatrice Colin qui a participé à la recherche (parue dans le Monde).

La France a connu plusieurs épisodes de canicule cet été, ce qui est inédit depuis la création des plans de vigilance. Vont-ils s’amplifier au cours du siècle ?

Les projections climatiques au cours du XXIe siècle montrent que les activités humaines sont responsables d’une augmentation de la fréquence, de l’intensité et de la durée des canicules en Europe. Selon l’ensemble des travaux de recherche rassemblés dans le dernier rapport du GIEC nous pouvons conclure que les canicules estivales devraient s’amplifier dans le futur si le niveau des émissions mondiales de gaz à effet de serre continue d’augmenter au rythme actuel. De plus, nos récents travaux ont montré que le nombre de records de chaleur battus chaque été sur le territoire européen a déjà augmenté dans les dernières décennies et devrait fortement augmenter au cours du XXIe siècle.

A partir de quand ces pics de chaleur deviendraient réguliers ?

Comme en témoignent les observations, les canicules estivales sont déjà de plus en plus fréquentes avec pour conséquence des étés de plus en plus chauds. En effet, selon Météo France, les trois étés les plus chauds jamais enregistrés depuis 1901 sont celui de 2003, avec 2 épisodes caniculaires, puis celui de 2015 avec 3 épisodes caniculaires et enfin celui de 2006 avec une importante canicule en juillet. L’été 2017 devrait aussi se faire remarquer parmi les étés record en termes de chaleur.

 

On a remarqué cette année que le phénomène caniculaire a débuté en juin et s’est poursuivi tard dans l’été. Est-ce que ce serait récurrent à l’avenir ?

Une saison caniculaire plus longue pourrait effectivement être une des conséquences du réchauffement climatique, mais la confiance autour de ces résultats est moins importante que celle autour d’une augmentation de la fréquence, de l’intensité et de la durée des canicules en été au cours du XXIe siècle.

Dans notre étude nous montrons cependant que sous le scénario étudié, il serait possible, à la fin du XXIe siècle, de vivre une canicule au moins aussi intense que celle que nous avons vécu en 2003 en termes d’anomalies de température journalière maximale, mais dans un climat futur relativement plus chaud (entre 5 °C et 6 °C en moyenne dans les dernières décennies du XXIe siècle) et plus sec.

 

Si rien ne change et rien n’est fait, la France dépassera le seuil des 50 °C régulièrement.

Il est important de rappeler ici que les températures supérieures à 50 °C indiquées dans notre étude sont les températures maximales en été d’ici 2100. Nous n’avons pas étudié la fréquence des événements caniculaires menant à des températures journalières maximales supérieures à 50 °C. Autrement dit, dans une région particulière, des températures supérieures à ce seuil pourraient être établies de manière régulière lors de canicules futures alors que pour une autre région une seule canicule au cours de plusieurs décennies pourrait suffire à atteindre ce même seuil des 50 °C d’ici 2100.

Selon Météo France, le record actuel de température maximale enregistré en été est de 44,1 °C dans le Gard, à Conqueyrac, ainsi qu’à Saint-Christol-lès-Alès. Ainsi, si à ce record de plus de 44 °C nous ajoutons un réchauffement moyen des températures estivales de l’ordre de 5 à 6 °C d’ici à la fin du siècle, selon le scénario le plus pessimiste, alors des températures maximales supérieures à 50 °C en été ne semblent pas irréalistes. Mais si on s’intéresse au scénario qui a été voté lors des accords de Paris, alors le réchauffement des températures estivales moyennes serait de 2 °C en France, limitant ainsi l’ampleur des températures extrêmes.

 

Mais selon vos projections, il y aura des différences entre les régions. Pourquoi le bassin méditerranéen, l’endroit connu pour être le plus chaud à l’année, verrait ses températures maximales augmenter moins que celles de l’Est ou du Nord ?

Dans notre étude nous étudions principalement les résultats d’un seul modèle de climat régional (le modèle Aladin développé au CNRM, Centre national de recherches météorologiques), même si nous prenons le soin de comparer les températures extrêmes futures à un large ensemble de modèles climatiques globaux provenant de la communauté internationale. Dans cette simulation une canicule future en particulier a fortement influencé la carte des anomalies de température journalière maximale ajoutées aux records observés d’ici à la fin du siècle.

Cette canicule est centrée sur le Nord-Est de la France, qui présente de fortes anomalies négatives du contenu en eau des sols cette année-là. Nous montrons que les températures maximales pendant la canicule sont influencées par le contenu en eau des sols avant la canicule, ce qui explique ainsi des anomalies de températures particulièrement importantes dans ces régions Est et Nord. Bien sûr l’effet modérateur de la mer pourrait aussi jouer un rôle clé pour le futur du climat méditerranéen. Mais il faut aussi noter que même si nous montrons des anomalies de température relativement plus faibles sur le pourtour méditerranéen, les températures extrêmes futures restent importantes, supérieures à 50 °C, car les records actuels y sont actuellement supérieurs.

Quels pourraient être les conséquences ?

La gestion de l’eau risque d’être un enjeu pour le futur à l’échelle du pays. Les projections, selon ce même scénario pessimiste, montrent un assèchement des sols et des débits en été au cours du XXIe siècle, ce qui est en partie expliqué par une diminution des précipitations en été. La ressource en eau pourrait ainsi être fortement diminuée.

C’est le scénario du pire. Mais si les émissions de gaz à effet de serre étaient réduites, les pics atteindraient quel niveau ?

Il est effectivement important de rappeler que nous avons étudié des projections selon le scénario le plus pessimiste envisagé par le GIEC, le scénario du « laisser-faire ». Dans cette étude nous n’avons pas envisagé d’autres scénarios pour lesquels les futures températures estivales les plus intenses restent donc à être déterminées. Le scénario étudié considère un niveau des émissions globales de gaz à effet de serre qui continuerait d’augmenter au rythme actuel au cours du XXIe siècle. Les décisions politiques et les mesures appliquées dans les prochaines décennies restent déterminantes pour le climat de la deuxième moitié du XXIe siècle.

Pics à 50° C en France d’ici la fin du siècle

Pics à 50° C en France d’ici la fin du siècle

Ce qui ressort d’une étude menée par le CREFACS en collaboration avec Météo-France Interview de Beatrice Colin qui a participé à la recherche (parue dans le Monde).

La France a connu plusieurs épisodes de canicule cet été, ce qui est inédit depuis la création des plans de vigilance. Vont-ils s’amplifier au cours du siècle ?

Les projections climatiques au cours du XXIe siècle montrent que les activités humaines sont responsables d’une augmentation de la fréquence, de l’intensité et de la durée des canicules en Europe. Selon l’ensemble des travaux de recherche rassemblés dans le dernier rapport du GIEC nous pouvons conclure que les canicules estivales devraient s’amplifier dans le futur si le niveau des émissions mondiales de gaz à effet de serre continue d’augmenter au rythme actuel. De plus, nos récents travaux ont montré que le nombre de records de chaleur battus chaque été sur le territoire européen a déjà augmenté dans les dernières décennies et devrait fortement augmenter au cours du XXIe siècle.

A partir de quand ces pics de chaleur deviendraient réguliers ?

Comme en témoignent les observations, les canicules estivales sont déjà de plus en plus fréquentes avec pour conséquence des étés de plus en plus chauds. En effet, selon Météo France, les trois étés les plus chauds jamais enregistrés depuis 1901 sont celui de 2003, avec 2 épisodes caniculaires, puis celui de 2015 avec 3 épisodes caniculaires et enfin celui de 2006 avec une importante canicule en juillet. L’été 2017 devrait aussi se faire remarquer parmi les étés record en termes de chaleur.

 

On a remarqué cette année que le phénomène caniculaire a débuté en juin et s’est poursuivi tard dans l’été. Est-ce que ce serait récurrent à l’avenir ?

Une saison caniculaire plus longue pourrait effectivement être une des conséquences du réchauffement climatique, mais la confiance autour de ces résultats est moins importante que celle autour d’une augmentation de la fréquence, de l’intensité et de la durée des canicules en été au cours du XXIe siècle.

Dans notre étude nous montrons cependant que sous le scénario étudié, il serait possible, à la fin du XXIe siècle, de vivre une canicule au moins aussi intense que celle que nous avons vécu en 2003 en termes d’anomalies de température journalière maximale, mais dans un climat futur relativement plus chaud (entre 5 °C et 6 °C en moyenne dans les dernières décennies du XXIe siècle) et plus sec.

 

Si rien ne change et rien n’est fait, la France dépassera le seuil des 50 °C régulièrement.

Il est important de rappeler ici que les températures supérieures à 50 °C indiquées dans notre étude sont les températures maximales en été d’ici 2100. Nous n’avons pas étudié la fréquence des événements caniculaires menant à des températures journalières maximales supérieures à 50 °C. Autrement dit, dans une région particulière, des températures supérieures à ce seuil pourraient être établies de manière régulière lors de canicules futures alors que pour une autre région une seule canicule au cours de plusieurs décennies pourrait suffire à atteindre ce même seuil des 50 °C d’ici 2100.

Selon Météo France, le record actuel de température maximale enregistré en été est de 44,1 °C dans le Gard, à Conqueyrac, ainsi qu’à Saint-Christol-lès-Alès. Ainsi, si à ce record de plus de 44 °C nous ajoutons un réchauffement moyen des températures estivales de l’ordre de 5 à 6 °C d’ici à la fin du siècle, selon le scénario le plus pessimiste, alors des températures maximales supérieures à 50 °C en été ne semblent pas irréalistes. Mais si on s’intéresse au scénario qui a été voté lors des accords de Paris, alors le réchauffement des températures estivales moyennes serait de 2 °C en France, limitant ainsi l’ampleur des températures extrêmes.

Mais selon vos projections, il y aura des différences entre les régions. Pourquoi le bassin méditerranéen, l’endroit connu pour être le plus chaud à l’année, verrait ses températures maximales augmenter moins que celles de l’Est ou du Nord ?

Dans notre étude nous étudions principalement les résultats d’un seul modèle de climat régional (le modèle Aladin développé au CNRM, Centre national de recherches météorologiques), même si nous prenons le soin de comparer les températures extrêmes futures à un large ensemble de modèles climatiques globaux provenant de la communauté internationale. Dans cette simulation une canicule future en particulier a fortement influencé la carte des anomalies de température journalière maximale ajoutées aux records observés d’ici à la fin du siècle.

Cette canicule est centrée sur le Nord-Est de la France, qui présente de fortes anomalies négatives du contenu en eau des sols cette année-là. Nous montrons que les températures maximales pendant la canicule sont influencées par le contenu en eau des sols avant la canicule, ce qui explique ainsi des anomalies de températures particulièrement importantes dans ces régions Est et Nord. Bien sûr l’effet modérateur de la mer pourrait aussi jouer un rôle clé pour le futur du climat méditerranéen. Mais il faut aussi noter que même si nous montrons des anomalies de température relativement plus faibles sur le pourtour méditerranéen, les températures extrêmes futures restent importantes, supérieures à 50 °C, car les records actuels y sont actuellement supérieurs.

Quels pourraient être les conséquences ?

La gestion de l’eau risque d’être un enjeu pour le futur à l’échelle du pays. Les projections, selon ce même scénario pessimiste, montrent un assèchement des sols et des débits en été au cours du XXIe siècle, ce qui est en partie expliqué par une diminution des précipitations en été. La ressource en eau pourrait ainsi être fortement diminuée.

C’est le scénario du pire. Mais si les émissions de gaz à effet de serre étaient réduites, les pics atteindraient quel niveau ?

Il est effectivement important de rappeler que nous avons étudié des projections selon le scénario le plus pessimiste envisagé par le GIEC, le scénario du « laisser-faire ». Dans cette étude nous n’avons pas envisagé d’autres scénarios pour lesquels les futures températures estivales les plus intenses restent donc à être déterminées. Le scénario étudié considère un niveau des émissions globales de gaz à effet de serre qui continuerait d’augmenter au rythme actuel au cours du XXIe siècle. Les décisions politiques et les mesures appliquées dans les prochaines décennies restent déterminantes pour le climat de la deuxième moitié du XXIe siècle.

Disparition de la neige en France d’ici la fin du siècle ?

Disparition de la  neige en France d’ici la fin du siècle ?

 

D’ici la fin du siècle la neige pourrait disparaitre en France.  Dans les plaines, elle  se fait de plus en plus rare mais même en montagne,  elle risque d’être menacée dans nombre de stations.  Si les grandes stations se trouvent à une altitude suffisante pour espérer avoir de la neige pendant la saison par contre  nombre de petites et moyennes stations situées à moins de 1500 m pourrait voir leur enneigement très réduit voire même disparaître en dessous de 1200 m d’ici la fin du siècle. Une Nouvelle étude scientifique confirme qu’il va neiger de moins en moins en raison du réchauffement climatique. « Si nous ne faisons rien, on peut s’attendre à avoir à peu près 70% d’enneigement en moins à la fin du siècle », a expliqué lundi 20 février, sur franceinfo, Mathias Bavay, chercheur, scientifique au sein de l’institut WSL, qui a réalisé l’étude. Cela signifierait que  »la saison de ski sur neige naturelle commencerait beaucoup plus tard, et finirait beaucoup plus tôt », anticipe-t-il.

 

: Peut-on sauver les stations de ski ?

Mathias Bavay : Si nous ne faisons rien, on peut s’attendre à avoir à peu près 70% d’enneigement en moins à la fin du siècle. Une telle réduction signifie un recours plus grand à la neige artificielle. Un quart des stations sont en-dessous de 1 200 mètres. Ces stations-là n’auraient sans doute plus d’enneigement permanent pendant l’hiver.

Que va entraîner ce déneigement ?

Cela aura un impact sur le tourisme hivernal pour toutes ces stations qui n’auraient plus d’enneigement correct. La saison de ski sur neige naturelle commencerait beaucoup plus tard, et finirait beaucoup plus tôt. Cela aura aussi des conséquences sur l’écologie. Il y aura des répercussions au niveau du lit des rivières et donc sur l’irrigation et la production électrique. En début de saison, la neige pourrait être remplacée par de la pluie.

Est-il trop tard ?

Aujourd’hui, on a un réchauffement, au niveau global, qui est d’un degré, mais il y a une amplification dans les régions alpines. Cela veut dire que dans les Alpes, le réchauffement est de 1,8 degré. Un réchauffement global de deux degrés serait équivalent à quatre degrés dans les Alpes. Ces deux degrés sont les objectifs qui ont été discutés à la COP 15 et je ne sais pas si on peut les tenir.

Fin de la neige dans nombre de stations d’ici la fin du siècle

Fin  de la neige dans nombre de stations d’ici la fin du siècle

Si les grandes stations se trouvent à une altitude suffisante pour espérer avoir de la neige pendant la saison par contre  nombre de petites et moyennes stations situées à moins de 1500 m pourrait voir leur enneigement très réduit voire même disparaître en dessous de 1200 m d’ici la fin du siècle. Une Nouvelle étude scientifique confirme qu’il va neiger de moins en moins en raison du réchauffement climatique. « Si nous ne faisons rien, on peut s’attendre à avoir à peu près 70% d’enneigement en moins à la fin du siècle », a expliqué lundi 20 février, sur franceinfo, Mathias Bavay, chercheur, scientifique au sein de l’institut WSL, qui a réalisé l’étude. Cela signifierait que  »la saison de ski sur neige naturelle commencerait beaucoup plus tard, et finirait beaucoup plus tôt », anticipe-t-il.

 

: Peut-on sauver les stations de ski ?

Mathias Bavay : Si nous ne faisons rien, on peut s’attendre à avoir à peu près 70% d’enneigement en moins à la fin du siècle. Une telle réduction signifie un recours plus grand à la neige artificielle. Un quart des stations sont en-dessous de 1 200 mètres. Ces stations-là n’auraient sans doute plus d’enneigement permanent pendant l’hiver.

Que va entraîner ce déneigement ?

Cela aura un impact sur le tourisme hivernal pour toutes ces stations qui n’auraient plus d’enneigement correct. La saison de ski sur neige naturelle commencerait beaucoup plus tard, et finirait beaucoup plus tôt. Cela aura aussi des conséquences sur l’écologie. Il y aura des répercussions au niveau du lit des rivières et donc sur l’irrigation et la production électrique. En début de saison, la neige pourrait être remplacée par de la pluie.

Est-il trop tard ?

Aujourd’hui, on a un réchauffement, au niveau global, qui est d’un degré, mais il y a une amplification dans les régions alpines. Cela veut dire que dans les Alpes, le réchauffement est de 1,8 degré. Un réchauffement global de deux degrés serait équivalent à quatre degrés dans les Alpes. Ces deux degrés sont les objectifs qui ont été discutés à la COP 15 et je ne sais pas si on peut les tenir.

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol