Archive pour le Tag 'conséquences'

Menaces géopolitiques : des conséquences sur la croissance et l’inflation

Economie et Menaces géopolitiques : des conséquences sur la croissance et l’inflation


Ngozi Okonjo-Iweala, de l’OMC a évoqué à davos « l’aggravation des tensions géopolitiques, les disruptions qu’on voit en mer rouge, sur le canal de Suez, le canal de Panama », comme facteurs de déception potentielle cette année concernant la croissance et l’inflation .

2024 pourrait donc finalement être plus morose qu’escompté pour l’économie mondiale. À l’occasion d’une réunion au Forum économique mondial de Davos, la secrétaire générale de l’Organisation mondiale du commerce (OMC) s’est dite « moins optimiste » pour le commerce mondial cette année. Ngozi Okonjo-Iweala a notamment évoqué « l’aggravation des tensions géopolitiques, les disruptions qu’on voit en mer rouge, sur le canal de Suez, le canal de Panama », comme facteurs de déception potentielle cette année.

Parmi les conflits qui inquiètent le monde, celui touchant la mer rouge inquiète, en effet, particulièrement. Et pour cause, environ 12% du commerce mondial transite par cette zone. Mais, depuis la mi-novembre, les attaques Houthis ont contraint de nombreuses compagnies maritimes à éviter la zone, et à emprunter la route la plus longue autour de la pointe de l’Afrique, au prix d’un surcoût du transport et de délais plus longs d’acheminement.

Menaces géopolitiques : des conséquences sur la croissance et l’inflation

Menaces géopolitiques : des conséquences sur la croissance et l’inflation


Ngozi Okonjo-Iweala, de l’OMC a évoqué à davos « l’aggravation des tensions géopolitiques, les disruptions qu’on voit en mer rouge, sur le canal de Suez, le canal de Panama », comme facteurs de déception potentielle cette année concernant la croissance et l’inflation .

2024 pourrait donc finalement être plus morose qu’escompté pour l’économie mondiale. À l’occasion d’une réunion au Forum économique mondial de Davos, la secrétaire générale de l’Organisation mondiale du commerce (OMC) s’est dite « moins optimiste » pour le commerce mondial cette année. Ngozi Okonjo-Iweala a notamment évoqué « l’aggravation des tensions géopolitiques, les disruptions qu’on voit en mer rouge, sur le canal de Suez, le canal de Panama », comme facteurs de déception potentielle cette année.

Parmi les conflits qui inquiètent le monde, celui touchant la mer rouge inquiète, en effet, particulièrement. Et pour cause, environ 12% du commerce mondial transite par cette zone. Mais, depuis la mi-novembre, les attaques Houthis ont contraint de nombreuses compagnies maritimes à éviter la zone, et à emprunter la route la plus longue autour de la pointe de l’Afrique, au prix d’un surcoût du transport et de délais plus longs d’acheminement.

Intelligence artificielle : Des conséquences pour 40 % des emplois (FMI) ?

Intelligence artificielle : Des conséquences pour 40 % des emplois (FMI) ?

Pour satisfaire à la mode sans doute, la directrice générale du fonds monétaire international a lâché ce chiffre de 40 % des emplois qui seront « concernés » par l’intelligence artificielle. Un chiffre lancé un peu par hasard. D’abord il faut s’entendre par le terme ‘concerné’. En effet d’une manière ou d’une autre, c’est plutôt 80 % des emplois qui seront touchés par l’évolution technologique et l’intelligence artificielle qui recouvre tellement d’applications. A priori on pourrait en effet penser que les emplois les moins qualifiés seront remplacés par des machines dites intelligentes. En réalité, c’est déjà le cas compris dans le secteur industriel. Mais d’autres emplois seront aussi impliqués dans le secteur industriel comme dans les services ou par parenthèse la complexité des procédures tue la compétitivité. En dépit de la numérisation l’économie brasse toujours autant de papier !

De toute manière la pénétration de l’intelligence artificielle est inéluctable, elle est déjà là comme assistante cognitive de l’humain dans nombre de métiers plus ou moins automatisés. « Dans le monde, 40% des emplois seront touchés » par le développement de l’intelligence artificielle, estime Kristalina Georgieva, directrice générale du Fonds monétaire international (FMI). « Et plus vous occupez un emploi qualifié, plus ce sera le cas. Ainsi pour les économies avancées, et certains pays émergents, 60% des emplois seront concernés ».

Elle a précisé que les impacts évoqués ne sont pas forcément négatifs, car cela peut aussi se traduire par « une hausse de vos revenus ».

Les données sont issues d’un rapport publié par le FMI avant les réunions du Forum économique mondial de Davos, qui débutent lundi dans la station alpine suisse.

Selon le rapport, l’IA pourrait accélérer les inégalités salariales, avec un effet négatif tout particulier sur les classes moyennes, alors que les salariés disposant d’ores et déjà de hauts revenus pourraient voir leur salaire « augmenter plus qu’à proportion » du gain de productivité que l’IA leur permettrait d’assurer.

« Il est certain qu’il y aura un impact mais il peut être différent, que cela entraîne la disparition de votre emploi ou au contraire son amélioration. Dès lors, que faire de ceux qui seront touchés et comment partager les gains de productivité, que peut-on faire pour être mieux préparés? », s’est interrogé Kristalina Georgieva.

Selon le rapport, Singapour, les Etats-Unis et le Canada sont les pays qui se sont le mieux préparés jusqu’ici à l’intégration de l’IA mais, comme le souligne la directrice générale du Fonds, « nous devons nous concentrer sur les pays à moindre revenus ».

« Nous devons aller vite, leur permettre de profiter des opportunités offertes par l’IA. La vraie question sera de mettre de côté les craintes liées à l’IA pour se concentrer sur comment en tirer le meilleur avantage pour tous », a insisté la patronne du FMI. D’autant que dans un contexte de ralentissement du rythme de la croissance mondiale, « nous avons terriblement besoin » d’éléments capables de relancer la productivité. « L’IA peut faire peur mais cela peut être également une immense opportunité pour tous », a conclu Kristalina Georgieva.

IA: Des conséquences pour 40 % les emplois

IA: Des conséquences pour 40 % les emplois (FMI)

Pour satisfaire à la mode sans doute, la directrice générale du fonds monétaire international a lâché ce chiffre de 40 % des emplois qui seront « concerné »s par l’intelligence artificielle. Un chiffre lancé un peu par hasard. D’abord il faut s’entendre par le terme ‘concerné’. En effet d’une manière ou d’une autre, c’est plutôt 80 % des emplois qui seront touchés par l’évolution technologique et l’intelligence artificielle qui recouvre tellement d’applications. A priori on pourrait en effet penser que les emplois les moins qualifiés seront remplacés par des machines dites intelligentes. En réalité, c’est déjà le cas compris dans le secteur industriel. Mais d’autres emplois seront aussi impliqués dans le secteur industriel comme dans les services ou par parenthèse la complexité des procédures tue la compétitivité. En dépit de la numérisation l’économie brasse toujours autant de papier !

De toute manière la pénétration de l’intelligence artificielle est inéluctable, elle est déjà là comme assistante cognitive de l’humain dans nombre de métiers plus ou moins automatisés. « Dans le monde, 40% des emplois seront touchés » par le développement de l’intelligence artificielle, estime Kristalina Georgieva, directrice générale du Fonds monétaire international (FMI). « Et plus vous occupez un emploi qualifié, plus ce sera le cas. Ainsi pour les économies avancées, et certains pays émergents, 60% des emplois seront concernés ».

Elle a précisé que les impacts évoqués ne sont pas forcément négatifs, car cela peut aussi se traduire par « une hausse de vos revenus ».

Les données sont issues d’un rapport publié par le FMI avant les réunions du Forum économique mondial de Davos, qui débutent lundi dans la station alpine suisse.

Selon le rapport, l’IA pourrait accélérer les inégalités salariales, avec un effet négatif tout particulier sur les classes moyennes, alors que les salariés disposant d’ores et déjà de hauts revenus pourraient voir leur salaire « augmenter plus qu’à proportion » du gain de productivité que l’IA leur permettrait d’assurer.

« Il est certain qu’il y aura un impact mais il peut être différent, que cela entraîne la disparition de votre emploi ou au contraire son amélioration. Dès lors, que faire de ceux qui seront touchés et comment partager les gains de productivité, que peut-on faire pour être mieux préparés? », s’est interrogé Kristalina Georgieva.

Selon le rapport, Singapour, les Etats-Unis et le Canada sont les pays qui se sont le mieux préparés jusqu’ici à l’intégration de l’IA mais, comme le souligne la directrice générale du Fonds, « nous devons nous concentrer sur les pays à moindre revenus ».

« Nous devons aller vite, leur permettre de profiter des opportunités offertes par l’IA. La vraie question sera de mettre de côté les craintes liées à l’IA pour se concentrer sur comment en tirer le meilleur avantage pour tous », a insisté la patronne du FMI. D’autant que dans un contexte de ralentissement du rythme de la croissance mondiale, « nous avons terriblement besoin » d’éléments capables de relancer la productivité. « L’IA peut faire peur mais cela peut être également une immense opportunité pour tous », a conclu Kristalina Georgieva.

IA: Des conséquences pour 40 % les emplois (FMI)

IA: Des conséquences pour 40 % les emplois (FMI)

« Dans le monde, 40% des emplois seront touchés » par le développement de l’intelligence artificielle, estime Kristalina Georgieva, directrice générale du Fonds monétaire international (FMI). « Et plus vous occupez un emploi qualifié, plus ce sera le cas. Ainsi pour les économies avancées, et certains pays émergents, 60% des emplois seront concernés », .

« Dans le monde, 40% des emplois seront touchés. Et plus vous occupez un emploi qualifié, plus ce sera le cas. Ainsi pour les économies avancées, et certains pays émergents, 60% des emplois seront concernés », a déclaré Kristalina Georgieva.

Elle a précisé que les impacts évoqués ne sont pas forcément négatifs, car cela peut aussi se traduire par « une hausse de vos revenus ».

Les données sont issues d’un rapport publié par le FMI avant les réunions du Forum économique mondial de Davos, qui débutent lundi dans la station alpine suisse.

Selon le rapport, l’IA pourrait accélérer les inégalités salariales, avec un effet négatif tout particulier sur les classes moyennes, alors que les salariés disposant d’ores et déjà de hauts revenus pourraient voir leur salaire « augmenter plus qu’à proportion » du gain de productivité que l’IA leur permettrait d’assurer.

« Il est certain qu’il y aura un impact mais il peut être différent, que cela entraîne la disparition de votre emploi ou au contraire son amélioration. Dès lors, que faire de ceux qui seront touchés et comment partager les gains de productivité, que peut-on faire pour être mieux préparés? », s’est interrogé Kristalina Georgieva.

Selon le rapport, Singapour, les Etats-Unis et le Canada sont les pays qui se sont le mieux préparés jusqu’ici à l’intégration de l’IA mais, comme le souligne la directrice générale du Fonds, « nous devons nous concentrer sur les pays à moindre revenus ».

« Nous devons aller vite, leur permettre de profiter des opportunités offertes par l’IA. La vraie question sera de mettre de côté les craintes liées à l’IA pour se concentrer sur comment en tirer le meilleur avantage pour tous », a insisté la patronne du FMI. D’autant que dans un contexte de ralentissement du rythme de la croissance mondiale, « nous avons terriblement besoin » d’éléments capables de relancer la productivité. « L’IA peut faire peur mais cela peut être également une immense opportunité pour tous », a conclu Kristalina Georgieva.

Proche-Orient–Hamas- 80 % des Français inquiets des conséquences en France

Proche-Orient–Hamas- 80 % des Français inquiets des conséquences en France

Selon l’institut Elabe pour BFMTV et dévoilé ce mercredi 25 octobre, les Français sont de plus en plus convaincus (79%, une hausse de 11 points en une semaine) que le conflit entre le Hamas et Israël représente un risque de tensions dans le pays.

38% des personnes interrogées estiment que la France ne peut pas avoir d’impact sur la situation, contre 24% qu’elle peut en avoir.

Huit Français sur 10 se disent inquiets face à la menace terroriste en France. Un chiffre en léger recul en une semaine (-3 points).

Alors que la France a été marquée par l’assassinat de Dominique Bernard, professeur tué dans un lycée à Arras, 4 Français sur 10 considèrent que la menace terroriste vient plutôt de l’intérieur, c’est-à-dire d’individus déjà insérés dans la société française, contre 11% seulement plutôt de l’extérieur (des individus qui viennent de l’étranger pour commettre un attentat).

Sur ce point, le ministre de l’Éducation nationale Gabriel Attal a déclaré que « plusieurs dizaines d’élèves radicalisés retiennent toute notre attention ». « Dans certains cas, quand on a des signes qui attestent d’une potentielle dangerosité, je souhaite que ces élèves puissent être sortis de nos établissements scolaires », a-t-il affirmé. 78% des Français estiment ainsi que cette mesure est une bonne solution pour lutter contre la menace terroriste.

Les propos de Gabriel Attal sont majoritairement soutenus par toutes les catégories de population et électorats, y compris par les parents d’enfants scolarisés (79%).

Aucune des principales personnalités politiques du pays n’obtient la confiance de plus de 4 Français sur 10 pour protéger la France et ses habitants de la menace terroriste.
Marine Le Pen (39%) devance nettement Gérald Darmanin (32%). Suivent ensuite Emmanuel Macron (30%), les dirigeants de LR (28%), Éric Zemmour (20%), Fabien Roussel (19%), les dirigeants du PS (18%), les dirigeants d’EELV (15%) et enfin Jean-Luc Mélenchon (12%).

Hamas- 80 % des Français inquiets des conséquences en France

Hamas- 80 % des Français inquiets des conséquences en France

Selon l’institut Elabe pour BFMTV et dévoilé ce mercredi 25 octobre, les Français sont de plus en plus convaincus (79%, une hausse de 11 points en une semaine) que le conflit entre le Hamas et Israël représente un risque de tensions dans le pays.

38% des personnes interrogées estiment que la France ne peut pas avoir d’impact sur la situation, contre 24% qu’elle peut en avoir.

Huit Français sur 10 se disent inquiets face à la menace terroriste en France. Un chiffre en léger recul en une semaine (-3 points).

Alors que la France a été marquée par l’assassinat de Dominique Bernard, professeur tué dans un lycée à Arras, 4 Français sur 10 considèrent que la menace terroriste vient plutôt de l’intérieur, c’est-à-dire d’individus déjà insérés dans la société française, contre 11% seulement plutôt de l’extérieur (des individus qui viennent de l’étranger pour commettre un attentat).

Sur ce point, le ministre de l’Éducation nationale Gabriel Attal a déclaré que « plusieurs dizaines d’élèves radicalisés retiennent toute notre attention ». « Dans certains cas, quand on a des signes qui attestent d’une potentielle dangerosité, je souhaite que ces élèves puissent être sortis de nos établissements scolaires », a-t-il affirmé. 78% des Français estiment ainsi que cette mesure est une bonne solution pour lutter contre la menace terroriste.

Les propos de Gabriel Attal sont majoritairement soutenus par toutes les catégories de population et électorats, y compris par les parents d’enfants scolarisés (79%).

Aucune des principales personnalités politiques du pays n’obtient la confiance de plus de 4 Français sur 10 pour protéger la France et ses habitants de la menace terroriste.
Marine Le Pen (39%) devance nettement Gérald Darmanin (32%). Suivent ensuite Emmanuel Macron (30%), les dirigeants de LR (28%), Éric Zemmour (20%), Fabien Roussel (19%), les dirigeants du PS (18%), les dirigeants d’EELV (15%) et enfin Jean-Luc Mélenchon (12%).

Hamas : les conséquences de l’horreur

Hamas : les conséquences de l’horreur

Il y a presque 50 ans jour pour jour, Israël n’avait pas su anticiper le déclenchement de la guerre du Kippour de 1973, qui avait démarré par une attaque inattendue contre ses frontières par une coalition d’États arabes. Aujourd’hui, il semble que les services de renseignement du pays aient à nouveau été victimes d’un faux sentiment de sécurité. La conviction, largement partagée dans la société israélienne, que le Hamas ne chercherait pas à se lancer dans une confrontation militaire à grande échelle avec Tsahal pour se protéger et pour épargner de nouvelles souffrances aux habitants de Gaza a été anéantie par l’assaut surprise déclenché samedi matin, par voie aérienne, terrestre et maritime.

Par Eyal Mayroz, University of Sydney

L’attaque a commencé par un tir de barrage de plusieurs milliers de roquettes tirées sur Israël. Sous le couvert de ces roquettes, une opération terrestre de grande envergure, soigneusement coordonnée, est partie de Gaza et a pris pour cibles plus de 20 villes israéliennes et bases militaires adjacentes à la bande de Gaza.

Les pertes israéliennes, estimées actuellement à plus de 600 morts et 2000 blessés, vont certainement augmenter dans les heures et les jours à venir.

Une mobilisation massive des réservistes de l’armée israélienne a été entamée, et des bombardements aériens ont frappé les installations et les postes de commandement du Hamas à Gaza. Plus de 370 victimes palestiniennes ont été signalées jusqu’à présent à Gaza, et 1 700 personnes ont été blessées.

Comme dans le cas de la guerre du Kippour, de nombreuses analyses et enquêtes seront menées dans les semaines, les mois et les années à venir sur les échecs en matière de renseignement, d’opérations sécuritaires et de politique qui ont permis au Hamas de prendre ainsi Israël à défaut. L’assaut n’a apparemment pas été détecté par les services israéliens dans un premier temps, puis a pu se dérouler avec succès pendant des heures, les combattants du Hamas se retrouvant face à des forces israéliennes insuffisantes ou non préparées.

Comme en 1973, l’assaut a été lancé durant le sabbat et lors de la fête juive de Souccot. Les objectifs stratégiques du Hamas sont incertains à ce stade. Toutefois, la sévérité certaine des représailles israéliennes contre le mouvement – et, par conséquent, contre la population civile de Gaza – rend probable l’existence de considérations allant au-delà d’une simple vengeance contre les actions israéliennes.

L’enlèvement d’Israéliens en vue de les échanger par la suite contre des militants du Hamas emprisonnés en Israël est depuis longtemps un objectif majeur des opérations militaires du mouvement islamiste.

En 2011, un soldat israélien, Gilad Shalit, qui était détenu à Gaza depuis 2006, avait été échangé contre plus de 1 000 prisonniers palestiniens. Parmi ces prisonniers se trouvait Yahya Sinwar, l’actuel chef du Hamas à Gaza, qui avait passé 22 ans dans une prison israélienne.

Les rapports faisant état de dizaines d’Israéliens – dont de nombreux civils – capturés par le Hamas lors de l’assaut de ce week-end suggèrent qu’il pourrait s’agir là d’un motif central de l’attaque. Un nombre indéterminé d’otages détenus pendant des heures par des militants du Hamas dans deux villes du sud d’Israël ont été libérés par la suite par les forces spéciales israéliennes.

Un autre objectif du Hamas, plus large, pourrait être de saper les négociations en cours entre les États-Unis et l’Arabie saoudite sur un accord visant à normaliser les relations entre le royaume et Israël.

Un échec de ces pourparlers serait une aubaine pour l’Iran, l’un des principaux soutiens du Hamas, et pour ses alliés. Téhéran a déclaré qu’il soutenait les attaques du Hamas contre Israël, mais on ne sait pas encore si l’Iran ou le Hezbollah (le groupe libanais chiite qui entretient un partenariat croissant avec le Hamas) ouvriront d’autres fronts dans les jours à venir, même si ce dernier a déjà tiré des obus contre le territoire israélien le 8 octobre.

Toute escalade du conflit en provenance de l’Iran ou du Liban serait très problématique pour Israël. Il en irait de même si la guerre contre le Hamas venait à exacerber les tensions déjà très sensibles et les affrontements violents entre Israël et les groupes militants palestiniens en Cisjordanie.

Baptisée « Glaives de fer », l’offensive de représailles d’Israël contre le Hamas à Gaza risque de durer longtemps.

Outre la nécessité de restaurer la confiance de la société israélienne dans son armée et de ressusciter la dissuasion militaire d’Israël face au Hamas et à d’autres ennemis, le gouvernement du premier ministre Benyamin Nétanyahou devra probablement faire face à d’autres défis qu’il lui sera compliqué de relever : le sort des dizaines d’otages israéliens ; les risques que courront les forces israéliennes en cas d’incursion terrestre, à Gaza ; et les menaces d’escalade sur d’autres fronts, notamment au Liban, en Cisjordanie et dans les villes mixtes juives et palestiniennes à l’intérieur d’Israël.

En outre, le soutien international pourrait rapidement s’éroder en cas d’opération majeure à Gaza, à mesure que le nombre de victimes palestiniennes, déjà élevé, s’accroîtra.

Les violences actuelles viennent à peine de commencer, mais elles pourraient devenir les plus sanglantes depuis des décennies, peut-être même depuis la guerre entre Israël et les Palestiniens au Liban dans les années 1980.

Comme nous l’avons indiqué, les Israéliens considéreront sans aucun doute qu’il est essentiel de restaurer leur pleine capacité de dissuasion militaire face au Hamas – ce qui, aux yeux de beaucoup, pourrait nécessiter une prise de contrôle militaire de la bande de Gaza. Cela aurait des conséquences encore plus dévastatrices pour la population civile de Gaza.

Aux yeux de nombreux Palestiniens, les événements de ce week-end ont offert aux Israéliens un petit aperçu de ce qu’a été leur propre vie pendant des décennies d’occupation. Toutefois, les premières célébrations se transformeront probablement bientôt en colère et en frustration, car le nombre de victimes civiles palestiniennes continuera d’augmenter. La violence engendre la violence.

À court et à moyen terme, le traumatisme causé par l’attaque surprise du Hamas ne manquera pas d’avoir des conséquences considérables sur la politique intérieure d’Israël.

Dans ses mémoires de 2022, Bibi : Mon Histoire, Benyamin Nétanyahou a évoqué sa décision, lors de l’opération israélienne « Pilier de défense » menée contre le Hamas en 2012, de ne pas lancer un assaut terrestre israélien à Gaza.

Une telle attaque, explique-t-il dans le livre, aurait pu causer plusieurs centaines de victimes parmi les forces de défense israéliennes et plusieurs milliers de victimes parmi les Palestiniens, ce à quoi il s’opposait catégoriquement. Il a autorisé des incursions terrestres à deux autres occasions (opérations « Plomb durci » en 2008 et « Bordure protectrice » en 2014). Mais la prudence l’a emporté dans d’autres cas, parfois du fait des fortes pressions dont il a pu faire l’objet.

Au vu de la combinaison du traumatisme national de ce week-end et de la composition du gouvernement de Nétanyahou, considéré comme le plus à droite de l’histoire du pays, il semble très peu probable qu’il fasse preuve de la même retenue dans les jours à venir.

______
Par Eyal Mayroz, Senior Lecturer in Peace and Conflict Studies, University of Sydney

La version originale de cet article a été publiée sur The Conversation

Conflit Israël–des conséquences durables sur le prix du pétrole

Conflit Israël–des conséquences durables sur le prix du pétrole

Le pétrole a fait un bon au cours de la journée de lundi suite au conflit entre Israël et le Hamas . La question de savoir si les prix vont flamber davantage et de manière durable. Une question liée aux possibilités d’extension du conflit dans la région et au repositionnement des pays arabes.

Par ailleurs ce conflit s’ajoute à d’autres et créer un sentiment d’insécurité au plan mondial, ce qui est néfaste pour la croissance et la demande énergétique. Un conflit qui aura donc des conséquences notamment en fonction de l’attitude de l’Arabie Saoudite qui vraisemblablement va être contrainte de s’éloigner d’Israël alors qu’elle était en phase de rapprochement. La pression de la rue pourrait la conduire à durcir sa position en matière de réduction de production de pétrole comme signe de solidarité avec les palestiniens.

Les cours du baril ont bondi de plus de 5% en Asie lundi matin avant de retomber en fin de matinée au-dessus de 87 dollars le baril de Brent, soit une hausse de plus de 3%. Les combats en cours aggravent l’incertitude politique au Moyen-Orient, région-clé de l’approvisionnement mondial en or noir.

Conflit Israël-Gaza : des conséquences dévastatrices

Conflit Israël-Gaza : des conséquences dévastatrices


Il y a presque 50 ans jour pour jour, Israël n’avait pas su anticiper le déclenchement de la guerre du Kippour de 1973, qui avait démarré par une attaque inattendue contre ses frontières par une coalition d’États arabes. Aujourd’hui, il semble que les services de renseignement du pays aient à nouveau été victimes d’un faux sentiment de sécurité. La conviction, largement partagée dans la société israélienne, que le Hamas ne chercherait pas à se lancer dans une confrontation militaire à grande échelle avec Tsahal pour se protéger et pour épargner de nouvelles souffrances aux habitants de Gaza a été anéantie par l’assaut surprise déclenché samedi matin, par voie aérienne, terrestre et maritime.

Par Eyal Mayroz
Senior Lecturer in Peace and Conflict Studies, University of Sydney dans the Conversation

L’attaque a commencé par un tir de barrage de plusieurs milliers de roquettes tirées sur Israël. Sous le couvert de ces roquettes, une opération terrestre de grande envergure, soigneusement coordonnée, est partie de Gaza et a pris pour cibles plus de 20 villes israéliennes et bases militaires adjacentes à la bande de Gaza.
Une mobilisation massive des réservistes de l’armée israélienne a été entamée, et des bombardements aériens ont frappé les installations et les postes de commandement du Hamas à Gaza. Plus de 370 victimes palestiniennes ont été signalées jusqu’à présent à Gaza, et 1 700 personnes ont été blessées.

Comme dans le cas de la guerre du Kippour, de nombreuses analyses et enquêtes seront menées dans les semaines, les mois et les années à venir sur les échecs en matière de renseignement, d’opérations sécuritaires et de politique qui ont permis au Hamas de prendre ainsi Israël à défaut. L’assaut n’a apparemment pas été détecté par les services israéliens dans un premier temps, puis a pu se dérouler avec succès pendant des heures, les combattants du Hamas se retrouvant face à des forces israéliennes insuffisantes ou non préparées.

Comme en 1973, l’assaut a été lancé durant le sabbat et lors de la fête juive de Souccot. Les objectifs stratégiques du Hamas sont incertains à ce stade. Toutefois, la sévérité certaine des représailles israéliennes contre le mouvement – et, par conséquent, contre la population civile de Gaza – rend probable l’existence de considérations allant au-delà d’une simple vengeance contre les actions israéliennes.

L’enlèvement d’Israéliens en vue de les échanger par la suite contre des militants du Hamas emprisonnés en Israël est depuis longtemps un objectif majeur des opérations militaires du mouvement islamiste.

En 2011, un soldat israélien, Gilad Shalit, qui était détenu à Gaza depuis 2006, avait été échangé contre plus de 1 000 prisonniers palestiniens. Parmi ces prisonniers se trouvait Yahya Sinwar, l’actuel chef du Hamas à Gaza, qui avait passé 22 ans dans une prison israélienne.

Les rapports faisant état de dizaines d’Israéliens – dont de nombreux civils – capturés par le Hamas lors de l’assaut de ce week-end suggèrent qu’il pourrait s’agir là d’un motif central de l’attaque. Un nombre indéterminé d’otages détenus pendant des heures par des militants du Hamas dans deux villes du sud d’Israël ont été libérés par la suite par les forces spéciales israéliennes.

Des policiers israéliens évacuent une femme et un enfant d’un site touché par une roquette à Ashkelon, dans le sud d’Israël. Tsafrir Abayov/AP
Un autre objectif du Hamas, plus large, pourrait être de saper les négociations en cours entre les États-Unis et l’Arabie saoudite sur un accord visant à normaliser les relations entre le royaume et Israël.

Un échec de ces pourparlers serait une aubaine pour l’Iran, l’un des principaux soutiens du Hamas, et pour ses alliés. Téhéran a déclaré qu’il soutenait les attaques du Hamas contre Israël, mais on ne sait pas encore si l’Iran ou le Hezbollah (le groupe libanais chiite qui entretient un partenariat croissant avec le Hamas) ouvriront d’autres fronts dans les jours à venir, même si ce dernier a déjà tiré des obus contre le territoire israélien le 8 octobre.

Toute escalade du conflit en provenance de l’Iran ou du Liban serait très problématique pour Israël. Il en irait de même si la guerre contre le Hamas venait à exacerber les tensions déjà très sensibles et les affrontements violents entre Israël et les groupes militants palestiniens en Cisjordanie.

Baptisée « Glaives de fer », l’offensive de représailles d’Israël contre le Hamas à Gaza risque de durer longtemps.

Outre la nécessité de restaurer la confiance de la société israélienne dans son armée et de ressusciter la dissuasion militaire d’Israël face au Hamas et à d’autres ennemis, le gouvernement du premier ministre Benyamin Nétanyahou devra probablement faire face à d’autres défis qu’il lui sera compliqué de relever : le sort des dizaines d’otages israéliens ; les risques que courront les forces israéliennes en cas d’incursion terrestre, à Gaza ; et les menaces d’escalade sur d’autres fronts, notamment au Liban, en Cisjordanie et dans les villes mixtes juives et palestiniennes à l’intérieur d’Israël.

En outre, le soutien international pourrait rapidement s’éroder en cas d’opération majeure à Gaza, à mesure que le nombre de victimes palestiniennes, déjà élevé, s’accroîtra.

Les violences actuelles viennent à peine de commencer, mais elles pourraient devenir les plus sanglantes depuis des décennies, peut-être même depuis la guerre entre Israël et les Palestiniens au Liban dans les années 1980.

Comme nous l’avons indiqué, les Israéliens considéreront sans aucun doute qu’il est essentiel de restaurer leur pleine capacité de dissuasion militaire face au Hamas – ce qui, aux yeux de beaucoup, pourrait nécessiter une prise de contrôle militaire de la bande de Gaza. Cela aurait des conséquences encore plus dévastatrices pour la population civile de Gaza.

Aux yeux de nombreux Palestiniens, les événements de ce week-end ont offert aux Israéliens un petit aperçu de ce qu’a été leur propre vie pendant des décennies d’occupation. Toutefois, les premières célébrations se transformeront probablement bientôt en colère et en frustration, car le nombre de victimes civiles palestiniennes continuera d’augmenter. La violence engendre la violence.

À court et à moyen terme, le traumatisme causé par l’attaque surprise du Hamas ne manquera pas d’avoir des conséquences considérables sur la politique intérieure d’Israël.

Dans ses mémoires de 2022, Bibi : Mon Histoire, Benyamin Nétanyahou a évoqué sa décision, lors de l’opération israélienne « Pilier de défense » menée contre le Hamas en 2012, de ne pas lancer un assaut terrestre israélien à Gaza.

Une telle attaque, explique-t-il dans le livre, aurait pu causer plusieurs centaines de victimes parmi les forces de défense israéliennes et plusieurs milliers de victimes parmi les Palestiniens, ce à quoi il s’opposait catégoriquement. Il a autorisé des incursions terrestres à deux autres occasions (opérations « Plomb durci » en 2008 et « Bordure protectrice » en 2014). Mais la prudence l’a emporté dans d’autres cas, parfois du fait des fortes pressions dont il a pu faire l’objet.

Au vu de la combinaison du traumatisme national de ce week-end et de la composition du gouvernement de Nétanyahou, considéré comme le plus à droite de l’histoire du pays, il semble très peu probable qu’il fasse preuve de la même retenue dans les jours à venir.

Tremblement de terre : les satellites au secours des conséquences

Tremblement de terre : les satellites au secours des conséquences

Un séisme de magnitude 6,8 a frappé le Maroc à 11km d’Adassil le vendredi 8 Septembre 2023 à 23h11 heure locale. On déplore plus de 2 000 décès et autant de blessés avec un bilan qui pourrait encore s’alourdir. Depuis l’espace, on peut obtenir des informations cruciales pour guider les secours et l’aide humanitaire qui convoie eau et vivres, mais qui sont inaccessibles depuis le sol, en particulier en cas de catastrophes. Il s’agit de cartographier l’état des routes, des ponts, des bâtiments, et aussi – et c’est crucial ici – de repérer les populations qui tentent d’échapper aux effets de potentielles répliques en se regroupant dans des stades ou d’autres espaces ouverts.

par Emilie Bronner
Représentante CNES au Secrétariat Exécutif de la Charte Internationale Espace et Catastrophes Majeures, Centre national d’études spatiales (CNES) dans The Conversation

Afin de tourner rapidement les yeux des satellites vers les régions concernées, les Nations Unies (UNITAR) ont demandé l’activation de la charte internationale « Espace et catastrophes majeures » le samedi matin à 7h04 heure locale pour le compte de l’organisation humanitaire internationale FICR (Fédération internationale des Sociétés de la Croix-Rouge et du Croissant-Rouge).

Dans la foulée, les satellites optiques et radar les plus appropriés de huit agences spatiales ont été programmés. Pour la France, il s’agit des satellites optiques Pléiades et Pléiades Neo (de haute et très haute résolution), qui fourniront de premières images dès demain matin, lors de leur passage au-dessus de la zone, le temps de charger le plan de vol. Des satellites radar viendront compléter les informations des satellites optiques, car ils fonctionnent aussi la nuit et à travers les nuages, et peuvent imager les glissements de terrain et les changements d’altitude, même très faibles.

Chaque année, des millions de personnes partout dans le monde sont touchées par des catastrophes, qu’elles soient d’origine naturelle (cyclone, tornade, typhon, tremblement de terre, glissement de terrain, éruption volcanique, tsunami, inondation, feu de forêt, etc.) ou humaine (pollution par hydrocarbures, explosion industrielle). L’intensité et la fréquence de ces évènements s’intensifient malheureusement avec le changement climatique, créant chaque jour un peu plus de sinistrés ou d’habitats précaires.

Dans le cadre de la charte internationale « Espace et Catastrophes majeures », on définit une catastrophe comme un événement de grande ampleur, soudain, unique et incontrôlé, entraînant la perte de vies humaines ou des dommages aux biens et à l’environnement et nécessitant une action urgente d’acquisition et de fourniture de données.

Glissement de terrain à Munnar, en Inde. L’accès aux zones touchées est souvent difficile. Rakesh Pai/Flickr, CC BY-NC-ND
Cette charte a été créée par le Centre National d’Études Spatiales et l’Agence spatiale européenne en 1999, rejoints rapidement par l’Agence spatiale canadienne. Aujourd’hui, 17 agences spatiales membres s’unissent pour offrir gratuitement des images satellites le plus rapidement possible sur la zone sinistrée. Depuis 2000, la charte a été activée 837 fois dans plus de 134 pays. Elle est depuis complétée par des initiatives similaires (Copernicus Emergency ou Sentinel Asia).

Près des trois-quarts des activations de la charte sont dues à des phénomènes hydrométéorologiques : tempêtes, ouragans et surtout inondations qui représentent à elles seules la moitié des activations. Dans ces situations de crise imprévues, quand les sols sont endommagés ou inondés et les routes impraticables, les moyens terrestres ne permettent pas toujours d’analyser l’étendue du désastre et d’organiser au mieux les secours et l’aide humanitaire. En capturant la situation vue de l’espace, avec des satellites très haute résolution, le spatial apporte rapidement des informations cruciales.

Dans certains cas, la charte ne peut pas être activée. Soit parce que l’objet est hors cadre de la charte (guerres et conflits armés), soit parce que l’imagerie spatiale n’est parfois pas d’un grand intérêt (canicules, épidémies), soit car les phénomènes ont une évolution lente (sècheresses) qui est incompatible avec la notion d’urgence au cœur de la mission de la charte.

Les données satellites en réponse aux crises dans le monde
Dès la survenue d’une catastrophe, les satellites sont programmés pour acquérir dans un délai très court des images au-dessus des zones impactées. Plus d’une soixantaine de satellites, optiques ou radars, sont mobilisables à toute heure.

Selon le type de catastrophes, on mobilisera différents satellites, en se basant sur des scénarii de crise préétablis – parmi eux : TerraSAR-X/Tandem-X, QuickBird-2, Radarsat, Landsat-7/8, SPOT, Pléiades, Sentinel-2 notamment.

Les images optiques sont semblables à des photos vues de l’espace, mais les images radar par exemple sont plus difficilement interprétables par les non-initiés. Ainsi, suite à la catastrophe, les informations satellites sont retravaillées pour les rendre intelligibles et y apporter de la valeur ajoutée. Elles sont par exemple transformées en cartes d’impacts ou de changements pour les secouristes, en cartes de vigilance inondations pour les populations, en cartographie des zones brûlées ou inondées avec estimation des dégâts pour les décideurs.

Le travail collaboratif entre les utilisateurs de terrain et les opérateurs satellitaires est primordial. Des progrès ont été faits grâce aux innovations des technologies d’observation de la Terre (notamment la performance des résolutions optiques – passant de 50 à 20 mètres puis à 30 centimètres actuellement) et des logiciels de traitement des données 3D, mais également grâce au développement d’outils numériques pouvant coupler données satellites et in situ. De plus, les besoins de terrain ont contribué à l’évolution des processus d’intervention de la charte en termes de délai de livraison et de qualité des produits délivrés.

La gestion de l’urgence est bien sûr primordiale mais il est important pour tous les pays affectés d’envisager une reconstruction et l’avenir. En effet, dans le « cycle du risque », après le sinistre et l’urgence humanitaire, le retour à la normale va ouvrir le temps de la reconstruction, de la résilience, de la prévention et de l’alerte. On ne peut prévoir les catastrophes mais on peut mieux s’y préparer, surtout dans les pays où le malheur est récurrent, avec par exemple la construction antisismique, le déplacement des zones d’habitation en lieu sûr, la sensibilisation aux gestes de survie, la création de lieux de rassemblements sécurisés, entre autres.

Plusieurs initiatives, appelées « Observatoires de la Reconstruction », ont été menées après des catastrophes d’envergure, par exemple à Haïti en 2021, ou suite à l’explosion de Beyrouth en 2019. Le but : planifier des acquisitions d’images satellites coordonnées pour permettre une évaluation détaillée et dynamique des dommages aux zones les plus touchées (bâti, routes, agriculture, forêts, etc.), suivre la planification des reconstructions, réduire les risques et enfin réaliser un suivi des changements à l’horizon de 3-4 ans.

Société-Violences: une conséquences de la caricature de démocratie

Société-Violences: une conséquences de la caricature de démocratie


Les phénomènes de violence sont pas nouveaux dans la société. Sur le long terme, le taux de violence a tendance à nettement se réduire avec l’élévation du niveau d’éducation. Toutefois, ces révolutions ne sont pas linéaires, elles subissent notamment des à-coups avec la montée de contradictions y compris dans les pays développés. C’est le cas depuis quelques décennies. En cause, la complexité et l’intensité de la crise dans les domaines économiques, sociaux et sociétaux dont les aspects systémiques sont mal appréciés voire ignorés. Pour parler simplement, la société est encore trop souvent abordée comme un saucisson par tranche dans l’ignorance ou le mépris des interactions entre les différents champs. La crise est aussi identitaire, une crise culturelle, politique et démocratique.

C’est la crise au sens de Gramsci dans la mesure où les anciens modèles sont condamnés à l’obsolescence alors que les nouveaux modèles n’ont pas encore émergé de manière significative. En matière de démocratie, il est clair que le modèle collectiviste , socialiste ou communiste est mort. Il n’est plus en application que dans les pays qui l’imposent par la dictature. De la même manière, l’ultralibéralisme qui répand partout la domination de la financiarisation mondialisée à toute la société va également droit dans le mur non seulement du fait qu’il met en cause les principes de justice mais aussi parce qu’il se heurte à la prise en compte de la problématique environnementale. En France depuis quelques années les violences enregistrent une poussée de fièvre, violences physiques et verbales . Les exemples plus récents concernent les gilets jaunes, les banlieues ou encore certaines actions contre la réforme des retraites ou violence quotidienne.

Selon l’OMS, la violence est l’utilisation intentionnelle de la force physique, de menaces à l’encontre des autres ou de soi-même, contre un groupe ou une communauté, qui entraîne ou risque fortement d’entraîner un traumatisme, des dommages psychologiques, des problèmes de développement ou un décès. Il y a bien sûr la violence interpersonnelle, violences contre les personnes, mais aussi les violences politiques et économiques. Elles peuvent être physiques, morales encore psychologiques .

La responsabilité peut être imputée à des groupes, à l’Etat ou à des individus. Certains grands penseurs comme Marx, Engels plus récemment Bourdieu et bien d’autres ont théorisé le contenu de la violence, ses causes et même parfois sa légitimité.

Reste que dans nos sociétés développées, la violence constitue un déni des règles démocratiques. Le problème est cependant de savoir quelles sont les causes de ce déni démocratique. En fait, de nombreux champs de la société ont évolué, l’économie, les technologies, la médecine, l’éducation. Par contre, la démocratie, elle , est restée au stade quasi néandertalien. En gros pour résumer elle se limite au dépôt d’un bulletin de vote dans l’urne une fois tous les cinq ans .

En outre, le choix des candidats est totalement préempté par des groupes de pressions notamment financiers. Pour le vérifier , il suffit de constater l’envolée du coût des campagnes électorales notamment de la principale à savoir l’élection présidentielle. Théoriquement pour cette élection l’enveloppe est limitée à 10 millions mais les candidats dépensent trois à quatre fois plus. Bref, le marketing politique à l’américaine a gagné la France et bien d’autres pays. La plus grande contradiction de la démocratie, c’est que le plus souvent les électeurs ne votent pas pour un candidat mais contre celui qu’ils ne souhaitent pas. Une sorte d’élection par défaut ; quand ce n’est pas le cas , ces sélections s’appuient sur des programmes démagogiques, populistes voire xénophobes.

Depuis plusieurs élections présidentielles, les présidents élus en France le sont par défaut du fait du rejet du Front national. Chaque président n’a représenté en son temps qu’une base électorale de 20 à 25 %. Ce qui provoque ensuite le rejet d’orientation qui n’ont nullement été approuvées politiquement lors du vote. Du coup, l’autorité politique- et même l’autorité de l’État -se trouve largement contestée avec des phénomènes de violence récurrents s’attaquant aussi bien aux bien publics, aux biens privés( le rituel d’incendie de voiture dans les banlieues et de bris de vitrines des commerçants)) qu’aux personnes.

Les partis politiques et syndicats d’extrême-gauche se sont engouffrés dans cette brèche de la violence depuis quelques années pour tenter de compenser le poids de leurs faiblesses politiques dans les urnes. Par ailleurs parfois, des exclus de la transformation économique plus ou moins manipulés par des leaders irresponsables se livrent aussi à certaines violences . Il y a des raisons objectives qui peuvent permettre comprendre ces violences sans pour autant les admettre. Car fondamentalement ce qui est en cause, c’est un fonctionnement démocratique qui ne permet pas de tendre vers un intérêt général prenant en compte tout autant le concept d’efficacité que de justice.

De ce point de vue, les tares constatées au plan national se produisent aussi au plan local où des petits barons confondent aussi trop souvent leur intérêt personnel et l’intérêt collectif. Enfin la démocratie est affectée par le fait que certains technocrates ont transformé le mandat électif en métier. Mais inversement des candidats venus de nulle part, dits de la société civile, n’ont pas fait la preuve de leur compétence et encore moins de leur légitimité politique. Et ce ne sont pas des pseudo conventions citoyennes de personnes choisies au hasard qui vont combler ce déficit et surmonter ces contradictions fondamentales. Bref, la France connaît une très grave crise de légitimité et d’autorité .

Climat- les graves conséquences du réchauffement des mers

Climat- les graves conséquences du réchauffement des mers

Depuis la mi-mars 2023, le mercure à la surface des océans grimpe à des niveaux inégalés en 40 ans de surveillance par satellite, et l’impact néfaste de cette surchauffe se ressent dans le monde entier.

par Annalisa Bracco
Professor of Ocean and Climate Dynamics, Georgia Institute of Technology dans the Conversation

La mer du Japon est plus chaude de 4 degrés Celsius par rapport à la moyenne. La mousson indienne, produit du fort contraste thermique entre les terres et les mers, a été bien plus tardive que prévu.

L’Espagne, la France, l’Angleterre et l’ensemble de la péninsule scandinave ont enregistré des niveaux de précipitations très inférieurs à la normale, probablement en raison d’une vague de chaleur marine exceptionnelle dans l’est de l’Atlantique Nord. Les températures à la surface de la mer y ont été supérieures à la moyenne de 1 à 3 °C depuis la côte africaine jusqu’à l’Islande.

Et sur le continent européen, la vague de chaleur est actuellement insoutenable, tandis que l’on bat tous les records.

Que se passe-t-il donc ?

El Niño est en partie responsable. Ce phénomène climatique, qui se développe actuellement dans l’océan Pacifique équatorial, se caractérise par des eaux chaudes dans le centre et l’est du Pacifique, ce qui atténue généralement l’alizé, un vent régulier des tropiques. Cet affaiblissement des vents peut affecter à son tour les océans et les terres du monde entier.

Mais d’autres forces agissent sur la température des océans.

À la base de tout, il y a le réchauffement climatique, et la hausse des températures à la surface des continents comme des océans depuis plusieurs décennies du fait des activités humaines augmentant les concentrations de gaz à effet de serre dans l’atmosphère.

Le graphique montre les températures de surface de la mer ces 22 dernières années. L’année 2023 est nettement supérieure aux années précédentes
Les températures de surface de la mer sont nettement supérieures à la moyenne depuis le début de la surveillance par satellite. La ligne noire épaisse correspond à 2023. La ligne orange correspond à 2022. La moyenne 1982-2011 correspond à la ligne médiane en pointillés. ClimateReanalyzer.org/NOAA
La planète sort également de trois années consécutives marquées par La Niña, le phénomène météorologique inverse d’El Niño, et donc caractérisé par des eaux plus froides qui remontent dans le Pacifique équatorial. La Niña a un effet refroidissant à l’échelle mondiale qui contribue à maintenir les températures de surface de la mer à un niveau raisonnable, mais qui peut aussi masquer le réchauffement climatique. Lorsque cet effet de refroidissement s’arrête, la chaleur devient alors de plus en plus évidente.

La banquise arctique était également anormalement basse en mai et au début du mois de juin, un autre facteur aggravant pour le mercure des océans. Car la fonte des glaces peut augmenter la température de l’eau, du fait des eaux profondes absorbant le rayonnement solaire que la glace blanche renvoyait jusque-là dans l’espace.

Tous ces phénomènes ont des effets cascades visibles dans le monde entier.

Les effets de la chaleur hors norme de l’Atlantique

Au début du mois de juin 2023, je me suis rendue pendant deux semaines au centre pour le climat NORCE à Bergen, en Norvège, pour y rencontrer d’autres océanographes. Les courants chauds et les vents anormalement doux de l’est de l’Atlantique Nord rendaient anormalement chaude cette période de l’année, où l’on voit normalement des pluies abondantes deux jours sur trois.

À lire aussi : Sécheresses historiques : que nous enseignent les archives ?

L’ensemble du secteur agricole norvégien se prépare désormais à une sécheresse aussi grave que celle de 2018, où les rendements ont été inférieurs de 40 % par rapport à la normale. Notre train de Bergen à Oslo a eu un retard de deux heures car les freins d’un wagon avaient surchauffé et que les températures de 32 °C à l’approche de la capitale étaient trop élevées pour leur permettre de refroidir.

De nombreux scientifiques ont émis des hypothèses sur les causes des températures anormalement élevées dans l’est de l’Atlantique Nord, et plusieurs études sont en cours.

[Plus de 85 000 lecteurs font confiance aux newsletters de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

L’affaiblissement des vents a rendu particulièrement faible l’anticyclone des Açores, un système de haute pression semi-permanent au-dessus de l’Atlantique qui influe sur les conditions météorologiques en Europe. De ce fait, il y avait moins de poussière du Sahara au-dessus de l’océan au printemps, aggravant ainsi potentiellement la quantité de rayonnement solaire sur l’eau. Autre facteur possible aggravrant la chaleur des océans : la diminution des émissions d’origine humaine d’aérosols (particules fines en suspension dans l’air) en Europe et aux États-Unis au cours des dernières années. Si cette baisse a permis d’améliorer la qualité de l’air, elle s’accompagne d’une réduction – encore peu documentée – de l’effet de refroidissement de ces aérosols.

Une mousson tardive en Asie du Sud

Dans l’océan Indien, El Niño a tendance à provoquer un réchauffement de l’eau en avril et en mai, ce qui peut freiner la mousson indienne dont l’importance est cruciale pour diverses activités.

C’est sans doute ce qui s’est passé avec une mousson beaucoup plus faible que la normale de la mi-mai à la mi-juin 2023. Ce phénomène risque de devenir un problème majeur pour une grande partie de l’Asie du Sud, où la plupart des cultures sont encore irriguées par les eaux de pluie et donc fortement dépendantes de la mousson d’été.

L’Inde a connu des températures étouffantes en mai et juin 2023. Shutterstock
L’océan Indien a également connu cette année un cyclone intense et lent dans la mer d’Oman, ce qui a privé les terres d’humidité et de précipitations pendant des semaines. Des études suggèrent que lorsque les eaux se réchauffent, les tempêtes ralentissent, gagnent en force et attirent ainsi l’humidité en leur cœur. Une série d’effets qui, à terme, peut priver d’eau les masses terrestres environnantes, et augmenter ainsi le risque de sécheresse, d’incendies de forêt comme de vagues de chaleur marines.

En Amérique la saison des ouragans en suspens
Dans l’Atlantique, l’affaiblissement des alizés dû à El Niño a tendance à freiner l’activité des ouragans, mais les températures chaudes de l’Atlantique peuvent contrebalancer cela en donnant un coup de fouet à ces tempêtes. Il reste donc à voir si, en persistant ou non l’automne, la chaleur océanique pourra l’emporter ou pas sur les effets d’El Niño.

Les vagues de chaleur marine peuvent également avoir des répercussions considérables sur les écosystèmes marins, en blanchissant les récifs coralliens et en provoquant ainsi la mort ou le déplacement des espèces entières qui y vivent. Or les poissons dépendant des écosystèmes coralliens nourrissent un milliard de personnes dans le monde.

Les récifs des îles Galápagos et ceux situés le long des côtes de la Colombie, du Panama et de l’Équateur, par exemple, sont déjà menacés de blanchiment et de disparition par le phénomène El Niño de cette année. Sous d’autres latitudes, en mer du Japon et en Méditerranée on constate également une perte de biodiversité au profit d’espèces invasives (les méduses géantes en Asie et les poissons-lions en Méditerranée) qui peuvent prospérer dans des eaux plus chaudes.

Ces types de risques augmentent

Le printemps 2023 a été hors norme, avec plusieurs événements météorologiques chaotiques accompagnant la formation d’El Niño et des températures exceptionnellement chaudes dans de nombreuses eaux du monde. Ce type de phénomènes et le réchauffement global des océans comme de l’atmosphère s’autoalimentent.

Pour diminuer ces risques, il faudrait mondialement réduire le réchauffement de base en limitant les émissions excessives de gaz à effet de serre, comme les combustibles fossiles, et évoluer vers une planète neutre en carbone. Les populations devront également s’adapter à un climat qui se réchauffe et dans lequel les événements extrêmes sont plus probables, et apprendre à en atténuer l’impact.

Climat- Réchauffement des mers: les conséquences

Climat- Réchauffement des mers: les conséquences

Depuis la mi-mars 2023, le mercure à la surface des océans grimpe à des niveaux inégalés en 40 ans de surveillance par satellite, et l’impact néfaste de cette surchauffe se ressent dans le monde entier.

par Annalisa Bracco
Professor of Ocean and Climate Dynamics, Georgia Institute of Technology dans the Conversation

La mer du Japon est plus chaude de 4 degrés Celsius par rapport à la moyenne. La mousson indienne, produit du fort contraste thermique entre les terres et les mers, a été bien plus tardive que prévu.

L’Espagne, la France, l’Angleterre et l’ensemble de la péninsule scandinave ont enregistré des niveaux de précipitations très inférieurs à la normale, probablement en raison d’une vague de chaleur marine exceptionnelle dans l’est de l’Atlantique Nord. Les températures à la surface de la mer y ont été supérieures à la moyenne de 1 à 3 °C depuis la côte africaine jusqu’à l’Islande.

Et sur le continent européen, la vague de chaleur est actuellement insoutenable, tandis que l’on bat tous les records.

Que se passe-t-il donc ?

El Niño est en partie responsable. Ce phénomène climatique, qui se développe actuellement dans l’océan Pacifique équatorial, se caractérise par des eaux chaudes dans le centre et l’est du Pacifique, ce qui atténue généralement l’alizé, un vent régulier des tropiques. Cet affaiblissement des vents peut affecter à son tour les océans et les terres du monde entier.

Mais d’autres forces agissent sur la température des océans.

À la base de tout, il y a le réchauffement climatique, et la hausse des températures à la surface des continents comme des océans depuis plusieurs décennies du fait des activités humaines augmentant les concentrations de gaz à effet de serre dans l’atmosphère.

Le graphique montre les températures de surface de la mer ces 22 dernières années. L’année 2023 est nettement supérieure aux années précédentes
Les températures de surface de la mer sont nettement supérieures à la moyenne depuis le début de la surveillance par satellite. La ligne noire épaisse correspond à 2023. La ligne orange correspond à 2022. La moyenne 1982-2011 correspond à la ligne médiane en pointillés. ClimateReanalyzer.org/NOAA
La planète sort également de trois années consécutives marquées par La Niña, le phénomène météorologique inverse d’El Niño, et donc caractérisé par des eaux plus froides qui remontent dans le Pacifique équatorial. La Niña a un effet refroidissant à l’échelle mondiale qui contribue à maintenir les températures de surface de la mer à un niveau raisonnable, mais qui peut aussi masquer le réchauffement climatique. Lorsque cet effet de refroidissement s’arrête, la chaleur devient alors de plus en plus évidente.

La banquise arctique était également anormalement basse en mai et au début du mois de juin, un autre facteur aggravant pour le mercure des océans. Car la fonte des glaces peut augmenter la température de l’eau, du fait des eaux profondes absorbant le rayonnement solaire que la glace blanche renvoyait jusque-là dans l’espace.

Tous ces phénomènes ont des effets cascades visibles dans le monde entier.

Les effets de la chaleur hors norme de l’Atlantique

Au début du mois de juin 2023, je me suis rendue pendant deux semaines au centre pour le climat NORCE à Bergen, en Norvège, pour y rencontrer d’autres océanographes. Les courants chauds et les vents anormalement doux de l’est de l’Atlantique Nord rendaient anormalement chaude cette période de l’année, où l’on voit normalement des pluies abondantes deux jours sur trois.

À lire aussi : Sécheresses historiques : que nous enseignent les archives ?

L’ensemble du secteur agricole norvégien se prépare désormais à une sécheresse aussi grave que celle de 2018, où les rendements ont été inférieurs de 40 % par rapport à la normale. Notre train de Bergen à Oslo a eu un retard de deux heures car les freins d’un wagon avaient surchauffé et que les températures de 32 °C à l’approche de la capitale étaient trop élevées pour leur permettre de refroidir.

De nombreux scientifiques ont émis des hypothèses sur les causes des températures anormalement élevées dans l’est de l’Atlantique Nord, et plusieurs études sont en cours.

[Plus de 85 000 lecteurs font confiance aux newsletters de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

L’affaiblissement des vents a rendu particulièrement faible l’anticyclone des Açores, un système de haute pression semi-permanent au-dessus de l’Atlantique qui influe sur les conditions météorologiques en Europe. De ce fait, il y avait moins de poussière du Sahara au-dessus de l’océan au printemps, aggravant ainsi potentiellement la quantité de rayonnement solaire sur l’eau. Autre facteur possible aggravrant la chaleur des océans : la diminution des émissions d’origine humaine d’aérosols (particules fines en suspension dans l’air) en Europe et aux États-Unis au cours des dernières années. Si cette baisse a permis d’améliorer la qualité de l’air, elle s’accompagne d’une réduction – encore peu documentée – de l’effet de refroidissement de ces aérosols.

Une mousson tardive en Asie du Sud

Dans l’océan Indien, El Niño a tendance à provoquer un réchauffement de l’eau en avril et en mai, ce qui peut freiner la mousson indienne dont l’importance est cruciale pour diverses activités.

C’est sans doute ce qui s’est passé avec une mousson beaucoup plus faible que la normale de la mi-mai à la mi-juin 2023. Ce phénomène risque de devenir un problème majeur pour une grande partie de l’Asie du Sud, où la plupart des cultures sont encore irriguées par les eaux de pluie et donc fortement dépendantes de la mousson d’été.

L’Inde a connu des températures étouffantes en mai et juin 2023. Shutterstock
L’océan Indien a également connu cette année un cyclone intense et lent dans la mer d’Oman, ce qui a privé les terres d’humidité et de précipitations pendant des semaines. Des études suggèrent que lorsque les eaux se réchauffent, les tempêtes ralentissent, gagnent en force et attirent ainsi l’humidité en leur cœur. Une série d’effets qui, à terme, peut priver d’eau les masses terrestres environnantes, et augmenter ainsi le risque de sécheresse, d’incendies de forêt comme de vagues de chaleur marines.

En Amérique la saison des ouragans en suspens
Dans l’Atlantique, l’affaiblissement des alizés dû à El Niño a tendance à freiner l’activité des ouragans, mais les températures chaudes de l’Atlantique peuvent contrebalancer cela en donnant un coup de fouet à ces tempêtes. Il reste donc à voir si, en persistant ou non l’automne, la chaleur océanique pourra l’emporter ou pas sur les effets d’El Niño.

Les vagues de chaleur marine peuvent également avoir des répercussions considérables sur les écosystèmes marins, en blanchissant les récifs coralliens et en provoquant ainsi la mort ou le déplacement des espèces entières qui y vivent. Or les poissons dépendant des écosystèmes coralliens nourrissent un milliard de personnes dans le monde.

Les récifs des îles Galápagos et ceux situés le long des côtes de la Colombie, du Panama et de l’Équateur, par exemple, sont déjà menacés de blanchiment et de disparition par le phénomène El Niño de cette année. Sous d’autres latitudes, en mer du Japon et en Méditerranée on constate également une perte de biodiversité au profit d’espèces invasives (les méduses géantes en Asie et les poissons-lions en Méditerranée) qui peuvent prospérer dans des eaux plus chaudes.

Ces types de risques augmentent

Le printemps 2023 a été hors norme, avec plusieurs événements météorologiques chaotiques accompagnant la formation d’El Niño et des températures exceptionnellement chaudes dans de nombreuses eaux du monde. Ce type de phénomènes et le réchauffement global des océans comme de l’atmosphère s’autoalimentent.

Pour diminuer ces risques, il faudrait mondialement réduire le réchauffement de base en limitant les émissions excessives de gaz à effet de serre, comme les combustibles fossiles, et évoluer vers une planète neutre en carbone. Les populations devront également s’adapter à un climat qui se réchauffe et dans lequel les événements extrêmes sont plus probables, et apprendre à en atténuer l’impact.

Canicule: conséquences sur la santé

Canicule: conséquences sur la santé

Par Rémy Slama responsable de l’équipe d’épidémiologie environnementale appliquée à la reproduction et la santé respiratoire – Institut pour l’Avancée des Biosciences (IAB), Inserm-CNRS et Université Grenoble Alpes dans l’Opinion.

Directeur de Recherches à l’Inserm. Il est aussi président du Conseil Scientifique du Programme National de Recherche sur les Perturbateurs Endocriniens. (pour The conversation)

L’été 2023 fait déjà face à des températures accablantes, alors que de nombreux pays européens voit le thermomètre grimper au dessus des 40 degrés depuis plusieurs jours.


Vingt ans après la terrible canicule de 2003, que sait-on des effets de ces épisodes météorologiques sur notre santé ?

2003, l’été de la prise de conscience. Les conditions météorologiques quotidiennes telles que la température et l’humidité ont un rôle sur notre santé connu depuis longtemps, mais qui est apparu au grand public lors de la canicule de l’été 2003 : des températures supérieures à 35 °C furent alors observées par les deux tiers des stations de Météo France entre le 1er et le 18 août ; les températures maximales et minimales furent les plus élevées depuis 1950 ; la température nocturne resta élevée, supérieure à 25 °C à Paris pendant deux nuits consécutives, empêchant l’organisme de récupérer la nuit du stress dû à la chaleur diurne, tout ceci en conjonction avec des niveaux élevés de pollution par l’ozone.

Le 10 août, alors que l’épisode caniculaire avait déjà débuté depuis plus d’une semaine, un médecin urgentiste d’un grand hôpital parisien, le Dr Patrick Pelloux, tira la sonnette d’alarme dans les médias, annonçant que les urgences étaient débordées et travaillaient dans des conditions impossibles ; il parlait d’une hécatombe, citant le chiffre d’une cinquantaine de décès dus à la canicule. Les services funéraires indiquaient eux aussi qu’ils étaient dépassés. Des halles réfrigérées du marché de Rungis furent réquisitionnées pour servir en urgence de chambres mortuaires. Le 13 août, le plan blanc, qui permet la réquisition de médecins et de lits d’hôpitaux, fut déclenché par les autorités en Île-de-France.

Le ministère de la Santé démentit le 17 août l’hypothèse de 5 000 décès en excès alors annoncée par le Dr Pelloux, avant d’indiquer le 18 qu’un chiffre de 3 000 à 5 000 était finalement plausible. Le directeur général de la Santé fut contraint de démissionner. Le 20 août, un groupe de pompes funèbres faisait l’estimation que le nombre de décès en excès depuis le début du mois d’août était de l’ordre de 13 000, nombre que le gouvernement ne pouvait confirmer, appelant à la « prudence ».

Dans les faits, l’excès de mortalité en août 2003 par rapport à la moyenne des années précédentes a été d’environ 15 000 décès pour l’ensemble du pays. L’Île-de-France et de nombreuses villes ont été touchées, alors que les agglomérations de Lille et Le Havre ont été épargnées par la surmortalité. À l’échelle de l’Europe, le nombre de décès causés par la vague de chaleur de l’été 2003 serait de l’ordre de 70 000, ce qui en fait une des plus meurtrières de celles dont les effets sont documentés.

Une perte d’espérance de vie. L’amplitude de l’effet semble avoir dépendu de nombreux facteurs de l’environnement (îlots de chaleur urbains, densité d’espaces verts, climatisation…), sociaux et comportementaux. Il ne s’agissait pas que d’un déplacement à très court terme de la mortalité (c’est ce qui se serait passé si seulement des populations très sensibles ou atteintes d’autres pathologies avaient été touchées par la canicule, et si la surmortalité durant la canicule avait été compensée dans les semaines suivantes par une sous-mortalité. Une telle sous-mortalité par rapport à la moyenne n’a pas été observée dans les mois suivant la canicule). Une réelle diminution de l’espérance de vie a donc eu lieu.

La vague de chaleur de 1976 avait, elle, causé 6 000 décès en excès sur l’ensemble du territoire. Tous ces décès ne correspondent pas à des « coups de chaud » ou à une déshydratation forte, et ne sont donc pas identifiés comme étant dus à la chaleur par les certificats de décès (la situation est la même pour la pollution atmosphérique et la plupart des autres facteurs environnementaux). Beaucoup d’entre eux correspondent à ce qu’on peut voir comme la décompensation de pathologies sous-jacentes (cardiovasculaires, respiratoires, rénale…) : la vague de chaleur est le facteur supplémentaire qui déclenche la survenue d’un décès aux causes multiples.

Vagues de chaleur : des conséquences sur la santé longtemps sous-estimées. En France, cette canicule a confirmé ou révélé plusieurs choses fondamentales. La première est que la chaleur tue et peut le faire de façon conséquente – ce facteur « environnemental » n’était pas vraiment dans le radar des autorités sanitaires et environnementales. Aucune agence sanitaire ou service de l’État en lien avec la santé n’était alors, en France, réellement chargée de « surveiller » la survenue d’une canicule. Il n’y avait pas de coordination mise en place entre Météo France et une agence sanitaire, situation qui a depuis changé.

La deuxième est que la canicule ne touche pas que les sujets très fragiles et déjà hospitalisés, au contraire. Les trois quarts des décès ont eu lieu au domicile, pas à l’hôpital, probablement du fait que les sujets déjà hospitalisés étaient bien surveillés et hydratés par le personnel médical. La lutte contre la canicule est, dans notre pays, un problème de prévention – tant qu’on ne fragilise pas le système de soins. La situation suit la même logique chez les personnes vivant en maison de retraite. L’équipe d’Alfred Spira a montré que, parmi les personnes âgées vivant en institution, l’effet de la canicule avait été plus marqué chez celles en bonne santé que chez celles qui avaient une moins bonne santé avant le début de la canicule.

Troisième leçon : les autorités ne sont, alors, pas capables de suivre la mortalité de la population en temps réel. Ce sont les services des urgences, la police, les pompiers, les services funéraires, qui tirent la sonnette d’alarme, avec des estimations parcellaires et souvent, logiquement, loin de la réalité. La situation est différente au Royaume-Uni où, depuis le XVIIe siècle, les données de mortalité sont disponibles dans un délai inférieur à moins d’une semaine. Une douzaine d’années plus tard, la France n’a pas encore les moyens de suivre de façon exhaustive à l’échelle du territoire les décès en temps réel ou avec un décalage de l’ordre de la semaine ; le projet de certificat de décès électronique pourrait permettre d’améliorer la situation. Un système de suivi des décès appelé Sursaud, a été mis en place par Santé Publique France et permet une remontée rapide des données de mortalité pour environ 80 % de la population, en plus de la centralisation des données de 600 services d’urgence.

Face à la météo, toutes les populations ne sont pas égales. L’influence des conditions météorologiques ne se limite pas aux épisodes extrêmes, mais s’observe aussi durant les fluctuations saisonnières. On constate ainsi, en utilisant une approche par séries temporelles, une relation en U entre la température et la mortalité, avec une mortalité accrue aux températures les plus froides et les plus chaudes.

L’optimum thermique (généralement situé entre 15 et 25 °C), et donc les seuils à partir desquels le risque de décès augmente, varie selon les populations : les populations du sud de l’Europe, ainsi, sont plus sensibles aux effets du froid que celle du Nord, et celles du nord à la chaleur. Cela s’explique probablement par une adaptation de chaque population au climat local, passant par des modes de vie plus ou moins efficaces dans la protection contre le chaud ou le froid, en termes de chauffage, d’isolation, de protection contre le soleil, de solidarité…

Cela ne veut pas dire qu’on peut résister à tout. Quand on décrit l’influence de la température sur la mortalité en fonction de la distribution des températures dans chaque ville, on se rend compte que les habitants des villes américaines et de pays comme l’Australie commencent à souffrir (en termes de mortalité) de la chaleur quand celle-ci atteint les 10 % de températures les plus chaudes. En Espagne, en revanche, le risque de mortalité augmente bien plus tôt, dès que la température médiane (celle observée ou dépassée la moitié des jours estivaux) est atteinte. Nous reviendrons sur la question de l’adaptation aux vagues de chaleur. En outre, l’effet de la température sur la mortalité est modifié par l’humidité, qui a tendance à l’amplifier.

Les effets de la température sur la santé. Les mécanismes par lesquels la température influence la santé sont d’une part des effets biologiques sur l’organisme, d’autre part des effets sur l’environnement et enfin sur les comportements.

Concernant l’environnement et les comportements, le froid peut par exemple favoriser les intoxications par le monoxyde de carbone issu des chaudières, les traumatismes liés au verglas, ainsi que la transmission de certaines épidémies dues à des virus survivant mieux par le temps froid et sec typique de l’hiver.

Les effets biologiques plus directs concernent les systèmes cardiaque, respiratoire, endocrinien, immunitaire, nerveux. Des effets des facteurs météorologiques sur les issues de grossesse sont aussi plausibles. On sait notamment qu’une pression atmosphérique faible est un facteur de risque de petit poids de naissance ; cela est connu depuis longtemps, à la suite de la constatation que les enfants nés dans l’État du Colorado (dont une grande partie est en altitude, donc à une pression atmosphérique plus basse qu’au niveau de la mer) ont plus souvent un petit poids de naissance. Un effet des paramètres météorologiques, et en particulier de la température, sur le risque de naissance prématurée, a aussi été suggéré récemment.

Un mot concernant la prévention des effets sanitaires de la température : contrairement à la lutte contre la pollution de l’air, dans laquelle améliorer la qualité de l’environnement est difficilement contournable, on peut limiter une grande partie des effets de la température sur la santé en se contentant de protéger l’organisme, sans forcément toucher à l’environnement. Dans le cas de la lutte contre la canicule, rafraîchir le corps quelques heures par jour suffit à atténuer une grande partie des effets sanitaires. Les mesures de prévention préconisées vont en ce sens (s’hydrater, limiter l’exercice physique, sortir peu aux heures les plus chaudes).

Il est frappant de constater que, dans notre pays au moins, l’essentiel de ces mesures correspond à des préconisations individuelles ; il n’y a apparemment pas, aujourd’hui, de mesures destinées aux collectivités territoriales. Or celles-ci ont de nombreux leviers dans leurs mains : ouvrir les piscines de façon prolongée et à moindre coût, arroser les rues, rendre les lieux climatisés plus accessibles… De telles mesures sont complémentaires aux préconisations individuelles, et pourraient. On manque de recul sur les mesures qui sont les plus efficaces, mais certaines villes ont commencé à se doter de “plans canicule” (comme Grenoble), au-delà du Plan national canicule. Ces mesures semblent très majoritairement axées sur la prévention à court terme, alors que des actions à plus long terme pourraient aussi être utiles pour rendre nos sociétés plus résilientes aux vagues de chaleur : végétaliser davantage les villes et augmenter la réflexion des sols et toits, font partie des solutions mises en œuvre à l’étranger, et fournir aux collectivités un point complet sur la palette, l’efficacité et le coût des différentes options qui s’offrent à elles serait important.

S’adapter au changement climatique ? Le changement climatique est susceptible d’entraîner une augmentation de la fréquence de tels événements climatiques extrêmes (vagues de chaud ou froid, tempêtes). Une tendance de la population française à mieux supporter les vagues de chaleur, depuis 2003, a été constatée. Cette adaptation s’explique probablement par des modifications des comportements vis-à-vis des personnes âgées et par d’autres changements dans notre société, plutôt que par des processus physiologiques. Elle ne signifie pas que les sociétés sont ou seront capables de compenser intégralement les effets du changement climatique passant par une augmentation de la fréquence des canicules ; surtout, il est très probable qu’elles ne le pourront pas toutes.

De premiers éléments laissent penser que l’aptitude à l’adaptation – la résilience des sociétés, des zones urbaines – face à la canicule varie effectivement d’une région à l’autre. Ces travaux suggèrent ainsi que, au cours de la période allant de 1993 à 2006, les villes du Japon ou des États-Unis sont devenues moins sensibles à la canicule, alors que ce n’est apparemment pas le cas des villes du Royaume-Uni. Des données couvrant l’ensemble du XXe siècle sont en particulier disponibles pour la ville de New York. Elles indiquent que l’effet d’une température de 29 °C un jour donné sur la mortalité correspondait à une augmentation de la mortalité d’environ 43 % dans les années 1900-1909 (avec un intervalle de confiance à 95 % allant de 37 à 49 %). Cet effet a été divisé par cinq, baissant à 9 % (intervalle de confiance, entre 5 et 12 %), dans les années 2000-2009.

La climatisation ne sera pas la solution. Cette amélioration sensible de la résilience à New York au cours du XXe siècle semble être une bonne nouvelle. Elle a cependant, au moins en partie, été obtenue par la généralisation de la climatisation, du transport en véhicules particuliers (eux aussi climatisés) y compris sur de courtes distances. Près de 90 % des foyers américains sont climatisés, et les climatiseurs consomment de l’énergie (dont la production est source de gaz à effet de serre), et ont longtemps émis des gaz de la famille des CFC, qui sont des milliers de fois plus puissants que le dioxyde de carbone en termes de contribution à l’effet de serre, en plus d’endommager la couche d’ozone.

Les CFC ont été bannis des climatiseurs américains au milieu des années 1990, mais un grand nombre de ceux produits jusqu’en 2010 utilisent encore des gaz de la famille des HCFC, qui sont aussi de forts contributeurs à l’effet de serre.

Si ce qui rend la société américaine de plus en plus résiliente à la canicule est aussi ce qui contribue à faire d’elle celle qui émet le plus de gaz à effet de serre par habitant, alors il y a à craindre que le « modèle » ne puisse être transposé à l’échelle de la planète…

Ce texte est extrait du livre de Rémy Slama, Le mal du dehors, L’influence de l’environnement sur la santé, aux éditions Quae
.

Par Rémy Slama responsable de l’équipe d’épidémiologie environnementale appliquée à la reproduction et la santé respiratoire – Institut pour l’Avancée des Biosciences (IAB), Inserm-CNRS et Université Grenoble Alpes dans l’Opinion.

Directeur de Recherches à l’Inserm. Il est aussi président du Conseil Scientifique du Programme National de Recherche sur les Perturbateurs Endocriniens. (pour The conversation)

L’été 2023 fait déjà face à des températures accablantes, alors que de nombreux pays européens voit le thermomètre grimper au dessus des 40 degrés depuis plusieurs jours.


Vingt ans après la terrible canicule de 2003, que sait-on des effets de ces épisodes météorologiques sur notre santé ?

2003, l’été de la prise de conscience. Les conditions météorologiques quotidiennes telles que la température et l’humidité ont un rôle sur notre santé connu depuis longtemps, mais qui est apparu au grand public lors de la canicule de l’été 2003 : des températures supérieures à 35 °C furent alors observées par les deux tiers des stations de Météo France entre le 1er et le 18 août ; les températures maximales et minimales furent les plus élevées depuis 1950 ; la température nocturne resta élevée, supérieure à 25 °C à Paris pendant deux nuits consécutives, empêchant l’organisme de récupérer la nuit du stress dû à la chaleur diurne, tout ceci en conjonction avec des niveaux élevés de pollution par l’ozone.

Le 10 août, alors que l’épisode caniculaire avait déjà débuté depuis plus d’une semaine, un médecin urgentiste d’un grand hôpital parisien, le Dr Patrick Pelloux, tira la sonnette d’alarme dans les médias, annonçant que les urgences étaient débordées et travaillaient dans des conditions impossibles ; il parlait d’une hécatombe, citant le chiffre d’une cinquantaine de décès dus à la canicule. Les services funéraires indiquaient eux aussi qu’ils étaient dépassés. Des halles réfrigérées du marché de Rungis furent réquisitionnées pour servir en urgence de chambres mortuaires. Le 13 août, le plan blanc, qui permet la réquisition de médecins et de lits d’hôpitaux, fut déclenché par les autorités en Île-de-France.

Le ministère de la Santé démentit le 17 août l’hypothèse de 5 000 décès en excès alors annoncée par le Dr Pelloux, avant d’indiquer le 18 qu’un chiffre de 3 000 à 5 000 était finalement plausible. Le directeur général de la Santé fut contraint de démissionner. Le 20 août, un groupe de pompes funèbres faisait l’estimation que le nombre de décès en excès depuis le début du mois d’août était de l’ordre de 13 000, nombre que le gouvernement ne pouvait confirmer, appelant à la « prudence ».

Dans les faits, l’excès de mortalité en août 2003 par rapport à la moyenne des années précédentes a été d’environ 15 000 décès pour l’ensemble du pays. L’Île-de-France et de nombreuses villes ont été touchées, alors que les agglomérations de Lille et Le Havre ont été épargnées par la surmortalité. À l’échelle de l’Europe, le nombre de décès causés par la vague de chaleur de l’été 2003 serait de l’ordre de 70 000, ce qui en fait une des plus meurtrières de celles dont les effets sont documentés.

Une perte d’espérance de vie. L’amplitude de l’effet semble avoir dépendu de nombreux facteurs de l’environnement (îlots de chaleur urbains, densité d’espaces verts, climatisation…), sociaux et comportementaux. Il ne s’agissait pas que d’un déplacement à très court terme de la mortalité (c’est ce qui se serait passé si seulement des populations très sensibles ou atteintes d’autres pathologies avaient été touchées par la canicule, et si la surmortalité durant la canicule avait été compensée dans les semaines suivantes par une sous-mortalité. Une telle sous-mortalité par rapport à la moyenne n’a pas été observée dans les mois suivant la canicule). Une réelle diminution de l’espérance de vie a donc eu lieu.

La vague de chaleur de 1976 avait, elle, causé 6 000 décès en excès sur l’ensemble du territoire. Tous ces décès ne correspondent pas à des « coups de chaud » ou à une déshydratation forte, et ne sont donc pas identifiés comme étant dus à la chaleur par les certificats de décès (la situation est la même pour la pollution atmosphérique et la plupart des autres facteurs environnementaux). Beaucoup d’entre eux correspondent à ce qu’on peut voir comme la décompensation de pathologies sous-jacentes (cardiovasculaires, respiratoires, rénale…) : la vague de chaleur est le facteur supplémentaire qui déclenche la survenue d’un décès aux causes multiples.

Vagues de chaleur : des conséquences sur la santé longtemps sous-estimées. En France, cette canicule a confirmé ou révélé plusieurs choses fondamentales. La première est que la chaleur tue et peut le faire de façon conséquente – ce facteur « environnemental » n’était pas vraiment dans le radar des autorités sanitaires et environnementales. Aucune agence sanitaire ou service de l’État en lien avec la santé n’était alors, en France, réellement chargée de « surveiller » la survenue d’une canicule. Il n’y avait pas de coordination mise en place entre Météo France et une agence sanitaire, situation qui a depuis changé.

La deuxième est que la canicule ne touche pas que les sujets très fragiles et déjà hospitalisés, au contraire. Les trois quarts des décès ont eu lieu au domicile, pas à l’hôpital, probablement du fait que les sujets déjà hospitalisés étaient bien surveillés et hydratés par le personnel médical. La lutte contre la canicule est, dans notre pays, un problème de prévention – tant qu’on ne fragilise pas le système de soins. La situation suit la même logique chez les personnes vivant en maison de retraite. L’équipe d’Alfred Spira a montré que, parmi les personnes âgées vivant en institution, l’effet de la canicule avait été plus marqué chez celles en bonne santé que chez celles qui avaient une moins bonne santé avant le début de la canicule.

Troisième leçon : les autorités ne sont, alors, pas capables de suivre la mortalité de la population en temps réel. Ce sont les services des urgences, la police, les pompiers, les services funéraires, qui tirent la sonnette d’alarme, avec des estimations parcellaires et souvent, logiquement, loin de la réalité. La situation est différente au Royaume-Uni où, depuis le XVIIe siècle, les données de mortalité sont disponibles dans un délai inférieur à moins d’une semaine. Une douzaine d’années plus tard, la France n’a pas encore les moyens de suivre de façon exhaustive à l’échelle du territoire les décès en temps réel ou avec un décalage de l’ordre de la semaine ; le projet de certificat de décès électronique pourrait permettre d’améliorer la situation. Un système de suivi des décès appelé Sursaud, a été mis en place par Santé Publique France et permet une remontée rapide des données de mortalité pour environ 80 % de la population, en plus de la centralisation des données de 600 services d’urgence.

Face à la météo, toutes les populations ne sont pas égales. L’influence des conditions météorologiques ne se limite pas aux épisodes extrêmes, mais s’observe aussi durant les fluctuations saisonnières. On constate ainsi, en utilisant une approche par séries temporelles, une relation en U entre la température et la mortalité, avec une mortalité accrue aux températures les plus froides et les plus chaudes.

L’optimum thermique (généralement situé entre 15 et 25 °C), et donc les seuils à partir desquels le risque de décès augmente, varie selon les populations : les populations du sud de l’Europe, ainsi, sont plus sensibles aux effets du froid que celle du Nord, et celles du nord à la chaleur. Cela s’explique probablement par une adaptation de chaque population au climat local, passant par des modes de vie plus ou moins efficaces dans la protection contre le chaud ou le froid, en termes de chauffage, d’isolation, de protection contre le soleil, de solidarité…

Cela ne veut pas dire qu’on peut résister à tout. Quand on décrit l’influence de la température sur la mortalité en fonction de la distribution des températures dans chaque ville, on se rend compte que les habitants des villes américaines et de pays comme l’Australie commencent à souffrir (en termes de mortalité) de la chaleur quand celle-ci atteint les 10 % de températures les plus chaudes. En Espagne, en revanche, le risque de mortalité augmente bien plus tôt, dès que la température médiane (celle observée ou dépassée la moitié des jours estivaux) est atteinte. Nous reviendrons sur la question de l’adaptation aux vagues de chaleur. En outre, l’effet de la température sur la mortalité est modifié par l’humidité, qui a tendance à l’amplifier.

Les effets de la température sur la santé. Les mécanismes par lesquels la température influence la santé sont d’une part des effets biologiques sur l’organisme, d’autre part des effets sur l’environnement et enfin sur les comportements.

Concernant l’environnement et les comportements, le froid peut par exemple favoriser les intoxications par le monoxyde de carbone issu des chaudières, les traumatismes liés au verglas, ainsi que la transmission de certaines épidémies dues à des virus survivant mieux par le temps froid et sec typique de l’hiver.

Les effets biologiques plus directs concernent les systèmes cardiaque, respiratoire, endocrinien, immunitaire, nerveux. Des effets des facteurs météorologiques sur les issues de grossesse sont aussi plausibles. On sait notamment qu’une pression atmosphérique faible est un facteur de risque de petit poids de naissance ; cela est connu depuis longtemps, à la suite de la constatation que les enfants nés dans l’État du Colorado (dont une grande partie est en altitude, donc à une pression atmosphérique plus basse qu’au niveau de la mer) ont plus souvent un petit poids de naissance. Un effet des paramètres météorologiques, et en particulier de la température, sur le risque de naissance prématurée, a aussi été suggéré récemment.

Un mot concernant la prévention des effets sanitaires de la température : contrairement à la lutte contre la pollution de l’air, dans laquelle améliorer la qualité de l’environnement est difficilement contournable, on peut limiter une grande partie des effets de la température sur la santé en se contentant de protéger l’organisme, sans forcément toucher à l’environnement. Dans le cas de la lutte contre la canicule, rafraîchir le corps quelques heures par jour suffit à atténuer une grande partie des effets sanitaires. Les mesures de prévention préconisées vont en ce sens (s’hydrater, limiter l’exercice physique, sortir peu aux heures les plus chaudes).

Il est frappant de constater que, dans notre pays au moins, l’essentiel de ces mesures correspond à des préconisations individuelles ; il n’y a apparemment pas, aujourd’hui, de mesures destinées aux collectivités territoriales. Or celles-ci ont de nombreux leviers dans leurs mains : ouvrir les piscines de façon prolongée et à moindre coût, arroser les rues, rendre les lieux climatisés plus accessibles… De telles mesures sont complémentaires aux préconisations individuelles, et pourraient. On manque de recul sur les mesures qui sont les plus efficaces, mais certaines villes ont commencé à se doter de “plans canicule” (comme Grenoble), au-delà du Plan national canicule. Ces mesures semblent très majoritairement axées sur la prévention à court terme, alors que des actions à plus long terme pourraient aussi être utiles pour rendre nos sociétés plus résilientes aux vagues de chaleur : végétaliser davantage les villes et augmenter la réflexion des sols et toits, font partie des solutions mises en œuvre à l’étranger, et fournir aux collectivités un point complet sur la palette, l’efficacité et le coût des différentes options qui s’offrent à elles serait important.

S’adapter au changement climatique ? Le changement climatique est susceptible d’entraîner une augmentation de la fréquence de tels événements climatiques extrêmes (vagues de chaud ou froid, tempêtes). Une tendance de la population française à mieux supporter les vagues de chaleur, depuis 2003, a été constatée. Cette adaptation s’explique probablement par des modifications des comportements vis-à-vis des personnes âgées et par d’autres changements dans notre société, plutôt que par des processus physiologiques. Elle ne signifie pas que les sociétés sont ou seront capables de compenser intégralement les effets du changement climatique passant par une augmentation de la fréquence des canicules ; surtout, il est très probable qu’elles ne le pourront pas toutes.

De premiers éléments laissent penser que l’aptitude à l’adaptation – la résilience des sociétés, des zones urbaines – face à la canicule varie effectivement d’une région à l’autre. Ces travaux suggèrent ainsi que, au cours de la période allant de 1993 à 2006, les villes du Japon ou des États-Unis sont devenues moins sensibles à la canicule, alors que ce n’est apparemment pas le cas des villes du Royaume-Uni. Des données couvrant l’ensemble du XXe siècle sont en particulier disponibles pour la ville de New York. Elles indiquent que l’effet d’une température de 29 °C un jour donné sur la mortalité correspondait à une augmentation de la mortalité d’environ 43 % dans les années 1900-1909 (avec un intervalle de confiance à 95 % allant de 37 à 49 %). Cet effet a été divisé par cinq, baissant à 9 % (intervalle de confiance, entre 5 et 12 %), dans les années 2000-2009.

La climatisation ne sera pas la solution. Cette amélioration sensible de la résilience à New York au cours du XXe siècle semble être une bonne nouvelle. Elle a cependant, au moins en partie, été obtenue par la généralisation de la climatisation, du transport en véhicules particuliers (eux aussi climatisés) y compris sur de courtes distances. Près de 90 % des foyers américains sont climatisés, et les climatiseurs consomment de l’énergie (dont la production est source de gaz à effet de serre), et ont longtemps émis des gaz de la famille des CFC, qui sont des milliers de fois plus puissants que le dioxyde de carbone en termes de contribution à l’effet de serre, en plus d’endommager la couche d’ozone.

Les CFC ont été bannis des climatiseurs américains au milieu des années 1990, mais un grand nombre de ceux produits jusqu’en 2010 utilisent encore des gaz de la famille des HCFC, qui sont aussi de forts contributeurs à l’effet de serre.

Si ce qui rend la société américaine de plus en plus résiliente à la canicule est aussi ce qui contribue à faire d’elle celle qui émet le plus de gaz à effet de serre par habitant, alors il y a à craindre que le « modèle » ne puisse être transposé à l’échelle de la planète…

Ce texte est extrait du livre de Rémy Slama, Le mal du dehors, L’influence de l’environnement sur la santé, aux éditions Quae
.

123456



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol