Archive pour le Tag 'fin'

Page 5 sur 41

L’intelligence artificielle va provoquer la fin des médias ?

L’intelligence artificielle va provoquer la fin des médias ?

Recherche d’informations, production de contenu, traduction, détection de propos haineux… l’intelligence artificielle (IA) générative promet d’importants gains de productivité dans l’univers des médias. Les médias nous accompagnent au quotidien et sont un support à la démocratie : ils ont la liberté de montrer différents points de vue et idées, de dénoncer la corruption et les discriminations, mais également de montrer la cohésion sociale et culturelle.
Alors que le public se tourne vers les médias pour s’informer, se cultiver et se divertir, les médias n’échappent pas aux soucis économiques et à la rentabilité d’une industrie mesurée en termes d’audimat et de vente. Dans ce contexte, l’IA générative amène de nouveaux outils puissants et sera de plus en plus utilisée.

Laurence Devillers
Professeur en Intelligence Artificielle, Sorbonne Université dans The conversation

Un article intéressant mais qui n’assiste pas suffisamment sur l’actuelle très grande fragilité des médias. Une fragilité qui se traduit notamment par un introuvable équilibre financier qui favorise la médiocrité rédactionnelle. Et qui permet la mainmise des grands capitaines d’industrie sur l’information ! NDLR

Mais il faut crucialement rappeler que les IA génératives n’ont pas d’idées, et qu’elles reprennent des propos qui peuvent être agencés de façon aussi intéressante qu’absurde (on parle alors d’« hallucinations » des systèmes d’IA). Ces IA génératives ne savent pas ce qui est possible ou impossible, vrai ou faux, moral ou immoral.

Ainsi, le métier de journaliste doit rester central pour enquêter et raisonner sur les situations complexes de société et de géopolitique. Alors, comment les médias peuvent-ils exploiter les outils d’IA tout en évitant leurs écueils ?

Le Comité national pilote d’éthique du numérique (CNPEN) a rendu en juillet un avis général sur les enjeux d’éthique des IA génératives, que j’ai co-coordonné, au ministre chargé de la Transition numérique. Il précise notamment les risques de ces systèmes.

Les médias peuvent utiliser l’IA pour améliorer la qualité de l’information, lutter contre les fausses nouvelles, identifier le harcèlement et les incitations à la haine, mais aussi parce qu’elle peut permettre de faire avancer la connaissance et mieux comprendre des réalités complexes, comme le développement durable ou encore les flux migratoires.

Les IA génératives sont des outils fabuleux qui peuvent faire émerger des résultats que nous ne pourrions pas obtenir sans elles car elles calculent à des niveaux de représentation qui ne sont pas les nôtres, sur une quantité gigantesque de données et avec une rapidité qu’un cerveau ne sait pas traiter. Si on sait se doter de garde-fous, ce sont des systèmes qui vont nous faire gagner du temps de recherche d’information, de lecture et de production et qui vont nous permettre de lutter contre les stéréotypes et d’optimiser des processus.

Ces outils n’arrivent pas maintenant par hasard. Alors que nous sommes effectivement noyés sous un flot d’informations diffusées en continu par les chaînes classiques ou contenus accessibles sur Internet, des outils comme ChatGPT nous permettent de consulter et de produire des synthèses, programmes, poèmes, etc., à partir d’un ensemble d’informations gigantesques inaccessibles à un cerveau humain en temps humain. Ils peuvent donc être extrêmement utiles pour de nombreuses tâches mais aussi contribuer à un flux d’informations non sourcées. Il faut donc les apprivoiser et en comprendre le fonctionnement et les risques.

Les performances des IA génératives tiennent à la capacité d’apprentissage auto-supervisée (c’est-à-dire sans être guidée par une main humaine, ce qui est un concept différent de l’adaptation en temps réel) de leurs modèles internes, appelés « modèles de fondation », qui sont entraînés à partir d’énormes corpus de données constitués de milliards d’images, de textes ou de sons très souvent dans les cultures dominantes sur Internet, par exemple GPT3.5 de ChatGPT est nourri majoritairement de données en anglais. Les deux autres types d’apprentissage ont également été utilisés : avant sa mise à disposition fin 2022, ChatGPT a été optimisé grâce à un apprentissage supervisé puis grâce à un apprentissage par renforcement par des humains de façon à affiner les résultats et à éliminer les propos non souhaitables.

Cette optimisation par des humains a d’ailleurs été très critiquée. Comment sont-ils formés ? Qui sont ces « hommes du clic » sous-payés ? Ces propos « non souhaitables », en outre, ne sont pas décidés par un comité d’éthique ou le législateur, mais par l’entreprise seule.

Durant l’apprentissage des modèles de fondation sur des textes, le système apprend ce que l’on appelle des « vecteurs de plongements lexicaux » (de taille 512 dans GPT 3.5). C’est le système « transformers ». Le principe d’entraînement du modèle de fondation est fondé par l’hypothèse distributionnelle proposée par le linguiste américain John Ruppert Fith en 1957 : on ne peut connaître le sens d’un mot que par ses fréquentations (« You shall know a word by the company it keeps »).

Ces entités (« token » en anglais) font en moyenne quatre caractères dans GPT3.5. Elles peuvent n’être constituées que d’un seul et d’un blanc. Elles peuvent donc être des parties de mots ou des mots avec l’avantage de pouvoir combiner agilement ces entités pour recréer des mots et des phrases sans aucune connaissance linguistique (hormis celle implicite à l’enchaînement des mots), le désavantage étant évidemment d’être moins interprétable. Chaque entité est codée par un vecteur qui contient des informations sur tous les contextes où cette entité a été vue grâce à des mécanismes d’attention. Ainsi deux entités ayant le même voisinage seront considérées comme proches par le système d’IA.

Le système d’IA générative sur des textes apprend ainsi un modèle de production avec des mécanismes qui n’ont rien à voir avec la production humaine située avec un corps, pour autant elle est capable de l’imiter à partir des textes de l’apprentissage. Ce fonctionnement a pour conséquence directe de perdre les sources d’où sont extraits les voisinages repérés, ce qui pose un problème de fond pour la vérification du contenu produit. Aucune vérification de la véracité des propos n’est produite facilement. Il faut retrouver les sources et quand on demande au système de le faire, il peut les inventer !

Lorsque vous proposez une invite à ChatGPT, il va prédire l’entité suivante, puis la suivante et ainsi de suite. Un paramètre clé est celui de la « température » qui exprime le degré d’aléatoire dans le choix des entités. À une température élevée, le modèle est plus « créatif » car il peut générer des sorties plus diversifiées, tandis qu’à une température basse, le modèle tend à choisir les sorties les plus probables, ce qui rend le texte généré plus prévisible. Trois options de température sont proposées dans l’outil conversationnel Bing (GPT4) de Microsoft (plus précis, plus équilibré, plus créatif). Souvent, les hyperparamètres des systèmes ne sont pas dévoilés pour des raisons de cybersécurité ou de confidentialité comme c’est le cas dans ChatGPT… mais la température permet d’avoir des réponses différentes à la même question.

Il est ainsi facile d’imaginer certains des risques de l’IA générative pour les médias. D’autres apparaîtront certainement au fur et à mesure de leurs utilisations.

Il paraît urgent de trouver comment les minimiser en attendant la promulgation pour l’Union européenne d’un IA Act en se dotant de guides de bonnes pratiques. L’avis du CNPEN sur les IA génératives et les enjeux d’éthique comprend, lui, 10 préconisations pour la recherche et 12 pour la gouvernance. Voici quelques-uns des risques identifiés pour les médias :

Faire trop confiance aux dires de la machine sans recouper avec d’autres sources. Le croisement de plusieurs sources de données et la nécessité d’enquêter deviennent fondamentaux pour toutes les professions : journalistes, scientifiques, professeurs et autres. Il semble d’ailleurs fondamental d’enseigner la façon d’utiliser ces systèmes à l’école et à l’université et de cultiver l’art de débattre pour élaborer ses idées.

Comprendre que ChatGPT est construit avec des données majoritairement en anglais et que son influence culturelle peut-être importante.

Utiliser massivement ChatGPT de façon paresseuse dans les médias, en produisant énormément de nouvelles données artificielles non vérifiées sur Internet qui pourraient servir à entraîner de nouvelles IA. Ce serait dramatique qu’il n’y ait plus aucune garantie de vérité sur ces données reconstituées par la machine. Deux avocats américains se sont par exemple fait piéger en faisant référence au cours d’une procédure, sur les conseils de l’algorithme, à des jurisprudences qui n’existaient pas.

Remplacer certaines tâches dans de nombreux métiers autour des médias par des systèmes d’IA. Certains métiers vont disparaître, d’autres vont apparaître. Il faut créer des interfaces avec des mesures de confiance pour aider la coopération entre les humains et les systèmes d’IA.

Utiliser les systèmes d’IA et les démystifier devient une nécessité absolue tout en faisant attention de ne pas désapprendre et de pouvoir s’en passer.

Il est nécessaire de comprendre que ChatGPT fait de nombreuses erreurs, par exemple il n’a pas de notion d’histoire ni de compréhension de l’espace. Le diable est dans les détails mais également dans le choix des données utilisées pour créer le modèle. La loi sur l’IA réclame plus de transparence sur ces systèmes d’IA pour vérifier leur robustesse, leur non-manipulation et leur consommation énergétique.

Il faut vérifier que les données produites n’empiètent pas sur le droit d’auteur et que les données utilisées par le système sont correctement utilisées. Si des données « synthétiques » remplacent demain nos connaissances dans d’entraînement des futurs modèles de fondation, il sera de plus en plus difficile de démêler le vrai du faux.

Donner accès à des systèmes d’IA (par exemple Dall-E ou Stable Diffusion) qui peuvent être utilisés pour créer de l’hypertrucage (deepfake en anglais) pour produire des images. Le phénomène rappelle l’importance de vérifier non seulement la fiabilité des sources des articles, mais aussi des images et vidéos. Il est question de mettre des filigranes (ou watermarks) dans les textes, images ou vidéos produites pour savoir si elles ont été faites par des IA ou de labelliser les données « bio » (ou produites par des humains).

L’arrivée de ChatGPT a été un tsunami pour tout le monde. Il a bluffé experts comme non-experts par ses capacités de production de texte, de traduction et même de programmation informatique.

L’explication scientifique précise du phénomène d’« étincelle d’émergences » dans les modèles de fondation est un sujet de recherche actuel et dépend des données et des hyperparamètres des modèles. Il est important de développer massivement la recherche pluridisciplinaire sur les émergences et limites des IA génératives et sur les mesures à déployer pour les contrôler.

Enfin, if faut éduquer à l’école sur les risques et l’éthique tout autant que sur la programmation, et également former et démystifier les systèmes d’IA pour utiliser et innover de façon responsable en ayant conscience des conséquences éthiques, économiques, sociétales et du coût environnemental.

La France pourrait jouer un rôle majeur au sein de l’Europe avec l’ambition d’être un laboratoire de l’IA pour les médias en étudiant les enjeux éthiques et économiques au service du bien commun et des démocraties.

Société- La fin des médias avec l’intelligence artificielle ?

Société-La fin des médias avec l’intelligence artificielle ?

Recherche d’informations, production de contenu, traduction, détection de propos haineux… l’intelligence artificielle (IA) générative promet d’importants gains de productivité dans l’univers des médias. Les médias nous accompagnent au quotidien et sont un support à la démocratie : ils ont la liberté de montrer différents points de vue et idées, de dénoncer la corruption et les discriminations, mais également de montrer la cohésion sociale et culturelle.
Alors que le public se tourne vers les médias pour s’informer, se cultiver et se divertir, les médias n’échappent pas aux soucis économiques et à la rentabilité d’une industrie mesurée en termes d’audimat et de vente. Dans ce contexte, l’IA générative amène de nouveaux outils puissants et sera de plus en plus utilisée.

Laurence Devillers
Professeur en Intelligence Artificielle, Sorbonne Université dans The conversation

Un article intéressant mais qui n’assiste pas suffisamment sur l’actuelle très grande fragilité des médias. Une fragilité qui se traduit notamment par un introuvable équilibre financier qui favorise la médiocrité rédactionnelle. Et qui permet la mainmise des grands capitaines d’industrie sur l’information ! NDLR

Mais il faut crucialement rappeler que les IA génératives n’ont pas d’idées, et qu’elles reprennent des propos qui peuvent être agencés de façon aussi intéressante qu’absurde (on parle alors d’« hallucinations » des systèmes d’IA). Ces IA génératives ne savent pas ce qui est possible ou impossible, vrai ou faux, moral ou immoral.

Ainsi, le métier de journaliste doit rester central pour enquêter et raisonner sur les situations complexes de société et de géopolitique. Alors, comment les médias peuvent-ils exploiter les outils d’IA tout en évitant leurs écueils ?

Le Comité national pilote d’éthique du numérique (CNPEN) a rendu en juillet un avis général sur les enjeux d’éthique des IA génératives, que j’ai co-coordonné, au ministre chargé de la Transition numérique. Il précise notamment les risques de ces systèmes.

Les médias peuvent utiliser l’IA pour améliorer la qualité de l’information, lutter contre les fausses nouvelles, identifier le harcèlement et les incitations à la haine, mais aussi parce qu’elle peut permettre de faire avancer la connaissance et mieux comprendre des réalités complexes, comme le développement durable ou encore les flux migratoires.

Les IA génératives sont des outils fabuleux qui peuvent faire émerger des résultats que nous ne pourrions pas obtenir sans elles car elles calculent à des niveaux de représentation qui ne sont pas les nôtres, sur une quantité gigantesque de données et avec une rapidité qu’un cerveau ne sait pas traiter. Si on sait se doter de garde-fous, ce sont des systèmes qui vont nous faire gagner du temps de recherche d’information, de lecture et de production et qui vont nous permettre de lutter contre les stéréotypes et d’optimiser des processus.

Ces outils n’arrivent pas maintenant par hasard. Alors que nous sommes effectivement noyés sous un flot d’informations diffusées en continu par les chaînes classiques ou contenus accessibles sur Internet, des outils comme ChatGPT nous permettent de consulter et de produire des synthèses, programmes, poèmes, etc., à partir d’un ensemble d’informations gigantesques inaccessibles à un cerveau humain en temps humain. Ils peuvent donc être extrêmement utiles pour de nombreuses tâches mais aussi contribuer à un flux d’informations non sourcées. Il faut donc les apprivoiser et en comprendre le fonctionnement et les risques.

Les performances des IA génératives tiennent à la capacité d’apprentissage auto-supervisée (c’est-à-dire sans être guidée par une main humaine, ce qui est un concept différent de l’adaptation en temps réel) de leurs modèles internes, appelés « modèles de fondation », qui sont entraînés à partir d’énormes corpus de données constitués de milliards d’images, de textes ou de sons très souvent dans les cultures dominantes sur Internet, par exemple GPT3.5 de ChatGPT est nourri majoritairement de données en anglais. Les deux autres types d’apprentissage ont également été utilisés : avant sa mise à disposition fin 2022, ChatGPT a été optimisé grâce à un apprentissage supervisé puis grâce à un apprentissage par renforcement par des humains de façon à affiner les résultats et à éliminer les propos non souhaitables.

Cette optimisation par des humains a d’ailleurs été très critiquée. Comment sont-ils formés ? Qui sont ces « hommes du clic » sous-payés ? Ces propos « non souhaitables », en outre, ne sont pas décidés par un comité d’éthique ou le législateur, mais par l’entreprise seule.

Durant l’apprentissage des modèles de fondation sur des textes, le système apprend ce que l’on appelle des « vecteurs de plongements lexicaux » (de taille 512 dans GPT 3.5). C’est le système « transformers ». Le principe d’entraînement du modèle de fondation est fondé par l’hypothèse distributionnelle proposée par le linguiste américain John Ruppert Fith en 1957 : on ne peut connaître le sens d’un mot que par ses fréquentations (« You shall know a word by the company it keeps »).

Ces entités (« token » en anglais) font en moyenne quatre caractères dans GPT3.5. Elles peuvent n’être constituées que d’un seul et d’un blanc. Elles peuvent donc être des parties de mots ou des mots avec l’avantage de pouvoir combiner agilement ces entités pour recréer des mots et des phrases sans aucune connaissance linguistique (hormis celle implicite à l’enchaînement des mots), le désavantage étant évidemment d’être moins interprétable. Chaque entité est codée par un vecteur qui contient des informations sur tous les contextes où cette entité a été vue grâce à des mécanismes d’attention. Ainsi deux entités ayant le même voisinage seront considérées comme proches par le système d’IA.

Le système d’IA générative sur des textes apprend ainsi un modèle de production avec des mécanismes qui n’ont rien à voir avec la production humaine située avec un corps, pour autant elle est capable de l’imiter à partir des textes de l’apprentissage. Ce fonctionnement a pour conséquence directe de perdre les sources d’où sont extraits les voisinages repérés, ce qui pose un problème de fond pour la vérification du contenu produit. Aucune vérification de la véracité des propos n’est produite facilement. Il faut retrouver les sources et quand on demande au système de le faire, il peut les inventer !

Lorsque vous proposez une invite à ChatGPT, il va prédire l’entité suivante, puis la suivante et ainsi de suite. Un paramètre clé est celui de la « température » qui exprime le degré d’aléatoire dans le choix des entités. À une température élevée, le modèle est plus « créatif » car il peut générer des sorties plus diversifiées, tandis qu’à une température basse, le modèle tend à choisir les sorties les plus probables, ce qui rend le texte généré plus prévisible. Trois options de température sont proposées dans l’outil conversationnel Bing (GPT4) de Microsoft (plus précis, plus équilibré, plus créatif). Souvent, les hyperparamètres des systèmes ne sont pas dévoilés pour des raisons de cybersécurité ou de confidentialité comme c’est le cas dans ChatGPT… mais la température permet d’avoir des réponses différentes à la même question.

Il est ainsi facile d’imaginer certains des risques de l’IA générative pour les médias. D’autres apparaîtront certainement au fur et à mesure de leurs utilisations.

Il paraît urgent de trouver comment les minimiser en attendant la promulgation pour l’Union européenne d’un IA Act en se dotant de guides de bonnes pratiques. L’avis du CNPEN sur les IA génératives et les enjeux d’éthique comprend, lui, 10 préconisations pour la recherche et 12 pour la gouvernance. Voici quelques-uns des risques identifiés pour les médias :

Faire trop confiance aux dires de la machine sans recouper avec d’autres sources. Le croisement de plusieurs sources de données et la nécessité d’enquêter deviennent fondamentaux pour toutes les professions : journalistes, scientifiques, professeurs et autres. Il semble d’ailleurs fondamental d’enseigner la façon d’utiliser ces systèmes à l’école et à l’université et de cultiver l’art de débattre pour élaborer ses idées.

Comprendre que ChatGPT est construit avec des données majoritairement en anglais et que son influence culturelle peut-être importante.

Utiliser massivement ChatGPT de façon paresseuse dans les médias, en produisant énormément de nouvelles données artificielles non vérifiées sur Internet qui pourraient servir à entraîner de nouvelles IA. Ce serait dramatique qu’il n’y ait plus aucune garantie de vérité sur ces données reconstituées par la machine. Deux avocats américains se sont par exemple fait piéger en faisant référence au cours d’une procédure, sur les conseils de l’algorithme, à des jurisprudences qui n’existaient pas.

Remplacer certaines tâches dans de nombreux métiers autour des médias par des systèmes d’IA. Certains métiers vont disparaître, d’autres vont apparaître. Il faut créer des interfaces avec des mesures de confiance pour aider la coopération entre les humains et les systèmes d’IA.

Utiliser les systèmes d’IA et les démystifier devient une nécessité absolue tout en faisant attention de ne pas désapprendre et de pouvoir s’en passer.

Il est nécessaire de comprendre que ChatGPT fait de nombreuses erreurs, par exemple il n’a pas de notion d’histoire ni de compréhension de l’espace. Le diable est dans les détails mais également dans le choix des données utilisées pour créer le modèle. La loi sur l’IA réclame plus de transparence sur ces systèmes d’IA pour vérifier leur robustesse, leur non-manipulation et leur consommation énergétique.

Il faut vérifier que les données produites n’empiètent pas sur le droit d’auteur et que les données utilisées par le système sont correctement utilisées. Si des données « synthétiques » remplacent demain nos connaissances dans d’entraînement des futurs modèles de fondation, il sera de plus en plus difficile de démêler le vrai du faux.

Donner accès à des systèmes d’IA (par exemple Dall-E ou Stable Diffusion) qui peuvent être utilisés pour créer de l’hypertrucage (deepfake en anglais) pour produire des images. Le phénomène rappelle l’importance de vérifier non seulement la fiabilité des sources des articles, mais aussi des images et vidéos. Il est question de mettre des filigranes (ou watermarks) dans les textes, images ou vidéos produites pour savoir si elles ont été faites par des IA ou de labelliser les données « bio » (ou produites par des humains).

L’arrivée de ChatGPT a été un tsunami pour tout le monde. Il a bluffé experts comme non-experts par ses capacités de production de texte, de traduction et même de programmation informatique.

L’explication scientifique précise du phénomène d’« étincelle d’émergences » dans les modèles de fondation est un sujet de recherche actuel et dépend des données et des hyperparamètres des modèles. Il est important de développer massivement la recherche pluridisciplinaire sur les émergences et limites des IA génératives et sur les mesures à déployer pour les contrôler.

Enfin, if faut éduquer à l’école sur les risques et l’éthique tout autant que sur la programmation, et également former et démystifier les systèmes d’IA pour utiliser et innover de façon responsable en ayant conscience des conséquences éthiques, économiques, sociétales et du coût environnemental.

La France pourrait jouer un rôle majeur au sein de l’Europe avec l’ambition d’être un laboratoire de l’IA pour les médias en étudiant les enjeux éthiques et économiques au service du bien commun et des démocraties.

La fin des médias avec l’intelligence artificielle ?

La fin des médias avec l’intelligence artificielle ?

Recherche d’informations, production de contenu, traduction, détection de propos haineux… l’intelligence artificielle (IA) générative promet d’importants gains de productivité dans l’univers des médias. Les médias nous accompagnent au quotidien et sont un support à la démocratie : ils ont la liberté de montrer différents points de vue et idées, de dénoncer la corruption et les discriminations, mais également de montrer la cohésion sociale et culturelle.
Alors que le public se tourne vers les médias pour s’informer, se cultiver et se divertir, les médias n’échappent pas aux soucis économiques et à la rentabilité d’une industrie mesurée en termes d’audimat et de vente. Dans ce contexte, l’IA générative amène de nouveaux outils puissants et sera de plus en plus utilisée.

Laurence Devillers
Professeur en Intelligence Artificielle, Sorbonne Université dans The conversation

Mais il faut crucialement rappeler que les IA génératives n’ont pas d’idées, et qu’elles reprennent des propos qui peuvent être agencés de façon aussi intéressante qu’absurde (on parle alors d’« hallucinations » des systèmes d’IA). Ces IA génératives ne savent pas ce qui est possible ou impossible, vrai ou faux, moral ou immoral.

Ainsi, le métier de journaliste doit rester central pour enquêter et raisonner sur les situations complexes de société et de géopolitique. Alors, comment les médias peuvent-ils exploiter les outils d’IA tout en évitant leurs écueils ?

Le Comité national pilote d’éthique du numérique (CNPEN) a rendu en juillet un avis général sur les enjeux d’éthique des IA génératives, que j’ai co-coordonné, au ministre chargé de la Transition numérique. Il précise notamment les risques de ces systèmes.

Les médias peuvent utiliser l’IA pour améliorer la qualité de l’information, lutter contre les fausses nouvelles, identifier le harcèlement et les incitations à la haine, mais aussi parce qu’elle peut permettre de faire avancer la connaissance et mieux comprendre des réalités complexes, comme le développement durable ou encore les flux migratoires.

Les IA génératives sont des outils fabuleux qui peuvent faire émerger des résultats que nous ne pourrions pas obtenir sans elles car elles calculent à des niveaux de représentation qui ne sont pas les nôtres, sur une quantité gigantesque de données et avec une rapidité qu’un cerveau ne sait pas traiter. Si on sait se doter de garde-fous, ce sont des systèmes qui vont nous faire gagner du temps de recherche d’information, de lecture et de production et qui vont nous permettre de lutter contre les stéréotypes et d’optimiser des processus.

Ces outils n’arrivent pas maintenant par hasard. Alors que nous sommes effectivement noyés sous un flot d’informations diffusées en continu par les chaînes classiques ou contenus accessibles sur Internet, des outils comme ChatGPT nous permettent de consulter et de produire des synthèses, programmes, poèmes, etc., à partir d’un ensemble d’informations gigantesques inaccessibles à un cerveau humain en temps humain. Ils peuvent donc être extrêmement utiles pour de nombreuses tâches mais aussi contribuer à un flux d’informations non sourcées. Il faut donc les apprivoiser et en comprendre le fonctionnement et les risques.

Les performances des IA génératives tiennent à la capacité d’apprentissage auto-supervisée (c’est-à-dire sans être guidée par une main humaine, ce qui est un concept différent de l’adaptation en temps réel) de leurs modèles internes, appelés « modèles de fondation », qui sont entraînés à partir d’énormes corpus de données constitués de milliards d’images, de textes ou de sons très souvent dans les cultures dominantes sur Internet, par exemple GPT3.5 de ChatGPT est nourri majoritairement de données en anglais. Les deux autres types d’apprentissage ont également été utilisés : avant sa mise à disposition fin 2022, ChatGPT a été optimisé grâce à un apprentissage supervisé puis grâce à un apprentissage par renforcement par des humains de façon à affiner les résultats et à éliminer les propos non souhaitables.

Cette optimisation par des humains a d’ailleurs été très critiquée. Comment sont-ils formés ? Qui sont ces « hommes du clic » sous-payés ? Ces propos « non souhaitables », en outre, ne sont pas décidés par un comité d’éthique ou le législateur, mais par l’entreprise seule.

Durant l’apprentissage des modèles de fondation sur des textes, le système apprend ce que l’on appelle des « vecteurs de plongements lexicaux » (de taille 512 dans GPT 3.5). C’est le système « transformers ». Le principe d’entraînement du modèle de fondation est fondé par l’hypothèse distributionnelle proposée par le linguiste américain John Ruppert Fith en 1957 : on ne peut connaître le sens d’un mot que par ses fréquentations (« You shall know a word by the company it keeps »).

Ces entités (« token » en anglais) font en moyenne quatre caractères dans GPT3.5. Elles peuvent n’être constituées que d’un seul et d’un blanc. Elles peuvent donc être des parties de mots ou des mots avec l’avantage de pouvoir combiner agilement ces entités pour recréer des mots et des phrases sans aucune connaissance linguistique (hormis celle implicite à l’enchaînement des mots), le désavantage étant évidemment d’être moins interprétable. Chaque entité est codée par un vecteur qui contient des informations sur tous les contextes où cette entité a été vue grâce à des mécanismes d’attention. Ainsi deux entités ayant le même voisinage seront considérées comme proches par le système d’IA.

Le système d’IA générative sur des textes apprend ainsi un modèle de production avec des mécanismes qui n’ont rien à voir avec la production humaine située avec un corps, pour autant elle est capable de l’imiter à partir des textes de l’apprentissage. Ce fonctionnement a pour conséquence directe de perdre les sources d’où sont extraits les voisinages repérés, ce qui pose un problème de fond pour la vérification du contenu produit. Aucune vérification de la véracité des propos n’est produite facilement. Il faut retrouver les sources et quand on demande au système de le faire, il peut les inventer !

Lorsque vous proposez une invite à ChatGPT, il va prédire l’entité suivante, puis la suivante et ainsi de suite. Un paramètre clé est celui de la « température » qui exprime le degré d’aléatoire dans le choix des entités. À une température élevée, le modèle est plus « créatif » car il peut générer des sorties plus diversifiées, tandis qu’à une température basse, le modèle tend à choisir les sorties les plus probables, ce qui rend le texte généré plus prévisible. Trois options de température sont proposées dans l’outil conversationnel Bing (GPT4) de Microsoft (plus précis, plus équilibré, plus créatif). Souvent, les hyperparamètres des systèmes ne sont pas dévoilés pour des raisons de cybersécurité ou de confidentialité comme c’est le cas dans ChatGPT… mais la température permet d’avoir des réponses différentes à la même question.

Il est ainsi facile d’imaginer certains des risques de l’IA générative pour les médias. D’autres apparaîtront certainement au fur et à mesure de leurs utilisations.

Il paraît urgent de trouver comment les minimiser en attendant la promulgation pour l’Union européenne d’un IA Act en se dotant de guides de bonnes pratiques. L’avis du CNPEN sur les IA génératives et les enjeux d’éthique comprend, lui, 10 préconisations pour la recherche et 12 pour la gouvernance. Voici quelques-uns des risques identifiés pour les médias :

Faire trop confiance aux dires de la machine sans recouper avec d’autres sources. Le croisement de plusieurs sources de données et la nécessité d’enquêter deviennent fondamentaux pour toutes les professions : journalistes, scientifiques, professeurs et autres. Il semble d’ailleurs fondamental d’enseigner la façon d’utiliser ces systèmes à l’école et à l’université et de cultiver l’art de débattre pour élaborer ses idées.

Comprendre que ChatGPT est construit avec des données majoritairement en anglais et que son influence culturelle peut-être importante.

Utiliser massivement ChatGPT de façon paresseuse dans les médias, en produisant énormément de nouvelles données artificielles non vérifiées sur Internet qui pourraient servir à entraîner de nouvelles IA. Ce serait dramatique qu’il n’y ait plus aucune garantie de vérité sur ces données reconstituées par la machine. Deux avocats américains se sont par exemple fait piéger en faisant référence au cours d’une procédure, sur les conseils de l’algorithme, à des jurisprudences qui n’existaient pas.

Remplacer certaines tâches dans de nombreux métiers autour des médias par des systèmes d’IA. Certains métiers vont disparaître, d’autres vont apparaître. Il faut créer des interfaces avec des mesures de confiance pour aider la coopération entre les humains et les systèmes d’IA.

Utiliser les systèmes d’IA et les démystifier devient une nécessité absolue tout en faisant attention de ne pas désapprendre et de pouvoir s’en passer.

Il est nécessaire de comprendre que ChatGPT fait de nombreuses erreurs, par exemple il n’a pas de notion d’histoire ni de compréhension de l’espace. Le diable est dans les détails mais également dans le choix des données utilisées pour créer le modèle. La loi sur l’IA réclame plus de transparence sur ces systèmes d’IA pour vérifier leur robustesse, leur non-manipulation et leur consommation énergétique.

Il faut vérifier que les données produites n’empiètent pas sur le droit d’auteur et que les données utilisées par le système sont correctement utilisées. Si des données « synthétiques » remplacent demain nos connaissances dans d’entraînement des futurs modèles de fondation, il sera de plus en plus difficile de démêler le vrai du faux.

Donner accès à des systèmes d’IA (par exemple Dall-E ou Stable Diffusion) qui peuvent être utilisés pour créer de l’hypertrucage (deepfake en anglais) pour produire des images. Le phénomène rappelle l’importance de vérifier non seulement la fiabilité des sources des articles, mais aussi des images et vidéos. Il est question de mettre des filigranes (ou watermarks) dans les textes, images ou vidéos produites pour savoir si elles ont été faites par des IA ou de labelliser les données « bio » (ou produites par des humains).

L’arrivée de ChatGPT a été un tsunami pour tout le monde. Il a bluffé experts comme non-experts par ses capacités de production de texte, de traduction et même de programmation informatique.

L’explication scientifique précise du phénomène d’« étincelle d’émergences » dans les modèles de fondation est un sujet de recherche actuel et dépend des données et des hyperparamètres des modèles. Il est important de développer massivement la recherche pluridisciplinaire sur les émergences et limites des IA génératives et sur les mesures à déployer pour les contrôler.

Enfin, if faut éduquer à l’école sur les risques et l’éthique tout autant que sur la programmation, et également former et démystifier les systèmes d’IA pour utiliser et innover de façon responsable en ayant conscience des conséquences éthiques, économiques, sociétales et du coût environnemental.

La France pourrait jouer un rôle majeur au sein de l’Europe avec l’ambition d’être un laboratoire de l’IA pour les médias en étudiant les enjeux éthiques et économiques au service du bien commun et des démocraties.

Immobilier: Fin de la hausse des taux mais à un très haut niveau

Immobilier: Fin de la hausse des taux mais à un très haut niveau

L’éventuelle fin de la hausse des taux ne signifie nullement une baisse du taux des prêts pour l’immobilier. Tout au plus on peut espérer un maintien pour une assez longue période en moyenne autour de 4 %.Les déclarations faussement naïves de la banque de France qui considère que c’est la fin du resserrement de la politique monétaire européenne ne sont destinés qu’à soutenir le pouvoir. En outre on pourra peut-être s’attendre à une déclaration contradictoire puisque hier la Fed, elle, qui fixe la doctrine mondiale n’a pas exclu la possibilité d’une nouvelle hausse des taux.

Alors la doctrine de la banque de France est une sorte de mixte entre la philosophie allemande en matière de politique monétaire corriger des orientations de la banque centrale américaine et du soutien pouvoir en France. Bref une sorte de de lecture sous influence dans le marc de café !

« Sauf surprise, sauf choc -une précaution oratoire bien névessaire -, la hausse de nos taux directeurs, c’est fini affirme faussement naïvement le gouverneur de la Banque de France. François Villeroy de Galhau estime en effet que « nous sommes en train de gagner la bataille contre l’inflation » au sein de la zone euro, ce qui ne justifie plus, à ses yeux, de procéder à un nouveau resserrement de la politique monétaire européenne

Si un tel virage se confirmait dans les mois à venir, il pourrait susciter un soulagement auprès des ménages, souhaitant acheter ou vendre leurs biens, estiment les professionnels de l’immobiliers. « C’est une excellente nouvelle ! », se réjouit ainsi Cécile Roquelaure, directrice des études chez le courtier Empruntis, auprès de La Tribune.

« Il y a un an, aucun ménage ne se retrouvait avec des taux d’intérêts au-dessus 2,7% sur 20 ans. Aujourd’hui, 70% des dossiers sont au-dessus des 4,10%-4,5% sur 20 ans (hors assurance et avant négociation) », rappelait fin octobre Maël Bernier, porte-parole du courtier Meilleurtaux.com.

Par effet de ricochet, cette crise des crédits s’est transformée en crise des transactions immobilières. Leur nombre a chuté de facto. Est-ce à dire que la crise de l’immobilier est en passe d’être réglée ? Loin de là.

Principal garde-fou au surendettement, le taux d’endettement maximal est notamment pointé du doigt, ces derniers mois, par les courtiers. Ces derniers l’accusent d’étouffer le marché du crédit.

Problème, selon Meilleurtaux.com. « Quatre dossiers sur dix étaient refusés » en octobre du fait du dépassement de ce taux, indique le courtier. Une véritable épine dans le pied des ménages qui ont vu leur capacité d’achat baisser de 7,5% en moyenne, en 2023, selon les dernières estimations de la Fnaim.

La hausse des taux a fortement amputé la solvabilité et la capacité d’achat des ménages

Pour compenser la baisse de capacité d’achat des ménages, il faudrait que les prix de l’immobilier diminuent de 10%, voire de 15%, afin de faire repartir les transactions .

Hors de question pour la plupart des vendeurs. En moyenne, ils ont déjà concédé 4% sur leur bien cette année.

Economie-La fin de l’inflation ?

Economie-La fin de l’inflation ?

L’inflation dans la zone euro et aux Etats-Unis a nettement ralenti. Mais la hausse des prix en France dopée par l’électricité, combinée à des niveaux de prix encore élevés, à la remontée des cours du pétrole et du gaz et à des craintes de « spirales prix/salaires », alimente des craintes tenaces. Pas de panique, car en matière d’inflation, c’est la masse monétaire qui fait loi. Sa récente contraction de part et d’autre de l’Atlantique indique que des pics d’inflation sont à terme très peu probables. « L’inflation est toujours et partout un phénomène monétaire ». C’est ce qu’affirmait à l’époque le légendaire économiste Milton Friedman. Il savait que l’inflation apparaît lorsqu’il y a une trop grande quantité d’argent pour trop peu de biens et de services. Ces dernières années lui ont encore donné raison. La croissance monétaire stimule le crédit et les dépenses, ce qui alimente l’inflation avec des décalages imprévisibles et variables.

par Ken Fisher président et directeur de Fisher Investments Europe, président exécutif et codirecteur des investissements de Fisher Investments. dans l’Opinion

Par exemple, l’agrégat M3 de la zone euro, la mesure la plus large de la masse monétaire de la région, a augmenté de 5,1 % en glissement annuel en 2019. En réponse à la crise sanitaire, la création monétaire de la BCE a porté la croissance de la masse monétaire M3 à un niveau record de 12,8 % jusqu’à janvier 2021. La croissance de la M4 aux Etats-Unis – une mesure plus large – a dépassé 30 % à la mi-2020, un acte d’une inexplicable idiotie de la part de la Réserve fédérale américaine.

La production pétrolière américaine devrait battre des records en 2024, ce qui compensera les réductions de l’OPEP+. La guerre en Israël ne devrait pas perturber l’approvisionnement mondial
Accélération. Les confinements ont perturbé l’approvisionnement, de sorte que l’argent frais n’a pas pu être entièrement dépensé immédiatement. Mais les banques, inondées de réserves injectées par la banque centrale, ont mis le paquet sur les prêts, à tel point que la croissance des prêts dans la zone euro et aux Etats-Unis a atteint un taux à deux chiffres en 2021. Sans être aussi vigoureuse, celle de la France est restée plus que correcte, atteignant 8,4 % en glissement annuel à la mi-2020 et une moyenne de près de 6 % en 2021 et 2022. L’inflation a suivi l’accélération des prêts.

Qu’en est-il aujourd’hui ? La croissance de la masse monétaire s’est inversée. Dans la zone euro, celle de la M3 a été négative en juillet et en août. Qu’en est-il de la M4 aux Etats-Unis ? Négative depuis décembre. La récente inflation a donc marqué le pas.

Les relevés préliminaires de septembre montrent un ralentissement de la hausse des prix dans la zone euro à 4,3 % en glissement annuel, loin du pic de 10,6 % d’octobre 2022. En France, l’inflation pointe aujourd’hui à 5,7 %, contre 7,3 % en février, et l’inflation de base (produits et services essentiels) est en net recul. L’IPC américain est tombé à un taux annuel de 3,7 %, après avoir atteint un sommet de 9,1 %.

Grande dépression. L’impact n’est pas encore réellement tangible, car les prix sont bien supérieurs à ceux de 2019. Mais c’est le taux qu’il faut surveiller, pas le niveau. Pour inverser complètement les récentes hausses de prix, il faudrait une déflation épique. Dans le monde occidental, ça ne se fait pas et ça n’arrivera jamais. Pour retrouver les niveaux de fin d’année 2019, l’agrégat M4 des Etats-Unis devrait se contracter de 32 %, soit une chute digne de la Grande Dépression ! Personne ne le souhaite.

Nombreux sont ceux qui affirment que les taux d’inflation normaux ne sont pas garantis, craignant une résurgence des prix de l’énergie et la redoutable « spirale prix-salaires », dans laquelle les augmentations de salaire entraînent des hausses de prix. Non ! La production pétrolière américaine devrait battre des records en 2024, ce qui compensera les réductions de l’OPEP+. La guerre en Israëlne devrait pas perturber l’approvisionnement mondial. La Chine, le Canada, le Brésil, l’Iran, l’Irak, la Libye, le Nigeria et le Venezuela augmentent tous leur production.

Quant au gaz naturel, ses prix sont bien inférieurs aux sommets atteints en 2022. Les stocks d’hiver de l’UE ont été reconstitués de manière précoce. Les prix de l’électricité sur le marché sont devenus négatifs cet été dans certaines parties de la région, y compris en France, en raison d’une surabondance d’énergie éolienne et solaire.

Ce sont les forces du marché – et non les interventions politiques maladroites – qui feront baisser les prix de l’énergie

Vous ne l’avez pas senti en août en raison de la hausse de 10 % des tarifs réglementés de l’électricité, mais les prix ont largement baissé sur l’ensemble du continent. Le président Macron affirme que ceux de la France vont reculer. Il dit vrai… pour les mauvaises raisons. Ce sont les forces du marché – et non les interventions politiques maladroites – qui les feront baisser. Néanmoins, l’électricité, le gaz et les autres combustibles ne représentent que 6 % de l’indice des prix de la zone euro et 5 % de celui de la France.

La spirale des prix et des salaires ? Un mythe. Oui, la croissance des salaires – à l’image des 5 % en glissement annuel en France au deuxième trimestre – est dynamique. Mais Milton Friedman a également montré, à l’époque, que les salaires suivent toujours et partout les prix, et non l’inverse. Le ralentissement de l’inflation à la suite de l’accélération de la croissance des salaires dans la zone euro et aux Etats-Unis en 2023 en est la preuve. Pourtant, personne ne semble s’en apercevoir, pas même les économistes universitaires qui devraient être mieux informés, mais ne le sont pas.

Goulets d’étranglement. Qui a oublié les cargos bloqués et les prix exorbitants du transport maritime ? Les goulets d’étranglement de la chaîne d’approvisionnement de l’ère Covid se sont résorbés et les tarifs de transport maritime dans les principaux ports de la zone euro ont chuté. La baisse a atteint -79 % en glissement annuel pour les liaisons Shanghai-Rotterdam, -43 % pour le New York-Rotterdam et -70 % pour le Shanghai-Gênes. L’indice Global Supply Chain Pressure de la Fed de New York a baissé à des niveaux qui n’avaient plus été observés depuis 2015.

L’inflation galopante ne fait qu’ajouter des briques au « mur des inquiétudes » de ce marché haussier, laissant espérer la surprise positive qui fait grimper les actions. Attendez-vous à ce que les taux d’inflation continuent de baisser et à ce que les actions finissent par repartir à la hausse.

Ken Fisher est président et directeur de Fisher Investments Europe, président exécutif et codirecteur des investissements de Fisher Investments.

La fin de l’inflation ?

La fin de l’inflation ?

L’inflation dans la zone euro et aux Etats-Unis a nettement ralenti. Mais la hausse des prix en France dopée par l’électricité, combinée à des niveaux de prix encore élevés, à la remontée des cours du pétrole et du gaz et à des craintes de « spirales prix/salaires », alimente des craintes tenaces. Pas de panique, car en matière d’inflation, c’est la masse monétaire qui fait loi. Sa récente contraction de part et d’autre de l’Atlantique indique que des pics d’inflation sont à terme très peu probables. « L’inflation est toujours et partout un phénomène monétaire ». C’est ce qu’affirmait à l’époque le légendaire économiste Milton Friedman. Il savait que l’inflation apparaît lorsqu’il y a une trop grande quantité d’argent pour trop peu de biens et de services. Ces dernières années lui ont encore donné raison. La croissance monétaire stimule le crédit et les dépenses, ce qui alimente l’inflation avec des décalages imprévisibles et variables.

par Ken Fisher président et directeur de Fisher Investments Europe, président exécutif et codirecteur des investissements de Fisher Investments. dans l’Opinion

Par exemple, l’agrégat M3 de la zone euro, la mesure la plus large de la masse monétaire de la région, a augmenté de 5,1 % en glissement annuel en 2019. En réponse à la crise sanitaire, la création monétaire de la BCE a porté la croissance de la masse monétaire M3 à un niveau record de 12,8 % jusqu’à janvier 2021. La croissance de la M4 aux Etats-Unis – une mesure plus large – a dépassé 30 % à la mi-2020, un acte d’une inexplicable idiotie de la part de la Réserve fédérale américaine.

La production pétrolière américaine devrait battre des records en 2024, ce qui compensera les réductions de l’OPEP+. La guerre en Israël ne devrait pas perturber l’approvisionnement mondial
Accélération. Les confinements ont perturbé l’approvisionnement, de sorte que l’argent frais n’a pas pu être entièrement dépensé immédiatement. Mais les banques, inondées de réserves injectées par la banque centrale, ont mis le paquet sur les prêts, à tel point que la croissance des prêts dans la zone euro et aux Etats-Unis a atteint un taux à deux chiffres en 2021. Sans être aussi vigoureuse, celle de la France est restée plus que correcte, atteignant 8,4 % en glissement annuel à la mi-2020 et une moyenne de près de 6 % en 2021 et 2022. L’inflation a suivi l’accélération des prêts.

Qu’en est-il aujourd’hui ? La croissance de la masse monétaire s’est inversée. Dans la zone euro, celle de la M3 a été négative en juillet et en août. Qu’en est-il de la M4 aux Etats-Unis ? Négative depuis décembre. La récente inflation a donc marqué le pas.

Les relevés préliminaires de septembre montrent un ralentissement de la hausse des prix dans la zone euro à 4,3 % en glissement annuel, loin du pic de 10,6 % d’octobre 2022. En France, l’inflation pointe aujourd’hui à 5,7 %, contre 7,3 % en février, et l’inflation de base (produits et services essentiels) est en net recul. L’IPC américain est tombé à un taux annuel de 3,7 %, après avoir atteint un sommet de 9,1 %.

Grande dépression. L’impact n’est pas encore réellement tangible, car les prix sont bien supérieurs à ceux de 2019. Mais c’est le taux qu’il faut surveiller, pas le niveau. Pour inverser complètement les récentes hausses de prix, il faudrait une déflation épique. Dans le monde occidental, ça ne se fait pas et ça n’arrivera jamais. Pour retrouver les niveaux de fin d’année 2019, l’agrégat M4 des Etats-Unis devrait se contracter de 32 %, soit une chute digne de la Grande Dépression ! Personne ne le souhaite.

Nombreux sont ceux qui affirment que les taux d’inflation normaux ne sont pas garantis, craignant une résurgence des prix de l’énergie et la redoutable « spirale prix-salaires », dans laquelle les augmentations de salaire entraînent des hausses de prix. Non ! La production pétrolière américaine devrait battre des records en 2024, ce qui compensera les réductions de l’OPEP+. La guerre en Israëlne devrait pas perturber l’approvisionnement mondial. La Chine, le Canada, le Brésil, l’Iran, l’Irak, la Libye, le Nigeria et le Venezuela augmentent tous leur production.

Quant au gaz naturel, ses prix sont bien inférieurs aux sommets atteints en 2022. Les stocks d’hiver de l’UE ont été reconstitués de manière précoce. Les prix de l’électricité sur le marché sont devenus négatifs cet été dans certaines parties de la région, y compris en France, en raison d’une surabondance d’énergie éolienne et solaire.

Ce sont les forces du marché – et non les interventions politiques maladroites – qui feront baisser les prix de l’énergie

Vous ne l’avez pas senti en août en raison de la hausse de 10 % des tarifs réglementés de l’électricité, mais les prix ont largement baissé sur l’ensemble du continent. Le président Macron affirme que ceux de la France vont reculer. Il dit vrai… pour les mauvaises raisons. Ce sont les forces du marché – et non les interventions politiques maladroites – qui les feront baisser. Néanmoins, l’électricité, le gaz et les autres combustibles ne représentent que 6 % de l’indice des prix de la zone euro et 5 % de celui de la France.

La spirale des prix et des salaires ? Un mythe. Oui, la croissance des salaires – à l’image des 5 % en glissement annuel en France au deuxième trimestre – est dynamique. Mais Milton Friedman a également montré, à l’époque, que les salaires suivent toujours et partout les prix, et non l’inverse. Le ralentissement de l’inflation à la suite de l’accélération de la croissance des salaires dans la zone euro et aux Etats-Unis en 2023 en est la preuve. Pourtant, personne ne semble s’en apercevoir, pas même les économistes universitaires qui devraient être mieux informés, mais ne le sont pas.

Goulets d’étranglement. Qui a oublié les cargos bloqués et les prix exorbitants du transport maritime ? Les goulets d’étranglement de la chaîne d’approvisionnement de l’ère Covid se sont résorbés et les tarifs de transport maritime dans les principaux ports de la zone euro ont chuté. La baisse a atteint -79 % en glissement annuel pour les liaisons Shanghai-Rotterdam, -43 % pour le New York-Rotterdam et -70 % pour le Shanghai-Gênes. L’indice Global Supply Chain Pressure de la Fed de New York a baissé à des niveaux qui n’avaient plus été observés depuis 2015.

L’inflation galopante ne fait qu’ajouter des briques au « mur des inquiétudes » de ce marché haussier, laissant espérer la surprise positive qui fait grimper les actions. Attendez-vous à ce que les taux d’inflation continuent de baisser et à ce que les actions finissent par repartir à la hausse.

Ken Fisher est président et directeur de Fisher Investments Europe, président exécutif et codirecteur des investissements de Fisher Investments.

Retraite: fin du régime de retraite des présidents de la République ?

Retraite: fin du régime de retraite des présidents de la République ?

Sans doute des motif politiciens, les socialistes ont déposé et fait adopter par la commission des finances de l’Assemblée nationale une modification des conditions de retraite des présidents de la république. Ces derniers n’auraient plus de régime particulier et serait donc affiliés au régime général de la sécurité sociale. Mais pas de changement pour les députés eux-mêmes!

De fait, au bout de deux mandats, 8 ans, , un député bénéficie d’une retraite de 1.368 € net, ce à quoi peut prétendre le reste de la population française au bout de 40 ans de cotisation. Cette pension des députés est calculée au prorata des annuités acquises dans la limite d’un plafond fixé à 42 ans pour l’année 2023.

Une mesure visant qui se comprend mais qui n’est pas sans arrière pensé politique. En plus il faut noter la contradiction entre cette proposition de modification du régime spécial des présidents de la république et le maintien dans le même temps du régime tout aussi spécial des députés.

Les députés de la commission des Finances ont voté lundi une mesure proposée par le PS pour supprimer le régime spécial de retraites des présidents de la République, sans garantie que la disposition soit conservée lors du recours au 49.3. La mesure, adoptée lors de l’examen du budget 2024 de l’État en commission, s’appliquerait aux présidents élus après le 1er avril 2022, comme Emmanuel Macron.

Fin 2019, en plein bras de fer autour d’une précédente tentative de réforme des retraites, l’Élysée avait indiqué qu’Emmanuel Macron renonçait par avance à sa future retraite de président de la République, équivalente au salaire d’un conseiller d’État, à l’époque 6220 euros bruts mensuels. Il serait ainsi le premier président à renoncer au bénéfice de la loi du 3 avril 1955.

Le gouvernement pourra écarter cet amendement quand il déclenchera l’arme constitutionnelle du 49.3 dans l’hémicycle pour l’adoption sans vote de ce volet dépenses du budget de l’État.

Crise climatique et fin du monde

Crise climatique et fin du monde

Une étude australienne évoque la fin de la civilisation en 2050 si rien n’est fait pour freiner le réchauffement de la Terre. Un calendrier sans doute un peu trop alarmiste mais qui a le mérite d’évoquer les grandes tendances qui pourraient progressivement détruire des conditions de vie d’après un papier de Franceinfo. Mais des climatologues soulignent qu’il s’agit du « scénario du pire » et qu’une autre issue reste possible. La fin du monde, d’après un rapport (lien PDF en anglais) par le think tank australien Breakthrough-National Centre for Climate Restoration pourrait intervenir vers 2050. Si rien n’est fait pour limiter le réchauffement climatique, « la planète et l’humanité auront atteint un ‘point de non-retour’ à la moitié du siècle, dans laquelle la perspective d’une Terre largement inhabitable entraînerait l’effondrement des nations et de l’ordre mondial », avancent les auteurs, David Spratt, directeur de recherche à Breakthrough, et Ian Dunlop, ancien cadre de l’industrie des énergies fossiles. Selon eux, il existe « une forte probabilité que la civilisation humaine touche à sa fin » dans trois décennies.

En dix pages, le rapport brosse un tableau apocalyptique. En 2050, la hausse de la température moyenne à la surface du globe aura atteint 3 °C. Plus de la moitié de la population mondiale sera exposée à des chaleurs létales au moins 20 jours par an. Et cette météo mortelle persistera plus de 100 jours par an en Afrique de l’Ouest, au Moyen-Orient, en Amérique du Sud et en Asie du Sud-Est. Deux milliards d’habitants seront affectés par le manque d’eau.

Des écosystèmes tels que la Grande Barrière de corail ou la forêt amazonienne se seront effondrés. Et en été, l’océan Arctique sera navigable, libre de toute glace. Quant au niveau des mers, il aura augmenté de 0,5 mètre. Un demi-siècle plus tard, en 2100, la hausse sera de 2 à 3 mètres. Dans les régions tropicales, on comptera plus d’un milliard de déplacés climatiques. L’agriculture ne sera plus viable dans les régions subtropicales. Les récoltes mondiales auront diminué d’un cinquième. Et la population de la planète sera exposée à des risques de pandémies.

Le changement climatique représente maintenant une menace existentielle à court ou moyen terme pour la civilisation humaine. Dans ce « scénario extrême », « l’ampleur des destructions dépasse notre capacité de modélisation », préviennent les auteurs de l’étude, reprenant les mots de l’ONG suédoise Global Challenges Foundation (en anglais) en 2018.

Ce tableau extrêmement pessimiste s’explique. Les auteurs de l’étude ont choisi de retenir les conséquences les plus graves du réchauffement climatique en partant du principe qu’elles sont souvent mises de côté dans les publications plus consensuelles, à l’image du rapport collégial du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec). David Spratt et Ian Dunlop « ont juste poussé à l’extrême les probabilités. Ils ont pris les plus faibles avec les conséquences les plus importantes », pondère Joël Savarino, directeur de recherche au CNRS et à l’Institut des géosciences et de l’environnement de Grenoble.

Aucun des experts interrogés par franceinfo ne pointe cependant une quelconque erreur dans ce rapport. Même si ce n’est pas une étude scientifique, « plutôt une compilation de certaines références et de rapports d’ONG », précise Benjamin Sultan, directeur de recherche à l’Institut de recherches pour le développement (IRD).

C’est un article qui présente une vision cauchemardesque, le scénario du pire, mais qui ne peut pas être exclu pour autant.

Les conséquences d’un tel réchauffement climatique ne seraient donc pas irréalistes, tout au plus exagérées. Une hausse des températures de 3 °C d’ici à 2050 est ainsi une projection « assez extrême », nuance Frédéric Parrenin, directeur de recherche au CNRS. « Si on agit modérément, selon les engagements pris à Paris en 2015, une hausse de 3 degrés arriverait plutôt en 2100″, ajoute-t-il. Joël Savarino, lui, évoque cette possibilité si un mécanisme de rétro-action positive, c’est-à-dire une modification qui amplifie le changement climatique, s’installait. « Si les pergélisols, ces sols gelés en permanence en Arctique, se mettent à fondre à cause du réchauffement climatique, ils pourraient libérer de puissants gaz à effet de serre et ainsi nourrir le réchauffement. »

« La canicule de 2003, qui a fait 15 000 morts en France, pourrait devenir un été normal », prévient Henri Waisman, chercheur à l’Institut du développement durable et des relations internationales, spécialiste du climat et coauteur du rapport du Giec d’octobre 2018.

De même, l’estimation du milliard de réfugiés climatiques avancée dans l’étude australienne est à prendre « avec prudence », insiste le climatologue belge Jean-Pascal van Ypersele, professeur à l’Université catholique de Louvain et ancien vice-président du Giec. « A la limite, peu importe le chiffre avancé, ajoute Henri Waisman, ce qui est vrai, c’est que des centaines de millions de personnes pourraient être affectées. » Car « aucune ville, aucune infrastructure portuaire n’est capable de s’adapter à une montée des eaux d’un ou deux mètres en quelques décennies », remarque Joël Savarino.

Ses conclusions sont-elles réalistes ?

Au-delà des conséquences « naturelles », le réchauffement climatique pourrait bel et bien entraîner une multiplication des conflits, comme l’affirme l’étude. « Le risque est possible dans certaines régions, notamment au Sahel pour l’accès à l’eau, confirme la climatologue Françoise Vimeux, directrice de recherche à l’Institut de recherche pour le développement. Mais là encore, il existe beaucoup d’incertitudes. Les modèles sur les cycles de pluie, par exemple, sont incertains. »

Le déséquilibre proviendra de la nourriture. Si les pays exportateurs sont affaiblis par les aléas climatiques, on peut imaginer des gouvernements qui préservent leurs intérêts. Et si la nourriture commence à faire défaut…

Joël Savarino rappelle que la France compte à peine 3% d’agriculteurs dans sa population active. « Ça veut dire que 97% de la population est incapable de se nourrir toute seule. »

Les experts s’accordent sur un point : la fin de la « civilisation humaine » évoquée par l’étude est plus qu’hasardeuse. « La fin de la civilisation n’est pas la fin de l’humanité, tempère Jean-Pascal van Ypersele. En outre, pour parler de la fin de la civilisation, encore faut-il s’entendre sur ce qu’est la civilisation. Il n’y a pas une, mais des dizaines de civilisations avec des niveaux de résilience différents. » Le climatologue ne nie pas les dégâts qui pourraient être causés puisque « des infrastructures importantes seront détruites, des systèmes alimentaires seront mis à mal, il y aura des déplacements de population… » Mais l’humanité, elle, perdurera, même si elle devra s’adapter.

Un monde avec 3 °C supplémentaires est une menace très sérieuse. Ce n’est pas seulement l’environnement et les écosystèmes qui seraient menacés, mais également notre société telle que nous la connaissons.

Françoise Vimeux évoque elle aussi « une autre manière de vivre ». « Cela serait un changement brutal, mais ce ne serait pas la fin du monde. La vie a déjà survécu à des catastrophes, l’humanité survivra aussi. Son extinction n’est pas pour tout de suite », assure Joël Savarino.

Ce scénario catastrophe est-il inéluctable ?
Les auteurs de l’étude australienne plaident pour « une mobilisation mondiale massive » et jugent que celle-ci est « nécessaire dans la prochaine décennie ». Ils font une analogie avec le plan Marshall lancé après la Seconde Guerre mondiale. Sans pour autant s’étendre sur le contenu d’un tel plan.

Gilles Ramstein, directeur de recherche au Laboratoire des sciences du climat et de l’environnement, déplore cette comparaison et critique l’idée sous-jacente de « mettre l’industrie au service de la lutte contre le réchauffement climatique ». Le climatologue le reconnaît cependant : « Il faut une planification à long terme à l’échelle mondiale pour réduire notre facture énergétique sur vingt ans, en particulier dans les transports et le chauffage. » Une planification qui « entre en contradiction avec la rentabilité immédiate », souligne-t-il. Or « il y a de très gros intérêts financiers en jeu qui vont intéresser de grands groupes. Et il ne faut pas donner massivement de l’argent à une industrie polluante qui va se refaire sur le dos de l’économie verte. »

Le chercheur prône une mesure iconoclaste : « Il faut faire par exemple des transferts de technologies gratuits vers l’Afrique et les pays sous-développés, pour éviter qu’ils ne passent par la phase de la combustion et des énergies fossiles comme les pays riches ou l’Inde, la Chine, les pays en développement. »

Le Giec aussi « propose des solutions concrètes, mais aussi des paris technologiques pour capter le CO2 atmosphérique, par exemple », rappelle Françoise Vimeux. Selon le Giec, il faut en priorité s’attaquer aux émissions de gaz à effet de serre, à commencer par le dioxyde de carbone (CO2). Pour que la hausse des températures ne dépasse pas 1,5 °C, il faut diminuer d’environ 45% les émissions mondiales de CO2 d’ici à 2030 par rapport à leur niveau de 2010, puis atteindre vers 2050 la neutralité carbone, c’est-à-dire le point où les émissions sont compensées par l’élimination du CO2 présent dans l’atmosphère. Il faudrait aussi que les énergies renouvelables fournissent 70 à 85% de l’électricité en 2050. Les émissions de CO2 de l’industrie, elles, devraient être inférieures d’environ 65 à 90% en 2050 par rapport à ce qu’elles étaient en 2010.

Outre la production d’énergie et l’industrie, il faudrait revoir les politiques d’aménagement du territoire, réformer les modèles agricoles, développer des moyens de transports moins polluants, construire des bâtiments moins énergivores… Il faudrait aussi préserver les écosystèmes, reboiser, restaurer les sols pour que le carbone y reste stocké, mais aussi développer des technologies de capture et de stockage du carbone dans l’air, comme le font naturellement les arbres.

La facture de tels bouleversements est vertigineuse. Le Giec évalue les investissements nécessaires dans le système énergétique à 2 400 milliards de dollars par an entre 2016 et 2035. Cela revient à consacrer environ 2,5% du PIB mondial à la lutte contre le réchauffement climatique.

« Ce n’est pas un problème insoluble, il faut une vraie solidarité, une vraie politique internationale. Il faut que l’ONU ait plus d’importance », assure Frédéric Parrenin. Pour autant, « le progrès technologique ne résoudra pas tout », prévient le climatologue. « Pour réduire les gaz à effet de serre, il ne faut pas attendre que les gouvernements agissent, ils ne peuvent pas tout faire, poursuit Henri Waisman. Les villes, les régions, le secteur privé, les citoyens, tous ont un rôle fondamental. »

Pour le climatologue Gilles Ramstein, la « posture catastrophiste » de l’étude australienne a une vertu : « Elle permet de lancer une alerte encore plus forte. » « Si on ne fait rien, les réactions vont être de plus en plus émotionnelles et les choix qui seront faits ne seront pas forcément les bons, fait valoir l’expert. Plus tôt on commencera à changer de cap, mieux ce sera. Mais malheureusement, pour l’heure, rien ne bouge. »

« La prise en compte du risque maximum, c’est une approche intéressante, juge son confrère Benjamin Sultan. Si on se montre trop conservateur ou réservé dans nos prévisions, en écartant les fourchettes les plus hautes, on risque de ne pas être préparé. »

Mais « c’est à double tranchant », avertit la climatologue Françoise Vimeux. « C’est important de transmettre nos connaissances pour sensibiliser les citoyens, éveiller les consciences, éclairer la prise de décision, mais ce n’est pas utile d’être aussi alarmiste. »

Cela peut créer un sentiment de fatalité. Cela désarme. Les gens vont se dire : « Cela ne sert à rien, c’est la fin, c’est trop tard. » Mais ce n’est pas vrai. Il n’est pas trop tard.

A l’inverse, « exposer les différents scénarios, c’est aussi donner la possibilité de débattre de ce qui est acceptable ou non socialement, argumente la chercheuse. Accepte-t-on que la Grande Barrière de corail soit détruite ? Accepte-t-on qu’il y ait des millions de déplacés ? Ce sont des questions sociétales. »

« On peut éviter ce pire scénario. Toutes les décisions qu’on va prendre ou pas dans les dix ans vont avoir des conséquences. Les dix prochaines années, c’est l’échéance si on veut empêcher un réchauffement supérieur à 1,5 ou 2 °C, note Benjamin Sultan. Il faut changer complètement, il faut des transitions radicales sur notre façon de consommer, de produire, dans tous les secteurs et partout dans le monde. »

« Si on écoute les discours alarmistes, il y a le risque de dire que c’est foutu. Ça ne l’est pas. La jeunesse défile dans le monde entier. Ces discussions, on ne les avait pas il y a cinq ou dix ans », renchérit Henri Waisman. Le coauteur du rapport du Giec l’assure : « C’est loin d’être perdu. Au-delà de la crainte de l’échec, il est possible d’y arriver, et c’est même souhaitable. »

Dérèglement climatique et fin du monde

Dérèglement climatique et fin du monde

Une étude australienne évoque la fin de la civilisation en 2050 si rien n’est fait pour freiner le réchauffement de la Terre. Un calendrier sans doute un peu trop alarmiste mais qui a le mérite d’évoquer les grandes tendances qui pourraient progressivement détruire des conditions de vie d’après un papier de Franceinfo. Mais des climatologues soulignent qu’il s’agit du « scénario du pire » et qu’une autre issue reste possible. La fin du monde, d’après un rapport (lien PDF en anglais) par le think tank australien Breakthrough-National Centre for Climate Restoration pourrait intervenir vers 2050. Si rien n’est fait pour limiter le réchauffement climatique, « la planète et l’humanité auront atteint un ‘point de non-retour’ à la moitié du siècle, dans laquelle la perspective d’une Terre largement inhabitable entraînerait l’effondrement des nations et de l’ordre mondial », avancent les auteurs, David Spratt, directeur de recherche à Breakthrough, et Ian Dunlop, ancien cadre de l’industrie des énergies fossiles. Selon eux, il existe « une forte probabilité que la civilisation humaine touche à sa fin » dans trois décennies.

En dix pages, le rapport brosse un tableau apocalyptique. En 2050, la hausse de la température moyenne à la surface du globe aura atteint 3 °C. Plus de la moitié de la population mondiale sera exposée à des chaleurs létales au moins 20 jours par an. Et cette météo mortelle persistera plus de 100 jours par an en Afrique de l’Ouest, au Moyen-Orient, en Amérique du Sud et en Asie du Sud-Est. Deux milliards d’habitants seront affectés par le manque d’eau.

Des écosystèmes tels que la Grande Barrière de corail ou la forêt amazonienne se seront effondrés. Et en été, l’océan Arctique sera navigable, libre de toute glace. Quant au niveau des mers, il aura augmenté de 0,5 mètre. Un demi-siècle plus tard, en 2100, la hausse sera de 2 à 3 mètres. Dans les régions tropicales, on comptera plus d’un milliard de déplacés climatiques. L’agriculture ne sera plus viable dans les régions subtropicales. Les récoltes mondiales auront diminué d’un cinquième. Et la population de la planète sera exposée à des risques de pandémies.

Le changement climatique représente maintenant une menace existentielle à court ou moyen terme pour la civilisation humaine. Dans ce « scénario extrême », « l’ampleur des destructions dépasse notre capacité de modélisation », préviennent les auteurs de l’étude, reprenant les mots de l’ONG suédoise Global Challenges Foundation (en anglais) en 2018.

Ce tableau extrêmement pessimiste s’explique. Les auteurs de l’étude ont choisi de retenir les conséquences les plus graves du réchauffement climatique en partant du principe qu’elles sont souvent mises de côté dans les publications plus consensuelles, à l’image du rapport collégial du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec). David Spratt et Ian Dunlop « ont juste poussé à l’extrême les probabilités. Ils ont pris les plus faibles avec les conséquences les plus importantes », pondère Joël Savarino, directeur de recherche au CNRS et à l’Institut des géosciences et de l’environnement de Grenoble.

Aucun des experts interrogés par franceinfo ne pointe cependant une quelconque erreur dans ce rapport. Même si ce n’est pas une étude scientifique, « plutôt une compilation de certaines références et de rapports d’ONG », précise Benjamin Sultan, directeur de recherche à l’Institut de recherches pour le développement (IRD).

C’est un article qui présente une vision cauchemardesque, le scénario du pire, mais qui ne peut pas être exclu pour autant.

Les conséquences d’un tel réchauffement climatique ne seraient donc pas irréalistes, tout au plus exagérées. Une hausse des températures de 3 °C d’ici à 2050 est ainsi une projection « assez extrême », nuance Frédéric Parrenin, directeur de recherche au CNRS. « Si on agit modérément, selon les engagements pris à Paris en 2015, une hausse de 3 degrés arriverait plutôt en 2100″, ajoute-t-il. Joël Savarino, lui, évoque cette possibilité si un mécanisme de rétro-action positive, c’est-à-dire une modification qui amplifie le changement climatique, s’installait. « Si les pergélisols, ces sols gelés en permanence en Arctique, se mettent à fondre à cause du réchauffement climatique, ils pourraient libérer de puissants gaz à effet de serre et ainsi nourrir le réchauffement. »

« La canicule de 2003, qui a fait 15 000 morts en France, pourrait devenir un été normal », prévient Henri Waisman, chercheur à l’Institut du développement durable et des relations internationales, spécialiste du climat et coauteur du rapport du Giec d’octobre 2018.

De même, l’estimation du milliard de réfugiés climatiques avancée dans l’étude australienne est à prendre « avec prudence », insiste le climatologue belge Jean-Pascal van Ypersele, professeur à l’Université catholique de Louvain et ancien vice-président du Giec. « A la limite, peu importe le chiffre avancé, ajoute Henri Waisman, ce qui est vrai, c’est que des centaines de millions de personnes pourraient être affectées. » Car « aucune ville, aucune infrastructure portuaire n’est capable de s’adapter à une montée des eaux d’un ou deux mètres en quelques décennies », remarque Joël Savarino.

Ses conclusions sont-elles réalistes ?

Au-delà des conséquences « naturelles », le réchauffement climatique pourrait bel et bien entraîner une multiplication des conflits, comme l’affirme l’étude. « Le risque est possible dans certaines régions, notamment au Sahel pour l’accès à l’eau, confirme la climatologue Françoise Vimeux, directrice de recherche à l’Institut de recherche pour le développement. Mais là encore, il existe beaucoup d’incertitudes. Les modèles sur les cycles de pluie, par exemple, sont incertains. »

Le déséquilibre proviendra de la nourriture. Si les pays exportateurs sont affaiblis par les aléas climatiques, on peut imaginer des gouvernements qui préservent leurs intérêts. Et si la nourriture commence à faire défaut…

Joël Savarino rappelle que la France compte à peine 3% d’agriculteurs dans sa population active. « Ça veut dire que 97% de la population est incapable de se nourrir toute seule. »

Les experts s’accordent sur un point : la fin de la « civilisation humaine » évoquée par l’étude est plus qu’hasardeuse. « La fin de la civilisation n’est pas la fin de l’humanité, tempère Jean-Pascal van Ypersele. En outre, pour parler de la fin de la civilisation, encore faut-il s’entendre sur ce qu’est la civilisation. Il n’y a pas une, mais des dizaines de civilisations avec des niveaux de résilience différents. » Le climatologue ne nie pas les dégâts qui pourraient être causés puisque « des infrastructures importantes seront détruites, des systèmes alimentaires seront mis à mal, il y aura des déplacements de population… » Mais l’humanité, elle, perdurera, même si elle devra s’adapter.

Un monde avec 3 °C supplémentaires est une menace très sérieuse. Ce n’est pas seulement l’environnement et les écosystèmes qui seraient menacés, mais également notre société telle que nous la connaissons.

Françoise Vimeux évoque elle aussi « une autre manière de vivre ». « Cela serait un changement brutal, mais ce ne serait pas la fin du monde. La vie a déjà survécu à des catastrophes, l’humanité survivra aussi. Son extinction n’est pas pour tout de suite », assure Joël Savarino.

Ce scénario catastrophe est-il inéluctable ?
Les auteurs de l’étude australienne plaident pour « une mobilisation mondiale massive » et jugent que celle-ci est « nécessaire dans la prochaine décennie ». Ils font une analogie avec le plan Marshall lancé après la Seconde Guerre mondiale. Sans pour autant s’étendre sur le contenu d’un tel plan.

Gilles Ramstein, directeur de recherche au Laboratoire des sciences du climat et de l’environnement, déplore cette comparaison et critique l’idée sous-jacente de « mettre l’industrie au service de la lutte contre le réchauffement climatique ». Le climatologue le reconnaît cependant : « Il faut une planification à long terme à l’échelle mondiale pour réduire notre facture énergétique sur vingt ans, en particulier dans les transports et le chauffage. » Une planification qui « entre en contradiction avec la rentabilité immédiate », souligne-t-il. Or « il y a de très gros intérêts financiers en jeu qui vont intéresser de grands groupes. Et il ne faut pas donner massivement de l’argent à une industrie polluante qui va se refaire sur le dos de l’économie verte. »

Le chercheur prône une mesure iconoclaste : « Il faut faire par exemple des transferts de technologies gratuits vers l’Afrique et les pays sous-développés, pour éviter qu’ils ne passent par la phase de la combustion et des énergies fossiles comme les pays riches ou l’Inde, la Chine, les pays en développement. »

Le Giec aussi « propose des solutions concrètes, mais aussi des paris technologiques pour capter le CO2 atmosphérique, par exemple », rappelle Françoise Vimeux. Selon le Giec, il faut en priorité s’attaquer aux émissions de gaz à effet de serre, à commencer par le dioxyde de carbone (CO2). Pour que la hausse des températures ne dépasse pas 1,5 °C, il faut diminuer d’environ 45% les émissions mondiales de CO2 d’ici à 2030 par rapport à leur niveau de 2010, puis atteindre vers 2050 la neutralité carbone, c’est-à-dire le point où les émissions sont compensées par l’élimination du CO2 présent dans l’atmosphère. Il faudrait aussi que les énergies renouvelables fournissent 70 à 85% de l’électricité en 2050. Les émissions de CO2 de l’industrie, elles, devraient être inférieures d’environ 65 à 90% en 2050 par rapport à ce qu’elles étaient en 2010.

Outre la production d’énergie et l’industrie, il faudrait revoir les politiques d’aménagement du territoire, réformer les modèles agricoles, développer des moyens de transports moins polluants, construire des bâtiments moins énergivores… Il faudrait aussi préserver les écosystèmes, reboiser, restaurer les sols pour que le carbone y reste stocké, mais aussi développer des technologies de capture et de stockage du carbone dans l’air, comme le font naturellement les arbres.

La facture de tels bouleversements est vertigineuse. Le Giec évalue les investissements nécessaires dans le système énergétique à 2 400 milliards de dollars par an entre 2016 et 2035. Cela revient à consacrer environ 2,5% du PIB mondial à la lutte contre le réchauffement climatique.

« Ce n’est pas un problème insoluble, il faut une vraie solidarité, une vraie politique internationale. Il faut que l’ONU ait plus d’importance », assure Frédéric Parrenin. Pour autant, « le progrès technologique ne résoudra pas tout », prévient le climatologue. « Pour réduire les gaz à effet de serre, il ne faut pas attendre que les gouvernements agissent, ils ne peuvent pas tout faire, poursuit Henri Waisman. Les villes, les régions, le secteur privé, les citoyens, tous ont un rôle fondamental. »

Pour le climatologue Gilles Ramstein, la « posture catastrophiste » de l’étude australienne a une vertu : « Elle permet de lancer une alerte encore plus forte. » « Si on ne fait rien, les réactions vont être de plus en plus émotionnelles et les choix qui seront faits ne seront pas forcément les bons, fait valoir l’expert. Plus tôt on commencera à changer de cap, mieux ce sera. Mais malheureusement, pour l’heure, rien ne bouge. »

« La prise en compte du risque maximum, c’est une approche intéressante, juge son confrère Benjamin Sultan. Si on se montre trop conservateur ou réservé dans nos prévisions, en écartant les fourchettes les plus hautes, on risque de ne pas être préparé. »

Mais « c’est à double tranchant », avertit la climatologue Françoise Vimeux. « C’est important de transmettre nos connaissances pour sensibiliser les citoyens, éveiller les consciences, éclairer la prise de décision, mais ce n’est pas utile d’être aussi alarmiste. »

Cela peut créer un sentiment de fatalité. Cela désarme. Les gens vont se dire : « Cela ne sert à rien, c’est la fin, c’est trop tard. » Mais ce n’est pas vrai. Il n’est pas trop tard.

A l’inverse, « exposer les différents scénarios, c’est aussi donner la possibilité de débattre de ce qui est acceptable ou non socialement, argumente la chercheuse. Accepte-t-on que la Grande Barrière de corail soit détruite ? Accepte-t-on qu’il y ait des millions de déplacés ? Ce sont des questions sociétales. »

« On peut éviter ce pire scénario. Toutes les décisions qu’on va prendre ou pas dans les dix ans vont avoir des conséquences. Les dix prochaines années, c’est l’échéance si on veut empêcher un réchauffement supérieur à 1,5 ou 2 °C, note Benjamin Sultan. Il faut changer complètement, il faut des transitions radicales sur notre façon de consommer, de produire, dans tous les secteurs et partout dans le monde. »

« Si on écoute les discours alarmistes, il y a le risque de dire que c’est foutu. Ça ne l’est pas. La jeunesse défile dans le monde entier. Ces discussions, on ne les avait pas il y a cinq ou dix ans », renchérit Henri Waisman. Le coauteur du rapport du Giec l’assure : « C’est loin d’être perdu. Au-delà de la crainte de l’échec, il est possible d’y arriver, et c’est même souhaitable. »

Dérèglement climatique : la fin du monde en 2050 ?

Dérèglement climatique : la fin du monde en 2050 ?

Une étude australienne évoque la fin de la civilisation en 2050 si rien n’est fait pour freiner le réchauffement de la Terre. Un calendrier sans doute un peu trop alarmiste mais qui a le mérite d’évoquer les grandes tendances qui pourraient progressivement détruire des conditions de vie d’après un papier de Franceinfo. Mais des climatologues soulignent qu’il s’agit du « scénario du pire » et qu’une autre issue reste possible. La fin du monde, d’après un rapport (lien PDF en anglais) par le think tank australien Breakthrough-National Centre for Climate Restoration pourrait intervenir vers 2050. Si rien n’est fait pour limiter le réchauffement climatique, « la planète et l’humanité auront atteint un ‘point de non-retour’ à la moitié du siècle, dans laquelle la perspective d’une Terre largement inhabitable entraînerait l’effondrement des nations et de l’ordre mondial », avancent les auteurs, David Spratt, directeur de recherche à Breakthrough, et Ian Dunlop, ancien cadre de l’industrie des énergies fossiles. Selon eux, il existe « une forte probabilité que la civilisation humaine touche à sa fin » dans trois décennies.

En dix pages, le rapport brosse un tableau apocalyptique. En 2050, la hausse de la température moyenne à la surface du globe aura atteint 3 °C. Plus de la moitié de la population mondiale sera exposée à des chaleurs létales au moins 20 jours par an. Et cette météo mortelle persistera plus de 100 jours par an en Afrique de l’Ouest, au Moyen-Orient, en Amérique du Sud et en Asie du Sud-Est. Deux milliards d’habitants seront affectés par le manque d’eau.

Des écosystèmes tels que la Grande Barrière de corail ou la forêt amazonienne se seront effondrés. Et en été, l’océan Arctique sera navigable, libre de toute glace. Quant au niveau des mers, il aura augmenté de 0,5 mètre. Un demi-siècle plus tard, en 2100, la hausse sera de 2 à 3 mètres. Dans les régions tropicales, on comptera plus d’un milliard de déplacés climatiques. L’agriculture ne sera plus viable dans les régions subtropicales. Les récoltes mondiales auront diminué d’un cinquième. Et la population de la planète sera exposée à des risques de pandémies.

Le changement climatique représente maintenant une menace existentielle à court ou moyen terme pour la civilisation humaine. Dans ce « scénario extrême », « l’ampleur des destructions dépasse notre capacité de modélisation », préviennent les auteurs de l’étude, reprenant les mots de l’ONG suédoise Global Challenges Foundation (en anglais) en 2018.

Ce tableau extrêmement pessimiste s’explique. Les auteurs de l’étude ont choisi de retenir les conséquences les plus graves du réchauffement climatique en partant du principe qu’elles sont souvent mises de côté dans les publications plus consensuelles, à l’image du rapport collégial du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec). David Spratt et Ian Dunlop « ont juste poussé à l’extrême les probabilités. Ils ont pris les plus faibles avec les conséquences les plus importantes », pondère Joël Savarino, directeur de recherche au CNRS et à l’Institut des géosciences et de l’environnement de Grenoble.

Aucun des experts interrogés par franceinfo ne pointe cependant une quelconque erreur dans ce rapport. Même si ce n’est pas une étude scientifique, « plutôt une compilation de certaines références et de rapports d’ONG », précise Benjamin Sultan, directeur de recherche à l’Institut de recherches pour le développement (IRD).

C’est un article qui présente une vision cauchemardesque, le scénario du pire, mais qui ne peut pas être exclu pour autant.

Les conséquences d’un tel réchauffement climatique ne seraient donc pas irréalistes, tout au plus exagérées. Une hausse des températures de 3 °C d’ici à 2050 est ainsi une projection « assez extrême », nuance Frédéric Parrenin, directeur de recherche au CNRS. « Si on agit modérément, selon les engagements pris à Paris en 2015, une hausse de 3 degrés arriverait plutôt en 2100″, ajoute-t-il. Joël Savarino, lui, évoque cette possibilité si un mécanisme de rétro-action positive, c’est-à-dire une modification qui amplifie le changement climatique, s’installait. « Si les pergélisols, ces sols gelés en permanence en Arctique, se mettent à fondre à cause du réchauffement climatique, ils pourraient libérer de puissants gaz à effet de serre et ainsi nourrir le réchauffement. »

« La canicule de 2003, qui a fait 15 000 morts en France, pourrait devenir un été normal », prévient Henri Waisman, chercheur à l’Institut du développement durable et des relations internationales, spécialiste du climat et coauteur du rapport du Giec d’octobre 2018.

De même, l’estimation du milliard de réfugiés climatiques avancée dans l’étude australienne est à prendre « avec prudence », insiste le climatologue belge Jean-Pascal van Ypersele, professeur à l’Université catholique de Louvain et ancien vice-président du Giec. « A la limite, peu importe le chiffre avancé, ajoute Henri Waisman, ce qui est vrai, c’est que des centaines de millions de personnes pourraient être affectées. » Car « aucune ville, aucune infrastructure portuaire n’est capable de s’adapter à une montée des eaux d’un ou deux mètres en quelques décennies », remarque Joël Savarino.

Ses conclusions sont-elles réalistes ?

Au-delà des conséquences « naturelles », le réchauffement climatique pourrait bel et bien entraîner une multiplication des conflits, comme l’affirme l’étude. « Le risque est possible dans certaines régions, notamment au Sahel pour l’accès à l’eau, confirme la climatologue Françoise Vimeux, directrice de recherche à l’Institut de recherche pour le développement. Mais là encore, il existe beaucoup d’incertitudes. Les modèles sur les cycles de pluie, par exemple, sont incertains. »

Le déséquilibre proviendra de la nourriture. Si les pays exportateurs sont affaiblis par les aléas climatiques, on peut imaginer des gouvernements qui préservent leurs intérêts. Et si la nourriture commence à faire défaut…

Joël Savarino rappelle que la France compte à peine 3% d’agriculteurs dans sa population active. « Ça veut dire que 97% de la population est incapable de se nourrir toute seule. »

Les experts s’accordent sur un point : la fin de la « civilisation humaine » évoquée par l’étude est plus qu’hasardeuse. « La fin de la civilisation n’est pas la fin de l’humanité, tempère Jean-Pascal van Ypersele. En outre, pour parler de la fin de la civilisation, encore faut-il s’entendre sur ce qu’est la civilisation. Il n’y a pas une, mais des dizaines de civilisations avec des niveaux de résilience différents. » Le climatologue ne nie pas les dégâts qui pourraient être causés puisque « des infrastructures importantes seront détruites, des systèmes alimentaires seront mis à mal, il y aura des déplacements de population… » Mais l’humanité, elle, perdurera, même si elle devra s’adapter.

Un monde avec 3 °C supplémentaires est une menace très sérieuse. Ce n’est pas seulement l’environnement et les écosystèmes qui seraient menacés, mais également notre société telle que nous la connaissons.

Françoise Vimeux évoque elle aussi « une autre manière de vivre ». « Cela serait un changement brutal, mais ce ne serait pas la fin du monde. La vie a déjà survécu à des catastrophes, l’humanité survivra aussi. Son extinction n’est pas pour tout de suite », assure Joël Savarino.

Ce scénario catastrophe est-il inéluctable ?
Les auteurs de l’étude australienne plaident pour « une mobilisation mondiale massive » et jugent que celle-ci est « nécessaire dans la prochaine décennie ». Ils font une analogie avec le plan Marshall lancé après la Seconde Guerre mondiale. Sans pour autant s’étendre sur le contenu d’un tel plan.

Gilles Ramstein, directeur de recherche au Laboratoire des sciences du climat et de l’environnement, déplore cette comparaison et critique l’idée sous-jacente de « mettre l’industrie au service de la lutte contre le réchauffement climatique ». Le climatologue le reconnaît cependant : « Il faut une planification à long terme à l’échelle mondiale pour réduire notre facture énergétique sur vingt ans, en particulier dans les transports et le chauffage. » Une planification qui « entre en contradiction avec la rentabilité immédiate », souligne-t-il. Or « il y a de très gros intérêts financiers en jeu qui vont intéresser de grands groupes. Et il ne faut pas donner massivement de l’argent à une industrie polluante qui va se refaire sur le dos de l’économie verte. »

Le chercheur prône une mesure iconoclaste : « Il faut faire par exemple des transferts de technologies gratuits vers l’Afrique et les pays sous-développés, pour éviter qu’ils ne passent par la phase de la combustion et des énergies fossiles comme les pays riches ou l’Inde, la Chine, les pays en développement. »

Le Giec aussi « propose des solutions concrètes, mais aussi des paris technologiques pour capter le CO2 atmosphérique, par exemple », rappelle Françoise Vimeux. Selon le Giec, il faut en priorité s’attaquer aux émissions de gaz à effet de serre, à commencer par le dioxyde de carbone (CO2). Pour que la hausse des températures ne dépasse pas 1,5 °C, il faut diminuer d’environ 45% les émissions mondiales de CO2 d’ici à 2030 par rapport à leur niveau de 2010, puis atteindre vers 2050 la neutralité carbone, c’est-à-dire le point où les émissions sont compensées par l’élimination du CO2 présent dans l’atmosphère. Il faudrait aussi que les énergies renouvelables fournissent 70 à 85% de l’électricité en 2050. Les émissions de CO2 de l’industrie, elles, devraient être inférieures d’environ 65 à 90% en 2050 par rapport à ce qu’elles étaient en 2010.

Outre la production d’énergie et l’industrie, il faudrait revoir les politiques d’aménagement du territoire, réformer les modèles agricoles, développer des moyens de transports moins polluants, construire des bâtiments moins énergivores… Il faudrait aussi préserver les écosystèmes, reboiser, restaurer les sols pour que le carbone y reste stocké, mais aussi développer des technologies de capture et de stockage du carbone dans l’air, comme le font naturellement les arbres.

La facture de tels bouleversements est vertigineuse. Le Giec évalue les investissements nécessaires dans le système énergétique à 2 400 milliards de dollars par an entre 2016 et 2035. Cela revient à consacrer environ 2,5% du PIB mondial à la lutte contre le réchauffement climatique.

« Ce n’est pas un problème insoluble, il faut une vraie solidarité, une vraie politique internationale. Il faut que l’ONU ait plus d’importance », assure Frédéric Parrenin. Pour autant, « le progrès technologique ne résoudra pas tout », prévient le climatologue. « Pour réduire les gaz à effet de serre, il ne faut pas attendre que les gouvernements agissent, ils ne peuvent pas tout faire, poursuit Henri Waisman. Les villes, les régions, le secteur privé, les citoyens, tous ont un rôle fondamental. »

Pour le climatologue Gilles Ramstein, la « posture catastrophiste » de l’étude australienne a une vertu : « Elle permet de lancer une alerte encore plus forte. » « Si on ne fait rien, les réactions vont être de plus en plus émotionnelles et les choix qui seront faits ne seront pas forcément les bons, fait valoir l’expert. Plus tôt on commencera à changer de cap, mieux ce sera. Mais malheureusement, pour l’heure, rien ne bouge. »

« La prise en compte du risque maximum, c’est une approche intéressante, juge son confrère Benjamin Sultan. Si on se montre trop conservateur ou réservé dans nos prévisions, en écartant les fourchettes les plus hautes, on risque de ne pas être préparé. »

Mais « c’est à double tranchant », avertit la climatologue Françoise Vimeux. « C’est important de transmettre nos connaissances pour sensibiliser les citoyens, éveiller les consciences, éclairer la prise de décision, mais ce n’est pas utile d’être aussi alarmiste. »

Cela peut créer un sentiment de fatalité. Cela désarme. Les gens vont se dire : « Cela ne sert à rien, c’est la fin, c’est trop tard. » Mais ce n’est pas vrai. Il n’est pas trop tard.

A l’inverse, « exposer les différents scénarios, c’est aussi donner la possibilité de débattre de ce qui est acceptable ou non socialement, argumente la chercheuse. Accepte-t-on que la Grande Barrière de corail soit détruite ? Accepte-t-on qu’il y ait des millions de déplacés ? Ce sont des questions sociétales. »

« On peut éviter ce pire scénario. Toutes les décisions qu’on va prendre ou pas dans les dix ans vont avoir des conséquences. Les dix prochaines années, c’est l’échéance si on veut empêcher un réchauffement supérieur à 1,5 ou 2 °C, note Benjamin Sultan. Il faut changer complètement, il faut des transitions radicales sur notre façon de consommer, de produire, dans tous les secteurs et partout dans le monde. »

« Si on écoute les discours alarmistes, il y a le risque de dire que c’est foutu. Ça ne l’est pas. La jeunesse défile dans le monde entier. Ces discussions, on ne les avait pas il y a cinq ou dix ans », renchérit Henri Waisman. Le coauteur du rapport du Giec l’assure : « C’est loin d’être perdu. Au-delà de la crainte de l’échec, il est possible d’y arriver, et c’est même souhaitable. »

Société- Salaires réels bloqués depuis fin 2019 en zone euro

Société- Salaires réels bloqués depuis fin 2019 en zone euro

L’inflation a des effets anti redistributif vis-à-vis des salariés car si les rémunérations augmentent en monnaie constante la progression est inférieure à l’inflation. Ainsi les salaires réels sont-ils bloqués depuis quatre ans d’après l’OFCE.

La crise du coût de la vie est aussi celle de la valeur travail. Entre la fin 2019 et la fin 2024, les salaires réels – c’est-à-dire la rémunération après prise en compte de l’inflation – n’ont pas progressé dans les grands pays de la zone euro, selon les prévisions de l’Observatoire français des conjonctures économiques (OFCE).

La situation est différente aux Etats-Unis, où les travailleurs voient leur salaire augmenter malgré la hausse des prix. L’économie américaine a en effet été beaucoup plus dynamique que l’économie européenne depuis la fin de la pandémie de Covid.

Social-Pouvoir d’achat : salaires réels bloqués depuis fin 2019 en zone euro

Social-Pouvoir d’achat : salaires réels bloqués depuis fin 2019 en zone euro

L’inflation a des effets anti redistributif vis-à-vis des salariés car si les rémunérations augmentent en monnaie constante la progression est inférieure à l’inflation. Ainsi les salaires réels sont-ils bloqués depuis quatre ans d’après l’OFCE.

La crise du coût de la vie est aussi celle de la valeur travail. Entre la fin 2019 et la fin 2024, les salaires réels – c’est-à-dire la rémunération après prise en compte de l’inflation – n’ont pas progressé dans les grands pays de la zone euro, selon les prévisions de l’Observatoire français des conjonctures économiques (OFCE).

La situation est différente aux Etats-Unis, où les travailleurs voient leur salaire augmenter malgré la hausse des prix. L’économie américaine a en effet été beaucoup plus dynamique que l’économie européenne depuis la fin de la pandémie de Covid.

Foot –Fin de carrière pour Neymar encore blessé ?

Foot –Fin de carrière pour Neymar encore blessé ?

Une énième blessure pour Neymar qui pourrait bien signaler la triste fin d’une carrière massacrée par l’intéressé lui-même. Neymar souffre d’une lésion du ligament croisé antérieur et d’une déchirure du ménisque au niveau du genou gauche. Une blessure qui n’est pas rare dans le football mais qui chez les mares s’explique par son manque chronique de conditions physiques et sa vie très dissolue.

Ce joueur exceptionnel aura largement contribué à massacrer sa propre carrière. Faute d’hygiène de vie et de physique, l’intéressé continue à tenter des dribbles impossibles et en quelque sorte offre son corps aux défenseurs. S’il était un tant soit peu intelligent d’abord il mettrait fin aux excès de toute nature. Il pourrait aussi compte tenu de son exceptionnelle technique se limiter à un travail de distributeur au lieu de porter la balle que son corps ne peut plus suivre.

Lors de Brésil-Uruguay, match comptant pour les éliminatoires de la Coupe du monde 2026, Neymar s’est blessé juste après l’ouverture du score de Darwin Nuñez. Le numéro 10 brésilien s’est tordu de douleur sur la pelouse après être mal retombé à la suite d’un accrochage avec Nicolás de la Cruz. Il souffre donc d’une rupture des ligaments croisés du genou.

« Pour lui, c’est les blessures, les blessures, les blessures… Et dès qu’il commence à retrouver son rythme, il se blesse à nouveau », avait déploré par la suite son compatriote Casemiro, milieu de Manchester United.

Neymar a rejoint le club saoudien d’Al-Hilal en août, après six saisons au Paris Saint-Germain, un passage émaillé par de nombreux pépins physiques. Cette année, une grave blessure à la cheville droite l’avait tenu six mois éloigné des terrains, de mars à septembre.

Lors du Mondial 2022 au Qatar, « Ney » s’était blessé au cours du premier match, contre la Serbie. Il était revenu pour les huitièmes de finale, mais n’avait pas pu empêcher l’élimination de la Seleçao en quarts face à la Croatie aux tirs aux buts, même s’il avait marqué durant les prolongations.

Fin de la NUPES aussi pour le PS ?

Fin de la NUPES aussi pour le PS ?

C’est mardi soir que se décidera ou non la fin de la collaboration du parti socialiste avec le parti de Mélenchon dans le cadre de la Nupes.

En fait, les reproches sont de plusieurs natures. Les socialistes comme d’ailleurs les communistes voire les écologistes reprochent l’hégémonie de LFI sur l’alliance. Ils considèrent en général que l’environnement politique s’est modifié et que cette mise en tutelle de la gauche par Mélenchon n’est plus justifiée en l’état des rapports de force. Le parti socialiste comme d’ailleurs les autres membres de la gauche espèrent une redistribution des cartes en leur faveur. En clair ils espèrent surtout un affaiblissement des Insoumis.

Le schisme pourrait aussi être justifié par la fuite en avant depuis plusieurs mois de certains leaders de LFI mais de Jean-Luc Mélenchon en particulier qui sur tous les terrains pratique la fuite en avant gauchiste.

Le Parti socialiste réunira ce mardi soir son conseil national afin de discuter d’une éventuelle sortie de l’alliance de gauche Nupes en raison des positions de La France insoumise sur le Hamas, a-t-on appris dimanche auprès du parti.

Il devait avoir lieu samedi, mais le premier secrétaire Olivier Faure avait finalement décidé de le reporter, « compte tenu du contexte dramatique lié à l’assassinat » d’un enseignant par un ancien élève radicalisé, vendredi à Arras.

Ce conseil national, qui réunira environ 300 cadres du parti, se tiendra à partir de 19h30.

Tous les opposants internes à Olivier Faure, hostiles à la Nupes, se sont exprimés pour réclamer la sortie du PS de cette coalition, largement dominée par LFI.

C’est notamment le cas de la présidente de la région Occitanie, Carole Delga, qui parle de « faillite morale », la maire de Paris Anne Hidalgo, qui évoque « une mésalliance », ou encore le maire de Rouen et rival interne d’Olivier Faure, Nicolas Mayer-Rossignol, qui en fait « une question de principe ».

Mais Olivier Faure, fervent défenseur de l’union de gauche, n’entend pas laisser la Nupes à Jean-Luc Mélenchon.

Après avoir jugé dans Libération que le positionnement de LFI sur la guerre entre Israël et le Hamas aurait « des conséquences lourdes » sur l’avenir de l’alliance, il souhaite que la Nupes puisse être rééquilibrée, dénonçant « la méthode Mélenchon », qui « ne cherche jamais le centre de gravité du rassemblement de la gauche » mais vise la radicalisations des positions.

La pression s’accentue aussi depuis que le PCF a semblé lui aussi faire un pas vers la sortie de la coalition, après avoir voté dimanche, lors de son propre conseil national, une résolution actant que la Nupes était devenue « une impasse » et appelant à « un nouveau type d’union » de la gauche.

Gaza: La fin de l’illusoire paix (Alain Bauer)

Gaza: La fin de l’illusoire paix (Alain Bauer)

L’attaque, sophistiquée, puissante et coordonnée, puissamment aidée par l’Iran, vient de mettre fin à l’illusion de la paix et du plan issu des
Longtemps, les soulèvements à Gaza ou la guerre de pierres en Cisjordanie s’ordonnaient sous une forme de duel scénarisé permettant à chacun de faire valoir ses droits et de récolter ses soutiens. Une incursion rapide, des représailles, parfois des mobilisations de quelques jours, comme en mai dernier. (par Alain Bauer dans l’Opinion)

Au fil du temps, même le Hamas avait troqué sa détermination à détruire Israël et les Juifs en une possibilité de trouver un accord avec l’Etat hébreu sur les lignes de 1967. L’attaque, sophistiquée, puissante et coordonnée, puissamment aidée par l’Iran, vient de mettre fin à l’illusion de la paix et du plan issu des accords d’Oslo.

Alors qu’Israël et l’Arabie Saoudite avançaient prudemment vers un processus diplomatique de reconnaissance, l’Iran, aux abois face à sa propre société civile, créait les conditions d’une remise en question majeure de la pacification par petits pas engagées depuis quelques années sous les auspices de Washington.

Trois facettes. Il existe en fait plusieurs facettes à ce conflit :

–Un accord tacite Syrie-Iran pour faire du Hamas une puissance équivalente au Hezbollah. Tsahal, l’armée d’Israël, avait payé le prix fort en 2006, en envoyant ses troupes au Liban pour tenter de sauver deux soldats kidnappés en Israël début juillet par la milice chiite, après de nombreux tirs de roquette contre le nord de l’Etat hébreu. Le 14 août 2006, Tsahal cessa ses offensives au Liban sur ordre du gouvernement israélien. La Deuxième Guerre du Liban aura causé la mort de 119 soldats et de 44 civils israéliens. Par ailleurs, 400 soldats et environ 2000 civils israéliens furent blessés. Ce fut la répétition générale de l’opération menée en ce début octobre 2023.

–Un débat interne complexe à l’intérieur du Hamas. Depuis l’exécution ou la disparition des principaux fondateurs de l’organisation qui se réclame des Frères musulmans, des options contradictoires existent sur la manière d’exercer le pouvoir (à Gaza), de le conquérir (au sein de ce qui reste de l’Autorité palestinienne) et de régler le conflit avec Israël. L’aile militaire dirigée par Mohammed Deif et le patron du Hamas à Saza, Yahia Sinwar, semblent avoir pris le dessus sur les « politiques » qui sont le plus souvent à Damas, Téhéran et, dit-on parfois, Istanbul.

Il ne reste plus au Hezbollah qu’à lancer des manœuvres au nord d’Israël et au Jihad Islamique à se rappeler au mauvais souvenir de tous les acteurs pour que cette opération au long cours accouche d’un gouvernement d’union nationale d’un côté et d’une déstabilisation majeure de tous les processus en cours
–Un problème géopolitique ou la plupart des acteurs du Golfe jouent un double ou triple jeu. Le Qatar qui payait, pas assez semble-t-il, pour que l’administration de Gaza fonctionne et qui n’aurait pas revalorisé ses versements depuis septembre, aurait ainsi involontairement laissé la main à l’Iran qui, tout en se rapprochant officiellement de l’Arabie Saoudite, fait tout ce qui lui est possible pour saborder les accords d’Abraham.

Israël, engluée dans un conflit de réforme institutionnelle qui a cassé le consensus national et qui a été attirée par une audacieuse manœuvre d’enfumage sur les risques créés par sa politique sur l’esplanade des Mosquées/Mont du Temple, a aussi perdu de nombreux agents infiltrés depuis quelques mois et qui, faisant trop confiance aux outils technologiques, a perdu sa capacité de prévision des évènements, malgré les alertes de l’AMAN, le service de renseignement militaire.

Surprise. Un peu de géostratégie, quelques négociations d’arrière-cuisine salariale, une opportunité créée par le gouvernement israélien et, cinquante ans après la « surprise de Kippour », Israël est à nouveau pris à défaut. Pas par des Etats, mais par des milices dont la puissance et la mobilité rappellent, comme dans les débuts du conflit ukrainien, qu’on ne gagne jamais la guerre qui vient avec les outils et les méthodes qu’on veut imposer à l’adversaire alors que c’est lui qui a le choix des armes.

Il ne reste plus au Hezbollah qu’à lancer des manœuvres au nord d’Israël et au Jihad Islamique à se rappeler au mauvais souvenir de tous les acteurs pour que cette opération au long cours accouche d’un gouvernement d’union nationale d’un côté et d’une déstabilisation majeure de tous les processus en cours.

A ce « jeu », l’Iran a déjà gagné.

Alain Bauer est professeur au Conservatoire national des arts et métiers, responsable du Pôle Sécurité Défense Renseignement Criminologie Cybermenaces et Crises. Dernier ouvrage: La guerre ne fait que commencer (Fayard).

1...34567...41



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol