Archive pour le Tag 'paradigme ('

Économie–Inflation : changement de paradigme

 

Économie–Inflation : changement de paradigme

 

Si les économistes peinaient à expliquer la faiblesse de l’inflation avant le Covid-19, ils ont aujourd’hui du mal à appréhender l’ensemble des mécanismes à l’œuvre dans l’actuelle hausse des prix, observe Marie Charrel, journaliste au « Monde », dans sa chronique.

 

. La plupart des individus imaginent porter des jugements raisonnables sur les choses parce qu’ils sont convaincus d’être en prise avec la réalité – mais bien souvent, ils ne le sont pas vraiment. Tel est l’un des constats dressés dans Noise : pourquoi nous faisons des erreurs de jugement et comment les éviter (Odile Jacob, 464 p., 27,90 €), le nouvel essai publié par Daniel Kahneman, Olivier Sibony et Cass R. Sunstein, trois spécialistes des sciences comportementales.

Cette observation peut s’appliquer, dans une certaine mesure, à la macroéconomie et notamment au débat du moment sur l’inflation. Sommes-nous sur le point de connaître une douloureuse flambée généralisée des prix, comme le redoutent certains analystes ? La hausse des tarifs de l’énergie et de certaines matières premières est-elle temporaire, comme l’affirment d’autres ? Surtout : disposons-nous vraiment des bons outils – la prise avec la réalité – pour le mesurer ?

 

« Nous ignorons si nous vivons le début d’une nouvelle ère d’inflation, résume Adam Tooze, professeur d’histoire économique à l’université Columbia, dans un récent article. Ce qui est sûr, c’est que nous assistons à un grand débat sur l’inflation. » Observer les observateurs : voilà un habile pas de côté opéré par Adam Tooze, riche d’enseignements. « L’incertitude alimente une réelle anxiété chez les décideurs et au sein du public, ajoute-t-il. Cela conduit-il à une crise d’autorité de l’économie ? »

Sans aller jusque-là, la peur du spectre inflationniste, rappelant le scénario des deux chocs pétroliers des années 1970, fait son grand retour médiatique. Elle a ranimé la question du pouvoir d’achat sur la scène politique, qui pourrait être l’un des enjeux de la présidentielle française. Elle contraint les banquiers centraux à répéter en chœur, pour tempérer les inquiétudes, que le phénomène est transitoire. Tout en admettant que « plusieurs sources d’incertitudes pourraient entraîner des pressions inflationnistes plus persistantes », selon les propos tenus par Isabel Schnabel, membre du directoire de la Banque centrale européenne (BCE), le 8 octobre.

« Nihilisme intellectuel »

Pourquoi un tel brouillard autour des prix ? Parce que le baromètre permettant de mesurer leur évolution a des ratés. Avant la pandémie, déjà, les économistes s’interrogeaient sur la nature de la faible inflation observée depuis une décennie. Les débats, vite techniques, portaient sur la « courbe de Phillips », établissant qu’il existe une relation inverse entre inflation et chômage : lorsque le nombre de demandeurs d’emploi est faible, les entreprises peinent à recruter et augmentent donc les salaires pour attirer les candidats, ce qui fait augmenter, par ricochet, les prix. Mais cette relation s’est affaiblie avec l’essor de la mondialisation et le déclin du taux de syndicalisation dans les économies industrialisées.

Inflation : changement de paradigme

Inflation : changement de paradigme

 

Si les économistes peinaient à expliquer la faiblesse de l’inflation avant le Covid-19, ils ont aujourd’hui du mal à appréhender l’ensemble des mécanismes à l’œuvre dans l’actuelle hausse des prix, observe Marie Charrel, journaliste au « Monde », dans sa chronique.

 

. La plupart des individus imaginent porter des jugements raisonnables sur les choses parce qu’ils sont convaincus d’être en prise avec la réalité – mais bien souvent, ils ne le sont pas vraiment. Tel est l’un des constats dressés dans Noise : pourquoi nous faisons des erreurs de jugement et comment les éviter (Odile Jacob, 464 p., 27,90 €), le nouvel essai publié par Daniel Kahneman, Olivier Sibony et Cass R. Sunstein, trois spécialistes des sciences comportementales.

Cette observation peut s’appliquer, dans une certaine mesure, à la macroéconomie et notamment au débat du moment sur l’inflation. Sommes-nous sur le point de connaître une douloureuse flambée généralisée des prix, comme le redoutent certains analystes ? La hausse des tarifs de l’énergie et de certaines matières premières est-elle temporaire, comme l’affirment d’autres ? Surtout : disposons-nous vraiment des bons outils – la prise avec la réalité – pour le mesurer ?

 

« Nous ignorons si nous vivons le début d’une nouvelle ère d’inflation, résume Adam Tooze, professeur d’histoire économique à l’université Columbia, dans un récent article. Ce qui est sûr, c’est que nous assistons à un grand débat sur l’inflation. » Observer les observateurs : voilà un habile pas de côté opéré par Adam Tooze, riche d’enseignements. « L’incertitude alimente une réelle anxiété chez les décideurs et au sein du public, ajoute-t-il. Cela conduit-il à une crise d’autorité de l’économie ? »

Sans aller jusque-là, la peur du spectre inflationniste, rappelant le scénario des deux chocs pétroliers des années 1970, fait son grand retour médiatique. Elle a ranimé la question du pouvoir d’achat sur la scène politique, qui pourrait être l’un des enjeux de la présidentielle française. Elle contraint les banquiers centraux à répéter en chœur, pour tempérer les inquiétudes, que le phénomène est transitoire. Tout en admettant que « plusieurs sources d’incertitudes pourraient entraîner des pressions inflationnistes plus persistantes », selon les propos tenus par Isabel Schnabel, membre du directoire de la Banque centrale européenne (BCE), le 8 octobre.

« Nihilisme intellectuel »

Pourquoi un tel brouillard autour des prix ? Parce que le baromètre permettant de mesurer leur évolution a des ratés. Avant la pandémie, déjà, les économistes s’interrogeaient sur la nature de la faible inflation observée depuis une décennie. Les débats, vite techniques, portaient sur la « courbe de Phillips », établissant qu’il existe une relation inverse entre inflation et chômage : lorsque le nombre de demandeurs d’emploi est faible, les entreprises peinent à recruter et augmentent donc les salaires pour attirer les candidats, ce qui fait augmenter, par ricochet, les prix. Mais cette relation s’est affaiblie avec l’essor de la mondialisation et le déclin du taux de syndicalisation dans les économies industrialisées.

Énergie : changer de paradigme

 

Énergie : changer de paradigme

 

Pour rendre compatible la politique énergétique et la politique environnementale , Il convient de changer de paradigme d’après  Dominique Chauvin, prospectiviste. (dans la Tribune, extrait)

tribune

 

 

Dans un article récent de La Tribune, le Professeur François Lévêque fait un constat qu’il se propose de partager avec ses lecteurs en se défendant qu’il puisse être « l’expression d’un sentiment d’amertume ou de satisfaction ». Ce constat serait que : « La politique énergétique se dissout progressivement dans la politique climatique ».

Cette amertume ou cette satisfaction fait référence au nucléaire, sujet auquel ce professeur de l’école des Mines s’est intéressé pendant une dizaine d’années comme chercheur, au point d’en écrire un livre remarqué et qui fait référence sur le positionnement du sujet mais qui une fois de plus dans le texte de son article introduit le doute au sujet du nucléaire, sur la possibilité de rétablir un équilibre salutaire à Bruxelles, face à la « supériorité de l’Allemagne à défendre ses propres choix énergétiques ». Ce doute, cette ambiguïté dans le positionnement est à l’instar du titre de son livre : « Nucléaire : ON/OFF ». Au lecteur le soin de choisir et à d’autres le soin de s’engager pour sauver le nucléaire comme outil d’une politique climatique.

Bruxelles contre le nucléaire

Toutefois, dans un sursaut de volontarisme, il interroge les manœuvres de la Commission européenne contre le nucléaire comme une preuve que la politique énergétique peut encore l’emporter sur des politiques climatiques au vu du paradoxe que le gaz pourtant fossile pourrait bénéficier d’obligations vertes alors que le nucléaire pourtant neutre en carbone en serait exclu.

Cette décision de Bruxelles lui permet de préciser son constat comme « l’expression d’un double retournement » et, cette fois, on perçoit dans le texte que c’est plutôt l’amertume qui l’emporte. Je cite par soucis de clarté : « Le nucléaire n’est plus une source d’énergie pour l’Europe et la politique de l’énergie, ou plutôt ce qu’il en reste, est définitivement reléguée au niveau national ». Dont acte : exit la politique énergétique de l’Union européenne !

Est-ce bien vrai ? ne doit-on pas au contraire porter un regard plus optimiste et conquérant, en tous cas différent de ce constat anti-prospectif, qui ne révèle pas au fond la profondeur de cette inversion de priorité.

Pour cela, il faut d’abord comprendre l’évolution historique et prospective de l’énergie et le changement de paradigme qu’elle porte : basée sur des ressources fossiles avec un contenu industriel faible dans la valeur ajoutée mais avec des externalités fortes qui les condamnent aujourd’hui, les énergies sont vouées à muter malgré des progrès industriels et environnementaux désespérés, couteux  et insuffisants pour les sauver ; progrès reconnus et salués par tous sous le vocable d’efficacité énergétique que ce soit en amont et/ou en aval de chaque filière. Mais progrès voués à l’échec pour les énergies fossiles car à rendement décroissants !

La rupture créée par les énergies renouvelables

La rupture qu’apporte les énergies renouvelables, et ce qui en font leur singularité, réside dans les énergies primaires utilisées, qualifiées de propres, abondantes, gratuites et disponibles : le soleil, le vent, l’eau et demain… le CO2. Du coup, le défi devient industriel pour récolter, transformer, réguler, stocker, distribuer ces énergies primaires en une ou plusieurs énergies finales plus universelles et transparentes à l’usage. La valeur ajoutée de ce processus devient donc d’abord industrielle puis économique et  financière et  de surcroît locale, nationale ou européenne permettant ainsi de réinvestir la totalité de cette valeur ajoutée dans la recherche, le développement et le social pour une prospérité qui résulte de notre décision et compétence collective et non plus d’une valeur de rente payée à des pays producteurs, rente qui, objet funeste, varie de façon exogène et à notre détriment en fonction du prix de la géopolitique et/ou de la rareté.

L’énergie qui était une ressource va ainsi devenir un produit industriel choisi et, à terme, on « fabriquera » l’énergie comme on fabrique des voitures dans une usine avec un design ! Bien sûr, et à l’instar des voitures, il faudra encore utiliser des ressources mais différentes et dans des proportions bien moindres que les ressources énergétiques du paradigme précédent. Assurément, on n’en est pas encore là et la flambée récente des prix du gaz et de l’électricité, dont l’ampleur a surpris les experts, sont bien là pour nous rappeler encore la prééminence des ressources et de leurs aléas dans la question énergétique. Mais, clairement, pour s’en prémunir, il faut accélérer cette dimension industrielle de l’énergie et non pas penser que la politique énergétique, « définitivement reléguée au niveau national » d’après François Lévêque, doive se cantonner à distribuer des chèques aux plus fragiles pour compenser une hausse des prix qui nous échappe, à défaut de hausser le débat sur l’avenir du nucléaire !

La France, un pays précurseur

Or il se trouve que la France a été précurseur dans cette approche industrielle de l’énergie avec précisément… le nucléaire ; tellement vertueux qu’il offre aujourd’hui à l’Europe l’électricité la moins chère, la plus stable en termes physiques et aussi en termes de prix, sans doute la plus propre et très faiblement dépendante des ressources énergétiques étrangères puisque l’uranium ne représente que de l’ordre de  5 % dans sa valeur. Pourquoi donc avoir le nucléaire honteux ou douter de son utilité et de son avenir puisqu’il est sur la trajectoire prospective qui s’impose : la trajectoire industrielle. Encore faudra-t-il le rendre plus efficace, encore plus propre (génération IV, fusion) nettement moins cher et le miniaturiser (SMR). Sur ce dernier point, l’expert qu’est aussi François Lévêque ne pourra qu’abonder dans ce sens.

Aussi, le constat plutôt amer que fait l’auteur de l’article n’est en fait que le résultat du contresens prospectif qu’il fait : la politique énergétique devra se dissoudre dans la politique industrielle et pas dans la politique climatique. D’ailleurs, la politique climatique n’existe pas en tant que telle. Il s’agit d’un objectif : la neutralité carbone en 2050 ; objectif très contraignant qui imposera de bâtir des stratégies industrielles et financières fortes pour y arriver car, paradoxalement, cet objectif de neutralité carbone n’a aucune chance d’être atteint sans une croissance prospère générant les moyens financiers, industriels et humains puissants qui permettront d’investir dans les technologies d’avenir pour « fabriquer » industriellement l’énergie propre dont l’industrie et la société ont besoin.

En quelques sortes, l’énergie devient endogène à l’industrie et à la société dans un cercle vertueux (au sens de l’économie circulaire) qu’il faut améliorer et concentrer pour rendre encore plus rentable ce moteur industriel qu’est devenu l’énergie au service du climat. Il ne faut pas se tromper de récurrence !

Une politique industrielle plus large

Toutefois, si le constat, à mon sens incorrect, que fait le Professeur François Lévêque dans son article, permet d’ouvrir et de provoquer un débat sur la politique énergétique/climatique/industrielle de la France et de l’Europe, il aura été utile en particulier pour pointer « la perte d’autonomie de la France sous l’effet de sa désindustrialisation massive au cours des 20 dernières années », comme le faisait remarquer avec beaucoup de pertinence Christian de Saint Etienne dans un article économique récent. L’erreur est de ne pas comprendre que la politique énergétique doit se dissoudre dans une politique industrielle plus large, plus ouverte et plus synergique à objectifs multiples dont celui du climat mais avant tout pour privilégier un objectif de rentabilité, indispensable et cohérent à tout autre objectif à remplir, dont celui du climat.

Place à l’action donc et à la mobilisation pour se faire l’artisan d’une politique industrielle européenne plus forte ; dans laquelle le nucléaire aura toute sa place.

Énergie : changer de paradigme

Pour rendre compatible la politique énergétique et la politique environnemental , Il convient de changer de paradigme d’après. (*) Par Dominique Chauvin, prospectiviste. (dans la Tribune, extrait)

tribune

 

A Marville, dans la Meuse, la construction de la seconde plus grande centrale photovoltaïque de France prend fin. Installée sur les 155 hectares de l’ancienne base aérienne, abandonnée par les militaires en 2002. Cette centrale est un projet écologique et agricole. Les 360.000 panneaux solaires devraient alimenter le canton en électricité, mais elle permet également à un jeune éleveur ovin de s’y installer avec ses 600 moutons pour assurer l’entretien de la zone. (Crédits : Reuters)

« On ne subit pas l’avenir, on le fait » (Georges Bernanos)

Dans un article récent de La Tribune, le Professeur François Lévêque fait un constat qu’il se propose de partager avec ses lecteurs en se défendant qu’il puisse être « l’expression d’un sentiment d’amertume ou de satisfaction ». Ce constat serait que : « La politique énergétique se dissout progressivement dans la politique climatique ».

Cette amertume ou cette satisfaction fait référence au nucléaire, sujet auquel ce professeur de l’école des Mines s’est intéressé pendant une dizaine d’années comme chercheur, au point d’en écrire un livre remarqué et qui fait référence sur le positionnement du sujet mais qui une fois de plus dans le texte de son article introduit le doute au sujet du nucléaire, sur la possibilité de rétablir un équilibre salutaire à Bruxelles, face à la « supériorité de l’Allemagne à défendre ses propres choix énergétiques ». Ce doute, cette ambiguïté dans le positionnement est à l’instar du titre de son livre : « Nucléaire : ON/OFF ». Au lecteur le soin de choisir et à d’autres le soin de s’engager pour sauver le nucléaire comme outil d’une politique climatique.

Bruxelles contre le nucléaire

Toutefois, dans un sursaut de volontarisme, il interroge les manœuvres de la Commission européenne contre le nucléaire comme une preuve que la politique énergétique peut encore l’emporter sur des politiques climatiques au vu du paradoxe que le gaz pourtant fossile pourrait bénéficier d’obligations vertes alors que le nucléaire pourtant neutre en carbone en serait exclu.

Cette décision de Bruxelles lui permet de préciser son constat comme « l’expression d’un double retournement » et, cette fois, on perçoit dans le texte que c’est plutôt l’amertume qui l’emporte. Je cite par soucis de clarté : « Le nucléaire n’est plus une source d’énergie pour l’Europe et la politique de l’énergie, ou plutôt ce qu’il en reste, est définitivement reléguée au niveau national ». Dont acte : exit la politique énergétique de l’Union européenne !

Est-ce bien vrai ? ne doit-on pas au contraire porter un regard plus optimiste et conquérant, en tous cas différent de ce constat anti-prospectif, qui ne révèle pas au fond la profondeur de cette inversion de priorité.

Pour cela, il faut d’abord comprendre l’évolution historique et prospective de l’énergie et le changement de paradigme qu’elle porte : basée sur des ressources fossiles avec un contenu industriel faible dans la valeur ajoutée mais avec des externalités fortes qui les condamnent aujourd’hui, les énergies sont vouées à muter malgré des progrès industriels et environnementaux désespérés, couteux  et insuffisants pour les sauver ; progrès reconnus et salués par tous sous le vocable d’efficacité énergétique que ce soit en amont et/ou en aval de chaque filière. Mais progrès voués à l’échec pour les énergies fossiles car à rendement décroissants !

La rupture créée par les énergies renouvelables

La rupture qu’apporte les énergies renouvelables, et ce qui en font leur singularité, réside dans les énergies primaires utilisées, qualifiées de propres, abondantes, gratuites et disponibles : le soleil, le vent, l’eau et demain… le CO2. Du coup, le défi devient industriel pour récolter, transformer, réguler, stocker, distribuer ces énergies primaires en une ou plusieurs énergies finales plus universelles et transparentes à l’usage. La valeur ajoutée de ce processus devient donc d’abord industrielle puis économique et  financière et  de surcroît locale, nationale ou européenne permettant ainsi de réinvestir la totalité de cette valeur ajoutée dans la recherche, le développement et le social pour une prospérité qui résulte de notre décision et compétence collective et non plus d’une valeur de rente payée à des pays producteurs, rente qui, objet funeste, varie de façon exogène et à notre détriment en fonction du prix de la géopolitique et/ou de la rareté.

close

volume_off

 

L’énergie qui était une ressource va ainsi devenir un produit industriel choisi et, à terme, on « fabriquera » l’énergie comme on fabrique des voitures dans une usine avec un design ! Bien sûr, et à l’instar des voitures, il faudra encore utiliser des ressources mais différentes et dans des proportions bien moindres que les ressources énergétiques du paradigme précédent. Assurément, on n’en est pas encore là et la flambée récente des prix du gaz et de l’électricité, dont l’ampleur a surpris les experts, sont bien là pour nous rappeler encore la prééminence des ressources et de leurs aléas dans la question énergétique. Mais, clairement, pour s’en prémunir, il faut accélérer cette dimension industrielle de l’énergie et non pas penser que la politique énergétique, « définitivement reléguée au niveau national » d’après François Lévêque, doive se cantonner à distribuer des chèques aux plus fragiles pour compenser une hausse des prix qui nous échappe, à défaut de hausser le débat sur l’avenir du nucléaire !

La France, un pays précurseur

Or il se trouve que la France a été précurseur dans cette approche industrielle de l’énergie avec précisément… le nucléaire ; tellement vertueux qu’il offre aujourd’hui à l’Europe l’électricité la moins chère, la plus stable en termes physiques et aussi en termes de prix, sans doute la plus propre et très faiblement dépendante des ressources énergétiques étrangères puisque l’uranium ne représente que de l’ordre de  5 % dans sa valeur. Pourquoi donc avoir le nucléaire honteux ou douter de son utilité et de son avenir puisqu’il est sur la trajectoire prospective qui s’impose : la trajectoire industrielle. Encore faudra-t-il le rendre plus efficace, encore plus propre (génération IV, fusion) nettement moins cher et le miniaturiser (SMR). Sur ce dernier point, l’expert qu’est aussi François Lévêque ne pourra qu’abonder dans ce sens.

Aussi, le constat plutôt amer que fait l’auteur de l’article n’est en fait que le résultat du contresens prospectif qu’il fait : la politique énergétique devra se dissoudre dans la politique industrielle et pas dans la politique climatique. D’ailleurs, la politique climatique n’existe pas en tant que telle. Il s’agit d’un objectif : la neutralité carbone en 2050 ; objectif très contraignant qui imposera de bâtir des stratégies industrielles et financières fortes pour y arriver car, paradoxalement, cet objectif de neutralité carbone n’a aucune chance d’être atteint sans une croissance prospère générant les moyens financiers, industriels et humains puissants qui permettront d’investir dans les technologies d’avenir pour « fabriquer » industriellement l’énergie propre dont l’industrie et la société ont besoin.

En quelques sortes, l’énergie devient endogène à l’industrie et à la société dans un cercle vertueux (au sens de l’économie circulaire) qu’il faut améliorer et concentrer pour rendre encore plus rentable ce moteur industriel qu’est devenu l’énergie au service du climat. Il ne faut pas se tromper de récurrence !

Une politique industrielle plus large

Toutefois, si le constat, à mon sens incorrect, que fait le Professeur François Lévêque dans son article, permet d’ouvrir et de provoquer un débat sur la politique énergétique/climatique/industrielle de la France et de l’Europe, il aura été utile en particulier pour pointer « la perte d’autonomie de la France sous l’effet de sa désindustrialisation massive au cours des 20 dernières années », comme le faisait remarquer avec beaucoup de pertinence Christian de Saint Etienne dans un article économique récent. L’erreur est de ne pas comprendre que la politique énergétique doit se dissoudre dans une politique industrielle plus large, plus ouverte et plus synergique à objectifs multiples dont celui du climat mais avant tout pour privilégier un objectif de rentabilité, indispensable et cohérent à tout autre objectif à remplir, dont celui du climat.

Place à l’action donc et à la mobilisation pour se faire l’artisan d’une politique industrielle européenne plus forte ; dans laquelle le nucléaire aura toute sa place.

Opérations extérieures: «Afghanistan, Mali: fin d’un paradigme ?»

Opérations extérieures: «Afghanistan, Mali: fin d’un paradigme ?»

Pour  Frédéric Charillon , ’heure est venue pour les puissances occidentales de repenser leur action extérieure  ( papier de l’OPINION, extrait)

 

 

La double annonce d’un retrait américain d’Afghanistan et d’une suspension par la France de sa coopération militaire avec le Mali, témoigne d’une page qui se tourne. Pendant la Guerre froide, l’intervention militaire était pratiquée par les superpuissances au sein de leurs sphères d’influence respectives. Les tentatives pour en sortir étaient difficiles (Afghanistan, Vietnam). La France avait ses interventions africaines dans son ancien « pré carré », avec la bénédiction américaine. La Grande-Bretagne restait active (à Aden, dans la région du Dhofar ou en Malaisie dans les années 1960).

Puis la disparition de l’Union soviétique laissa les Etats-Unis seuls en piste pour gérer les affaires du monde, et fut suivie d’une globalisation géographique des interventions occidentales  : Koweït, Balkans, Irak, Libye, Syrie… L’ambition d’une paix hégémonique assurée par Washington au nom de la stabilité internationale autorisait l’action militaire, supposait la reconstruction d’Etats, imposait le maintien d’une présence militaire sur place. C’est ce schéma qui arrive à son terme désormais.

Il impliquait de rebâtir des sociétés, mais les adversaires de cette reconstruction sont en passe de gagner la partie : en Afghanistan comme au Mali, ceux dont la réduction justifiait l’intervention militaire sont aux portes du pouvoir. Plus profondément, la logique expéditionnaire a montré ses limites dans un XXIe siècle où les paramètres sont trop nombreux, et les moyens, insuffisants. L’heure est venue pour les puissances occidentales de repenser leur action extérieure et de substituer de nouveaux instruments d’influence à la vieille logique de puissance.

La guerre du Koweït (1991) avait pour but de restaurer la souveraineté d’un Etat et le droit international. Mais les interventions balkaniques des années 1990 visaient un changement de régime à Belgrade, la mise en place de nouvelles cartes (avec en 1993 le plan Vance-Owen de répartition des populations en Bosnie en dix régions), la création de nouveaux Etats (au Kosovo en 1999). L’intervention afghane de 2001, lancée pour chasser les talibans du pouvoir, promit ensuite un Afghanistan démocratique, où les droits humains se rapprocheraient des normes occidentales. En 2011, la volonté de sauver les habitants de la ville de Benghazi se transforma en destitution et mort de Kadhafi : au plus fort des printemps arabes, le rêve de transformer d’anciennes dictatures en sociétés ouvertes n’avait pas quitté les esprits. Ce même esprit qui conduisit la France à souhaiter des frappes sur le régime syrien en 2013. L’échec néoconservateur, en 2003, à transformer l’Irak puis le Moyen-Orient en un nouvel eldorado libéral, prospère et pro-occidental, avait pourtant été patent.

On ne remodèle pas une société contre son gré, par la seule grâce de la force. De Gaulle en avait averti Washington à propos du Vietnam, depuis Phnom Penh en 1966 : « S’il est invraisemblable que l’appareil guerrier américain puisse jamais être anéanti sur place, d’autre part, il n’y a aucune chance pour que les peuples de l’Asie se soumettent à la loi d’un étranger venu de l’autre rive du Pacifique, quelles que puissent être ses intentions, et quelle que soit la puissance de ses armes. » Tout était dit.

« Les puissances opposées à ces déploiements occidentaux (Chine, Russie, Turquie) ont fait leur grand retour, galvanisées par l’échec libyen »

Cette hypothèse s’impose d’autant plus aujourd’hui que les moyens alignés s’amenuisent, et que le terrain est de plus en plus complexe. Les Etats-Unis ont déployé jusqu’à 536 000 hommes au Vietnam (en 1968), autant dans le Golfe en 1991 (dans une coalition de 940 000 soldats), un maximum de 100 000 en Afghanistan (il en restait 2 500 en 2021), et de 166 000 en Irak (en 2007), ramenés à 128 000 en 2009 et 2 500 en 2021. La France projettera rarement plus de 5 000 hommes dans les années 2000 (5 000 en Côte d’Ivoire en 2005 ; 4 500 dans l’opération Serval au Mali après 2013 ; 5 100 pour Barkhane aujourd’hui). Si l’on en croit (ce qui n’est pas obligatoire…) l’adage stratégique qui veut qu’une opération de contre-insurrection ou de contrôle du terrain exige un déploiement de soldats équivalent à 4 % de la population locale, nous sommes loin du compte. Le double danger, pour les troupes ainsi projetées, est résumé par les titres de deux ouvrages de François Cailleteau : celui de Guerres inutiles (2011), et celui de Décider et perdre la guerre (2021).

Les obstacles s’accumulent. Arrivée en sauveur, la puissance extérieure prend vite les traits d’un occupant dont on réclame le départ, exigence martelée et orchestrée sur les réseaux sociaux. Les puissances opposées à ces déploiements occidentaux (Chine, Russie, Turquie) ont fait leur grand retour, galvanisées par l’échec libyen, contrecarrant les initiatives lointaines, et interdisant qu’on en imagine d’autres dans leur sphère d’influence à nouveau revendiquée (Europe orientale, Asie…). Fin de la politique de la canonnière.

«Afghanistan, Mali: fin d’un paradigme ?»

«Afghanistan, Mali: fin d’un paradigme ?» 

Pour  Frédéric Charillon , ’heure est venue pour les puissances occidentales de repenser leur action extérieure  ( papier de l’OPINION, extrait)

 

 

La double annonce d’un retrait américain d’Afghanistan et d’une suspension par la France de sa coopération militaire avec le Mali, témoigne d’une page qui se tourne. Pendant la Guerre froide, l’intervention militaire était pratiquée par les superpuissances au sein de leurs sphères d’influence respectives. Les tentatives pour en sortir étaient difficiles (Afghanistan, Vietnam). La France avait ses interventions africaines dans son ancien « pré carré », avec la bénédiction américaine. La Grande-Bretagne restait active (à Aden, dans la région du Dhofar ou en Malaisie dans les années 1960).

Puis la disparition de l’Union soviétique laissa les Etats-Unis seuls en piste pour gérer les affaires du monde, et fut suivie d’une globalisation géographique des interventions occidentales  : Koweït, Balkans, Irak, Libye, Syrie… L’ambition d’une paix hégémonique assurée par Washington au nom de la stabilité internationale autorisait l’action militaire, supposait la reconstruction d’Etats, imposait le maintien d’une présence militaire sur place. C’est ce schéma qui arrive à son terme désormais.

Il impliquait de rebâtir des sociétés, mais les adversaires de cette reconstruction sont en passe de gagner la partie : en Afghanistan comme au Mali, ceux dont la réduction justifiait l’intervention militaire sont aux portes du pouvoir. Plus profondément, la logique expéditionnaire a montré ses limites dans un XXIe siècle où les paramètres sont trop nombreux, et les moyens, insuffisants. L’heure est venue pour les puissances occidentales de repenser leur action extérieure et de substituer de nouveaux instruments d’influence à la vieille logique de puissance.

La guerre du Koweït (1991) avait pour but de restaurer la souveraineté d’un Etat et le droit international. Mais les interventions balkaniques des années 1990 visaient un changement de régime à Belgrade, la mise en place de nouvelles cartes (avec en 1993 le plan Vance-Owen de répartition des populations en Bosnie en dix régions), la création de nouveaux Etats (au Kosovo en 1999). L’intervention afghane de 2001, lancée pour chasser les talibans du pouvoir, promit ensuite un Afghanistan démocratique, où les droits humains se rapprocheraient des normes occidentales. En 2011, la volonté de sauver les habitants de la ville de Benghazi se transforma en destitution et mort de Kadhafi : au plus fort des printemps arabes, le rêve de transformer d’anciennes dictatures en sociétés ouvertes n’avait pas quitté les esprits. Ce même esprit qui conduisit la France à souhaiter des frappes sur le régime syrien en 2013. L’échec néoconservateur, en 2003, à transformer l’Irak puis le Moyen-Orient en un nouvel eldorado libéral, prospère et pro-occidental, avait pourtant été patent.

On ne remodèle pas une société contre son gré, par la seule grâce de la force. De Gaulle en avait averti Washington à propos du Vietnam, depuis Phnom Penh en 1966 : « S’il est invraisemblable que l’appareil guerrier américain puisse jamais être anéanti sur place, d’autre part, il n’y a aucune chance pour que les peuples de l’Asie se soumettent à la loi d’un étranger venu de l’autre rive du Pacifique, quelles que puissent être ses intentions, et quelle que soit la puissance de ses armes. » Tout était dit.

« Les puissances opposées à ces déploiements occidentaux (Chine, Russie, Turquie) ont fait leur grand retour, galvanisées par l’échec libyen »

Cette hypothèse s’impose d’autant plus aujourd’hui que les moyens alignés s’amenuisent, et que le terrain est de plus en plus complexe. Les Etats-Unis ont déployé jusqu’à 536 000 hommes au Vietnam (en 1968), autant dans le Golfe en 1991 (dans une coalition de 940 000 soldats), un maximum de 100 000 en Afghanistan (il en restait 2 500 en 2021), et de 166 000 en Irak (en 2007), ramenés à 128 000 en 2009 et 2 500 en 2021. La France projettera rarement plus de 5 000 hommes dans les années 2000 (5 000 en Côte d’Ivoire en 2005 ; 4 500 dans l’opération Serval au Mali après 2013 ; 5 100 pour Barkhane aujourd’hui). Si l’on en croit (ce qui n’est pas obligatoire…) l’adage stratégique qui veut qu’une opération de contre-insurrection ou de contrôle du terrain exige un déploiement de soldats équivalent à 4 % de la population locale, nous sommes loin du compte. Le double danger, pour les troupes ainsi projetées, est résumé par les titres de deux ouvrages de François Cailleteau : celui de Guerres inutiles (2011), et celui de Décider et perdre la guerre (2021).

Les obstacles s’accumulent. Arrivée en sauveur, la puissance extérieure prend vite les traits d’un occupant dont on réclame le départ, exigence martelée et orchestrée sur les réseaux sociaux. Les puissances opposées à ces déploiements occidentaux (Chine, Russie, Turquie) ont fait leur grand retour, galvanisées par l’échec libyen, contrecarrant les initiatives lointaines, et interdisant qu’on en imagine d’autres dans leur sphère d’influence à nouveau revendiquée (Europe orientale, Asie…). Fin de la politique de la canonnière.

Fiscalité internationale : un changement de paradigme ?

Fiscalité internationale : un changement de paradigme ?

 

 

Le directeur du centre de politique fiscale de l’OCDE, Pascal Saint-Amans, se félicite du projet de fiscalité minimale envisagée pour les entreprises au plan international, il considère qu’il s’agit d’un véritable changement de paradigme. La question reste quand même celle  du niveau de cette imposition minimale;  Dans les hypothèses actuelles qui varie de 12 % à 21 %.

 

Un écart très important pour les pays désavantagés par leur haut niveau de prélèvements obligatoires sur les entreprises.( Taux entre 28 et 31 %  cent France avec des réductions notamment pour les entreprises plus petites). En fonction du taux retenu , ce pourrait être un coup porté au actuels paradis fiscaux. Pascal Saint-Amans,  estime que les dernières propositions des États-Unis sur la mise en place d’un impôt minimum mondial sur les sociétés viennent renforcer la régulation de la mondialisation entamée depuis la crise financière de 2008. Si cette proposition aboutit, elle pourrait représenter des recettes fiscales de l’ordre de 150 milliards d’euros supplémentaires à l’échelle de la planète.

 

Quel regard portez-vous sur la proposition d’un impôt minimum mondial à 21% sur les sociétés annoncée par les Etats-Unis ?

PASCAL SAINT-AMANS - Je pense que cette proposition est positive. Cela fait plusieurs années que l’on travaille sur un projet d’imposition minimum. La proposition des États-Unis est robuste. Ils vont bouger unilatéralement et vont durcir un impôt minimum qui existe déjà aux Etats-Unis en le montant à 21% et en ayant une approche pays par pays. Cela crée une dynamique beaucoup plus forte au niveau mondial pour avancer et finaliser notre propre projet. Le blueprint (le plan) a été présenté au G20 en novembre dernier avec l’architecture. Pour finaliser la négociation, cette annonce devrait beaucoup nous aider.

Quel pourrait être le montant des recettes attendu d’une telle taxe si ce taux est fixé à 21% pour toutes les multinationales ? 

Je n’ai pas à ce stade de chiffre précis mais on peut parler d’un montant élevé. Avec un taux à 12,5%, le montant attendu était d’environ 70 milliards de dollars sur l’ensemble du monde hors Etats-Unis. Avec un durcissement américain à 21% et le reste du monde à un niveau un peu plus élevé que prévu, on parle de 150 milliards d’euros de recettes fiscales supplémentaires. C’est une hausse significative.

Le ministre de l’Economie Bruno Le Maire a estimé que l’ouverture américaine mettait désormais à « portée de main » l’obtention d’un accord global sur la réforme de la taxation des multinationales, négocié depuis plusieurs années sous l’égide de l’OCDE. Cette proposition a-t-elle vraiment des chances d’aboutir à l’échelle internationale ?

Oui, la proposition a des vraies chances d’aboutir. Cela fait des années que les Etats y travaillent. Les conditions sont plutôt réunies. La position américaine intransigeante a fait échouer les négociations durant toutes ces années. Les Américains viennent avec des propositions tout à fait solides et sérieuses. Il y a un réengagement multilatéral de leur part. Des négociations pourraient donc aboutir à un accord à l’été. Un sommet du G20 est d’ailleurs prévu les 9 et 10 juillet prochains.

Outre un taux minimal mondial, un autre volet prévoit de moduler l’impôt sur les sociétés en fonction des bénéfices réalisés dans chaque pays, indépendamment de leur établissement fiscal. Comment les Etats peuvent-ils parvenir à un accord sur cet aspect, alors qu’il peut apparaître comme une usine à gaz ? 

L’OCDE a produit un blueprint sur le pilier 1 (NDLR ; Les négociations en cours portent notamment sur la répartition des droits d’imposition entre pays de production et pays de consommation (pilier 1), en gros déterminer le lieu où l’impôt doit être payé. Le pilier 2 concerne l’imposition minimale mondiale sur les multinationales). Il est vrai que ce pilier 1 a pu apparaître comme une usine à gaz. Les États-Unis proposent de le simplifier tout en conservant des montants très élevés à se répartir. Cette proposition qui intègre les grandes entreprises du numérique, même si elle ne se limite pas à ces géants et concernerait les plus grandes entreprises mondiales et les plus profitables, évite la complexité qui existait dans la proposition de l’OCDE. Elle permet d’avancer et de dire, pour des pays comme la France, qu’ils taxent bien les GAFAM. Cette proposition est sérieuse, raisonnable et a des chances d’être une solide base de négociation dans les semaines qui viennent.

Avec toutes ces annonces, assiste-t-on à un changement de paradigme de la fiscalité internationale ? 

Oui, c’est assurément un changement de paradigme de la part des Etats-Unis. Celui-ci a commencé en 2008 avec la régulation de la mondialisation d’un point de vue fiscal. Tous les travaux sur la fin du secret bancaire, sur BEPS (l’érosion de la base d’imposition et le transfert de bénéfices). Ces dernières annonces sont l’aboutissement de ce processus. C’est la fin de l’absence de régulation de la mondialisation qui a bénéficié aux paradis fiscaux.

Coronavirus et environnement : « changer de paradigme »

Coronavirus et environnement : « changer de paradigme »

Dans une tribune au « Monde », le professeur à HEC Thomas Paris explique que l’épidémie de Covid-19 doit nous inciter à inventer une manière de faire enfin société, un rapport au collectif, à la norme, à la liberté, à l’équité, qui répondent aux enjeux d’un monde d’après.

Tribune. 

 

Les restaurants, les librairies, les stations de ski, la culture… La gestion de la crise par les pouvoirs publics charrie des polémiques par vagues successives. Elles peuvent se lire, de façon simpliste, comme une mauvaise gestion gouvernementale. Avec un peu de recul, on peut y voir le délicat pilotage entre Charybde et Scylla, entre la crise sanitaire et la crise économique. En prenant encore plus de hauteur, on peut y lire, on doit y lire, la fin d’un modèle de société bâti sur l’hypothèse de ressources illimitées, et sur son corollaire d’une liberté qui s’arrête là où celle des autres commence.

« La liberté, établit la Déclaration des droits de l’homme et du citoyen de 1789, consiste à pouvoir faire tout ce qui ne nuit pas à autrui » (Article 4). Dans un monde infini, l’Etat est le garant des libertés individuelles. Aux premiers jours de la crise sanitaire, le premier ministre Edouard Philippe s’est efforcé d’agir dans ce cadre, sans contrainte. Il s’est contenté de nous inviter à « éviter au maximum de se rassembler, limiter les réunions amicales et familiales […], ne sortir de chez soi que pour faire ses courses essentielles, faire un peu d’exercice ou voter ». Il s’agissait alors de limiter la circulation des personnes pour endiguer la transmission du virus.

Prendre l’air dans un parc ne nuit à personne… sauf en situation de pandémie, où la somme de nos sorties simultanées dans le même parc devient nuisible et où cette action individuelle consomme une partie de la « circulation » de l’ensemble des citoyens.

La responsabilité individuelle n’a pas opéré, marquant l’échec de l’Etat à agir dans son principe génétique de préservation de nos libertés individuelles. Il ne s’agit pas de l’échec d’un gouvernement, mais de la faillite d’un modèle de société dont le rôle de l’Etat est une composante.

Effets dévastateurs

Le monde est fini. De nombreuses ressources sont limitées : les émissions de CO2 (c’est-à-dire les déplacements, la consommation de viande…), l’eau, certaines matières premières, les terres fertiles… Il nous faut consommer collectivement moins de ces ressources. Comment faire ? Comment, par exemple, limiter le transport aérien en attendant que les avions n’émettent plus de CO2 ?

Dans une situation qui n’aura pas le caractère d’urgence de la pandémie, on n’imagine pas qu’une recommandation à prendre moins l’avion soit plus efficace que celle de limiter nos déplacements pendant la pandémie. Des autres solutions alors envisagées ou éprouvées pour limiter la circulation des personnes, aucune n’a été satisfaisante. La réduction individuelle – vous ne pouvez sortir qu’une heure par jour, ou pour acheter des produits de première nécessité – ne fonctionne qu’à condition d’être drastique, compte tenu des difficultés à organiser le contrôle.

« Politique sanitaire : changer de paradigme »

« Politique sanitaire : changer de paradigme »

 

L’analyse des données collectées durant le premier déconfinement, au printemps, indique que le système de dépistage mis en place en France à l’époque n’avait été capable de détecter qu’une fraction des cas symptomatiques en circulation. Les scientifiques Vittoria Colizza, Giulia Pullano et Laura Di Domenico expliquent les tenants et aboutissants de ces travaux publiés fin décembre dans la revue Nature, et font le point sur les améliorations à envisager pour éviter de devoir passer l’hiver en confinement. Entre parenthèse( article the conversation)

 

The Conversation : Vos travaux portant sur le dépistage des cas de Covid-19 lors du premier déconfinement viennent d’être publiés dans la très estimée revue Nature. Pourriez-vous nous les présenter?
Laura Di Domenico : L’objectif de ces travaux était d’évaluer les performances du système de dépistage mis en place en France au cours des premières semaines qui ont suivi le déconfinement du printemps. Nous avons pour cela évalué le taux de détection, c’est-à-dire la fraction des cas détectés par le système de dépistage en regard du nombre total de cas d’infections existant dans le pays, que nous avons estimé grâce à un modèle mathématique.

Nous nous sommes basés sur les résultats d’analyses biologiques recensés par la base de données appelée SI-DEP (Système d’Informations de DEPistage). Nous avons aussi utilisé les données d’admission à l’hôpital et celles concernant la sévérité des symptômes.

Notre modèle mathématique tenait compte à la fois des risques de transmission durant la phase présymptomatique, du rôle des individus asymptomatiques, et de celui joué par les individus présentant divers degrés de sévérité des symptômes – y compris ceux qui n’ont pas forcément consulté leur médecin. Il a été calibré sur le nombre d’admissions à l’hôpital au sein de chaque région. Ce modèle a aussi été paramétré grâce à des données empiriques pour tenir compte de la circulation de la population lors du déconfinement, en particulier les données de scolarisation et la présence sur le lieu de travail. Le respect des mesures barrières a aussi été pris en compte : nos travaux ont montré que celui-ci varie en fonction de l’âge des individus.

Ce modèle nous a permis d’obtenir une estimation du nombre de cas réels, incluant à la fois les cas symptomatiques détectés et ceux qui ne l’ont pas été. Sur cette base, nous avons pu évaluer le taux de détection.

Vittoria Colizza : Une des difficultés rencontrées par les modélisateurs au cours de cette épidémie a été de décrire la propagation du virus, sa circulation dans la population. Celle-ci change en fonction des restrictions mises en place, de la façon dont on les lève. Pendant le déconfinement, lesdites restrictions ont été levées progressivement, et la proportion de la population qui a repris le travail a changé fortement au fil des semaines. La réouverture des écoles s’est aussi faite de façon différenciée selon les régions et les degrés scolaires, sans aucune obligation : le pourcentage de présence a donc beaucoup varié.

Autre point important pour comprendre la trajectoire de l’épidémie : le délai de collecte des données. Si une personne infectée se fait tester trois jours après les premiers symptômes, cela signifie qu’elle a pu transmettre la maladie durant plusieurs jours. Pour tenir compte de ce délai et de son impact sur le nombre d’infections potentielles, nous avons utilisé des approches statistiques, sur la base des données SI-DEP et des informations que les personnes qui se sont fait dépister ont donné au moment du test : ont-ils eu des symptômes, et surtout, combien de temps avant leur démarche de dépistage.

The Conversation : La sensibilité et la spécificité des tests influent aussi sur la détection…
Oui. Cela rajoute une difficulté, mais dans le cas de ces travaux, les données provenaient uniquement de tests PCR, qui ont une spécificité et une sensibilité très élevée. Selon le moment du dépistage, cependant, il peut aussi y avoir des faux négatifs, ce qui signifie que le taux de sous-détection pourrait encore être un peu sous-estimé.

Les tests antigéniques compliquent un peu les choses aujourd’hui, essentiellement parce que leur niveau de sensibilité n’est pas encore très clair, en particulier pour les personnes peu symptomatiques, voire asymptomatiques (des études sont en cours, nous devrions avoir une vision plus claire dans les semaines à venir, maintenant que leur utilisation s’est généralisée).

The Conversation : Quels résultats avez-vous obtenus?
Giulia Pullano : Nos travaux montrent qu’en mai et juin, 90% des cas symptomatiques n’ont pas été détectés par le système de surveillance. Autrement dit, on ne détectait à cette époque en moyenne qu’un cas symptomatique sur 10 dans le pays.

Cependant, ce taux de détection a augmenté au fil du temps, grâce à l’amélioration du système de détection. Le délai moyen entre l’apparition des symptômes et le test a notamment diminué de 78% entre mai et juin. À la fin du mois de juin, le taux de détection avait grimpé à 38%.

Nos travaux soulignent aussi un point important : plus l’incidence de la maladie est élevée, plus le taux de détection chute. De nombreux cas ne sont plus détectés lorsque le virus circule fortement. En mai et juin, de grandes disparités existaient entre les régions les plus touchées et les autres.

VC : Ce résultat est à souligner, car quand on parle de tests de dépistage on parle toujours du nombre de tests qu’on fait, ainsi que du taux de positivité des tests (ndlr : Le taux de positivité des tests virologiques correspond au nombre de personnes testées positives par RT-PCR et test antigénique pour la première fois depuis plus de 60 jours, rapporté au nombre total de personnes testées positives ou négatives sur une période donnée – et qui n’ont jamais été testées positives dans les 60 jours précédents). Mais ces deux indicateurs ne permettent pas de se faire une idée de la performance du système de détection. Ils ne nous disent pas combien nous sommes capables de détecter de cas par rapport à l’ensemble des cas réels.

En mai et juin, le taux de positivité était inférieur à celui recommandé par l’OMS, et pourtant nous avons raté 9 cas sur 10. C’est parce qu’on oublie que les recommandations de l’OMS se basent sur une situation dans laquelle la surveillance des cas symptomatiques est systématique. Concrètement, cela veut dire qu’une grande majorité des personnes présentant des symptômes se font tester. On peut donc retracer leurs contacts et trouver les cas asymptomatiques correspondants. Or pendant le premier déconfinement, nous n’avons pas été capables de mettre en place une surveillance des cas symptomatiques aussi performante.

La clé du succès est vraiment d’avoir une stratégie de dépistage ciblée sur les cas symptomatiques. Aujourd’hui l’incidence hebdomadaire est d’environ 100 cas sur 100.000 personnes, soit 1 cas sur 1.000. Cela signifie que si l’on teste 10.000 personnes, on va trouver en moyenne 10 cas, ce qui est peu. Cette situation est liée au fait que nous veillons à protéger le système hospitalier en gardant une faible circulation du virus en population. Dans ce contexte, on constate que tester aléatoirement n’est pas adapté (car on détecte ainsi seulement très peu de cas). Il faut plutôt de cibler les tests.

TC : Concrètement, comment cela se traduirait-il?
VC : Il faut réussir à tester le plus grand nombre de cas symptomatiques possibles. Mais c’est là toute la difficulté, car dans cette maladie le spectre des symptômes est large. Le virus ne donne pas à chaque fois lieu à une maladie sévère, il n’oblige pas systématiquement les gens à consulter. Si c’était le cas, comme cela l’avait été durant l’épidémie de SARS de 2002-2003, l’épidémie actuelle aurait été plus facile à maîtriser (en outre, dans le cas du SARS il n’y avait pas de phase présymptomatique durant laquelle les personnes infectées auraient pu transmettre la maladie, contrairement au SARS-CoV-2).

Le problème est celui des formes légères : la personne atteinte ne comprend pas forcément qu’elle a le Covid. Qui plus est, elle n’a pas forcément besoin de soin. Mais elle risque de propager la maladie malgré tout, qui peut alors toucher des personnes vulnérables. Un parcours de santé public, plutôt qu’un parcours de soin, est nécessaire pour ces personnes : les individus peu symptomatiques doivent être pris en charge pour que l’on puisse identifier leurs contacts, leur procurer des recommandations pour s’isoler au mieux, ainsi qu’une aide et un suivi pour la mise en place de l’isolement, etc.

TC : A-t-on progressé sur cette question?
VC : L’accès aux tests a été simplifié, c’est un premier pas très important. Il n’y a plus besoin d’ordonnance pour se faire dépister, ce qui peut lever certaines réticences en cas de symptômes légers. Les gens n’ont pas forcément envie d’aller chez le médecin pour se faire prescrire un test s’ils ont juste un léger mal de tête. Par ailleurs, le délai engendré par cette étape supplémentaire, qui fait que l’on prenait du retard sur l’épidémie, n’existe plus. En outre, les délais se sont aussi améliorés grâce à la disponibilité des tests antigéniques.

Il faut cependant insister sur les recommandations : les gens doivent comprendre qu’il faut aller se faire dépister au moindre symptôme qui pourrait être compatible avec le Covid. Idéalement, tout symptôme d’infection respiratoire devrait encourager à se faire tester. Les symptômes spécifiques de la Covid (fatigue, perte de goût, d’odorat…) ne sont en effet pas présents systématiquement en cas d’infection.

TC : Dans ces conditions, évidemment, il faut que le système de traitement suive derrière, car beaucoup plus de gens vont se faire tester. Est-ce la raison pour laquelle une des conditions du second déconfinement était de ne pas dépasser 5.000 cas par jour?
VC : Effectivement. Ce système de dépistage-isolement fonctionne très bien dans les cas où l’incidence de la maladie est très faible. Comme nous le précisions, nos résultats montrent que le taux de détection qu’on est capable d’atteindre dépend de l’incidence : il est meilleur lorsque l’incidence est faible.

Cette loi qui met en relation le taux de détection qu’on est capable d’atteindre en fonction de l’incidence de la maladie est un bon indicateur pour dire à quel moment on peut sortir du confinement : on sait qu’à telle incidence correspond en fait tel taux de détection.

Dans une autre étude que nous avions mené lors du premier confinement, nous avions montré qu’il faut trouver au moins une infection sur deux (ce qui permet de mettre la personne à l’isolement, de trouver ses contacts) pour éviter d’avoir une résurgence de cas et pour éviter d’être obligé de mettre en place des mesures de distanciation sociale très strictes, comme le confinement.

C’est pourquoi il faut vraiment que les tests deviennent une habitude. On peut imaginer que, dans les semaines ou les mois à venir, d’autres technologies permettront d’améliorer encore la situation, comme le prélèvement salivaire, actuellement à l’étude. Au début cette approche a été mise de côté, car trop peu sensible, mais les protocoles ont été améliorés. On peut imaginer que dans quelques temps, les gens pourront se tester eux-mêmes.

Si nous voulons éviter de passer les quatre prochains mois confinés, il faut changer de paradigme.

TC : Pourquoi certains pays, comme la Corée du Sud, ont mieux réussi que la France?
VC : Ils ont utilisé des méthodologies plus invasives, qui n’auraient pas été acceptées en France ou en Europe. La Corée du Sud croise par exemple énormément de bases de données contenant des informations sur les individus : achats par carte bancaire, caméras de vidéosurveillance, applications de traçage… La question de la vie privée y est abordée différemment qu’en France et, plus largement, en Europe. Mais ce n’est pas la seule raison du succès de ce pays. La Corée était notamment bien préparée à ce type d’épidémie car elle avait déjà vécu non seulement l’épidémie de SARS, mais aussi celle de MERS.

L’exemple de Singapour est également intéressant : tous les travailleurs de secteurs considérés comme essentiels sont testés chaque semaine. En outre, pour chaque cas symptomatique testé, 10 cas contacts sont suivis et placés en isolement préventif avant d’être testés. En France et en Europe, ce chiffre est plutôt de 3 à 4.

Mettre en place ce type de mesure requiert non seulement une logistique et des stocks, mais aussi un changement de paradigme. Nous n’avons pas cette culture qui consiste à utiliser l’isolement individuel comme arme pour combattre l’épidémie, alors que c’est un moyen de lutte traditionnel en épidémiologie. Nous avons plutôt tendance à confiner tout le monde ou presque, plutôt que les personnes à cibler.

À cela s’ajoute aussi certainement une composante culturelle : la campagne de dépistage menée au Havre n’a par exemple pas été autant suivie qu’on l’espérait.

TC : Que va-t-il se passer en janvier, après les fêtes de fin d’année?
VC : La réponse à cette question est difficile à donner, car ce qui va se passer en janvier dépend des mesures qu’on va mettre en place : a-t-on l’intention de continuer à casser la courbe? Va-t-on tolérer une certaine augmentation, jusqu’au moment où la tension va devenir trop importante sur les hôpitaux? Une chose est sûre, si on ne fait rien, nous allons sans doute assister à une augmentation des cas. Nous sommes en hiver, et les conditions sont favorables à la propagation de l’épidémie.

Il faut être bien conscient que si les gestes barrières et le port du masque sont importants, ils ne suffisent pas à endiguer à eux seuls la pandémie, sinon elle serait aujourd’hui de l’histoire ancienne : en Asie du Sud-Est, ces mesures sont en place depuis le début de l’année.

C’est ici que le dépistage intervient, de façon complémentaire. Plutôt que de se focaliser sur les vacances et les semaines à venir, il faut se placer dans une perspective de long terme. Cet hiver, nous devrons continuer à combattre cette épidémie avec les outils dont nous disposons aujourd’hui. En effet, la vaccination ne freinera probablement pas l’épidémie avant l’hiver prochain. Il ne s’agit pas d’être pessimiste, mais de réaliser qu’on ne va pas sortir de cette épidémie dans les 15 prochains jours…

TC : Le taux de détection a-t-il un impact sur la détection de nouveaux variants, tels que celui qui a entraîné l’isolement du Royaume-Uni récemment?
VC : Sans doute, mais nous n’avons pas étudié cet aspect. Il faut savoir que seule une sous-partie des cas positifs est séquencée, et que ce nombre de séquençages varie énormément d’un pays à l’autre. Pour ce qui est de répondre à la question que tout le monde se pose, à savoir si ce nouveau variant britannique a pu diffuser ailleurs en Europe, on peut répondre que c’est très probable, étant donné qu’il circule en Angleterre depuis septembre. Il a d’ailleurs été identifié à Rome ces derniers jours, à partir d’échantillons provenant de ressortissants qui revenaient du Royaume-Uni.

Vittoria Colizza, Directrice de recherche – Institut Pierre Louis d’épidémiologie et de santé publique (Inserm/Sorbonne Université), InsermGiulia Pullano, Doctorante en santé publique, Inserm et Laura Di Domenico, Doctorante en santé publique, Inserm

Jour d’après : le nouveau paradigme technologique frugal

Jour d’après : le nouveau paradigme technologique frugal

L’économiste Christian Le Bas esquisse, dans une tribune au « Monde », les contours d’une économie de la sobriété, qui passe par des solutions technologiques frugales, ce qui pourrait former une vision pour l’après-crise due au Covid-19.

Tribune. La dramatique crise sanitaire n’est pas encore dans sa phase terminale qu’on entrevoit déjà un effondrement économique inédit. Dans ce contexte difficile, il est nécessaire de réfléchir à l’après-crise. Très récemment, certaines villes et de nouveaux territoires commencent à construire une approche de leur développement fondée sur la frugalité, baptisée sobriété par des maires de grandes villes.

Dans ce contexte où la politique économique antirécession devra être articulée à des éléments forts visant l’émergence et la consolidation d’un nouveau modèle de croissance-développement durable, le paradigme de la frugalité technologique est riche de solutions alternatives efficaces, comme l’ont compris ces maires de grandes villes.

L’innovation frugale, conçue en ses débuts pour les pays en développement, s’est diffusée dans le Nord développé en gagnant des attributs écologiques. Elle constitue aujourd’hui un nouveau paradigme porteur de soutenabilité, offrant des réponses vertueuses qu’il serait opportun d’exploiter dans la prochaine période de manière à sortir de la grande dépression attendue tout affrontant la crise écologique.

L’innovation frugale a fait l’objet de nombreuses analyses dans la dernière décennie. Née en Inde pour soutenir la consommation des plus pauvres, elle correspond à une innovation low-tech inclusive. Tous les produits frugaux sont durables, simples, efficaces et disposent de fonctions essentielles. Le processus de recherche, de développement et de fabrication est fondé sur le savoir-faire, le bricolage intelligent, davantage sur l’ingéniosité que sur l’ingénierie. Il est très souvent réalisé par des acteurs locaux.

Toutefois, ses qualités en faveur de l’environnement ne sont pas toujours attestées. Longtemps cantonné aux pays en développement, ce type d’innovation a été ensuite déployé dans les pays développés. L’innovation frugale a alors abandonné certaines de ses caractéristiques, qui l’associaient à des produits innovants mais plutôt rudimentaires.


Aujourd’hui, l’innovation frugale est en relation avec le paradigme de la frugalité soutenable. Modèle qui s’adresse aux individus situés dans des contextes socio-économiques différents (et pas seulement les plus pauvres), et dans des économies ayant un haut niveau de développement. Ses caractéristiques ont été résumées par Mokter Hossain dans le Journal of Cleaner Production : 1 - Gestion prudente, parcimonieuse, des ressources naturelles ; 2 - Produit robuste, prix abordable, performance minimale ; 3 - Attribut de soutenabilité ; 4 - Adaptable.

Syndicats cheminots : changer de paradigme ou disparaître

Syndicats cheminots : changer de paradigme ou disparaître

Le rapport Spinetta n’est pas en soi une oeuvre très originale, il ratisse toutes les idées émises depuis 50 ans, même les plus usée, pour tenter de sauver la grande maison. Exemple la fermeture des lignes, un changement de statut juridique ou la réduction de effectifs. La fermeture des lignes et des dessertes est pratiquée depuis des décennies (abandon de ligne, réduction de dessertes ou transfert sur des cars empruntant la route). La très grande majorité des cantons ne sont plus desservis par le rail. La réduction des effectifs est uen vieille recettes puisque les cheminots sont passés de 500 000 avant guerre  à 150 000 aujourd’hui.  Même chose pour le statut juridique. La SNCF a déjà connu le statut de société  anonyme et cela n’a pas empêchée déficit et dette. Pour autant la réforme de l’ entreprise est indispensable, urgente même,  dans l’intérêt collectif, de la SNCF et des cheminots eux- mêmes.  La question est de savoir si les syndicats (et une  grande partie des cheminots) sont capables de changer de paradigmes, en clair de passer d’un problématique corpo à une  problématique économique et sociétale. Pour les syndicats corpos, la ligne de défense s’articule autour du triptyque indissociable : défense du statut- défense de la SNCF- défense du service public. Un amalgame entre la nature de l’intérêt général,  l’entreprise chargée de l’assurer et les conditions sociales des salariés. Bref la stratégie syndicale des années 50. Or il convient évidemment d’intégrer l’évolution de la mobilité, l’aménagement du territoire, le enveloppement durable aussi  les impératifs incontournables de gestion et de qualité. . Pas sûr que CFDT et UNSA exceptées (et encore) les syndicats soient prêts à prendre la hauteur qui convient, à faire preuve des compétences  nécessaires  pour aborder de manière responsable et constructive la modernisation du rail. Il y a même de fortes chances pour qu’ils se réfugient derrière les slogans éculés et simplificateur d’un  service public dont le contenu se réduit à un service corpo. Coté gouvernement,  il faudra aussi être moins simplificateur car la situation de la SNCF est aussi grandement due aux contradictions de l’Etat. Un vrai débat sera donc  nécessaire entre usagers, Etat, et cheminots. Pas une petite consultation à la va vite.

 

 

Transformation numérique de l’administration :changer de paradigme et de siècle

Transformation numérique de l’administration :changer de paradigme et de siècle

La critique de la Cour des Comptes vis-à-vis de la diffusion du numérique dans l’administration est sévère. Première observation la vision est encore très insuffisante. Deuxièmement on se borne essentiellement à numériser les procédures existantes alors qu’il conviendrait sans doute de changer l’approche et la nature des procédures. Troisièmement, l’administration pénètre le numérique sur la pointe des pieds avec crainte et confie d’ailleurs l’essentiel des procédures d’information informatisée à la sous-traitance qui évidemment se régale en termes de profit mais aussi de maîtrise. En effet, il manque aussi dans l’administration de sérieuses compétences numériques et au-delà une culture numérique. Enfin chaque administration ou service bricole son propre système dans des délais par ailleurs tellement long qu’ils rendent obsolète la numérisation. Enfin et peut-être surtout les systèmes des différents services et administrations sont incapables de communiquer entre eux. Bref dans leur rapport à la numérisation, l’administration doit changer de paradigme et de siècle. Mais si le rapport valide la stratégie que l’État mène depuis 2011 et a amplifié en 2014, la Cour des comptes estime surtout que cette transformation est trop lente, s’exerce sur un périmètre trop étroit, et doit s’accompagner d’investissements massifs, à la fois humains et financiers. « La démarche doit être amplifiée. Il reste à lever les contraintes fortes qui pèsent sur les administrations et qui ralentissent cette transformation [...] Un important effort de rattrapage doit être réalisé ». Ces contraintes sont bien identifiées : des « choix technologiques anciens » (le logiciel libre n’est pas assez généralisé), « l’externalisation massive » des systèmes d’information de l’État qui a conduit à une « perte de compétences » des agents, et surtout un problème de « culture numérique »: « Il faut faire connaître le potentiel et les méthodes de la transformation digitale au-delà des sphères spécialisées. La révolution numérique ne se réduit pas à la numérisation des procédures existantes ». Ainsi, le rapport note que la stratégie d’État plateforme doit « dépasser la simple dimension technologique » pour « faire évoluer l’action publique vers un modèle reposant sur des « communs numériques » (données, logiciels, services numériques, API) qui s’intègrent pour offrir d’autres services de manière plus agile et réactive« . La Cour déplore l’absence d’état des lieux du recours au logiciel libre, ou encore la difficile mise en place de la plupart des grands projets numériques de l’État. Leur durée (6 ans en moyenne) est estimée « excessive » car elle « s’accommode mal avec le rythme d’évolution des technologies et celui de la rotation des chefs de projet« . Par exemple, le projet le plus ancien, SAIP (le dispositif de protection des populations) est englué depuis… 17 ans (!) alors que l’enjeu est pourtant essentiel pour la sécurité du pays.

Assurance maladie: Changer de paradigme (Cour des comptes)

Assurance maladie: Changer de paradigme  (Cour des comptes)

 

 

Conserver le niveau de qualité des soins (un des meilleurs systèmes au monde) mais une meilleure évaluation des dépenses (11% du PIB). Pour préserver l’avenir, la Cour des Comptes est en effet inquiète de la dérive de la dette qui atteint aujourd’hui près de 150 milliards ; elle propose le déconventionnement (ou le conventionnement sélectif) notamment de limiter les dépassements d’honoraires dont certains en particulier chez les spécialistes paraissent exagérés. Conserver le niveau de qualité mais une meilleure évaluation des dépenses  Le rapport évoque aussi la possibilité de forcer les jeunes diplômés à exercer « dans des zones  peu denses pour une durée déterminée » avant de s’installer en libéral. La Cour veut par ailleurs « limiter le nombre d’actes et de prescriptions » des médecins libéraux en créant des « enveloppes limitatives » de dépenses par région. Des réformes ambitieuses d’organisation et de gestion sont indispensables sur le long terme pour garantir la modernisation du système de soins et la pérennité de l’assurance maladie, estime la Cour des comptes dans un rapport publié mercredi. Par ailleurs la Cour des Comptes souhaite la mise en place de mesures incitatives pour une meilleure répartition géographique L’institution recommande aux pouvoirs publics « un changement de paradigme » faisant reposer la régulation sur l’amélioration de l’efficacité des dépenses, tout en donnant la priorité à la prévention et à la qualité des soins par une responsabilisation des patients et des professionnels, notamment libéraux. Ces « évolutions fortes et vigoureuses » ne visent « en aucune manière (à) remettre en cause fondamentalement les libertés de choix du praticien par les patients ou d’installation des professionnels de santé », a dit lors d’une conférence de presse le premier président de la Cour des comptes, Didier Migaud. Certaines des pistes proposées par la Cour risquent d’être accueillies fraîchement par les professionnels de santé libéraux, comme celles mettant en jeu leur conventionnement – et donc le remboursement de leurs prestations par l’assurance maladie – afin d’orienter leur installation pour rééquilibrer l’offre de soins ou de limiter les dépassements d’honoraires. Dans une évaluation « qui ne prétend pas à l’exactitude », la Cour estime ainsi que les gains potentiels liés à une meilleure répartition des professionnels de santé pourraient être compris entre 0,8 et 3,2 milliards d’euros. Au-delà du seul aspect financier, « la mobilisation des marges nombreuses et considérables d’efficience des dépenses de santé s’impose d’abord comme une nécessité au regard même de la qualité et de la pertinence des soins », souligne la Cour. « Le contexte d’amélioration réelle mais fragile des comptes sociaux doit constituer une opportunité pour repenser leur régulation financière », a déclaré Didier Migaud. Dans cette optique, la Cour préconise en premier lieu de rénover le pilotage financier de l’assurance maladie, avec une règle d’équilibre spécifique et un renforcement de l’Ondam (objectif national de dépenses d’assurance maladie).Elle suggère d’une part d’intégrer en son sein l’Ondam un sous-objectif dédié à la prévention et d’autre part de décliner cet outil de maîtrise des dépenses à l’échelle régionale. Autre piste de réforme proposée : une clarification des rôles de l’assurance maladie obligatoire et des assurances complémentaires, alors que la situation actuelle génère des inégalités dans l’accès aux soins. Côté système de soins, au-delà des suggestions sur l’installation et les dépassements d’honoraires, la Cour propose aussi des mesures visant à renforcer la permanence des soins de ville pour désengorger les urgences hospitalières, ou encore à faire évoluer les tarifications pour davantage intégrer l’innovation et la qualité des soins et augmenter la part des rémunérations forfaitaires. Pour mener à bien ces réformes « multiples et complexes », la Cour recommande d’envisager la création d’une Agence nationale de santé combinant les compétences de l’Etat (sur l’hôpital) et de l’assurance maladie (sur les soins de ville), qui permettrait de rendre plus cohérente la mise en oeuvre des politiques de santé toujours pilotées par le ministère de la Santé. A l’heure actuelle, les « performances honorables » du système de santé français, avec par exemple une espérance de vie parmi les plus élevées du monde, recouvrent des « faiblesses persistantes », avec un taux de mortalité infantile élevé, une forte mortalité précoce évitable liée au tabac ou à l’alcool et une accentuation des inégalités d’accès aux soins. Ces résultats « en demi-teinte » sont obtenus au prix de dépenses très élevées – 11% du produit intérieur brut (PIB) en 2016 – dont le poids est voué à fortement augmenter au cours des vingt à trente ans à venir sous l’effet combiné du vieillissement, de la multiplication des maladies chroniques et du coût croissant des médicaments innovants. Ces perspectives font peser des risques sur l’assurance maladie, les politiques de maîtrise des dépenses ayant atteint leurs limites et les déficits chroniques ayant alimenté une dette sociale « considérable » (151,1 milliards fin 2016). Malgré une amélioration du pilotage annuel du niveau des dépenses, le respect de l’Ondam depuis 2010 a régulièrement été facilité par « des prévisions accommodantes et des biais de construction », note la Cour.




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol