Archive pour le Tag 'paradigme ('

Page 2 sur 2

Opérations extérieures: «Afghanistan, Mali: fin d’un paradigme ?»

Opérations extérieures: «Afghanistan, Mali: fin d’un paradigme ?»

Pour  Frédéric Charillon , ’heure est venue pour les puissances occidentales de repenser leur action extérieure  ( papier de l’OPINION, extrait)

 

 

La double annonce d’un retrait américain d’Afghanistan et d’une suspension par la France de sa coopération militaire avec le Mali, témoigne d’une page qui se tourne. Pendant la Guerre froide, l’intervention militaire était pratiquée par les superpuissances au sein de leurs sphères d’influence respectives. Les tentatives pour en sortir étaient difficiles (Afghanistan, Vietnam). La France avait ses interventions africaines dans son ancien « pré carré », avec la bénédiction américaine. La Grande-Bretagne restait active (à Aden, dans la région du Dhofar ou en Malaisie dans les années 1960).

Puis la disparition de l’Union soviétique laissa les Etats-Unis seuls en piste pour gérer les affaires du monde, et fut suivie d’une globalisation géographique des interventions occidentales  : Koweït, Balkans, Irak, Libye, Syrie… L’ambition d’une paix hégémonique assurée par Washington au nom de la stabilité internationale autorisait l’action militaire, supposait la reconstruction d’Etats, imposait le maintien d’une présence militaire sur place. C’est ce schéma qui arrive à son terme désormais.

Il impliquait de rebâtir des sociétés, mais les adversaires de cette reconstruction sont en passe de gagner la partie : en Afghanistan comme au Mali, ceux dont la réduction justifiait l’intervention militaire sont aux portes du pouvoir. Plus profondément, la logique expéditionnaire a montré ses limites dans un XXIe siècle où les paramètres sont trop nombreux, et les moyens, insuffisants. L’heure est venue pour les puissances occidentales de repenser leur action extérieure et de substituer de nouveaux instruments d’influence à la vieille logique de puissance.

La guerre du Koweït (1991) avait pour but de restaurer la souveraineté d’un Etat et le droit international. Mais les interventions balkaniques des années 1990 visaient un changement de régime à Belgrade, la mise en place de nouvelles cartes (avec en 1993 le plan Vance-Owen de répartition des populations en Bosnie en dix régions), la création de nouveaux Etats (au Kosovo en 1999). L’intervention afghane de 2001, lancée pour chasser les talibans du pouvoir, promit ensuite un Afghanistan démocratique, où les droits humains se rapprocheraient des normes occidentales. En 2011, la volonté de sauver les habitants de la ville de Benghazi se transforma en destitution et mort de Kadhafi : au plus fort des printemps arabes, le rêve de transformer d’anciennes dictatures en sociétés ouvertes n’avait pas quitté les esprits. Ce même esprit qui conduisit la France à souhaiter des frappes sur le régime syrien en 2013. L’échec néoconservateur, en 2003, à transformer l’Irak puis le Moyen-Orient en un nouvel eldorado libéral, prospère et pro-occidental, avait pourtant été patent.

On ne remodèle pas une société contre son gré, par la seule grâce de la force. De Gaulle en avait averti Washington à propos du Vietnam, depuis Phnom Penh en 1966 : « S’il est invraisemblable que l’appareil guerrier américain puisse jamais être anéanti sur place, d’autre part, il n’y a aucune chance pour que les peuples de l’Asie se soumettent à la loi d’un étranger venu de l’autre rive du Pacifique, quelles que puissent être ses intentions, et quelle que soit la puissance de ses armes. » Tout était dit.

« Les puissances opposées à ces déploiements occidentaux (Chine, Russie, Turquie) ont fait leur grand retour, galvanisées par l’échec libyen »

Cette hypothèse s’impose d’autant plus aujourd’hui que les moyens alignés s’amenuisent, et que le terrain est de plus en plus complexe. Les Etats-Unis ont déployé jusqu’à 536 000 hommes au Vietnam (en 1968), autant dans le Golfe en 1991 (dans une coalition de 940 000 soldats), un maximum de 100 000 en Afghanistan (il en restait 2 500 en 2021), et de 166 000 en Irak (en 2007), ramenés à 128 000 en 2009 et 2 500 en 2021. La France projettera rarement plus de 5 000 hommes dans les années 2000 (5 000 en Côte d’Ivoire en 2005 ; 4 500 dans l’opération Serval au Mali après 2013 ; 5 100 pour Barkhane aujourd’hui). Si l’on en croit (ce qui n’est pas obligatoire…) l’adage stratégique qui veut qu’une opération de contre-insurrection ou de contrôle du terrain exige un déploiement de soldats équivalent à 4 % de la population locale, nous sommes loin du compte. Le double danger, pour les troupes ainsi projetées, est résumé par les titres de deux ouvrages de François Cailleteau : celui de Guerres inutiles (2011), et celui de Décider et perdre la guerre (2021).

Les obstacles s’accumulent. Arrivée en sauveur, la puissance extérieure prend vite les traits d’un occupant dont on réclame le départ, exigence martelée et orchestrée sur les réseaux sociaux. Les puissances opposées à ces déploiements occidentaux (Chine, Russie, Turquie) ont fait leur grand retour, galvanisées par l’échec libyen, contrecarrant les initiatives lointaines, et interdisant qu’on en imagine d’autres dans leur sphère d’influence à nouveau revendiquée (Europe orientale, Asie…). Fin de la politique de la canonnière.

«Afghanistan, Mali: fin d’un paradigme ?»

«Afghanistan, Mali: fin d’un paradigme ?» 

Pour  Frédéric Charillon , ’heure est venue pour les puissances occidentales de repenser leur action extérieure  ( papier de l’OPINION, extrait)

 

 

La double annonce d’un retrait américain d’Afghanistan et d’une suspension par la France de sa coopération militaire avec le Mali, témoigne d’une page qui se tourne. Pendant la Guerre froide, l’intervention militaire était pratiquée par les superpuissances au sein de leurs sphères d’influence respectives. Les tentatives pour en sortir étaient difficiles (Afghanistan, Vietnam). La France avait ses interventions africaines dans son ancien « pré carré », avec la bénédiction américaine. La Grande-Bretagne restait active (à Aden, dans la région du Dhofar ou en Malaisie dans les années 1960).

Puis la disparition de l’Union soviétique laissa les Etats-Unis seuls en piste pour gérer les affaires du monde, et fut suivie d’une globalisation géographique des interventions occidentales  : Koweït, Balkans, Irak, Libye, Syrie… L’ambition d’une paix hégémonique assurée par Washington au nom de la stabilité internationale autorisait l’action militaire, supposait la reconstruction d’Etats, imposait le maintien d’une présence militaire sur place. C’est ce schéma qui arrive à son terme désormais.

Il impliquait de rebâtir des sociétés, mais les adversaires de cette reconstruction sont en passe de gagner la partie : en Afghanistan comme au Mali, ceux dont la réduction justifiait l’intervention militaire sont aux portes du pouvoir. Plus profondément, la logique expéditionnaire a montré ses limites dans un XXIe siècle où les paramètres sont trop nombreux, et les moyens, insuffisants. L’heure est venue pour les puissances occidentales de repenser leur action extérieure et de substituer de nouveaux instruments d’influence à la vieille logique de puissance.

La guerre du Koweït (1991) avait pour but de restaurer la souveraineté d’un Etat et le droit international. Mais les interventions balkaniques des années 1990 visaient un changement de régime à Belgrade, la mise en place de nouvelles cartes (avec en 1993 le plan Vance-Owen de répartition des populations en Bosnie en dix régions), la création de nouveaux Etats (au Kosovo en 1999). L’intervention afghane de 2001, lancée pour chasser les talibans du pouvoir, promit ensuite un Afghanistan démocratique, où les droits humains se rapprocheraient des normes occidentales. En 2011, la volonté de sauver les habitants de la ville de Benghazi se transforma en destitution et mort de Kadhafi : au plus fort des printemps arabes, le rêve de transformer d’anciennes dictatures en sociétés ouvertes n’avait pas quitté les esprits. Ce même esprit qui conduisit la France à souhaiter des frappes sur le régime syrien en 2013. L’échec néoconservateur, en 2003, à transformer l’Irak puis le Moyen-Orient en un nouvel eldorado libéral, prospère et pro-occidental, avait pourtant été patent.

On ne remodèle pas une société contre son gré, par la seule grâce de la force. De Gaulle en avait averti Washington à propos du Vietnam, depuis Phnom Penh en 1966 : « S’il est invraisemblable que l’appareil guerrier américain puisse jamais être anéanti sur place, d’autre part, il n’y a aucune chance pour que les peuples de l’Asie se soumettent à la loi d’un étranger venu de l’autre rive du Pacifique, quelles que puissent être ses intentions, et quelle que soit la puissance de ses armes. » Tout était dit.

« Les puissances opposées à ces déploiements occidentaux (Chine, Russie, Turquie) ont fait leur grand retour, galvanisées par l’échec libyen »

Cette hypothèse s’impose d’autant plus aujourd’hui que les moyens alignés s’amenuisent, et que le terrain est de plus en plus complexe. Les Etats-Unis ont déployé jusqu’à 536 000 hommes au Vietnam (en 1968), autant dans le Golfe en 1991 (dans une coalition de 940 000 soldats), un maximum de 100 000 en Afghanistan (il en restait 2 500 en 2021), et de 166 000 en Irak (en 2007), ramenés à 128 000 en 2009 et 2 500 en 2021. La France projettera rarement plus de 5 000 hommes dans les années 2000 (5 000 en Côte d’Ivoire en 2005 ; 4 500 dans l’opération Serval au Mali après 2013 ; 5 100 pour Barkhane aujourd’hui). Si l’on en croit (ce qui n’est pas obligatoire…) l’adage stratégique qui veut qu’une opération de contre-insurrection ou de contrôle du terrain exige un déploiement de soldats équivalent à 4 % de la population locale, nous sommes loin du compte. Le double danger, pour les troupes ainsi projetées, est résumé par les titres de deux ouvrages de François Cailleteau : celui de Guerres inutiles (2011), et celui de Décider et perdre la guerre (2021).

Les obstacles s’accumulent. Arrivée en sauveur, la puissance extérieure prend vite les traits d’un occupant dont on réclame le départ, exigence martelée et orchestrée sur les réseaux sociaux. Les puissances opposées à ces déploiements occidentaux (Chine, Russie, Turquie) ont fait leur grand retour, galvanisées par l’échec libyen, contrecarrant les initiatives lointaines, et interdisant qu’on en imagine d’autres dans leur sphère d’influence à nouveau revendiquée (Europe orientale, Asie…). Fin de la politique de la canonnière.

Fiscalité internationale : un changement de paradigme ?

Fiscalité internationale : un changement de paradigme ?

 

 

Le directeur du centre de politique fiscale de l’OCDE, Pascal Saint-Amans, se félicite du projet de fiscalité minimale envisagée pour les entreprises au plan international, il considère qu’il s’agit d’un véritable changement de paradigme. La question reste quand même celle  du niveau de cette imposition minimale;  Dans les hypothèses actuelles qui varie de 12 % à 21 %.

 

Un écart très important pour les pays désavantagés par leur haut niveau de prélèvements obligatoires sur les entreprises.( Taux entre 28 et 31 %  cent France avec des réductions notamment pour les entreprises plus petites). En fonction du taux retenu , ce pourrait être un coup porté au actuels paradis fiscaux. Pascal Saint-Amans,  estime que les dernières propositions des États-Unis sur la mise en place d’un impôt minimum mondial sur les sociétés viennent renforcer la régulation de la mondialisation entamée depuis la crise financière de 2008. Si cette proposition aboutit, elle pourrait représenter des recettes fiscales de l’ordre de 150 milliards d’euros supplémentaires à l’échelle de la planète.

 

Quel regard portez-vous sur la proposition d’un impôt minimum mondial à 21% sur les sociétés annoncée par les Etats-Unis ?

PASCAL SAINT-AMANS - Je pense que cette proposition est positive. Cela fait plusieurs années que l’on travaille sur un projet d’imposition minimum. La proposition des États-Unis est robuste. Ils vont bouger unilatéralement et vont durcir un impôt minimum qui existe déjà aux Etats-Unis en le montant à 21% et en ayant une approche pays par pays. Cela crée une dynamique beaucoup plus forte au niveau mondial pour avancer et finaliser notre propre projet. Le blueprint (le plan) a été présenté au G20 en novembre dernier avec l’architecture. Pour finaliser la négociation, cette annonce devrait beaucoup nous aider.

Quel pourrait être le montant des recettes attendu d’une telle taxe si ce taux est fixé à 21% pour toutes les multinationales ? 

Je n’ai pas à ce stade de chiffre précis mais on peut parler d’un montant élevé. Avec un taux à 12,5%, le montant attendu était d’environ 70 milliards de dollars sur l’ensemble du monde hors Etats-Unis. Avec un durcissement américain à 21% et le reste du monde à un niveau un peu plus élevé que prévu, on parle de 150 milliards d’euros de recettes fiscales supplémentaires. C’est une hausse significative.

Le ministre de l’Economie Bruno Le Maire a estimé que l’ouverture américaine mettait désormais à « portée de main » l’obtention d’un accord global sur la réforme de la taxation des multinationales, négocié depuis plusieurs années sous l’égide de l’OCDE. Cette proposition a-t-elle vraiment des chances d’aboutir à l’échelle internationale ?

Oui, la proposition a des vraies chances d’aboutir. Cela fait des années que les Etats y travaillent. Les conditions sont plutôt réunies. La position américaine intransigeante a fait échouer les négociations durant toutes ces années. Les Américains viennent avec des propositions tout à fait solides et sérieuses. Il y a un réengagement multilatéral de leur part. Des négociations pourraient donc aboutir à un accord à l’été. Un sommet du G20 est d’ailleurs prévu les 9 et 10 juillet prochains.

Outre un taux minimal mondial, un autre volet prévoit de moduler l’impôt sur les sociétés en fonction des bénéfices réalisés dans chaque pays, indépendamment de leur établissement fiscal. Comment les Etats peuvent-ils parvenir à un accord sur cet aspect, alors qu’il peut apparaître comme une usine à gaz ? 

L’OCDE a produit un blueprint sur le pilier 1 (NDLR ; Les négociations en cours portent notamment sur la répartition des droits d’imposition entre pays de production et pays de consommation (pilier 1), en gros déterminer le lieu où l’impôt doit être payé. Le pilier 2 concerne l’imposition minimale mondiale sur les multinationales). Il est vrai que ce pilier 1 a pu apparaître comme une usine à gaz. Les États-Unis proposent de le simplifier tout en conservant des montants très élevés à se répartir. Cette proposition qui intègre les grandes entreprises du numérique, même si elle ne se limite pas à ces géants et concernerait les plus grandes entreprises mondiales et les plus profitables, évite la complexité qui existait dans la proposition de l’OCDE. Elle permet d’avancer et de dire, pour des pays comme la France, qu’ils taxent bien les GAFAM. Cette proposition est sérieuse, raisonnable et a des chances d’être une solide base de négociation dans les semaines qui viennent.

Avec toutes ces annonces, assiste-t-on à un changement de paradigme de la fiscalité internationale ? 

Oui, c’est assurément un changement de paradigme de la part des Etats-Unis. Celui-ci a commencé en 2008 avec la régulation de la mondialisation d’un point de vue fiscal. Tous les travaux sur la fin du secret bancaire, sur BEPS (l’érosion de la base d’imposition et le transfert de bénéfices). Ces dernières annonces sont l’aboutissement de ce processus. C’est la fin de l’absence de régulation de la mondialisation qui a bénéficié aux paradis fiscaux.

Coronavirus et environnement : « changer de paradigme »

Coronavirus et environnement : « changer de paradigme »

Dans une tribune au « Monde », le professeur à HEC Thomas Paris explique que l’épidémie de Covid-19 doit nous inciter à inventer une manière de faire enfin société, un rapport au collectif, à la norme, à la liberté, à l’équité, qui répondent aux enjeux d’un monde d’après.

Tribune. 

 

Les restaurants, les librairies, les stations de ski, la culture… La gestion de la crise par les pouvoirs publics charrie des polémiques par vagues successives. Elles peuvent se lire, de façon simpliste, comme une mauvaise gestion gouvernementale. Avec un peu de recul, on peut y voir le délicat pilotage entre Charybde et Scylla, entre la crise sanitaire et la crise économique. En prenant encore plus de hauteur, on peut y lire, on doit y lire, la fin d’un modèle de société bâti sur l’hypothèse de ressources illimitées, et sur son corollaire d’une liberté qui s’arrête là où celle des autres commence.

« La liberté, établit la Déclaration des droits de l’homme et du citoyen de 1789, consiste à pouvoir faire tout ce qui ne nuit pas à autrui » (Article 4). Dans un monde infini, l’Etat est le garant des libertés individuelles. Aux premiers jours de la crise sanitaire, le premier ministre Edouard Philippe s’est efforcé d’agir dans ce cadre, sans contrainte. Il s’est contenté de nous inviter à « éviter au maximum de se rassembler, limiter les réunions amicales et familiales […], ne sortir de chez soi que pour faire ses courses essentielles, faire un peu d’exercice ou voter ». Il s’agissait alors de limiter la circulation des personnes pour endiguer la transmission du virus.

Prendre l’air dans un parc ne nuit à personne… sauf en situation de pandémie, où la somme de nos sorties simultanées dans le même parc devient nuisible et où cette action individuelle consomme une partie de la « circulation » de l’ensemble des citoyens.

La responsabilité individuelle n’a pas opéré, marquant l’échec de l’Etat à agir dans son principe génétique de préservation de nos libertés individuelles. Il ne s’agit pas de l’échec d’un gouvernement, mais de la faillite d’un modèle de société dont le rôle de l’Etat est une composante.

Effets dévastateurs

Le monde est fini. De nombreuses ressources sont limitées : les émissions de CO2 (c’est-à-dire les déplacements, la consommation de viande…), l’eau, certaines matières premières, les terres fertiles… Il nous faut consommer collectivement moins de ces ressources. Comment faire ? Comment, par exemple, limiter le transport aérien en attendant que les avions n’émettent plus de CO2 ?

Dans une situation qui n’aura pas le caractère d’urgence de la pandémie, on n’imagine pas qu’une recommandation à prendre moins l’avion soit plus efficace que celle de limiter nos déplacements pendant la pandémie. Des autres solutions alors envisagées ou éprouvées pour limiter la circulation des personnes, aucune n’a été satisfaisante. La réduction individuelle – vous ne pouvez sortir qu’une heure par jour, ou pour acheter des produits de première nécessité – ne fonctionne qu’à condition d’être drastique, compte tenu des difficultés à organiser le contrôle.

« Politique sanitaire : changer de paradigme »

« Politique sanitaire : changer de paradigme »

 

L’analyse des données collectées durant le premier déconfinement, au printemps, indique que le système de dépistage mis en place en France à l’époque n’avait été capable de détecter qu’une fraction des cas symptomatiques en circulation. Les scientifiques Vittoria Colizza, Giulia Pullano et Laura Di Domenico expliquent les tenants et aboutissants de ces travaux publiés fin décembre dans la revue Nature, et font le point sur les améliorations à envisager pour éviter de devoir passer l’hiver en confinement. Entre parenthèse( article the conversation)

 

The Conversation : Vos travaux portant sur le dépistage des cas de Covid-19 lors du premier déconfinement viennent d’être publiés dans la très estimée revue Nature. Pourriez-vous nous les présenter?
Laura Di Domenico : L’objectif de ces travaux était d’évaluer les performances du système de dépistage mis en place en France au cours des premières semaines qui ont suivi le déconfinement du printemps. Nous avons pour cela évalué le taux de détection, c’est-à-dire la fraction des cas détectés par le système de dépistage en regard du nombre total de cas d’infections existant dans le pays, que nous avons estimé grâce à un modèle mathématique.

Nous nous sommes basés sur les résultats d’analyses biologiques recensés par la base de données appelée SI-DEP (Système d’Informations de DEPistage). Nous avons aussi utilisé les données d’admission à l’hôpital et celles concernant la sévérité des symptômes.

Notre modèle mathématique tenait compte à la fois des risques de transmission durant la phase présymptomatique, du rôle des individus asymptomatiques, et de celui joué par les individus présentant divers degrés de sévérité des symptômes – y compris ceux qui n’ont pas forcément consulté leur médecin. Il a été calibré sur le nombre d’admissions à l’hôpital au sein de chaque région. Ce modèle a aussi été paramétré grâce à des données empiriques pour tenir compte de la circulation de la population lors du déconfinement, en particulier les données de scolarisation et la présence sur le lieu de travail. Le respect des mesures barrières a aussi été pris en compte : nos travaux ont montré que celui-ci varie en fonction de l’âge des individus.

Ce modèle nous a permis d’obtenir une estimation du nombre de cas réels, incluant à la fois les cas symptomatiques détectés et ceux qui ne l’ont pas été. Sur cette base, nous avons pu évaluer le taux de détection.

Vittoria Colizza : Une des difficultés rencontrées par les modélisateurs au cours de cette épidémie a été de décrire la propagation du virus, sa circulation dans la population. Celle-ci change en fonction des restrictions mises en place, de la façon dont on les lève. Pendant le déconfinement, lesdites restrictions ont été levées progressivement, et la proportion de la population qui a repris le travail a changé fortement au fil des semaines. La réouverture des écoles s’est aussi faite de façon différenciée selon les régions et les degrés scolaires, sans aucune obligation : le pourcentage de présence a donc beaucoup varié.

Autre point important pour comprendre la trajectoire de l’épidémie : le délai de collecte des données. Si une personne infectée se fait tester trois jours après les premiers symptômes, cela signifie qu’elle a pu transmettre la maladie durant plusieurs jours. Pour tenir compte de ce délai et de son impact sur le nombre d’infections potentielles, nous avons utilisé des approches statistiques, sur la base des données SI-DEP et des informations que les personnes qui se sont fait dépister ont donné au moment du test : ont-ils eu des symptômes, et surtout, combien de temps avant leur démarche de dépistage.

The Conversation : La sensibilité et la spécificité des tests influent aussi sur la détection…
Oui. Cela rajoute une difficulté, mais dans le cas de ces travaux, les données provenaient uniquement de tests PCR, qui ont une spécificité et une sensibilité très élevée. Selon le moment du dépistage, cependant, il peut aussi y avoir des faux négatifs, ce qui signifie que le taux de sous-détection pourrait encore être un peu sous-estimé.

Les tests antigéniques compliquent un peu les choses aujourd’hui, essentiellement parce que leur niveau de sensibilité n’est pas encore très clair, en particulier pour les personnes peu symptomatiques, voire asymptomatiques (des études sont en cours, nous devrions avoir une vision plus claire dans les semaines à venir, maintenant que leur utilisation s’est généralisée).

The Conversation : Quels résultats avez-vous obtenus?
Giulia Pullano : Nos travaux montrent qu’en mai et juin, 90% des cas symptomatiques n’ont pas été détectés par le système de surveillance. Autrement dit, on ne détectait à cette époque en moyenne qu’un cas symptomatique sur 10 dans le pays.

Cependant, ce taux de détection a augmenté au fil du temps, grâce à l’amélioration du système de détection. Le délai moyen entre l’apparition des symptômes et le test a notamment diminué de 78% entre mai et juin. À la fin du mois de juin, le taux de détection avait grimpé à 38%.

Nos travaux soulignent aussi un point important : plus l’incidence de la maladie est élevée, plus le taux de détection chute. De nombreux cas ne sont plus détectés lorsque le virus circule fortement. En mai et juin, de grandes disparités existaient entre les régions les plus touchées et les autres.

VC : Ce résultat est à souligner, car quand on parle de tests de dépistage on parle toujours du nombre de tests qu’on fait, ainsi que du taux de positivité des tests (ndlr : Le taux de positivité des tests virologiques correspond au nombre de personnes testées positives par RT-PCR et test antigénique pour la première fois depuis plus de 60 jours, rapporté au nombre total de personnes testées positives ou négatives sur une période donnée – et qui n’ont jamais été testées positives dans les 60 jours précédents). Mais ces deux indicateurs ne permettent pas de se faire une idée de la performance du système de détection. Ils ne nous disent pas combien nous sommes capables de détecter de cas par rapport à l’ensemble des cas réels.

En mai et juin, le taux de positivité était inférieur à celui recommandé par l’OMS, et pourtant nous avons raté 9 cas sur 10. C’est parce qu’on oublie que les recommandations de l’OMS se basent sur une situation dans laquelle la surveillance des cas symptomatiques est systématique. Concrètement, cela veut dire qu’une grande majorité des personnes présentant des symptômes se font tester. On peut donc retracer leurs contacts et trouver les cas asymptomatiques correspondants. Or pendant le premier déconfinement, nous n’avons pas été capables de mettre en place une surveillance des cas symptomatiques aussi performante.

La clé du succès est vraiment d’avoir une stratégie de dépistage ciblée sur les cas symptomatiques. Aujourd’hui l’incidence hebdomadaire est d’environ 100 cas sur 100.000 personnes, soit 1 cas sur 1.000. Cela signifie que si l’on teste 10.000 personnes, on va trouver en moyenne 10 cas, ce qui est peu. Cette situation est liée au fait que nous veillons à protéger le système hospitalier en gardant une faible circulation du virus en population. Dans ce contexte, on constate que tester aléatoirement n’est pas adapté (car on détecte ainsi seulement très peu de cas). Il faut plutôt de cibler les tests.

TC : Concrètement, comment cela se traduirait-il?
VC : Il faut réussir à tester le plus grand nombre de cas symptomatiques possibles. Mais c’est là toute la difficulté, car dans cette maladie le spectre des symptômes est large. Le virus ne donne pas à chaque fois lieu à une maladie sévère, il n’oblige pas systématiquement les gens à consulter. Si c’était le cas, comme cela l’avait été durant l’épidémie de SARS de 2002-2003, l’épidémie actuelle aurait été plus facile à maîtriser (en outre, dans le cas du SARS il n’y avait pas de phase présymptomatique durant laquelle les personnes infectées auraient pu transmettre la maladie, contrairement au SARS-CoV-2).

Le problème est celui des formes légères : la personne atteinte ne comprend pas forcément qu’elle a le Covid. Qui plus est, elle n’a pas forcément besoin de soin. Mais elle risque de propager la maladie malgré tout, qui peut alors toucher des personnes vulnérables. Un parcours de santé public, plutôt qu’un parcours de soin, est nécessaire pour ces personnes : les individus peu symptomatiques doivent être pris en charge pour que l’on puisse identifier leurs contacts, leur procurer des recommandations pour s’isoler au mieux, ainsi qu’une aide et un suivi pour la mise en place de l’isolement, etc.

TC : A-t-on progressé sur cette question?
VC : L’accès aux tests a été simplifié, c’est un premier pas très important. Il n’y a plus besoin d’ordonnance pour se faire dépister, ce qui peut lever certaines réticences en cas de symptômes légers. Les gens n’ont pas forcément envie d’aller chez le médecin pour se faire prescrire un test s’ils ont juste un léger mal de tête. Par ailleurs, le délai engendré par cette étape supplémentaire, qui fait que l’on prenait du retard sur l’épidémie, n’existe plus. En outre, les délais se sont aussi améliorés grâce à la disponibilité des tests antigéniques.

Il faut cependant insister sur les recommandations : les gens doivent comprendre qu’il faut aller se faire dépister au moindre symptôme qui pourrait être compatible avec le Covid. Idéalement, tout symptôme d’infection respiratoire devrait encourager à se faire tester. Les symptômes spécifiques de la Covid (fatigue, perte de goût, d’odorat…) ne sont en effet pas présents systématiquement en cas d’infection.

TC : Dans ces conditions, évidemment, il faut que le système de traitement suive derrière, car beaucoup plus de gens vont se faire tester. Est-ce la raison pour laquelle une des conditions du second déconfinement était de ne pas dépasser 5.000 cas par jour?
VC : Effectivement. Ce système de dépistage-isolement fonctionne très bien dans les cas où l’incidence de la maladie est très faible. Comme nous le précisions, nos résultats montrent que le taux de détection qu’on est capable d’atteindre dépend de l’incidence : il est meilleur lorsque l’incidence est faible.

Cette loi qui met en relation le taux de détection qu’on est capable d’atteindre en fonction de l’incidence de la maladie est un bon indicateur pour dire à quel moment on peut sortir du confinement : on sait qu’à telle incidence correspond en fait tel taux de détection.

Dans une autre étude que nous avions mené lors du premier confinement, nous avions montré qu’il faut trouver au moins une infection sur deux (ce qui permet de mettre la personne à l’isolement, de trouver ses contacts) pour éviter d’avoir une résurgence de cas et pour éviter d’être obligé de mettre en place des mesures de distanciation sociale très strictes, comme le confinement.

C’est pourquoi il faut vraiment que les tests deviennent une habitude. On peut imaginer que, dans les semaines ou les mois à venir, d’autres technologies permettront d’améliorer encore la situation, comme le prélèvement salivaire, actuellement à l’étude. Au début cette approche a été mise de côté, car trop peu sensible, mais les protocoles ont été améliorés. On peut imaginer que dans quelques temps, les gens pourront se tester eux-mêmes.

Si nous voulons éviter de passer les quatre prochains mois confinés, il faut changer de paradigme.

TC : Pourquoi certains pays, comme la Corée du Sud, ont mieux réussi que la France?
VC : Ils ont utilisé des méthodologies plus invasives, qui n’auraient pas été acceptées en France ou en Europe. La Corée du Sud croise par exemple énormément de bases de données contenant des informations sur les individus : achats par carte bancaire, caméras de vidéosurveillance, applications de traçage… La question de la vie privée y est abordée différemment qu’en France et, plus largement, en Europe. Mais ce n’est pas la seule raison du succès de ce pays. La Corée était notamment bien préparée à ce type d’épidémie car elle avait déjà vécu non seulement l’épidémie de SARS, mais aussi celle de MERS.

L’exemple de Singapour est également intéressant : tous les travailleurs de secteurs considérés comme essentiels sont testés chaque semaine. En outre, pour chaque cas symptomatique testé, 10 cas contacts sont suivis et placés en isolement préventif avant d’être testés. En France et en Europe, ce chiffre est plutôt de 3 à 4.

Mettre en place ce type de mesure requiert non seulement une logistique et des stocks, mais aussi un changement de paradigme. Nous n’avons pas cette culture qui consiste à utiliser l’isolement individuel comme arme pour combattre l’épidémie, alors que c’est un moyen de lutte traditionnel en épidémiologie. Nous avons plutôt tendance à confiner tout le monde ou presque, plutôt que les personnes à cibler.

À cela s’ajoute aussi certainement une composante culturelle : la campagne de dépistage menée au Havre n’a par exemple pas été autant suivie qu’on l’espérait.

TC : Que va-t-il se passer en janvier, après les fêtes de fin d’année?
VC : La réponse à cette question est difficile à donner, car ce qui va se passer en janvier dépend des mesures qu’on va mettre en place : a-t-on l’intention de continuer à casser la courbe? Va-t-on tolérer une certaine augmentation, jusqu’au moment où la tension va devenir trop importante sur les hôpitaux? Une chose est sûre, si on ne fait rien, nous allons sans doute assister à une augmentation des cas. Nous sommes en hiver, et les conditions sont favorables à la propagation de l’épidémie.

Il faut être bien conscient que si les gestes barrières et le port du masque sont importants, ils ne suffisent pas à endiguer à eux seuls la pandémie, sinon elle serait aujourd’hui de l’histoire ancienne : en Asie du Sud-Est, ces mesures sont en place depuis le début de l’année.

C’est ici que le dépistage intervient, de façon complémentaire. Plutôt que de se focaliser sur les vacances et les semaines à venir, il faut se placer dans une perspective de long terme. Cet hiver, nous devrons continuer à combattre cette épidémie avec les outils dont nous disposons aujourd’hui. En effet, la vaccination ne freinera probablement pas l’épidémie avant l’hiver prochain. Il ne s’agit pas d’être pessimiste, mais de réaliser qu’on ne va pas sortir de cette épidémie dans les 15 prochains jours…

TC : Le taux de détection a-t-il un impact sur la détection de nouveaux variants, tels que celui qui a entraîné l’isolement du Royaume-Uni récemment?
VC : Sans doute, mais nous n’avons pas étudié cet aspect. Il faut savoir que seule une sous-partie des cas positifs est séquencée, et que ce nombre de séquençages varie énormément d’un pays à l’autre. Pour ce qui est de répondre à la question que tout le monde se pose, à savoir si ce nouveau variant britannique a pu diffuser ailleurs en Europe, on peut répondre que c’est très probable, étant donné qu’il circule en Angleterre depuis septembre. Il a d’ailleurs été identifié à Rome ces derniers jours, à partir d’échantillons provenant de ressortissants qui revenaient du Royaume-Uni.

Vittoria Colizza, Directrice de recherche – Institut Pierre Louis d’épidémiologie et de santé publique (Inserm/Sorbonne Université), InsermGiulia Pullano, Doctorante en santé publique, Inserm et Laura Di Domenico, Doctorante en santé publique, Inserm

Jour d’après : le nouveau paradigme technologique frugal

Jour d’après : le nouveau paradigme technologique frugal

L’économiste Christian Le Bas esquisse, dans une tribune au « Monde », les contours d’une économie de la sobriété, qui passe par des solutions technologiques frugales, ce qui pourrait former une vision pour l’après-crise due au Covid-19.

Tribune. La dramatique crise sanitaire n’est pas encore dans sa phase terminale qu’on entrevoit déjà un effondrement économique inédit. Dans ce contexte difficile, il est nécessaire de réfléchir à l’après-crise. Très récemment, certaines villes et de nouveaux territoires commencent à construire une approche de leur développement fondée sur la frugalité, baptisée sobriété par des maires de grandes villes.

Dans ce contexte où la politique économique antirécession devra être articulée à des éléments forts visant l’émergence et la consolidation d’un nouveau modèle de croissance-développement durable, le paradigme de la frugalité technologique est riche de solutions alternatives efficaces, comme l’ont compris ces maires de grandes villes.

L’innovation frugale, conçue en ses débuts pour les pays en développement, s’est diffusée dans le Nord développé en gagnant des attributs écologiques. Elle constitue aujourd’hui un nouveau paradigme porteur de soutenabilité, offrant des réponses vertueuses qu’il serait opportun d’exploiter dans la prochaine période de manière à sortir de la grande dépression attendue tout affrontant la crise écologique.

L’innovation frugale a fait l’objet de nombreuses analyses dans la dernière décennie. Née en Inde pour soutenir la consommation des plus pauvres, elle correspond à une innovation low-tech inclusive. Tous les produits frugaux sont durables, simples, efficaces et disposent de fonctions essentielles. Le processus de recherche, de développement et de fabrication est fondé sur le savoir-faire, le bricolage intelligent, davantage sur l’ingéniosité que sur l’ingénierie. Il est très souvent réalisé par des acteurs locaux.

Toutefois, ses qualités en faveur de l’environnement ne sont pas toujours attestées. Longtemps cantonné aux pays en développement, ce type d’innovation a été ensuite déployé dans les pays développés. L’innovation frugale a alors abandonné certaines de ses caractéristiques, qui l’associaient à des produits innovants mais plutôt rudimentaires.


Aujourd’hui, l’innovation frugale est en relation avec le paradigme de la frugalité soutenable. Modèle qui s’adresse aux individus situés dans des contextes socio-économiques différents (et pas seulement les plus pauvres), et dans des économies ayant un haut niveau de développement. Ses caractéristiques ont été résumées par Mokter Hossain dans le Journal of Cleaner Production : 1 - Gestion prudente, parcimonieuse, des ressources naturelles ; 2 - Produit robuste, prix abordable, performance minimale ; 3 - Attribut de soutenabilité ; 4 - Adaptable.

Syndicats cheminots : changer de paradigme ou disparaître

Syndicats cheminots : changer de paradigme ou disparaître

Le rapport Spinetta n’est pas en soi une oeuvre très originale, il ratisse toutes les idées émises depuis 50 ans, même les plus usée, pour tenter de sauver la grande maison. Exemple la fermeture des lignes, un changement de statut juridique ou la réduction de effectifs. La fermeture des lignes et des dessertes est pratiquée depuis des décennies (abandon de ligne, réduction de dessertes ou transfert sur des cars empruntant la route). La très grande majorité des cantons ne sont plus desservis par le rail. La réduction des effectifs est uen vieille recettes puisque les cheminots sont passés de 500 000 avant guerre  à 150 000 aujourd’hui.  Même chose pour le statut juridique. La SNCF a déjà connu le statut de société  anonyme et cela n’a pas empêchée déficit et dette. Pour autant la réforme de l’ entreprise est indispensable, urgente même,  dans l’intérêt collectif, de la SNCF et des cheminots eux- mêmes.  La question est de savoir si les syndicats (et une  grande partie des cheminots) sont capables de changer de paradigmes, en clair de passer d’un problématique corpo à une  problématique économique et sociétale. Pour les syndicats corpos, la ligne de défense s’articule autour du triptyque indissociable : défense du statut- défense de la SNCF- défense du service public. Un amalgame entre la nature de l’intérêt général,  l’entreprise chargée de l’assurer et les conditions sociales des salariés. Bref la stratégie syndicale des années 50. Or il convient évidemment d’intégrer l’évolution de la mobilité, l’aménagement du territoire, le enveloppement durable aussi  les impératifs incontournables de gestion et de qualité. . Pas sûr que CFDT et UNSA exceptées (et encore) les syndicats soient prêts à prendre la hauteur qui convient, à faire preuve des compétences  nécessaires  pour aborder de manière responsable et constructive la modernisation du rail. Il y a même de fortes chances pour qu’ils se réfugient derrière les slogans éculés et simplificateur d’un  service public dont le contenu se réduit à un service corpo. Coté gouvernement,  il faudra aussi être moins simplificateur car la situation de la SNCF est aussi grandement due aux contradictions de l’Etat. Un vrai débat sera donc  nécessaire entre usagers, Etat, et cheminots. Pas une petite consultation à la va vite.

 

 

Transformation numérique de l’administration :changer de paradigme et de siècle

Transformation numérique de l’administration :changer de paradigme et de siècle

La critique de la Cour des Comptes vis-à-vis de la diffusion du numérique dans l’administration est sévère. Première observation la vision est encore très insuffisante. Deuxièmement on se borne essentiellement à numériser les procédures existantes alors qu’il conviendrait sans doute de changer l’approche et la nature des procédures. Troisièmement, l’administration pénètre le numérique sur la pointe des pieds avec crainte et confie d’ailleurs l’essentiel des procédures d’information informatisée à la sous-traitance qui évidemment se régale en termes de profit mais aussi de maîtrise. En effet, il manque aussi dans l’administration de sérieuses compétences numériques et au-delà une culture numérique. Enfin chaque administration ou service bricole son propre système dans des délais par ailleurs tellement long qu’ils rendent obsolète la numérisation. Enfin et peut-être surtout les systèmes des différents services et administrations sont incapables de communiquer entre eux. Bref dans leur rapport à la numérisation, l’administration doit changer de paradigme et de siècle. Mais si le rapport valide la stratégie que l’État mène depuis 2011 et a amplifié en 2014, la Cour des comptes estime surtout que cette transformation est trop lente, s’exerce sur un périmètre trop étroit, et doit s’accompagner d’investissements massifs, à la fois humains et financiers. « La démarche doit être amplifiée. Il reste à lever les contraintes fortes qui pèsent sur les administrations et qui ralentissent cette transformation [...] Un important effort de rattrapage doit être réalisé ». Ces contraintes sont bien identifiées : des « choix technologiques anciens » (le logiciel libre n’est pas assez généralisé), « l’externalisation massive » des systèmes d’information de l’État qui a conduit à une « perte de compétences » des agents, et surtout un problème de « culture numérique »: « Il faut faire connaître le potentiel et les méthodes de la transformation digitale au-delà des sphères spécialisées. La révolution numérique ne se réduit pas à la numérisation des procédures existantes ». Ainsi, le rapport note que la stratégie d’État plateforme doit « dépasser la simple dimension technologique » pour « faire évoluer l’action publique vers un modèle reposant sur des « communs numériques » (données, logiciels, services numériques, API) qui s’intègrent pour offrir d’autres services de manière plus agile et réactive« . La Cour déplore l’absence d’état des lieux du recours au logiciel libre, ou encore la difficile mise en place de la plupart des grands projets numériques de l’État. Leur durée (6 ans en moyenne) est estimée « excessive » car elle « s’accommode mal avec le rythme d’évolution des technologies et celui de la rotation des chefs de projet« . Par exemple, le projet le plus ancien, SAIP (le dispositif de protection des populations) est englué depuis… 17 ans (!) alors que l’enjeu est pourtant essentiel pour la sécurité du pays.

Assurance maladie: Changer de paradigme (Cour des comptes)

Assurance maladie: Changer de paradigme  (Cour des comptes)

 

 

Conserver le niveau de qualité des soins (un des meilleurs systèmes au monde) mais une meilleure évaluation des dépenses (11% du PIB). Pour préserver l’avenir, la Cour des Comptes est en effet inquiète de la dérive de la dette qui atteint aujourd’hui près de 150 milliards ; elle propose le déconventionnement (ou le conventionnement sélectif) notamment de limiter les dépassements d’honoraires dont certains en particulier chez les spécialistes paraissent exagérés. Conserver le niveau de qualité mais une meilleure évaluation des dépenses  Le rapport évoque aussi la possibilité de forcer les jeunes diplômés à exercer « dans des zones  peu denses pour une durée déterminée » avant de s’installer en libéral. La Cour veut par ailleurs « limiter le nombre d’actes et de prescriptions » des médecins libéraux en créant des « enveloppes limitatives » de dépenses par région. Des réformes ambitieuses d’organisation et de gestion sont indispensables sur le long terme pour garantir la modernisation du système de soins et la pérennité de l’assurance maladie, estime la Cour des comptes dans un rapport publié mercredi. Par ailleurs la Cour des Comptes souhaite la mise en place de mesures incitatives pour une meilleure répartition géographique L’institution recommande aux pouvoirs publics « un changement de paradigme » faisant reposer la régulation sur l’amélioration de l’efficacité des dépenses, tout en donnant la priorité à la prévention et à la qualité des soins par une responsabilisation des patients et des professionnels, notamment libéraux. Ces « évolutions fortes et vigoureuses » ne visent « en aucune manière (à) remettre en cause fondamentalement les libertés de choix du praticien par les patients ou d’installation des professionnels de santé », a dit lors d’une conférence de presse le premier président de la Cour des comptes, Didier Migaud. Certaines des pistes proposées par la Cour risquent d’être accueillies fraîchement par les professionnels de santé libéraux, comme celles mettant en jeu leur conventionnement – et donc le remboursement de leurs prestations par l’assurance maladie – afin d’orienter leur installation pour rééquilibrer l’offre de soins ou de limiter les dépassements d’honoraires. Dans une évaluation « qui ne prétend pas à l’exactitude », la Cour estime ainsi que les gains potentiels liés à une meilleure répartition des professionnels de santé pourraient être compris entre 0,8 et 3,2 milliards d’euros. Au-delà du seul aspect financier, « la mobilisation des marges nombreuses et considérables d’efficience des dépenses de santé s’impose d’abord comme une nécessité au regard même de la qualité et de la pertinence des soins », souligne la Cour. « Le contexte d’amélioration réelle mais fragile des comptes sociaux doit constituer une opportunité pour repenser leur régulation financière », a déclaré Didier Migaud. Dans cette optique, la Cour préconise en premier lieu de rénover le pilotage financier de l’assurance maladie, avec une règle d’équilibre spécifique et un renforcement de l’Ondam (objectif national de dépenses d’assurance maladie).Elle suggère d’une part d’intégrer en son sein l’Ondam un sous-objectif dédié à la prévention et d’autre part de décliner cet outil de maîtrise des dépenses à l’échelle régionale. Autre piste de réforme proposée : une clarification des rôles de l’assurance maladie obligatoire et des assurances complémentaires, alors que la situation actuelle génère des inégalités dans l’accès aux soins. Côté système de soins, au-delà des suggestions sur l’installation et les dépassements d’honoraires, la Cour propose aussi des mesures visant à renforcer la permanence des soins de ville pour désengorger les urgences hospitalières, ou encore à faire évoluer les tarifications pour davantage intégrer l’innovation et la qualité des soins et augmenter la part des rémunérations forfaitaires. Pour mener à bien ces réformes « multiples et complexes », la Cour recommande d’envisager la création d’une Agence nationale de santé combinant les compétences de l’Etat (sur l’hôpital) et de l’assurance maladie (sur les soins de ville), qui permettrait de rendre plus cohérente la mise en oeuvre des politiques de santé toujours pilotées par le ministère de la Santé. A l’heure actuelle, les « performances honorables » du système de santé français, avec par exemple une espérance de vie parmi les plus élevées du monde, recouvrent des « faiblesses persistantes », avec un taux de mortalité infantile élevé, une forte mortalité précoce évitable liée au tabac ou à l’alcool et une accentuation des inégalités d’accès aux soins. Ces résultats « en demi-teinte » sont obtenus au prix de dépenses très élevées – 11% du produit intérieur brut (PIB) en 2016 – dont le poids est voué à fortement augmenter au cours des vingt à trente ans à venir sous l’effet combiné du vieillissement, de la multiplication des maladies chroniques et du coût croissant des médicaments innovants. Ces perspectives font peser des risques sur l’assurance maladie, les politiques de maîtrise des dépenses ayant atteint leurs limites et les déficits chroniques ayant alimenté une dette sociale « considérable » (151,1 milliards fin 2016). Malgré une amélioration du pilotage annuel du niveau des dépenses, le respect de l’Ondam depuis 2010 a régulièrement été facilité par « des prévisions accommodantes et des biais de construction », note la Cour.

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol