Archive pour le Tag 'quels'

Géopolitique : Quels risques de guerre nucléaire ?

Géopolitique : Quels risques de guerre nucléaire  ?

Les menaces proférées par Vladimir Poutine, ce 21 septembre, ne doivent pas être balayées d’un revers de la main. Aux yeux du Kremlin, l’emploi de l’arme nucléaire en premier n’est pas tabou. Par Cyrille Bret, Sciences Po

 

Ce 21 septembre, Vladimir Poutine a réitéré une menace qu’il avait déjà exprimée fin février, au tout début de l’invasion de l’Ukraine, quand il avait mis en état d’alerte les unités des forces armées russes en charge des armements nucléaires : si l’intégrité territoriale de la Russie est menacée, a-t-il assuré, il n’exclut pas le recours aux armes nucléaires.

Au moment même où, à New York, les chefs d’État du monde entier se succèdent à la tribune de la 77ᵉ Assemblée générale des Nations unies, appelant à la cessation des hostilités, il choisit, lui, de reprendre l’offensive en franchissant un nouveau cran dans la rhétorique très codée de l’arme nucléaire.

Face à ce qu’ils considèrent comme une récidive ou une rechute, les Occidentaux se partagent à nouveau entre incrédulité horrifiée et le scepticisme inquiet. Le sérieux des déclarations du président russe est, comme en février, mis en doute. « Bluff », « dérapage », « outrance », « exagération », etc. : les interprétations visant à minimiser le risque nucléaire vont bon train.

Les sceptiques ont raison de souligner qu’un usage – même circonscrit – de l’arme nucléaire aurait des conséquences dévastatrices pour Vladimir Poutine : il serait immédiatement privé de ses soutiens – déjà réticents – en Chine et en Inde ; il s’exposerait à une très large réprobation interne, à l’heure où l’opposition à la guerre se manifeste dans les rues (quelque 1 300 personnes ont été interpellées au soir du 21 septembre) ; et, surtout, il risquerait une réplique directe de la part des puissances nucléaires qui soutiennent l’Ukraine : États-Unis, Royaume-Uni et France.

Faut-il pour autant congédier comme irréel le spectre d’une attaque nucléaire russe ? Ou bien serait-il plus avisé de considérer ce qui, aujourd’hui, rend la perspective de l’emploi de l’arme nucléaire moins taboue qu’avant le début de la guerre en Ukraine ?

Trois éléments se conjuguent aujourd’hui pour abaisser le seuil nucléaire aux yeux du Kremlin : premièrement, cette menace prend corps dans un contexte où la Russie est largement en échec dans son « opération militaire spéciale » ; deuxièmement, Moscou n’a cessé depuis des années, et plus encore depuis février dernier, de rompre avec les méthodes conventionnelles de la conduite de la guerre ; enfin, à titre personnel, Vladimir Poutine se montre, en brandissant la menace nucléaire, fidèle à l’image qu’il cherche à imposer depuis des années – celle d’un homme qui, au nom de sa vision du monde et de la place que son pays doit selon lui y occuper, est prêt à absolument tout.

Envisagée depuis le Kremlin, la situation militaire oriente le pouvoir russe vers des moyens d’extrême urgence. En effet, la Russie s’est montrée incapable, en plusieurs mois, d’atteindre ses objectifs stratégiques par le moyen d’une campagne militaire conventionnelle.

Malgré la modernisation de ses forces armées depuis une décennie, malgré l’aguerrissement de ses officiers sur le théâtre syrien, malgré la combinaison de cyberattaques et de campagnes de désinformation en complément des opérations militaires classiques, la Russie n’a ni pris Kiev, ni brisé la résistance nationale ukrainienne, ni même conservé ses gains territoriaux face aux contre-offensives déclenchées depuis un mois.

La tentation de recourir à des moyens non conventionnels s’accroît quand la victoire militaire conventionnelle se dérobe et le spectre d’une défaite se profile. De fait, les opérations ukrainiennes menées dans les zones de Kharkiv (au nord-est) et de Kherson (dans le sud) visent explicitement à remporter la « victoire » contre la Russie.

Pour les Ukrainiens, « victoire » signifie une reconquête intégrale du territoire national issu de l’indépendance de 1991, y compris la Crimée annexée par la Russie en 2014 et les régions de Donetsk, de Lougansk, de Kherson et de Zaporojié qui pourraient tout prochainement être annexées à leur tour, des « référendums de rattachement à la Fédération de Russie » y ayant été annoncés pour la fin du mois de septembre, alors même que Moscou ne contrôle pas la totalité de leurs territoires respectifs.

Mais pour certains soutiens de Kiev – avant tout en Pologne, dans les États baltes et aux États-Unis -, la notion de « victoire » implique une déroute militaire de la Russie, suivie d’un bouleversement politique et d’un affaiblissement stratégique durable de ce pays. Ce que redoute le Kremlin désormais, c’est de revenir à l’état d’abaissement international qui fut le sien dans les années 1990.

En somme, la Russie de Poutine considère qu’elle est à présent explicitement passée d’une guerre d’invasion contre l’Ukraine à une guerre de défense contre l’OTAN. Le niveau de menace étant dès lors drastiquement plus élevé, il pourrait être justifié, du point de vue du Kremlin, de recourir à un type d’arme qualitativement différent. En matière d’armes nucléaires, les échelons à franchir sont nombreux et il y a loin des premières annonces à l’usage effectif. Toutefois, à mesure que la crise militaire se précise pour la Russie et à mesure que le risque de défaite se matérialise, la tentation de mettre en œuvre un moyen militaire extrême se renforce.

Aujourd’hui plus que jamais, les fondements de la doctrine nucléaire russe doivent être rappelés. Ils sont en rupture complète avec la doctrine française, par exemple : la vision russe ne repose pas sur le principe de « frappe nucléaire en second », qui consiste à n’employer l’arme nucléaire qu’une fois que le territoire national aura lui-même été soumis à une attaque nucléaire.

Un usage « en premier », dans un cadre « tactique » et pour atteindre des buts militaires, est au contraire régulièrement envisagé par les différents documents stratégiques russes.

En l’occurrence, une attaque contre la Crimée (ou contre tout autre territoire considéré par le Kremlin comme étant « russe ») de la part des troupes ukrainiennes, tout particulièrement à l’aide d’armements de l’OTAN, pourrait justifier, aux yeux du pouvoir russe, le lancement de missiles opérant des frappes nucléaires soit sur le champ de bataille pour briser une avancée, soit contre des infrastructures critiques pour l’organisation des forces armées ukrainiennes.

C’est ce qui avait été déjà mentionné par le président russe, de façon plus indirecte, en février 2022. C’est ce qui est répété aujourd’hui. Il ne s’agit là ni d’une gesticulation militaire ni d’un coup de menton politique. C’est le rappel strict d’une doctrine depuis longtemps connue et diffusée.

Récemment, cette doctrine nucléaire a été influencée par de nombreuses ruptures avec les méthodes conventionnelles de guerre : soupçonnée d’être impliquée dans l’usage d’armes chimiques et bactériologiques en Syrie, coopérant avec des supplétifs mercenaires comme le groupe Wagner ou « ethniques » comme les milices du président tchétchène Kadyrov, conduisant à l’occasion des opérations militaires clandestines, voilà déjà au moins une décennie que l’armée russe ne se contente pas des moyens conventionnels pour remplir ses objectifs.

La Russie de Poutine a franchi bien des Rubicons dans les guerres qu’elle a menées, que ce soit au sein de la Fédération (en Tchétchénie), à ses frontières (en Géorgie) ou dans ses zones d’influence (Moyen-Orient, Afrique centrale). L’invasion de l’Ukraine constitue en elle-même une rupture profonde avec le principe d’intangibilité des frontières issues de la dissolution de l’URSS. À mesure que les tabous militaires et stratégiques sont brisés, les uns après les autres, la possibilité de rompre le dernier d’entre eux, l’usage de l’arme nucléaire, devient moins fantasmagorique.

L’usage de l’arme nucléaire correspondrait également à la posture politique que le président russe a choisie en déclenchant l’invasion de l’Ukraine.

En effet, le choix de l’invasion, en février 2022, répond à deux grandes lignes politiques explicites chez Vladimir Poutine. La première, bien identifiée et depuis longtemps analysée, correspond à sa volonté d’annuler, en partie du moins, la réduction du poids international de Moscou suite à la désintégration de l’URSS. La seconde répond à la conception du pouvoir politique qu’il a imposée à l’intérieur comme à l’extérieur : il souhaite se poser comme celui qui ose ce que personne d’autre n’ose. L’usage extrême de la force et l’usage de la force extrême sont la marque de cette conception hyperbolique du pouvoir. Oser franchir le seuil nucléaire serait, en somme, dans la lignée de ce rapport sans complexe à la force.

Enfin, la posture politique de la Russie de 2022 se précise désormais, avec les autres mesures annoncées le 21 septembre. D’une part, une mobilisation des réservistes a été décrétée : cela souligne que la Russie, sanctionnée de toutes parts, se transforme rapidement, à l’intérieur, en citadelle assiégée et en caserne généralisée. D’autre part, nous l’avons évoqué, des référendums seront organisés dans plusieurs régions d’Ukraine pour élargir le territoire de la Fédération de Russie et consacrer ainsi une nouvelle mutilation du territoire ukrainien.

Ainsi, la Russie se prépare à une longue guerre d’usure pour conserver ce qu’elle considère désormais comme son glacis défensif contre l’OTAN, à savoir la Crimée et une partie du sud et de l’est de l’Ukraine. Brandir une menace nucléaire crédible vise à renforcer encore davantage cette idée que la Russie, assiégée, ne se laissera jamais vaincre.

Lorsqu’il a répété, ce 21 septembre, ses menaces nucléaires, Vladimir Poutine avait assurément à l’esprit les répercussions terribles auxquelles il exposerait la Russie si elle frappe en premier. Nul ne doit en douter. Mais nul ne doit négliger non plus les facteurs qui érodent peu à peu l’impossibilité d’utiliser ces armes.

______

Par Cyrille Bret, Géopoliticien, Sciences Po

La version originale de cet article a été publiée sur The Conversation.

Conflit ukrainien: Quels risques nucléaires ?

Conflit ukrainien: Quels risques nucléaires  ?

Les menaces proférées par Vladimir Poutine, ce 21 septembre, ne doivent pas être balayées d’un revers de la main. Aux yeux du Kremlin, l’emploi de l’arme nucléaire en premier n’est pas tabou. Par Cyrille Bret, Sciences Po

 

Ce 21 septembre, Vladimir Poutine a réitéré une menace qu’il avait déjà exprimée fin février, au tout début de l’invasion de l’Ukraine, quand il avait mis en état d’alerte les unités des forces armées russes en charge des armements nucléaires : si l’intégrité territoriale de la Russie est menacée, a-t-il assuré, il n’exclut pas le recours aux armes nucléaires.

Au moment même où, à New York, les chefs d’État du monde entier se succèdent à la tribune de la 77ᵉ Assemblée générale des Nations unies, appelant à la cessation des hostilités, il choisit, lui, de reprendre l’offensive en franchissant un nouveau cran dans la rhétorique très codée de l’arme nucléaire.

Face à ce qu’ils considèrent comme une récidive ou une rechute, les Occidentaux se partagent à nouveau entre incrédulité horrifiée et le scepticisme inquiet. Le sérieux des déclarations du président russe est, comme en février, mis en doute. « Bluff », « dérapage », « outrance », « exagération », etc. : les interprétations visant à minimiser le risque nucléaire vont bon train.

Les sceptiques ont raison de souligner qu’un usage – même circonscrit – de l’arme nucléaire aurait des conséquences dévastatrices pour Vladimir Poutine : il serait immédiatement privé de ses soutiens – déjà réticents – en Chine et en Inde ; il s’exposerait à une très large réprobation interne, à l’heure où l’opposition à la guerre se manifeste dans les rues (quelque 1 300 personnes ont été interpellées au soir du 21 septembre) ; et, surtout, il risquerait une réplique directe de la part des puissances nucléaires qui soutiennent l’Ukraine : États-Unis, Royaume-Uni et France.

Faut-il pour autant congédier comme irréel le spectre d’une attaque nucléaire russe ? Ou bien serait-il plus avisé de considérer ce qui, aujourd’hui, rend la perspective de l’emploi de l’arme nucléaire moins taboue qu’avant le début de la guerre en Ukraine ?

Trois éléments se conjuguent aujourd’hui pour abaisser le seuil nucléaire aux yeux du Kremlin : premièrement, cette menace prend corps dans un contexte où la Russie est largement en échec dans son « opération militaire spéciale » ; deuxièmement, Moscou n’a cessé depuis des années, et plus encore depuis février dernier, de rompre avec les méthodes conventionnelles de la conduite de la guerre ; enfin, à titre personnel, Vladimir Poutine se montre, en brandissant la menace nucléaire, fidèle à l’image qu’il cherche à imposer depuis des années – celle d’un homme qui, au nom de sa vision du monde et de la place que son pays doit selon lui y occuper, est prêt à absolument tout.

Envisagée depuis le Kremlin, la situation militaire oriente le pouvoir russe vers des moyens d’extrême urgence. En effet, la Russie s’est montrée incapable, en plusieurs mois, d’atteindre ses objectifs stratégiques par le moyen d’une campagne militaire conventionnelle.

Malgré la modernisation de ses forces armées depuis une décennie, malgré l’aguerrissement de ses officiers sur le théâtre syrien, malgré la combinaison de cyberattaques et de campagnes de désinformation en complément des opérations militaires classiques, la Russie n’a ni pris Kiev, ni brisé la résistance nationale ukrainienne, ni même conservé ses gains territoriaux face aux contre-offensives déclenchées depuis un mois.

La tentation de recourir à des moyens non conventionnels s’accroît quand la victoire militaire conventionnelle se dérobe et le spectre d’une défaite se profile. De fait, les opérations ukrainiennes menées dans les zones de Kharkiv (au nord-est) et de Kherson (dans le sud) visent explicitement à remporter la « victoire » contre la Russie.

Pour les Ukrainiens, « victoire » signifie une reconquête intégrale du territoire national issu de l’indépendance de 1991, y compris la Crimée annexée par la Russie en 2014 et les régions de Donetsk, de Lougansk, de Kherson et de Zaporojié qui pourraient tout prochainement être annexées à leur tour, des « référendums de rattachement à la Fédération de Russie » y ayant été annoncés pour la fin du mois de septembre, alors même que Moscou ne contrôle pas la totalité de leurs territoires respectifs.

Mais pour certains soutiens de Kiev – avant tout en Pologne, dans les États baltes et aux États-Unis -, la notion de « victoire » implique une déroute militaire de la Russie, suivie d’un bouleversement politique et d’un affaiblissement stratégique durable de ce pays. Ce que redoute le Kremlin désormais, c’est de revenir à l’état d’abaissement international qui fut le sien dans les années 1990.

En somme, la Russie de Poutine considère qu’elle est à présent explicitement passée d’une guerre d’invasion contre l’Ukraine à une guerre de défense contre l’OTAN. Le niveau de menace étant dès lors drastiquement plus élevé, il pourrait être justifié, du point de vue du Kremlin, de recourir à un type d’arme qualitativement différent. En matière d’armes nucléaires, les échelons à franchir sont nombreux et il y a loin des premières annonces à l’usage effectif. Toutefois, à mesure que la crise militaire se précise pour la Russie et à mesure que le risque de défaite se matérialise, la tentation de mettre en œuvre un moyen militaire extrême se renforce.

Aujourd’hui plus que jamais, les fondements de la doctrine nucléaire russe doivent être rappelés. Ils sont en rupture complète avec la doctrine française, par exemple : la vision russe ne repose pas sur le principe de « frappe nucléaire en second », qui consiste à n’employer l’arme nucléaire qu’une fois que le territoire national aura lui-même été soumis à une attaque nucléaire.

Un usage « en premier », dans un cadre « tactique » et pour atteindre des buts militaires, est au contraire régulièrement envisagé par les différents documents stratégiques russes.

En l’occurrence, une attaque contre la Crimée (ou contre tout autre territoire considéré par le Kremlin comme étant « russe ») de la part des troupes ukrainiennes, tout particulièrement à l’aide d’armements de l’OTAN, pourrait justifier, aux yeux du pouvoir russe, le lancement de missiles opérant des frappes nucléaires soit sur le champ de bataille pour briser une avancée, soit contre des infrastructures critiques pour l’organisation des forces armées ukrainiennes.

C’est ce qui avait été déjà mentionné par le président russe, de façon plus indirecte, en février 2022. C’est ce qui est répété aujourd’hui. Il ne s’agit là ni d’une gesticulation militaire ni d’un coup de menton politique. C’est le rappel strict d’une doctrine depuis longtemps connue et diffusée.

Récemment, cette doctrine nucléaire a été influencée par de nombreuses ruptures avec les méthodes conventionnelles de guerre : soupçonnée d’être impliquée dans l’usage d’armes chimiques et bactériologiques en Syrie, coopérant avec des supplétifs mercenaires comme le groupe Wagner ou « ethniques » comme les milices du président tchétchène Kadyrov, conduisant à l’occasion des opérations militaires clandestines, voilà déjà au moins une décennie que l’armée russe ne se contente pas des moyens conventionnels pour remplir ses objectifs.

La Russie de Poutine a franchi bien des Rubicons dans les guerres qu’elle a menées, que ce soit au sein de la Fédération (en Tchétchénie), à ses frontières (en Géorgie) ou dans ses zones d’influence (Moyen-Orient, Afrique centrale). L’invasion de l’Ukraine constitue en elle-même une rupture profonde avec le principe d’intangibilité des frontières issues de la dissolution de l’URSS. À mesure que les tabous militaires et stratégiques sont brisés, les uns après les autres, la possibilité de rompre le dernier d’entre eux, l’usage de l’arme nucléaire, devient moins fantasmagorique.

L’usage de l’arme nucléaire correspondrait également à la posture politique que le président russe a choisie en déclenchant l’invasion de l’Ukraine.

En effet, le choix de l’invasion, en février 2022, répond à deux grandes lignes politiques explicites chez Vladimir Poutine. La première, bien identifiée et depuis longtemps analysée, correspond à sa volonté d’annuler, en partie du moins, la réduction du poids international de Moscou suite à la désintégration de l’URSS. La seconde répond à la conception du pouvoir politique qu’il a imposée à l’intérieur comme à l’extérieur : il souhaite se poser comme celui qui ose ce que personne d’autre n’ose. L’usage extrême de la force et l’usage de la force extrême sont la marque de cette conception hyperbolique du pouvoir. Oser franchir le seuil nucléaire serait, en somme, dans la lignée de ce rapport sans complexe à la force.

Enfin, la posture politique de la Russie de 2022 se précise désormais, avec les autres mesures annoncées le 21 septembre. D’une part, une mobilisation des réservistes a été décrétée : cela souligne que la Russie, sanctionnée de toutes parts, se transforme rapidement, à l’intérieur, en citadelle assiégée et en caserne généralisée. D’autre part, nous l’avons évoqué, des référendums seront organisés dans plusieurs régions d’Ukraine pour élargir le territoire de la Fédération de Russie et consacrer ainsi une nouvelle mutilation du territoire ukrainien.

Ainsi, la Russie se prépare à une longue guerre d’usure pour conserver ce qu’elle considère désormais comme son glacis défensif contre l’OTAN, à savoir la Crimée et une partie du sud et de l’est de l’Ukraine. Brandir une menace nucléaire crédible vise à renforcer encore davantage cette idée que la Russie, assiégée, ne se laissera jamais vaincre.

Lorsqu’il a répété, ce 21 septembre, ses menaces nucléaires, Vladimir Poutine avait assurément à l’esprit les répercussions terribles auxquelles il exposerait la Russie si elle frappe en premier. Nul ne doit en douter. Mais nul ne doit négliger non plus les facteurs qui érodent peu à peu l’impossibilité d’utiliser ces armes.

______

Par Cyrille Bret, Géopoliticien, Sciences Po

La version originale de cet article a été publiée sur The Conversation.

Inflation: quels produits les plus touchés ?

Inflation: quels produits les plus touchés ?

 

officiellement l’INSEE a enregistré une inflation qui dépasse les 6 % en juillet d’après un indicateur largement obsolète du fait d’une part de la modification de structure de la consommation ( avec notamment une hausse de la consommation des services et autres abonnements). Il faudrait aussi prendre en compte la valse des marques dans les magasins qui substituent à d’anciens produits de nouvelles marchandises notoires moi plus chères ( cas de l’huile par exemple donc le prix peut être au moins doublé).  Sur un an, selon l’estimation provisoire réalisée en fin de mois, les prix à la consommation augmenteraient de 6,1 % en juillet 2022, après +5,8 % le mois précédent. Cette hausse de l’inflation serait due à une accélération des prix des services en lien avec la période estivale, de l’alimentation et – dans une moindre mesure – des produits manufacturés. Les prix de l’énergie ralentiraient.

Sur un mois, les prix à la consommation augmenteraient de 0,3 %, après +0,7 % en juin. Les prix de l’énergie se replieraient nettement, du fait des prix des produits pétroliers. La baisse serait également marquée pour les prix des produits manufacturés, notamment ceux de l’habillement et des chaussures en raison des soldes d’été. Les prix des services et de l’alimentation accéléreraient.

Sur un an, l’indice des prix à la consommation harmonisé augmenterait de 6,8 %, après +6,5 % en juin. Sur un mois, il croîtrait de 0,3 %, après +0,9 % le mois précédent.

L’indice des prix à la consommation de l’Insee en juin montrait une hausse de 28,5 % sur un an du prix de l’électricité, du gaz et autres combustibles, et une hausse de 6,3 % des produits alimentaires et boissons non alcoolisées, deux secteurs tirant l’inflation vers le haut. Les pâtes, les viandes surgelées, farines et huiles sont les plus touchées.(article des Echos)

Mais les consommateurs doivent maintenant composer avec la hausse des prix des articles ménagers et relatifs à l’entretien du foyer. Les petits appareils électroménagers ont vu leur prix bondir de 7 % entre juin 2021 et juin 2022, selon l’indice des prix à la consommation publié par l’Insee. Notamment les cafetières électriques et bouilloires, dont le prix a grimpé de 17,2 % en un an, mais aussi celui des grille-pain, de 13,7 %.

Les fers à repasser ont augmenté de 5,9 % et les autres petits appareils électroménagers tels que les moulins à café ou extracteurs de jus, ont vu leurs prix s’élever de 6,1 %. Les réfrigérateurs et congélateurs ont augmenté de 8 %.

« La hausse des prix du petit électroménager s’inscrit dans le contexte global de désorganisation du transport maritime à l’échelle mondiale et de hausse des coûts de production répercutés sur les prix. Ces produits sont également touchés par une pénurie de composants électroniques », analyse Sébastien Faivre, chef de la division des prix à la consommation à l’Insee. L’ augmentation du SMIC a également « pu affecter les prix de ces produits ».

Côté entretien du foyer, on note également une hausse des prix des meubles de jardin de 11,6 % et de l’ameublement d’intérieur de 7,5 %. Ceci peut s’expliquer pour partie par la hausse des prix des matières premières et la hausse des coûts du transport maritime couplée à la difficulté d’acheminement des conteneurs, explique Sébastien Faivre. Fin 2021, le géant de l’ameublement Ikea avait annoncé une hausse de ses prix pour cette raison.

Enfin, les petits outils non motorisés (scies, marteaux, tournevis…) ont augmenté de 10,5 % et certains articles de ménage dits « non-durables », comme les serpillières, éponges, filtres, nappes et serviettes de table ou encore le papier essuie-tout, ont vu leurs prix augmenter de 8 %.

Certains biens, définis par l’Insee comme de loisirs ou culturels, ont également connu une hausse de prix significative. Le prix des scanners et imprimantes a par exemple augmenté de 9,8 % sur un an, et celui des produits pour animaux domestiques de 7,3 %.

Par ailleurs, la crise du papier se fait ressentir sur les prix de la papeterie (blocs-notes, agendas, enveloppes, carnets…), qui ont bondi de 10 % en un an. « L’industrie du papier est assez consommatrice d’énergie, notamment pour sécher le papier, ce qui a sans doute dû peser sur les prix », note Sébastien Faivre. Les prix des journaux et périodiques ont augmenté de 5,4 %. Enfin, celui des voitures a grimpé de 5,1 % en un an, moins que l’inflation.

Si la plupart des postes de dépense des Français, à l’exception de l’énergie, voient une augmentation des prix proche de l’inflation de 6 %, trois secteurs semblent au contraire plutôt épargnés. L’indice des prix à la consommation du tabac et de la santé, deux secteurs réglementés, est quasiment stable sur un an.

Le secteur de l’habillement et des chaussures a connu une hausse des prix de seulement 0,6 % en glissement annuel en juin. « Ceci est lié à des soldes assez conséquents, en matière de produits comme de volumes. On retrouvera peut-être des dynamiques plus fortes dès le mois de septembre », explique Sébastien Faivre. « En ce qui concerne l’habillement, on compare aussi à une situation de 2021 où on sortait du confinement. Il y avait des restrictions sanitaires sur l’accès aux centres commerciaux, donc c’est une comparaison assez particulière », nuance ce dernier.

L’envolée des prix n’est pas près de ralentir : selon le ministre de l’économie Bruno Le Maire , le pic inflationniste commencera sa décrue mi-2023. D’ici-là, le gouvernement espère alléger la facture des Français avec son paquet législatif sur le pouvoir d’achat .

Quels conseils aux gogos des marchés financiers

Quels conseils aux gogos des marchés financiers

Comment conseiller les investisseurs pour leur éviter de faire des choix hasardeux par  Bruno Colmant (université de Bruxelles), Charles Cuvelliez (université de Bruxelles, École Polytechnique de Bruxelles) et Jean-Jacques Quisquater (université de Louvain, École Polytechnique de Louvain et MIT).(dans la Tribune , extraits)

 

Tribune

 

Si vous êtes un investisseur, la régulation MIFID II (Markets in Financial Instruments Directive) ne vous sera pas étrangère. Elle vous protège des investissements hasardeux proposés par votre intermédiaire financier ou votre banque, si vous n’êtes pas prêt. Ces derniers se doivent de vérifier que les investissements proposés sont en ligne avec votre connaissance et expertise financière ainsi que votre goût du risque. Ce sont par exemple (et souvent) des questionnaires-tests qu’on vous demande de remplir, presque un examen d’aptitude sauf que ces modalités varient d’une banque à l’autre.

L’ESMA, l’Autorité européenne des marchés financiers, donc le régulateur, vient de publier une mise au point sur certains aspects les plus sensibles de la mise en œuvre de MIFID II : que doit faire la banque si le client veut procéder à un investissement de son propre chef sans que la banque le lui ait conseillé? Doit-elle l’en empêcher si elle voit que cet investissement n’est pas en ligne avec son profil ? La régulation MIFID II autorise la banque ou l’intermédiaire financier à lui fournir ce service et encore, pour autant que le produit n’est pas complexe. Il doit cependant l’avertir qu’il n’est pas tenu de vérifier que ce produit est approprié pour lui. C’est là qu’une zone d’ombre apparaît. L’ESMA donne, dans sa mise au point, toute une série d’exemples sur la manière de (mal) appliquer la régulation MIFID II.

Canal de communication

Il y a l’usage des canaux de communication : la banque peut-elle utiliser tous les moyens de communication depuis WhatsApp ou Messenger jusqu’à l’email en passant par le téléphone ou l’application mobile de la banque ? L’ESMA garde une neutralité technologique du moment qu’une trace peut être conservée des échanges qui ont abouti à une transaction voulue par le client et non conseillée par la banque. Ces enregistrements doivent être exploitables pour pouvoir prouver par exemple qu’un avertissement a bien été envoyé au client si la banque n’était pas tenue de vérifier que le produit n’était pas adapté. Tout dépend évidemment de la manière de communiquer, par téléphone ou en face-à-face, ce sont d’autres méthodes à mettre en place pour garder une trace exploitable.

Avant de fournir des services pour investir sans conseil, la banque doit avertir le client et l’encourager à faire attention à l’obligation qu’elle a, sinon de vérifier l’adéquation entre le produit d’investissement et son profil, au moins au début de la relation commerciale. La banque doit mettre en place des politiques et des procédures pour systématiser la collecte d’information des clients sur leur compétences et connaissances. Les banques doivent encourager les clients à se plier au jeu. La manière de le faire est à la discrétion des banques mais s’il s’agit de questionnaires en ligne, attention, dit l’ESMA, à être clair, compréhensible, à ne pas suggérer des réponses. L’ESMA va jusqu’à insister pour que les questionnaires donnent le choix de répondre par un honnête : « je ne sais pas ».

L’ESMA veut éviter qu’un client puisse répondre indéfiniment au même questionnaire jusqu’à être dans le bon. Il faut prévoir un nombre maximum d’essais. Un questionnaire ne doit pas être une auto-évaluation de ce que le client pense connaitre : on surestime toujours sa propre expertise. Les questions doivent éviter les réponses binaires oui/non ou des cases à cocher. Pas question, non plus, de soumettre une liste de produits au client et de lui demander s’il les connaît. L’ESMA met aussi en garde contre les questionnaires préremplis envoyés à des clients qui voudraient aller plus loin en investissements, sur la base de leur expérience antérieure avec leur banque.

La banque doit pouvoir vérifier que l’information fournie par le client sur son expertise est vraie. Et de suggérer que la banque détecte les incohérences dans les questionnaires remplis par le client.

Renouveler le profil d’expertise

Il s’agit aussi de renouveler de temps en temps le profil du client sur sa maitrise des matières financières. L’ESMA ne nie pas qu’une expertise et une connaissance ne sont pas censées diminuer avec le temps mais le vérifier c’est mieux surtout envers une population vulnérable de clients. La mise à jour des tests MIFID II ne doit pas non plus être une incitation pour le client à vouloir faire mieux, comme un défi à soi-même, pour finalement souscrire à des produits d’investissement qui ne sont pas faits pour lui. Si le profil d’expertise du client change trop souvent ou trop vite, c’est une indication de ce biais.

La mise au point de l’ESMA concerne même des personnes morales (des entreprises), quand ces entreprises sont représentées par plusieurs personnes physiques (des PME par exemple).  Faut-il prendre la personne la plus experte ou la moins experte pour avoir son profil MIFID II, La moins experte en cas de doute.

Une classification interne

L’ESMA s’attend évidemment à ce que les banques aient des procédures pour classer eux-mêmes les produits qu’ils proposent en fonction des risques, caractéristiques et nature. Il ne s’agit pas de se contenter d’une classification extérieure qu’on prendrait telle quelle. Les banques peuvent certes se baser sur des outils automatiques pour vérifier le côté approprié des produits par rapport à leur client mais il s’agit alors de contrôler que ces produits automatisés ne se trompent pas. Et de mettre en garde contre les outils qui classent de manière trop sommaire ou trop large les clients ou les produits d’investissement pour faire des correspondances grossières.

Quant au staff qui doit contrôler l’adéquation du profil des produits proposés au profil des clients, il doit avoir des lignes directrices claires. Il faut éviter toute subjectivité dit l’ESMA. Il faut pouvoir justifier ex post une décision d’adéquation produit d’investissement/investisseur de la part du personnel.

Pour la mise en garde qui doit être notifiée quand le produit que le client veut acheter n’est pas adapté à son profil ou si c’est impossible de le vérifier, il doit être clair, pas confus…

L’ESMA pousse le détail jusqu’à suggérer des couleurs différentes pour le message de mise en garde. Par téléphone, la mise en garde devrait même s’accompagner de l’impact que cela représenterait pour le client. Pas de circonvolutions pour répondre: « Ce produit pourrait ne pas être adapté à vous ». Soyez francs, dit en substance l’ESMA. Et évidemment, il faut s’abstenir de dire en parallèle au message de ne pas en tenir compte. Proposer des trainings ou des webinars aux clients ne suffit pas à les faire monter en expertise. Il faut leur faire passer un test en bonne et due forme après. Un client peut toujours outrepasser la mise en garde mais l’ESMA suggère aux banques et intermédiaires financiers de calculer la proportion de mise en garde non respectées : mauvais signe si ce nombre est trop élevé.

Le staff de la banque doit évidemment avoir l’expertise pour mener les tests MIFID II avec leurs clients : ils doivent être conscients de la responsabilité qui reposent sur leurs épaules et être formés à la régulation MIFID II. Cette obligation s’étend aux développeurs et codeurs d’assessments en ligne et à ceux qui conçoivent les algorithmes.

 

Enfin, et surtout, il faut des contrôles surtout quand il s’agit de tests automatisés. Ils doivent être régulièrement vérifiés et contrôlés. Et si les tests sont faits par téléphone ou en face-à-face, il faudrait les enregistrer pour vérifier que le personnel qui pose les questions jouent bien le jeu.

Cette liste à la Prévert n’est pourtant pas une mauvaise chose : les Etats-Unis n’ont pas de MIFID II. Les autorités luttent désormais contre les applications qui permettent d’investir en bourse et qui ressemblent à s’y méprendre à un jeu vidéo et à toutes les addictions qui s’ensuivent. Et surtout les cryptomonnaies feraient bien d’entrer dans le champ d’application de MIFIDII ! La Commission y travaille en raffinant les critères qui permettraient de décider si oui ou non une crypto-monnaie ou une blockchain est un instrument financier qui tombe sous MIFD II.

5.000 équipements sportifs en plus d’ici 2024, pour quels athlètes ?

5.000 équipements sportifs en plus d’ici 2024, pour quels athlètes ?

Il est grand temps que la France se réveille compte-tenu de la proximité des jeux olympiques de 2024. Lors de la dernière édition les résultats des équipes de France notamment en athlétisme et en natation ont été catastrophiques. Le gouvernement a donc décidé d’attribuer une centaine de millions à des équipements sportifs dits de proximité.

La question est de savoir si cette orientation n’est pas un peu trop tardive car on ne forme pas des athlètes en deux ou trois ans. La question de la performance sportive de la France ne serait être résumée en seuls équipements supplémentaires. Le problème de fond est celui de la pratique sportive en milieu scolaire afin de détecter les futurs athlètes et d’assurer la promotion du sport en général.

 

Dans les projets du gouvernement Sont ainsi prévus 1.000 «citystade» (terrain multisports, on se demande encore pourquoi cette expression anglophone !), 1.000 dojos et salles de sport de combat, 500 terrains de basket 3×3, 500 terrains de tennis paddle, 500 skate park, 200 sites sportifs mobiles comme des bassins, ou encore des équipements «innovants» utilisant le numérique. Il s’agit aussi d’accompagner de nouvelles pratiques sportives comme le basket 3×3 ou encore le skate devenu discipline olympique, et constituer «l’héritage» des JO de Paris 2024. Certains équipements seront des «requalifications» d’espaces existants, comme «des rez-de-chaussée d’immeuble sociaux».

 

 

Le taux de participation financière de l’État sera de 50%, un taux qui pourra être porté jusqu’à 80%, ou 100% en Outre-Mer, a précisé l’Élysée. La gestion de ces équipements pourra être confiée aux collectivités, à des fédérations, à des acteurs commerciaux via des délégations de service public.

Développement du tourisme spatial: à quels coûts ?

 

 

Un article dans l’OPINION de Roland Lehoucq, chercheur en astrophysique au Commissariat à l’énergie atomique et aux énergies alternatives (CEA), Emmanuelle Rio, enseignante-chercheuse en physique à l’université Paris-Saclay et François Graner, biophysicien et directeur de recherche CNRS à l’université de Paris.(extrait)


Alors que Richard Branson et Jeff Bezos ont réalisé cette année un aller-retour pour toucher l’espace du doigt, SpaceX et ses quatre touristes vient tout juste de rentrer sur Terre, allongeant encore la liste des touristes de l’espace.

En septembre 2018, le milliardaire japonais Yusaku Maezawa a acheté à Elon Musk les services du système Starship de son entreprise SpaceX pour un voyage autour de la Lune, à partir de 2023. On ignore le montant de l’addition, mais il est probablement colossal.

Entre 2001 et 2009, huit billets pour embarquer en compagnie d’astronautes à bord du vaisseau russe Soyouz ont été vendus. Direction la Station spatiale internationale, la fameuse « ISS ». Un aller-retour entre 20 et 35 millions de dollars par personne – ce qui représente le budget quotidien d’une quinzaine de millions d’humains vivant au seuil de pauvreté international.

Au-delà de l’obscénité d’une opération visant à satisfaire le rêve d’un seul individu, ces excursions ancrent l’idée que l’espace est une marchandise. Elles consomment aussi matière et énergie et ont des conséquences environnementales qui augmenteraient considérablement si ce tourisme spatial devait faire l’objet d’un commerce plus large.

Tentons donc d’en chiffrer les conséquences en distinguant les vols un peu polluants, mais très nombreux, les vols moyennement polluants et assez nombreux, et les vols extrêmement polluants, mais peu nombreux.

La propulsion hybride du SpaceShip Two ne produit pas que du CO2. Le vaisseau crache aussi des suies, résultant de la combustion incomplète d’un mélange de protoxyde d’azote (N2O) liquide et d’un dérivé solide du polybutadiène hydroxytéléchélique. Un article scientifique de 2010 a estimé que 1 000 vols suborbitaux par an produiraient de l’ordre de 600 tonnes de suies, qui, en restant à peu près dix ans en suspension dans la stratosphère, entre 30 et 50 kilomètres d’altitude, contribueraient à modifier le climat à l’échelle de la planète entière – même si tous les tirs partaient d’un même endroit. Par comparaison, l’aviation civile paraîtrait presque propre : elle émet plus de suies au total, 7 200 tonnes par an, mais à des altitudes de l’ordre de 10 kilomètres, ce qui réduit leur durée de suspension et permet leur lessivage par les pluies.

Continuons en passant à l’échelle supérieure. Depuis 2009 et la mise en service des modules scientifiques européen et japonais, l’équipage des expéditions vers l’ISS est passé à six astronautes des pays l’ayant financé. Cette obligation ne laissa plus aucune place pour un passager privé et l’agence spatiale russe a interrompu les vols touristiques.

Mais les vols vers l’ISS pour ultrariches vont reprendre à l’initiative de la société Space Adventures (qui vend aussi des vols en apesanteur). Après des années d’absence, les États-Unis ont en effet retrouvé leur capacité à envoyer des humains dans l’espace suite au succès du vol de qualification de la capsule Crew Dragon lancée par SpaceX en mai dernier. Space Adventures en a profité pour récupérer deux places libres dans les vols Soyouz russes, tout en annonçant un partenariat avec la société SpaceX.

Le prix d’un tel vol sera autour de 100 millions de dollars. À un tel tarif, pour réaliser le rêve d’Icare (attention, il se termine mal), il faut sans doute faire partie des 11 000 personnes possédant plus de 250 millions de dollars ou peut-être gagner un lot de la télé-réalité. Il reste ensuite à passer les tests d’aptitude physique au vol spatial, notamment pour s’assurer que l’organisme du passager pourra supporter l’accélération du décollage.

Les 119 tonnes de kérosène raffiné utilisées par le premier étage de la fusée Falcon 9 produisent, lors de leur combustion contrôlée, une énergie comparable à celle dégagée par la récente explosion qui a ravagé le port de Beyrouth et ses environs : l’équivalent de 1 220 tonnes de TNT.

D’après le rapport d’évaluation environnementale de la Falcon 9, le vol complet, avec récupération de la capsule habitée grâce à des navires spécialisés et un hélicoptère, émettra 1 150 tonnes de CO2, l’équivalent de 638 ans d’émission d’une voiture moyenne parcourant 15 000 km par an. Bien plus qu’un chassé-croisé de vacanciers sur l’autoroute ! À raison de quatre passagers par vol, cela fait près de 290 tonnes de CO2 par passager. Autrement dit, un touriste en orbite vaut 65 touristes suborbitaux et presque 160 années d’émission d’une automobile…

Un vol autour de la Lune comme celui que projette Maezawa est bien sûr encore réservé à des milliardaires, qui sont déjà plus de 2 000 et dont le nombre croît constamment. Le vaisseau Starship, à bord duquel s’effectuera le voyage, est le second étage de la fusée Super Heavy, le lanceur orbital super-lourd et réutilisable développé par SpaceX. Le dernier rapport environnemental de ce lanceur indique que l’ensemble Starship/Super Heavy produit la bagatelle de 3 750 tonnes de CO2 à chaque vol. Le projet DearMoon prévoyant d’embarquer de 6 à 8 personnes, cela conduit à des émissions individuelles comprises entre 470 et 625 tonnes de CO2. Chacun grille ainsi en un voyage de quelques jours le « budget CO2 » annuel de plusieurs centaines de personnes. Mais cela reste inférieur aux 1 630 tonnes de CO2 émises annuellement par Bill Gates pour ses déplacements en jet privé…

Nous vous épargnons, sans doute à tort, le coût en CO2 de la construction des pas de tir. C’est du béton, et aussi beaucoup d’emprise en termes de surface occupée. Si à Roissy, l’aéroport occupe environ le tiers de la superficie de Paris intra-muros (32 km2), il le fait pour plus de 470 000 mouvements d’avions par an et près de 70 millions de passagers. Par comparaison, les vols suborbitaux prévus par Virgin Galactic doivent partir du Spaceport America au Nouveau-Mexique, dont la superficie de 73 km2 ne servira tout au plus qu’à 1 000 vols par an.

Nous vous épargnons aussi les conséquences environnementales de l’extraction, du transport et de la transformation des matériaux de haute qualité, l’acier ou l’aluminium par exemple, nécessaires pour fabriquer la masse totale des fusées, et dont l’ensemble ne sera pas totalement récupéré.

Les 1% les plus riches sont responsables de deux fois plus d’émissions que la moitié la plus pauvre de l’humanité. Après leurs yachts privés et leurs avions d’affaires, les lubies spatiales de ces (ultra)riches entretiennent l’illusion de toute-puissance à l’origine des graves dérèglements de la biosphère terrestre. Si des économies d’échelle dues aux améliorations techniques rendaient le tourisme spatial accessible ne serait-ce qu’aux classes supérieures, ces inégalités seraient encore amplifiées, ajoutant aux dégradations provoquées par nos sociétés en général et par le tourisme de masse en particulier.


Auteurs : Roland Lehoucq, chercheur en astrophysique au Commissariat à l’énergie atomique et aux énergies alternatives (CEA), Emmanuelle Rio, enseignante-chercheuse en physique à l’université Paris-Saclay et François Graner, biophysicien et directeur de recherche CNRS à l’université de Paris.

Cet article avait été initialement par The Conversation sous licence Creative Commons le 24 septembre 2020. Il a été mis à jour après le vol spatial de Richard Branson et avant celui de Jeff Bezos

Révision des règles de l’UE, la prise en compte de quels investissements verts ?

Révision des règles de l’UE, la prise en compte de quels investissements verts ?

 

 

Les règles budgétaires  (notamment déficits publics à 3% et la dette à 60% du produit intérieur brut (PIB ) pourraient être modifiées au plan de l’union européenne avec éventuellement intégration ou plus exactement traitement spécifique des investissements verts. La difficulté réside évidemment dans le la difficile évaluation de ce qui est vert et de ce qui ne l’est pas. En outre certains états frugaux s’oppose à ces propositions des états dépensiers du Sud dont  la France. Au cours d’un sommet de deux jours, les ministres des Finances des 27 pays de l’UE ont débattu de la manière de modifier les règles budgétaires pour mieux les adapter aux nouvelles réalités économiques une fois que les règles budgétaires de l’Union, désormais suspendues jusqu’à la fin de 2022, seront rétablies à partir de 2023.

Individus surdoués : quels sont les signes ?

Surdoués : quels sont les signes ?

 

Un article intéressant du Figaro évoque ce qui caractérise les surdoués. Pas forcément la capacité de mémoire mais surtout une curiosité qui permet une compréhension anticipée des problématiques.

 

Être surdoué n’est pas une pathologie. Les personnes diagnostiquées (ou non) comme tel possèdent une intelligence supérieure à la moyenne. Mais ce qui les distingue, c’est leur rapport différent avec ce qui les entoure. Cette approche particulière est fréquemment mal appréhendée, aussi bien dans sa définition que dans ses conséquences. S’il est impossible de dresser le portrait-robot d’une personne à haut potentiel, certains signes matérialisent ce fonctionnement si particulier.

● Vous êtes plus curieux

«Ils sont plus désireux d’avoir des éléments de réponse qui permettent d’arriver à une réponse argumentée, aussi juste que possible, dans la mesure où le questionnement a été plus poussé», explique Monique de Kermadec, psychologue clinicienne et psychanalyste spécialisée dans les questions de haut potentiel intellectuel (L’Enfant précoce aujourd’hui, le préparer au monde de demain, 2015, Albin Michel). «Sur un sujet qui peut être très superficiel de base, on va se retrouver à creuser pendant des heures voire des jours», illustre Théo Bertrand, entrepreneur et business développer de 25 ans, diagnostiqué surdoué à 14 ans. Béatrice Millêtre, docteur en psychologie (Petit guide à l’usage des parents qui pensent que leur enfant est doué, 2011, Payot) poursuit: «Ils vont avoir des passions, pas une seule, et l’implication est très forte, plus que la moyenne.» «Ce sont des moulins à questions, ils ont un besoin de tout comprendre», conclut Violaine Carli, psychologue clinicienne, spécialisée dans les thérapies comportementales et cognitives.

● Vous avez une pensée en arborescence

«C’est un peu le bordel parce que tout s’allume un peu en même temps, beaucoup d’infos plus ou moins pertinentes vont arriver, témoigne Théo. Jeune, j’avais une incapacité à maîtriser cette grosse énergie cognitive et les flux d’idées.» «La pensée en arborescence est une façon particulière de penser. Par association et analogie, le questionnement se poursuit et ne s’arrête pas à la première question, à la première idée», explique Monique de Kermadec.

● Vous avez du mal à restituer une idée

«Avec la pensée en arborescence, la pensée va très vite. Souvent ils ont une déduction logicomathématique qui ressemble à une fulgurance. La personne va trouver une solution de manière évidente mais ne saura pas restituer son développement. À partir de la seconde, voire de la troisième, quand on demande aux élèves de développer le cheminement vers le résultat, c’est là que ça peut poser problème», explique Violaine Carli. «Ils peuvent se retrouver en «difficulté», non pas par ce qu’ils n’ont pas saisi, mais parce qu’ils arrivent à une conclusion par un raisonnement qui leur est propre», abonde Monique de Kermadec.

«En français ou en philosophie je m’éclatais car j’écrivais au fil de ma pensée, se souvient Théo. En revanche, en mathématiques, où on nous demande de produire un développement, vu que ça me semblait évident je n’avais pas envie d’écrire mon raisonnement, j’allais droit au but.» «Dans certains cas, on peut parler d’intelligence intuitive ou d’intuition mathématiques. Pour la personne surdouée, le résultat est la première étape consciente du raisonnement. La fin, c’est le début», analyse Béatrice Millêtre.

● Vous apprenez et comprenez plus vite

«La rapidité avec laquelle ils retiennent les choses vient de la rapidité de leur compréhension du sujet. Certaines personnes ont des mémoires phénoménales sans être particulièrement intelligentes. Ce qui fait la différence, c’est le traitement de l’information», explique Monique de Kermadec. «Certains tendance à être plus scolaires donc la mémoire de travail va être plus importante, ils vont pouvoir capter une grande quantité d’informations autant sensorielles qu’informationnelles», précise Violaine Carli.

● Vous vous ennuyez rapidement

«L’éducation n’est pas forcément très souple dans sa façon de faire apprendre. Souvent ça passe par de la répétition pour faire entrer des notions dans la tête des élèves. Un étudiant surdoué va souvent saisir le fond de l’idée dès la première ou la deuxième écoute. Lors des autres répétitions, il tourne en rond, parce qu’il a déjà saisi «le truc». C’était mon cas», témoigne Théo Bertrand. «Et puis, avec cette pensée en arborescence, tu pars dans un faisceau de réflexions périphériques, et tu oublies l’objet de l’attention de base», poursuit-il. «L’ennui est un sujet complexe, car on peut avoir différentes raisons de s’ennuyer: parce qu’on ne comprend rien, parce qu’on nous répète des choses que l’on sait déjà ou encore parce que l’on s’éternise sur une information, décrypte Monique de Kermadec. Or, une fois l’information intégrée par le surdoué, son intérêt est de passer à autre chose. C’est une question de contenu et de temporalité.»

● Vous êtes plus sensible que la moyenne

Violaine Carli aiguille en abordant la notion «d’hypersensibilité». «L’intensité est propre au fonctionnement des surdoués», explique Monique de Kermadec. «Cela est dû à une plus grande intelligence émotionnelle, ils sont plus stimulables, poursuit Béatrice Millêtre. Ils ressentent plus un stimulus auquel les autres ne vont pas prêter attention. Comme ils sont plus stimulables, la réaction émotionnelle est plus grande.» «L’aversion à l’injustice est une chose qui nous est très propre, par exemple. Je me faisais plus sortir de cours car je m’indignais contre ce que je jugeais injuste qu’à cause de mon comportement. Aujourd’hui je sais pourquoi. On est des gens très passionnés. C’est instinctif, et je l’ai compris que quand on m’en a parlé à mes 14/15 ans», assure Théo. «On pourrait parler d’hyper-empathie, analyse Violaine Carli. Une sorte d’éponge émotionnelle.»

● Vous vous sentez parfois incompris

«Ce n’est pas parce qu’on est surdoué qu’on est incompris. C’est propre à chaque parcours, avertit Monique de Kermadec. Si on est entouré par des personnes qui nous font sentir une différence, on peut arriver à la conclusion qu’on a quelque chose qui ne va pas, qu’on est en tort. Cette notion de différence négative est quelque chose qu’on intègre en fonction de l’entourage.» «Ce sentiment se rapporte à des surdoués qui n’iraient pas bien. Celui qui va bien sait qu’il fonctionne différemment et a appris à faire avec. Ce n’est pas inhérent, c’est une conséquence d’une méconnaissance de son fonctionnement par soi et les autres», ajoute Béatrice Millêtre. Et d’enrichir: «Ils ont une plus grande intelligence sociale. Quand ils sont en phase avec eux-mêmes, ils sont très sociables. C’est un cliché, les surdoués qui vont mal. L’environnement (scolaire et familial) est responsable à 70% de la façon dont ils se manifestent aux autres.»

Et dans tout ça, quelle importance revêt le test de Q.I? «Si c’est pour mettre une étiquette c’est vain. Un chiffre n’apporte pas les conseils et les réponses, avertit d’emblée Monique de Kermadec. Ce test est important dans l’optique où l’on cherche le meilleur accompagnement pour la personne concernée. Vouloir connaître et se connaître au mieux est une mission positive.» «Ne pas savoir qui l’on est, se forcer à s’adapter sans savoir pourquoi peut créer un sentiment de décalage et de défaillance. C’est pourquoi il est important de savoir que l’on est à haut potentiel», parachève Violaine Carli.

Quels liens entre performance et salaire

Quels liens entre performance et salaire

 

La plupart des Américains pensent que leur rémunération est liée à leurs performances au travail. Pourtant, dans de nombreux secteurs il est quasiment impossible de quantifier la réussite (Un article du Wall Street Journal)

 

 

Lorsqu’on les interroge, la grande majorité des salariés américains affirment que le premier facteur déterminant leur niveau de rémunération est leur performance individuelle. Je le sais car dans le cadre d’une récente enquête, j’ai posé la question à plus de 1 000 d’entre eux. Parmi une liste de facteurs comprenant l’ancienneté, l’expérience, le niveau d’éducation et les bénéfices apportés à l’entreprise, aux yeux des employés rien ne dépasse la performance individuelle pour expliquer leur niveau de salaire : ainsi, deux tiers d’entre eux sont persuadés qu’elle joue un rôle crucial dans le montant du chiffre inscrit sur leur feuille de paie.

Malgré cette conviction largement répandue, en réalité la plupart d’entre nous ne sommes pas payés en fonction de nos performances individuelles et le petit nombre qui l’est ne cesse de décliner. Les recherches révèlent qu’après avoir augmenté pendant les années 1980, le nombre d’emplois dont les structures de rémunération sont liées à la performance a connu un apogée au début des années 2000 avant de chuter au cours des vingt années qui ont suivi. Dans une enquête de 2009 portant sur plusieurs pratiques de rémunérations au rendement, une équipe de chercheurs a découvert que « relativement peu d’employés percevaient des rémunérations variant en relation directe avec leur productivité, et que la part de ce type de salariés était probablement sur le déclin ». Même chez ceux dont le salaire est en partie lié à des mesures de productivité individuelle, cette proportion ne constitue généralement qu’une fraction de la rémunération totale.

Déjà, une enquête des années 1960 demandait à des cadres supérieurs et à des managers de comparer leurs performances à celles de leurs pairs. L’autoévaluation moyenne se situait dans le 77e percentile, ce qui signifie qu’en moyenne, les personnes interrogées considéraient que leurs performances étaient meilleures que celles des trois-quarts de leurs collègues. Seules deux personnes sur la centaine interrogées y évaluaient leurs performances sous la moyenne

Comment expliquer le décalage entre l’idée que se font les salariés de ce qui influence leur niveau de rémunération et la réalité ? Trois facteurs se dégagent : l’idée de justice, la difficulté de mesurer les performances individuelles dans de nombreux métiers et des désaccords sur ce que signifie vraiment le concept de performance.

En 2008, le quotidien californien The Sacramento Bee a créé un site Internet publiant la rémunération des fonctionnaires de l’Etat. Une équipe de chercheurs a profité de cette divulgation impromptue pour observer la réaction des employés concernés. Ceux qui ont consulté ce site et découvert qu’ils étaient sous-payés comparativement à leurs pairs au même genre de statut ont exprimé de la colère et se sont mis à chercher un autre emploi de façon plus active — ce qui était assez prévisible. En revanche, les fonctionnaires qui ont constaté qu’ils étaient davantage payés que leurs homologues n’ont pas eu de réactions émotionnelles équivalentes. Ils n’ont pas soudain manifesté plus de loyauté envers leurs supérieurs ni plus de satisfaction sur leur lieu de travail. Leur comportement n’a absolument pas changé.

Pourquoi ? En psychologies sociale et économique, on sait depuis longtemps que la plupart d’entre nous sommes convaincus d’être plutôt compétents — et même plus que la plupart de nos collègues. Un peu comme si nous vivions tous à Lake Wobegon, la ville imaginaire de l’émission radiophonique américaine «  Prairie Home Companion  » où « tous les enfants sont au-dessus de la moyenne » — sauf qu’ici, on parle d’adultes.

Cette tendance à nous surestimer nous-mêmes remonte à loin. Déjà, une enquête des années 1960 demandait à des cadres supérieurs et à des managers de comparer leurs performances à celles de leurs pairs. L’autoévaluation moyenne se situait dans le 77e percentile, ce qui signifie qu’en moyenne, les personnes interrogées considéraient que leurs performances étaient meilleures que celles des trois-quarts de leurs collègues. Seules deux personnes sur la centaine interrogées y évaluaient leurs performances sous la moyenne.

C’est une impossibilité mathématique et c’est un casse-tête pour les employeurs qui voudraient rémunérer leurs salariés de façon différentielle en se basant sur une mesure de leur productivité. Une telle démarche serait très mal reçue par de nombreux employés persuadés à tort d’être plus productifs que leurs homologues. Par conséquent, la plupart des employeurs n’essaient pas, et esquivent ainsi les sentiments d’injustice qui naissent quand des salariés pensent mériter davantage que leurs collègues.

Rémunérer des performances individuelles c’est également partir du principe qu’il existe des moyens fiables de le faire. Dans certains secteurs, c’est bien le cas : le transport routier, par exemple, implique de déplacer le plus de marchandises possible d’un point A à un point B, rapidement et en toute sécurité. Mais dans la plupart des autres métiers, ce genre de mesure n’existe pas.

Prenez votre propre cas : existe-t-il un système de mesure consensuel qui détermine votre productivité ? La difficulté à évaluer la contribution individuelle de quelqu’un est particulièrement significative dans les métiers intellectuels collaboratifs dont le nombre n’a fait que croître au cours des dernières décennies, comme les consultants en management, les chargés d’études de marché et les cadres moyens de toutes sortes. Il existe des millions de métiers de ce type aujourd’hui, et pour chacun d’entre eux, condenser les performances individuelles dans une seule mesure quantifiable dépasse nos capacités — pas parce que nous n’avons découvert la bonne unité de mesure, mais parce qu’elle n’existe tout simplement pas.

Même pour les métiers où règnent des normes de performance largement reconnues, les mesures peuvent s’avérer ardues. En médecine par exemple, l’objectif des praticiens est d’améliorer la santé des patients. Mais est-ce que cela signifie qu’ils devraient être payés en fonction de la santé générale de leurs patients plutôt qu’en fonction de l’exécution correcte d’une tâche spécialisée, comme la pose d’une prothèse de hanche ? Et s’il existait d’autres options, moins invasives, mais que le médecin n’était payé que pour des opérations lourdes ? Est-ce ainsi que nous voulons structurer l’attractivité de notre système de santé ?

Au Royaume-Uni, lorsque Tony Blair était Premier ministre, le National Health Service (NHS) avait augmenté l’enveloppe financière des hôpitaux qui réduisaient le temps d’attente des patients. Il est vrai que personne n’aime y végéter des heures ; par conséquent ce temps-là, sans être une mesure directe de la santé, constitue une composante importante du bien-être des personnes. Mais un problème n’avait pas tardé à apparaître : pour atteindre les objectifs de réduction de temps d’attente, les hôpitaux gardaient les patients dans les ambulances avant de les transférer. Pourquoi ? Parce que selon cette mesure de performance particulière, le temps passé dans une ambulance n’était pas comptabilisé comme de l’attente. Comme on le voit, les mesures de performance pour les médecins diffèrent sensiblement à la fois d’un système de santé national à l’autre et à l’intérieur de chacun.

Les querelles autour des définitions secouent tous les métiers. Certains journalistes, par exemple, vous diront que le véritable objectif de leur métier est de produire des enquêtes récompensées, tandis que d’autres estiment que leur mission principale est de générer des revenus. Dans mon propre domaine, l’éducation supérieure, certains professeurs donnent la priorité à l’enseignement tandis que pour d’autres, c’est la recherche qui fait la grandeur (ou pas) d’une université

Dans de nombreux métiers, la définition de la productivité implique des choix et des compromis et il est illusoire de penser qu’il puisse exister une mesure objective unique attendant d’être découverte. En 2014, le groupe de presse Time Inc., qui possédait alors plus de 90 publications, s’est mis à évaluer les performances de ses journalistes en fonction des contenus « bénéfiques aux relations avec les annonceurs ». Cette initiative a déclenché un tollé, pas seulement parmi les employés de Time Inc. mais dans le secteur tout entier. Les journalistes se sont offusqué que l’on puisse réduire leur métier à une mesure aussi grossière. Mais comment mesurer la productivité journalistique ? Par le nombre d’articles écrits par semaine ? Le nombre de mots produits à l’heure ? Quid du temps passé à cultiver ses sources pour les reportages ?

Les querelles autour des définitions secouent tous les métiers. Certains journalistes, par exemple, vous diront que le véritable objectif de leur métier est de produire des enquêtes récompensées, tandis que d’autres estiment que leur mission principale est de générer des revenus. Dans mon propre domaine, l’éducation supérieure, certains professeurs donnent la priorité à l’enseignement tandis que pour d’autres, c’est la recherche qui fait la grandeur (ou pas) d’une université. En d’autres termes, les disputes sémantiques naissent souvent des désaccords sur la définition du « produit » d’une entreprise. Si nous ne sommes pas d’accord sur l’idée de ce que produit notre société, nous ne pourrons pas nous accorder non plus sur la contribution individuelle apportée par chacun de ses employés ; par conséquent, rémunérer les salariés en se basant sur une mesure de productivité va contrarier ceux qui entretiennent une vision différente.

L’idée de justice, des mesures imparfaites et des différends sémantiques : la conséquence de ces facteurs, c’est que la plupart d’entre nous ne sommes pas réellement payés en fonction de nos performances individuelles, malgré ce que nous avons tendance à croire.

— Jake Rosenfeld enseigne la sociologie à l’Université de Washington. Cet essai est adapté de son dernier livre : You’re Paid What You’re Worth : And Other Myths of the Modern Economy (Harvard).

(Traduit à partir de la version originale en anglais par Bérangère Viennot)

Covid-19 : quels vaccins sont les plus efficaces aux variants ?

 Covid-19  : quels vaccins sont les plus efficaces aux variants ?

Quelles sont les vaccins les plus adaptés aux variants « Clairement, ce sont les ARN messagers ».

Ces vaccins à ARN messagers, ce sont les vaccins Pfizer/BioNTech et Moderna. Ils injectent directement des séquences d’ARN qui conduisent les cellules à fabriquer des protéines présentes dans le coronavirus afin d’y habituer le système immunitaire. Ces séquences peuvent être très vite synthétisées en laboratoire.

Par contraste, les vaccins AstraZeneca et Johnson & Johnson utilisent la technique du « vecteur viral ». Elle intègre également du matériel génétique aux cellules mais en prenant comme « navette » un virus préexistant, par ailleurs différent du coronavirus. Des vaccins qui sont plus longs à développer. En guère plus d’un mois, Moderna a lancé les essais cliniques d’un nouveau vaccin, alors qu’AstraZeneca a prévenu qu’un tel travail lui prendrait six mois – un délai rapide par rapport à la norme.

Les vaccins à ARN messager nécessitent cependant un maintien à très basse température, ce qui complique les étapes suivant la synthèse du principe actif.

Novatrices, ces deux catégories sont en tout cas beaucoup plus rapides à redévelopper que les vaccins classiques, dit « inactivés ». Pourtant, le gouvernement britannique fonde beaucoup d’espoirs sur ces vaccins pour répondre à l’émergence de nouvelles souches. Contre le Covid-19, ils ne sont pas encore approuvés en Europe mais l’un deux, développé par Valneva, devrait être distribué au Royaume-Uni d’ici à l’automne.

Alors que les vaccins à ARN messager et à vecteur viral se concentrent sur une petite partie du virus – la protéine S, dite « Spike » – les vaccins classiques 10 inactivés utilisent, eux le coronavirus dans son ensemble pour développer la réponse immunitaire. Cela « donne beaucoup plus de chances de refléter les mutations », a jugé début février le secrétaire d’État Nadhim Zahawi devant les parlementaires britanniques, jugeant que ce vaccin pouvait donc être « incroyablement efficace ».

Transition énergétique: à quels coûts ?

Transition énergétique: à quels coûts ?

 

L’économiste , Patrick Artus minimise, dans sa chronique au Monde , l’ampleur des investissements nécessaire à l’abandon des énergies fossiles ( mais aussi les rendements énergétiques NDLR), mais insiste sur la nécessité d’une redistribution entre gagnants et perdants.

 

Chronique. Quelles seront les conséquences de la transition énergétique en Europe, en supposant que cette dernière réussisse à se placer sur la trajectoire compatible avec une hausse de la température de la planète de 1,5 °C à 1,7 °C à la fin du siècle ? Nombre d’économistes s’inquiètent du montant des investissements nécessaires et des effets de la hausse du prix de l’énergie due au passage aux énergies renouvelables.

Le scénario envisagé est celui d’une neutralité carbone en Europe en 2050, avec la disparition des émissions nettes de CO2 à cette date. En 2019, les émissions de CO2 de la zone euro sont 20 % plus basses qu’en 1990, et 23 % plus basses en 2020. Mais rappelons qu’elles devraient être plus basses de 55 % en 2030.

D’ici à 2050, l’Europe devra avoir à peu près fait disparaître la consommation de charbon et avoir réduit de 85 % sa consommation de pétrole et de 55 % sa consommation de gaz naturel. Les émissions résiduelles de COdevront être compensées par la capture-stockage ou la réutilisation de carbone. Toutes ces diminutions de l’utilisation des énergies fossiles doivent être remplacées par des énergies renouvelables.

Si l’on cumule de 2012 à 2050 le besoin d’investissement en énergie solaire photovoltaïque, en éolien onshore et offshore, en stockage de l’électricité par fabrication d’hydrogène vert (électrolyse de l’eau), en capture et stockage du carbone, on parvient pour l’Europe à un besoin d’investissement de 1 500 milliards d’euros constants de 2020, soit 50 milliards d’euros par an – environ 0,4 % du produit intérieur brut (PIB) européen.

Selon les estimations de l’Agence internationale de l’énergie, ces investissements dans la production d’énergie renouvelable représentent environ le tiers des investissements totaux nécessaires pour la transition énergétique, le reste étant l’isolation des bâtiments, le matériel de transport, les réseaux électriques.

Au total, l’investissement nécessaire serait donc de 1,2 point de PIB pendant trente ans, ce qui est en réalité faible par rapport à l’épargne disponible dans la zone euro (environ 25 % du PIB, en hausse de 2 points de PIB depuis vingt ans), et ne devrait pas poser de problème de financement, d’autant plus que l’union monétaire dégage un excédent d’épargne extérieur.

Second faux problème : la perte de pouvoir d’achat. La transition énergétique doit être en effet considérée comme une relocalisation industrielle : la zone euro va remplacer des importations d’énergie fossile (qui représentent 2,5 % du PIB pour un prix du pétrole à 50 dollars le baril) par une production domestique d’énergie renouvelable.

Coronavirus : quels vrais chiffres ?

Coronavirus : quels vrais chiffres ?

 

 

Pour des motifs diplomatiques tout autant qu’économiques,  nombre d’experts  tentent de relativiser le flou des statistiques chinoises sur le développement du virus. Comme souvent affirmé dans ce site, les statistiques chinoises ont ceci de particulier qu’elles prennent un caractère très politique, en clair qu’elles sont régulièrement suivies par le pouvoir et éventuellement bidouillées par exemple concernant la mesure de la croissance. Si l’on s’en tient aux déclarations officielles chinoises, il y aurait environ 25 000 personnes infectées. Le problème,  c’est que dans le même temps la Chine reconnaît que le virus se développe au rythme de 2000 personnes infectées par jour. Or les premiers cas ont été comptabilisés à partir du 20 janvier. D’après les indications chinoises, on devrait donc être parvenu de 32 000 personnes infectées . De toute manière ces évaluations sont très approximatives;

Le 31 janvier, la revue britannique The Lancet, l’une des références en matière médicale, a publié une étude fondée sur un modèle mathématique d’après lequel 75.815 individus auraient été infectés à Wuhan – la principale province chinoise touchée par l’épidémie – au 25 janvier 2020. Officiellement, ce jour-là, le nombre de personnes diagnostiquées était de… 685. Soit un rapport de plus de 1 à 100. Il est possible qu’en faite sur l’ensemble de la Chine le nombre de personnes infectées soit plus proche de 200 000 que de 17 000. En outre, il faut surtout noter le taux d’expansion du virus. En Chine en dépit de tous les efforts consentis et qui sont importants,  le virus est loin d’être contenu contrairement à des régions extérieures qui semblent avoir pris des mesures assez draconiennes pour éviter la mobilité des personnes en général. .

 

Virus chinois: quels vrais chiffres ?

Virus chinois: quels vrais chiffres ?

 

 

Pour des motifs diplomatiques tout autant qu’économiques,  nombre d’experts  tentent de relativiser le flou des statistiques chinoises sur le développement du virus. Comme souvent affirmé dans ce site, les statistiques chinoises ont ceci de particulier qu’elles prennent un caractère très politique, en clair qu’elles sont régulièrement suivies par le pouvoir et éventuellement bidouillées par exemple concernant la mesure de la croissance. Si l’on s’en tient aux déclarations officielles chinoises, il y aurait environ 17 000 personnes infectées. Le problème,  c’est que dans le même temps la Chine reconnaît que le virus se développe au rythme de 2000 personnes infectées par jour. Or les premiers cas ont été comptabilisés à partir du 20 janvier. D’après les indications chinoises, on devrait donc être parvenu de 30 000 personnes infectées au lieu de 17 000.

Le 31 janvier, la revue britannique The Lancet, l’une des références en matière médicale, a publié une étude fondée sur un modèle mathématique d’après lequel 75.815 individus auraient été infectés à Wuhan – la principale province chinoise touchée par l’épidémie – au 25 janvier 2020. Officiellement, ce jour-là, le nombre de personnes diagnostiquées était de… 685. Soit un rapport de plus de 1 à 100. Il est possible qu’en faite sur l’ensemble de la Chine le nombre de personnes infectées soit plus proche de 200 000 que de 17 000. En outre, il faut surtout noter le taux d’expansion du virus. En Chine en dépit de tous les efforts consentis et qui sont importants,  le virus est loin d’être contenu contrairement à des régions extérieures qui semblent avoir pris des mesures assez draconiennes pour éviter la mobilité des personnes en général. .

Affaire de Rugy :  » des repas professionnels, sur quels critères ? » (Anticor)

Affaire de Rugy :  » des repas professionnels, sur  quels critères ? » (Anticor)

À juste titre l’association anti corruption Anticor s’interroge à propos de l’enquête de l’Assemblée nationale qui considérerait que les repas fastueux de Rugy étaient de nature professionnelle. Mais cette fameuse enquête n’indique nullement qu’elle était l’identité et la légitimité de ces invités. Tout cela donne l’impression qu’on a obtenu la démission de de Rugy  en lui promettant de passer un coup d’éponge sur ses frasques. « On conclut à des repas professionnels mais en fonction de quels critères ? Le problème de cette affaire, c’est qu’il n’y aucun critère, il n’y a pas de règles très claires », a répliqué vendredi 19 juillet sur franceinfo, Jean-Christophe Picard, président d’Anticor, après les premiers éléments de l’enquête de l’Assemblée nationale sur les dîners polémiques de François de Rugy. Selon une source proche de l’enquête, il s’agit bien de dîners professionnels. L’ensemble des résultats seront connu mardi.

Franceinfo : Que pensez-vous de cette première conclusion de l’enquête de l’Assemblée nationale qui conclut au caractère professionnel des repas donnés par François de Rugy ?

Jean-Christophe Picard : On conclut à des repas professionnels mais en fonction de quels critères ? Le problème de cette affaire, c’est qu’il n’y a aucun critère, il n’y a pas de règles très claires. Ce qui est écrit dans le règlement de l’Assemblée, c’est qu’il y a une enveloppe pour les frais de réception du président de l’Assemblée nationale, on n’encadre rien, il n’y a pas de nombre de repas maximum, de nombre de convives maximum, il n’y a pas de plafond pour les bouteilles de vin, il n’y a pas de procédure de traçabilité de l’objet des repas ou de l’identité des convives. Au-delà du caractère personnel et professionnel qui est très compliqué à établir, on peut quand même encadrer le coût des mets. On peut peut-être plafonner le coût des bouteilles, le nombre de repas et le nombre de convives. On peut avoir des règles qui encadrent tout ça, pour avoir des dépenses raisonnables. Le gros souci, c’est qu’aujourd’hui, il n’y a rien, il n’y aucune règle déontologique qui encadre tout ça.

 

Cette enquête de l’Assemblée nationale a statué sur une situation qui est très floue au départ ?

 

Les règles sont très floues, c’est d’ailleurs pour ça qu’Anticor n’a pas porté plainte, ni fait de signalement au procureur. On estimait que c’était impossible de démontrer le caractère complètement privé d’un repas, en l’état des précisions déontologiques en vigueur. Je ne crois pas que c’est cette histoire de repas qui ait déclenché la démission de François de Rugy. Ce qui pose vraiment un gros problème, c’est cette affaire d’IRFM. Il a utilisé ses frais de mandat pour financer son parti, il a obtenu des déductions fiscales grâce à ce dispositif, alors que c’était clairement interdit. Le Conseil constitutionnel l’avait rappelé en 2013. C’est une règle clairement violée. A mon avis, ça a été la goutte d’eau qui a provoqué la démission. C’était un peu compliqué pour lui d’argumenter.

Faut-il que la Cour des comptes soit associée à cet encadrement du train de vie du président de l’Assemblée nationale ?

Il y a quand même une déontologue, trois questeurs, une commission spéciale, s’ils n’arrivent pas à contrôler ces dépenses, c’est inquiétant. Soit, on supprime tout ça et on crée autre chose, soit on demande aux gens à qui dont c’est le job qui sont rémunérés et bien rémunérés pour ça, les questeurs sont parmi les postes les mieux rémunérés de la République, de faire leur travail. Il faut que chacun prenne ses responsabilités. Il faut remettre à plat, repréciser les règles déontologiques, mettre en place un contrôle effectif. Que ceux qui font la loi arrivent à contrôler leurs propres dépenses. Ce serait un bon début pour crédibiliser leurs fonctions. Lorsque le pays traverse une mauvaise passe financière, lorsqu’on demande aux Français de se serrer la ceinture, c’est la moindre des choses de faire attention aux dépenses. Est-ce qu’on est obligés de servir du homard, des bouteilles à 600 euros. Je pense qu’on peut avoir des dépenses plus raisonnables par rapport aux efforts qu’on demande aux Français.

 

Fiscalité : quels rapports entre dépenses et recettes

 

Fiscalité : quels rapports entre dépenses et recettes

La fiscalité est le dispositif qui permet d’assurer la rentrée de l’impôt, elle ne peut être dissociée des dépenses sur laquelle elle se fonde. La France est non seulement championne d’Europe de la fiscalité mais aussi championne du monde. «L’objectif fixé au gouvernement par le président consiste notamment à baisser les prélèvements obligatoires – cela a commencé cette année » «  avait  déclaré le Premier Ministre.  Le président de la République s’était engagé à réduire les prélèvements obligatoires de 44,5% du PIB à 43,6% d’ici fin 2022, avec une moitié des baisses pour les ménages et l’autre pour les entreprises. Des objectifs qui ne seront pas atteints. À peu près tous les gouvernements ont annoncé une baisse de la fiscalité cependant le taux et le montant des prélèvements obligatoires ne cessent  d’augmenter chaque année. C’était le cas en 2017 ce sera le cas en 2018 aussi en 2019.Pour la France c’est 10 points de plus que la moyenne de l’OCDE.

 

Total des prélèvements obligatoires, en % du PIB, dans quelques pays de l’OCDE,

 

Allemagne 37

Canada 31,9

Danemark 46,6

Espagne 33,8

États-Unis 26,4

France 45,5

Italie 43,3

.

Mexique 17,4

Royaume-Uni 32,5

Suède 43,3

Suisse 27,9

 

Moyenne OCDE 34,3

 

 

En pourcentage du produit intérieur brut (PIB), le taux de prélèvements obligatoires a atteint en 2017 son « point le plus haut », avec 45,3% du PIB. Les cotisations sociales ont pesé pour 37% des prélèvements obligatoires et les impôts pour 63%. Ce taux doit théoriquement retomber à 45% du PIB en 2018 et à 44,2% du PIB en 2019, en raison des baisses d’impôts décidées par le gouvernement (taxe d’habitation, impôt sur la fortune, flat tax). Malgré tout, la quantité d’impôts et cotisations recouvrés par l’Etat, les collectivités et la sécurité sociale devrait continuer à augmenter, pour atteindre 1.057 milliards d’euros en 2018 et 1.070 milliards en 2019. Cela s’explique par l’ »évolution spontanée » des recettes fiscales, indique rapport, destiné à éclairer les parlementaires sur le projet de loi de finances, qui sera débattu à l’Assemblée nationale à partir de lundi. Les rentrées d’impôts augmentent en effet quand l’activité économique croît, la bonne tenue de l’économie stimulant notamment la taxe sur la valeur ajoutée (TVA) et l’impôt sur le revenu, lié au salaire. Le taux de croissance attendu pour cette année comme pour l’an prochain (1,7% prévus initialement mais ramenés à 1.5% en 2018 et 1,3% en 2019). On ne peut que prévoir  une hausse des recettes fiscales en volume supérieure aux baisses prévues par le gouvernement. Selon les calculs du parlement, l’évolution spontanée des recettes devrait ainsi avoisiner les 29,8 milliards en 2018, tandis que les baisses liées aux réformes fiscales de l’exécutif atteindront 10,4 milliards d’euros. En 2019, ces chiffres seront respectivement de 31,9 milliard

 

Au plan européen, selon Eurostat qui n’applique pas la même méthodologie que la  France,  les recettes fiscales (impôts, taxes et cotisations) attient même  48,4 % du PIB dans l’Hexagone, contre 47,3 % en Belgique et 46,5 % au Danemark, les deux autres pays sur le podium. Première du classement depuis 2015, la France a vu le poids des prélèvements obligatoires augmenter de 0,7 point en 2017. Elle distance ainsi un peu plus encore la Belgique et s’affiche au cinquième rang des pays qui ont le plus alourdi la fiscalité l’année dernière, derrière Chypre, le Luxembourg, la Slovaquie et Malte. Autant de pays qui bénéficient, malgré cette hausse, d’une fiscalité très légère.

 

Dans le cadre du grand débat une note est destinée aux organisateurs de réunions et  indique que pour 1000 € de dépenses publiques en France 575 € sont consacrés à la protection sociale dont 268 € pour les retraites, 191 € pour l’assurance maladie, 42 € pour les allocation familiales, 35 € pour le chômage, 17 € pour l’aide au logement et 22 € pour d’autres (par exemple RSA) viennent ensuite les dépenses sectorielles qui représentent 143 € dont 53 € pour les affaires économiques ( crédits d’impôts etc.), 43 € pour le transport et les équipements collectifs, 22 € pour la culture, 16 € pour l’environnement, 9€ comme l’éclairage public. Concernant les services publics régaliens le total est de 60 € dont 31 € pour la défense, 25 € pour la sécurité, 4 euros pour la justice. L’éducation compte 96 €. La recherche 23 €. Le fonctionnement (partiel)  des administrations publiques 66 €. Enfin la charge de la dette 37 €. On note évidemment que la principale dépense concerne les retraites suivies de l’assurance maladie. Ce que n’indique pas par contre cette note c’est le rendement des dépenses. En effet les 1000 € ne sont pas entièrement redistribués et une partie disparaît dans les frais de fonctionnement qui pourrait atteindre presque 400 €.

 

 

Parmi les pistes à explorer, on évitera difficilement l’examen des dépenses relatives aux retraites, à l’assurance maladie et les aides aux entreprises. Pour les retraites, le handicap français est moins lié à la démographie qu’au fait que les Français travaillent moins depuis les réformes sur le temps de travail et celles relatives au retraites. La question n’est sans doute pas seulement résolu avec un allongement de l’âge de la retraite mais aussi de la compétitivité du travail (entendu comme le rapport de la production au nombre d’actifs (et pas seulement des seuls salariés). Pour la maladie un double effort sera sans doute nécessaire pour réduire le coût du fonctionnement du système de santé qui sinon va continuer de dériver sous le double effet de l’évolution démographique et des progrès de la médecine. Le système de prévention pourrait aussi largement contribuer à faire réduire les dépenses dans ce domaine. L’aide aux entreprises souffre surtout d’une généralisation mal adaptée aux conditions des branches voir des territoires. Elles ne sont pas suffisamment orientées en direction des entreprises soumises à la concurrence internationale d’où  sans doute ce déficit chronique et dramatique de la balance commerciale. La recherche de pistes pour diminuer la nature et surtout le niveau des dépenses est primordial pour ensuite envisager une baisse de fiscalité significative

 

 

Les impôts

Globalement sur un budget dont les ressources représentent environ 300 milliards la TVA vient nettement en tête avec 52 % du total des ressources, suivi de l’impôt sur le revenu avec 24 %, puis l’impôt serait société avec 9 % enfin avec la taxe intérieure de consommation sur les produits énergétiques avec 5 %. Environ 10 % viennent d’autres ressources fiscales ou non fiscales

Pour évaluer le montant des ressources fiscales publiques, aux ressources fiscales du budget il faut ajouter les cotisations sociales qui s’élevait en 2017 à 384,5 milliards d’euros, soit 37 % des prélèvements obligatoires.

 

Première observation les ressources de l’impôt sur le revenu  sont largement distancées par la TVA (environ le double). On ne peut pas dire que des catégories sont exemptées de l’impôt comme ceux qui affirme que l’impôt sur le revenu renforce l’acceptabilité de la fiscalité républicaine. Les impôts indirects TVA et taxes intérieures sur les produits énergétiques dominent largement avec près de 60 %. En clair, la fiscalité pèse surtout sur les consommateurs. Le problème n’est pas tant le poids relatif que l’importance de la charge fiscale si on compare avec d’autres pays. Ceci étend des évolutions doive intervenir notamment pour rendre notre système fiscal plus juste et plus redistributif (davantage de justice fiscale sociale

 

ONU : un nouveau plan contre les inégalités, pour quels résultats?

ONU : un nouveau plan contre les inégalités, pour quels  résultats? 

 

Nouveau plan de pour le développement vient d’être adopté par l’ONU. L’objectif est de lutter contre la pauvreté et contre le réchauffement climatique. Un plan qui succède à celui qui avait été adopté en 2000. On peut espérer que ce nouveau plan sera plus efficace que le précédent. La réalité c’est que 20 % de la population possèdent 80 % de la richesse mondiale. Par ailleurs on s’oriente de plus en plus vers la marchandisation de toutes les ressources y compris dans le domaine alimentaire qui fait l’objet d’une spéculation éhontée sans parler de l’appropriation des terres, donc l’expulsion des petits paysans, par des fonds spéculatifs. La question du statut de l’eau n’est pas non plus réglée. Pour autant on compte sur ce nouveau plan pour avancer vers un développement cohérent d’ici 2030,1 plan qui vise à éradiquer la faim et l’extrême pauvreté, à réduire les inégalités au sein des Etats et entre Etats, atteindre l’égalité entre hommes et femmes, améliorer la gestion de l’eau et de l’énergie et à agir vite contre le changement climatique, sera supervisée et évaluée à partir d’un ensemble d’indicateurs qui doivent être adoptés d’ici mars 2016.  Jamais sans doute trente petites pages n’auront suscité autant d’espoirs. Trois ans de travail et de négociations menées pour l’ONU par le Kenya et l’Irlande ont abouti à ce plan inédit de survie pour l’Humanité. « Transformer notre monde, programme de développement durable d’ici 2030 » titre le document paraphé par les 193 chefs d’État composant l’assemblée générale des Nations unies pour remplacer les huit objectifs du millénaire adoptés en 2000. Huit objectifs qui passent à dix-sept, plus ambitieux, mieux ciblés par 169 plans d’actions, davantage universels aussi. Il s’agit d’abord d’éradiquer l’extrême pauvreté dans le monde d’ici à 2030 tout en maîtrisant le réchauffement climatique. D’autres suivent, comme éliminer la faim, vivre en bonne santé, avoir accès à l’eau, à l’éducation pour tous, à l’énergie, parvenir à l’égalité des sexes etc. Plus d’un milliard de personnes ont échappé à l’extrême pauvreté depuis 1990, date à partir de laquelle a été réduit de plus de moitié le taux de mortalité infantile. L’objectif visant à réduire de moitié la proportion de personnes vivant sans accès à des sources d’eau potable a pour sa part été atteint avec cinq ans d’avance. On sait que près de 800 millions d’êtres humains sont encore sous-alimentés dans une Humanité qui passera de 7,2 à 8,5 milliards d’individus en 2030, mais depuis 1990, le monde a été capable de réduire de moitié la proportion de la population mondiale dont le revenu est inférieur à 1,25 dollar par jour. Certes, en Afrique noire et en Asie, un milliard de personnes vivent encore sous cette barre symbolique. Oui, l’écart de revenus par tête établit toujours un rapport de un à cinq entre les pays riches occidentaux et les pays plus pauvres dits « émergents ». C’est la question du siècle : comment faire en sorte que la mondialisation des échanges profite réellement à tous ? Vœu pieux ? Moins de 20 % de la population détient 80 % des richesses planétaires, nombre de multinationales ne s’embarrassent pas de protection des droits sociaux ou environnementaux, les individus les plus riches font souvent peu de cas des projets de bien-être collectifs.  À l’ONU de fixer un cadre éthique pour la sécurité alimentaire, le climat, les ressources naturelles, l’accès à l’eau, à l’assainissement, aux droits des femmes et des enfants, à la santé et à l’éducation. Vaste programme ! Le plan de survie du monde nécessitera entre 3 500 et 5 000 milliards de dollars par an pendant quinze ans pour en finir avec l’extrême pauvreté, la faim et le risque climatique. À comparer aux 17 700 milliards de dollars du produit intérieur brut américain ou aux 3 000 milliards français… L’effort à fournir porterait environ sur 5 % de la production intérieure brute mondiale (PIB, richesses produites).  Jean Ziegler (ONU), Premier rapporteur des Nations unies pour le droit à l’alimentation, vice-président actuel du comité consultatif des droits de l’homme à l’ONU exprime ses doute sur les résultats :

 « En 2000, les huit objectifs du millénaire ont abouti à un échec. Ici, prenant leur suite, ceux qui consistent à mettre fin aux 17 tragédies de l’Humanité n’ont pas été seulement réalisés par des groupes d’experts, mais avec les ONG, la société civile. C’est bien plus motivant et il est nécessaire de rappeler l’état du monde aux peuples et à leurs dirigeants. Oui, redire qu’un enfant meurt de faim toutes les cinq secondes et que ce massacre pourrait être évité. L’agenda va créer de la confiance et nourrir la réflexion des ONG. C’est bon pour le réveil des consciences mais c’est voué à l’échec si on ne donne pas les instruments pour anéantir les causes des 17 tragédies.  On ne peut qu’être d’accord avec l’objectif d’éradiquer la pauvreté sous toutes ses formes et partout. Mais il faudrait donner les moyens d’agir pour interdire la spéculation boursière sur les aliments de base (riz, blé, maïs). Ou pour interdire le vol des terres fertiles par les fonds étrangers, 51 millions d’hectares en 2014 surtout en Asie du Sud et en Afrique noire. On y expulse des milliers de paysans pour faire du palmier à huile pour le bioéthanol au Bénin par exemple. Il y a des choses très précises à faire, l’ONU ne les évoque pas, comme le désendettement des 50 pays les plus pauvres pour les aider à investir dans une agriculture plus durable et qui ne profite pas d’abord qu’aux multinationales qui commandent aux politiques étrangères de leurs pays. Il faut énoncer clairement les causes des tragédies. Le néolibéralisme veut nous faire croire qu’il n’y a rien à faire, que le marché libre finira par résoudre les problèmes. Quelle erreur ! On le voit partout. L’ONU va proclamer, c’est bien, mais cela ne changera rien à l’ordre cannibale du monde. 




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol